# 💡 Summary **简单来说**: 在AI发展历史中,依赖**大规模计算**和**通用学习算法**的方法,长期来看总是比依赖**人类专家知识**和**手工设计特征**的方法更成功。 **结论:** 应该专注于构建能够随计算力扩展的通用方法(搜索和学习),而不是试图把我们已有的知识编入AI系统。我们要让AI自己去发现,而不是把我们的发现塞给它。 # 🧩 Cues # 🪞Notes 这篇文章是Rich Sutton在2019年写的《The Bitter Lesson》(痛苦的教训),主要观点是: **核心论点:** 在70年的AI研究中,最重要的教训是——利用大规模计算的通用方法最终总是最有效的,而且优势巨大。 **关键论据:** 1. **计算力vs人类知识** - AI研究者经常试图把人类知识和领域专业知识编入系统 - 这在短期内有帮助,也让研究者有成就感 - 但长期来看会遇到瓶颈,甚至阻碍进步 - 真正的突破来自于通过搜索和学习来扩展计算规模 2. **历史案例:** - **国际象棋**:1997年击败卡斯帕罗夫的是大规模深度搜索,而非基于人类棋艺理解的方法 - **围棋**:同样的模式晚了20年重演,最终还是大规模搜索和自我对弈学习获胜 - **语音识别**:统计方法(HMM)击败了基于人类语音知识的方法,深度学习则是这一趋势的延续 - **计算机视觉**:早期的边缘检测等方法被抛弃,现代深度神经网络表现更好 3. **"痛苦"在哪里:** - 研究者投入大量时间在人类知识导向的方法上 - 最终发现这些努力在大规模计算面前都不重要 - 成功属于更简单但计算密集的方法,这让人感到失落