# 💡 Summary
**简单来说**: 在AI发展历史中,依赖**大规模计算**和**通用学习算法**的方法,长期来看总是比依赖**人类专家知识**和**手工设计特征**的方法更成功。
**结论:** 应该专注于构建能够随计算力扩展的通用方法(搜索和学习),而不是试图把我们已有的知识编入AI系统。我们要让AI自己去发现,而不是把我们的发现塞给它。
# 🧩 Cues
# 🪞Notes
这篇文章是Rich Sutton在2019年写的《The Bitter Lesson》(痛苦的教训),主要观点是:
**核心论点:** 在70年的AI研究中,最重要的教训是——利用大规模计算的通用方法最终总是最有效的,而且优势巨大。
**关键论据:**
1. **计算力vs人类知识**
- AI研究者经常试图把人类知识和领域专业知识编入系统
- 这在短期内有帮助,也让研究者有成就感
- 但长期来看会遇到瓶颈,甚至阻碍进步
- 真正的突破来自于通过搜索和学习来扩展计算规模
2. **历史案例:**
- **国际象棋**:1997年击败卡斯帕罗夫的是大规模深度搜索,而非基于人类棋艺理解的方法
- **围棋**:同样的模式晚了20年重演,最终还是大规模搜索和自我对弈学习获胜
- **语音识别**:统计方法(HMM)击败了基于人类语音知识的方法,深度学习则是这一趋势的延续
- **计算机视觉**:早期的边缘检测等方法被抛弃,现代深度神经网络表现更好
3. **"痛苦"在哪里:**
- 研究者投入大量时间在人类知识导向的方法上
- 最终发现这些努力在大规模计算面前都不重要
- 成功属于更简单但计算密集的方法,这让人感到失落