Bitter Lesson for Agents
https://www.cs.utexas.edu/~eunsol/courses/data/bitter_lesson.pdf
📌 最核心的教训:
“在 AI 领域,最终最有效的方法,总是那些可以利用计算资源扩展的通用方法,而不是依赖人类知识的特定技巧。”
🧠 为什么?
-
计算能力在不断提升(摩尔定律):长期来看,算力的增长远比人类专家的知识输入更有用。
-
人类知识虽然在短期内有用,但无法扩展(不具可扩展性):它会限制模型利用大规模计算的潜力。
-
通用方法(如搜索和学习)能持续受益于更多算力,而硬编码的人类知识会逐渐成为瓶颈。
🎮 示例回顾:
-
国际象棋(Chess)
-
早期尝试融入人类策略知识;
-
但击败卡斯帕罗夫的是基于“深度搜索 + 大规模计算”的方法。
-
-
围棋(Go)
-
最初也想靠人类知识;
-
后来 AlphaGo 使用 自我博弈学习 + 搜索 实现突破。
-
-
语音识别(Speech Recognition)
-
早期依赖人类语言学知识(发音器官、音素等);
-
后来 HMM、再到深度学习 + 大数据彻底改变了方向。
-
-
计算机视觉(Vision)
-
早期依赖特征设计(边缘、SIFT 等);
-
如今深度网络不再依赖这些手工特征。
-
⚠️ Sutton 的警告:
-
人类总是倾向于把“我们自己理解世界的方式”硬编码到 AI 里;
-
但这实际上 限制了 AI 自主学习、发现的潜力;
-
我们需要开发 “能发现我们尚未发现的知识” 的 AI,而不是装满我们已有知识的 AI。
✅ Bitter Lesson 的两个启示:
-
最值得投入的是通用、可扩展的计算方法:尤其是搜索和学习。
-
不要硬编码人类关于世界的理解:如物体、空间、规则、对称性等等 —— 这些都过于复杂,应该靠 AI 自己去学。