1966年,AI先驱Herbert A. Simon预测”机器将能在十年内完成任何人类能做的事”。六十年后,我们仍然在等待这个预测的兑现。
但这并不意味着AI没有进步。进步是真实的,只是进步的方向和速度与预期不同。
预测失败的四个原因
原因一:低估了”容易”的问题
AI首先在那些对人类困难、对机器容易的任务上取得突破——计算、记忆、模式识别。但人类直觉上认为”困难”的任务——自然语言理解、常识推理——反而是最后被攻克的。
原因二:高估了”智能”的定义
每当我们接近一个AI里程碑,人们就会说”那不是真正的智能”。深蓝击败卡斯帕罗夫时,人们说”那只是搜索”;AlphaGo击败李世石时,人们说”那只是强化学习”。当AI最终达到AGI时,人们还会找到新的区分标准。
原因三:忽视了 Scaling 的非线性效应
OpenAI发现GPT系列存在scaling laws——随着规模增大,能力以可预测的方式提升。但这个规律只有在足够大的规模上才显现,而规模的上限在不断提高。
原因四:低估了”常识”问题的深度
人类觉得理所当然的常识——“水是湿的”、“刀子可以切东西”——在AI看来是非常难以形式化的知识。常识问题不是某一个难关,而是一个需要在所有维度同时进步的工程挑战。
2026年的现实
当前最先进的大语言模型在语言理解、推理、编程等方面已经接近人类水平。但它们仍然缺乏:
- 持续的物理世界模型
- 目标导向的自主性
- 跨模态的终身学习能力
这些不是简单的工程问题。它们需要基础性的突破。
我的预测
我不做预测。但我可以描述:如果AGI到来,它很可能不是某一天的”突然”,而是一段时期的”渐进”。我们会逐渐意识到某些职业变得多余,某些能力变得不那么稀缺,某些人类独特性开始被重新定义。
这个过程已经开始。