被誉为“AI 之父”之一的 Yann LeCun 最近在达沃斯公开表示:通用人工智能(AGI)是当前 AI 行业中最被高估的概念之一,仅靠把现有大模型做得更大,并不能带来真正类似人类的智能。

为什么“再大也不行”?LeCun 对现有范式的批评

  • 语言世界远比真实世界简单:当前大模型主要在“预测下一词”的任务上训练,处理的是被高度抽象化的文本世界,而非复杂、连续、噪声巨大的真实物理环境。
  • 缺乏对结果的因果预测能力:在 LeCun 看来,基于 LLM 的“智能代理”根本无法可靠规划行动序列,因为它们不具备预测自己行为后果的真实世界模型。
  • 自动驾驶是典型反例:人类司机通常在十几小时练习后就能上路,而自动驾驶系统在吸收了“数百万小时驾驶数据”后依然难以达到 L5 级别,说明架构本身存在缺陷。

真正的智能需要“理解世界”,而不仅是理解语言

  • 感知数据维度远超文本:视觉、听觉等感知信号是连续、高维且带噪声的,简单套用生成式语言模型的架构,难以在这些模态上获得稳定可靠的世界建模能力。
  • 预测世界演化是关键能力:LeCun 强调,能预演“如果我这么做,会发生什么”的内部仿真机制,是智能系统决策与规划的前提。
  • 开放多元的模型路线:相比单一路线加参量扩容,他更看好结合自监督学习、世界模型、多模态表示的新型架构。

他更担心的不是“AI 杀死人类”,而是 AI 被少数巨头垄断

  • 信息入口被少数模型控制:如果未来大部分人获取信息都经由少数几家公司的 AI 助手过滤,民主、多元文化与语言生态都会受到冲击。
  • 开源生态的重要性:LeCun 认为,正是过去开放论文与代码的传统推动了 AI 进步,如今越来越多实验室选择闭源,会显著放缓创新速度。
  • 中国开源模型正在补位:他直言,目前研究界使用最广的一些开源模型来自中国公司,这在某种程度上反映了西方大厂“收紧开放”的后果。

LeCun 的观点为当前“无上限扩模即可通向 AGI”的主流叙事泼了一盆冷水。他提醒业界:真正的突破可能来自新的架构与开放生态,而不是简单地多加几倍参数、更换一代硬件。

By admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注