Meta AI专家:2025年多数AI技术难达真实
前言
在人工智能(AI)领域,深度学习的浪潮已席卷全球,从大型语言模型(LLM)如GPT-3的突破性进展,到自动驾驶技术的飞速迭代,无数研究者相信AI正朝着通用智能的方向迈进。2025年,图灵奖得主、Facebook母公司首席科学家雅恩·勒昆(Yann LeCun)却投下了冷眼。他认为,当前绝大多数AI方法仍停留在“模拟智能”的层面,真正的智能仍遥不可及。勒昆的质疑并非空穴来风,而是基于对深度学习、强化学习乃至整个AI研究范式的深刻反思。他呼吁学术界和产业界重新审视AI的基本假设,甚至主张放弃某些已被证明低效的框架,转而探索更接近人类认知的路径。这一观点不仅挑战了主流AI的乐观预期,更引发了对“智能”本质的重新思考。
深度学习的局限:符号化与直观推理的脱节
近年来,基于Transformer架构的大型语言模型(LLM)成为AI领域的明星选手。支持者们坚信,通过海量数据的标记化和巨型模型的训练,AI能够从离散预测中脱颖而出,终实现类人智能。勒昆对此表示认可,但强调这只是“未来智能系统的一个重要组成部分”。他认为,当前模型缺乏“必要的部分”——即对现实世界的直观理解和推理能力。
“我们将所有东西标记化,并训练巨型模型进行离散预测,AI由此脱颖而出。”
——勒昆的这番话直指当前深度学习的核心矛盾:模型擅长处理符号化数据,却难以把握高维连续变量之间的复杂依赖。尽管GPT-3能生成流畅的文本,却能被简单的逻辑陷阱误导,这正是缺乏常识推理能力的体现。
勒昆认为,卷积神经网络(CNN)在图像识别领域的成功,很大程度上源于其对局部特征的捕捉能力,但这与人类通过整体感知理解世界的直觉相去甚远。相比之下,人类的学习更多依赖于观察而非试错,而当前的强化学习(RL)模型却将后者奉为圭臬。
“我们的大部分学习并不是通过采取实际行动来完成的,而是通过观察来完成的。”
——勒昆的这一观点直接挑战了DeepMind等机构的RL研究范式。AlphaZero或许能在棋盘上击败人类,但它在现实世界中的泛化能力却极其有限。自动驾驶领域同样如此,Wayve等公司试图通过“喂给神经网络大量数据”来实现L5级自动驾驶,但勒昆认为这种做法“过于乐观”。
常识与系统化理解的缺失
勒昆指出,当前AI的缺陷不仅在于缺乏推理能力,更在于对“常识”的忽视。自动驾驶系统若仅依赖深度学习,极易陷入“过拟合”陷阱——在特定场景下表现,却无法应对未知的突发状况。“你知道,我认为我们完全有可能在没有常识的情况下拥有L5级自动驾驶汽车,但你必须在设计方面做出努力。”
他的批评直指AI研究的根本问题:研究者们急于构建复杂的模型,却忽略了智能的核心要素——对世界运行规律的系统性理解。勒昆以火箭与梯子的比喻生动地说明这一矛盾:“我们必须后退一步,然后说:‘好吧,我们建造了梯子,但我们想去月球,而这个梯子不可能把我们带到那里。’”
重新定义智能:变量小化与概率框架的反思
勒昆认为,AI系统必须具备推理能力,而实现这一目标的关键在于“将某些潜在的变量小化”。通过这种方式,系统能够规划行动、预测结果,从而逼近人类式的逻辑推理。当前主流的概率框架难以处理高维连续变量之间的依赖关系,因此勒昆主张放弃这一范式。
生成模型(如VAE)因过度依赖对复杂事件的预测,反而消耗大量资源。“系统将不得不投入太多的资源去预测那些很难预测的事情,可能会消耗太多的资源。” 勒昆的解决方案是转向更简洁的框架,例如基于变量小化的推理模型,以实现更高效的智能表达。
超越深度学习:迈向系统化智能的新路径
勒昆的批判并非否定深度学习的价值,而是呼吁研究者们跳出“技术至上”的思维定式。他强调,真正的智能需要结合多种方法,包括符号推理、常识学习和动态规划。“我们的智能机器甚至还没有达到猫的智能水平。我们为什么不从这里开始呢?”
这一观点为AI领域指明了新的方向:研究者们需要重新审视智能的本质,从人类认知的底层逻辑出发,而非盲目追求模型规模。通过结合图神经网络(GNN)与知识图谱,或许能够弥补当前模型的常识缺失;而基于变量小化的推理模型,则可能为复杂决策提供更可靠的框架。
AI革命的下一站
勒昆的批评并非意在扼杀AI的进步,而是提醒人们:“智能”不是简单的数据拟合,而是对世界规律的深刻理解。在2025年,AI领域已积累了足够的技术积累,但真正的突破仍需范式创新。从放弃过时的框架,到探索更接近人类认知的路径,AI革命的下一站,或许就在勒昆所倡导的“系统化智能”之中。