在2025年的GTC英伟达大会上,一场对话引发了人们对人工智能未来发展方向的深刻思考。
英伟达首席科学家比尔·达利与“AI教父”杨立昆的交流中,后者对当前主流的大语言模型(LLM)提出了尖锐的批评,并对未来的发展方向给出了自己的预测。
这场对话并非简单的观点交锋,更像是一场对人工智能未来发展路径的探索。
杨立昆认为,当前大语言模型的改进方向过于局限,仅仅关注数据和算力的提升,却忽略了更核心的问题:如何让机器真正理解物理世界。
他指出,目前主流的基于Token的推理方式存在根本性错误,Token只是离散的符号,无法有效地表示连续且高维度的物理世界。
他进一步解释了“世界模型”的概念,即人类大脑中用于思考和操作的物理世界模型。
他以生活中简单的例子说明,人类能够预测物体在不同作用力下的反应,而这种能力正是源于我们对物理世界的理解。
这种理解并非基于Token,而是在心智空间中进行的。
与比尔·达利的对话中,杨立昆阐述了联合嵌入预测架构(JEPA)的潜力。
他认为,JEPA架构通过学习抽象的表示,能够在表示空间中进行预测,从而更好地理解物理世界。
他以视频预测为例,说明JEPA架构能够避免像素级别预测的无效性,从而更有效地构建世界模型。
杨立昆对当前通过增强推理能力来提升大语言模型能力的路径表示怀疑,他认为,这种方式并非正确的推理方式。
他以人类和猫为例,说明复杂的生物行为并非在Token空间中完成的,而是在心智空间中进行的。
“如果我让你想象一个立方体旋转,你可以在脑海中完成这个操作,这与语言无关,猫也能做到。” 杨立昆如是说。
他认为,真正的推理和规划应该在某种抽象的心智状态下进行,而不是依赖于Token序列的生成和筛选。
对于人工智能的未来,杨立昆提出了“高级机器智能”(AMI)的概念,并预测其可能在十年左右的时间内实现。
他认为,AMI需要能够学习世界的抽象心智模型,并用这些模型进行推理和规划。
在谈到人工智能的应用时,杨立昆列举了人工智能在科学、医学以及日常生活中的积极应用,例如医学影像分析、自动驾驶等。
他也提到了人工智能潜在的风险,例如深度伪造和假新闻,但他强调,应对这些风险的最佳策略是开发更好的人工智能技术。
杨立昆认为,人工智能的创新可以来自任何地方,并以DeepSeek和ResNet为例,说明了好点子可以来自任何地方。
他强调了开源平台的重要性,认为开源能够促进知识交流,加速人工智能的进步。
他认为,Llama的成功案例证明了开源模式的巨大潜力。
他进一步指出,未来人们与数字世界的每一次互动都将由人工智能系统来调解,因此需要多样化的助手,而开源平台是实现这一目标的唯一途径。
他认为,未来的基础模型将会是开源的,并以分布式的方式进行训练。
在硬件方面,杨立昆认为,未来的人工智能发展需要更强大的硬件支持。
他以MAE和V-JEPA的例子说明了训练大型模型对计算资源的巨大需求。
他同时对神经形态硬件的短期应用前景表示怀疑,但对内存计算技术表示肯定。
“多多益善。
因为我们将需要尽可能多的计算资源。
”杨立昆在谈到硬件需求时表示。
他认为,在抽象空间中进行推理的计算量非常大,这需要更强大的硬件支持。
对于其他新兴技术,杨立昆对光学计算表示失望,对量子计算的应用前景也表示怀疑。
他认为,量子计算在中期内唯一有应用前景的领域是模拟量子系统。
杨立昆还提到了一个有趣的实验:一个用所有科学文献训练的大语言模型Galactica,因为公众的负面评价而下线。
他将此与ChatGPT的成功进行了对比,并指出公众对新技术的认知和接受程度是一个复杂的问题。
杨立昆再次强调了人工智能发展需要全球范围内的共同努力,以及开放研究和开源平台的重要性。
“人工智能的进步不会是一个突然爆发的事件,而是一个渐进的过程。”他如是说。
杨立昆的观点引发了我们对人工智能未来发展方向的思考:如何在让机器理解物理世界的道路上取得突破?
在构建更强大、更可靠的人工智能系统的过程中,我们又该如何平衡创新与风险?