Redis开发者ntirez>写的在2025年底对人工智能的思考从“随机鹦鹉”到现实: 多年以来,尽管功能证据和科学线索不断积累,某些 AI 研究人员仍坚称大语言模型(LLM)只是“随机鹦鹉”:即一种仅凭概率运作的机器,它们:1. 对提示词(Prompt)的含义没有任何表征。2. 对自己将要说的话没有任何表征。直到 2025 年,几乎所有人终于都不再这么说了。思维链(CoT)的本质: 思维链现已成为提升 LLM 输出质量的基础手段。但 CoT 究竟是什么?为什么它能提升输出?我认为原因有二:1. 在模型表征中进行采样(即一种形式的内部搜索)。当与提示主题相关的空间信息和概念进入上下文窗口后,模型能更好地做出回复。2. 结合强化学习(RL):模型学会了为了收敛到某个有用的回复,而将一个个 Token 依次排列(每个 Token 都会改变模型状态)。扩展定律(Scaling)的新高度: “扩展受限于现存 Token 数量”的观点已不再成立,这归功于带有可验证奖励的强化学习。虽然我们尚未到达 AlphaGo 的“第 37 手”时刻,但未来这真的不可能吗?在某些任务中(例如优化程序的运行速度),理论上模型可以在清晰的奖励信号引导下,在极长的时间内持续取得进步。我相信,应用于 LLM 的强化学习改进将是 AI 领域的下一个重大突破。编程界的转变: 程序员对 AI 辅助编程的抵触情绪已显著降低。即使 LLM 会犯错,但其交付有用代码和提示的能力已提升到让大多数怀疑论者也开始使用的程度:现在的投资回报率(ROI)对更多人来说已是可接受的。编程界目前仍分为两派:一派将 LLM 视为“同事”(例如,我所有的交互都是通过 Gemini、Claude 的 Web 界面完成的),另一派则将 LLM 视为独立的编程智能体(Agents)。范式之争与 AGI: 少数知名 AI 科学家相信,Transformer 的奇迹可以循着不同路径再次发生,甚至表现更好。他们已组建团队和公司,研究 Transformer 的替代方案,以及具有显式符号表征或世界模型的模型。但我认为,LLM 是在能够逼近离散推理步骤的空间上训练的微分机,即使没有根本性的新范式出现,它们也有可能带我们走向通用人工智能(AGI)。AGI 很可能通过多种截然不同的架构独立实现。关于 CoT 的“谎言”: 有人声称思维链从根本上改变了 LLM 的本质,并以此为借口辩解:他们过去认为 LLM 局限性很大,现在改口是因为 CoT 让 LLM 变成了不同的东西。他们在撒谎。架构依然如故,目标依然是预测下一个 Token,思维链也正是这样由一个个 Token 堆叠而成的。ARC 测试的转型: 如今,ARC 测试(抽象推理基准)看起来不再像最初认为的那样不可逾越。针对特定任务优化的小型模型在 ARC-AGI-1 上表现尚可,而带有大量思维链的超大型 LLM 在 ARC-AGI-2 上取得了令人印象深刻的成绩——尽管许多人曾断言这种架构无法实现此类结果。在某种程度上,ARC 已从“反 LLM 测试”转变为“LLM 验证测试”。终极挑战: 未来 20 年,人工智能面临的根本挑战是避免人类灭绝。
