Grok3表明依靠算力堆积的“大力出奇迹”路径目前依旧可行。
2月18日,特斯拉创始人埃隆·马斯克旗下xAI推出最新大模型Grok3。据介绍,虽然Grok起步较晚,但MMLU(大规模多任务语言理解基准测试)得分已追上ChatGPT,Grok3和轻量化的Grok3mini在多个性能上都超过或媲美Gemini、DeepSeek和GPT-4o等对手。
Grok3在xAI位于孟菲斯的Colossus超算中心进行训练。xAI透露,这一超算中心的算力已经翻倍,拥有的英伟达GPU数量已达到20万颗。
本以为是马斯克又在虚张声势,但这次Grok3的确没有令人失望。
基于Grok3的优秀表现,不少业内人士再度表露了对算力堆积这种“大力出奇迹”路径的认可。更有分析人士指出,Grok3证明了缩放法则(scalinglaw)在达到上限之前仍有发展空间——这对整个行业来说是一个令人鼓舞的信号。
AI大牛、前OpenAI研究员、前特斯拉AI负责人AndrejKarpathy在成为Grok3首批用户后,在社交媒体上发布了一份详细的测评总结。他称赞了Grok3的逻辑推理能力,并指出其性能可与OpenAI的o1-pro模型相媲美,后者的月度费用为200美元。他还认为,Grok3的推理能力略优于DeepSeek-R1、谷歌的Gemini2.0FlashThinking。
不过,他也指出了Grok3的一些局限性,包括搜索功能DeepSearch中偶尔出现的幻觉和事实错误。
“考虑到该团队大约1年前才从零开始,这真是令人难以置信,他们以前所未有的速度达到了几乎业内最高水平。”Karpathy表示。
不少科技领域的分析人士表明,Grok3的成功,在很大程度上就是依靠算力堆积。
人工智能服务网站Maginative创始人兼主编ChrisMcKay认为,xAI自成立以来,仅用了一年多的时间就迅速开发出了具有竞争力的AI技术,其成功很大程度上得益于创新的计算基础设施和对大量计算资源的访问。随着更多超算集群的规划,xAI似乎有望继续提升模型能力。
沃顿商学院人工智能教授EthanMollick认为Grok3完全符合预期。他指出,人工智能仍在加速发展,速度和算力都是护城河,“人才和芯片就是打造前沿模型的公开秘诀”。
“护城河可能不深,但足以淹死初创企业。”雪城大学公共传播学院教授、咨询公司ThePalmerGroup首席执行官ShellyPalmer评论说。在他看来,Grok3的护城河“已经被金钱填满”。英伟达H100GPU的价格在3万至4万美元之间,即使马斯克拿到了折扣,这仍然是一项30亿到50亿美元的庞大投资。
公开信息显示,OpenAI训练GPT-4用了大约2.5万张A100GPU,而H100的训练吞吐量远高于A100;据DeepSeek公布的信息,DeepSeek-V3模型预训练费用仅为557.6万美元,在2048块英伟达H800GPU(针对中国市场的低配版GPU)集群上耗时55天完成。
随着DeepSeek的横空出世,不少人提出缩放法则(scalinglaw)可能会失效或者不再完全适用。缩放法则是AI研究中的一个重要指导原则,它认为,在大多数情况下,增加规模(模型参数、数据量、算力)都能提高模型的表现,但效益递减。
科技领域博主ZainKahn表示,近几个月来,有观点认为,向大模型投入更多数据和算力将不再奏效,但Grok3证明了这种怀疑并不正确。xAI才进入这个领域两年,就已经与顶尖公司展开了激烈竞争,甚至击败了顶尖公司。
Kahn强调说,xAI庞大的Colossus超算集群将大模型推向了新的高度,“预训练缩放法则在达到上限之前仍有发展空间——这对整个行业来说是一个令人鼓舞的信号。”
机构也对算力的作用给出了肯定,指出算力堆积仍是模型进步的关键变量。
华泰证券在2月20日发布的研报中提出,Grok3证明预训练在算力提升下仍能突破。虽然目前在预训练数据上存在瓶颈,但是合成数据、RL(强化学习)数据、工程能力优化,甚至Transformer架构迭代,或能逐步打破瓶颈,Grok3已经证明预训练依然有突破空间。
国泰君安也提到,xAI算力资源储备与开源策略的平衡,凸显算力与算法的同等重要性。高昂的算力投入已经形成了显著的技术门槛。
中信证券指出,Grok3作为全球首个在十万卡集群上训练的大模型,综合能力较前代模型Grok2提升显著,意味着算力堆积仍是模型进步的关键变量之一。
看不到彩虹
算力和电力一样,只会是AI发展的基石,但不是核心护城河,关键还是看算法,不然氪金玩家比微氪玩家强3%有啥意义?浪费钱罢了,国内目前DeepSeek和Qwen大模型的算法是最顶级的
肖战是人间理想
这个没办法复制,20万个GPU,光成本就有60亿美金,没几个玩家能玩得起,还是DeepSeek能满足大多数人的需求
春夏秋冬凛
大力出奇迹只是下策,在大国面前,算力的护城河不算深。解决问题的方法和策略才是根本,算法才是高级玩法。中国人聪明,虽然0到1不多,但1到100绝对擅长。
梨
人的大脑思考问题时并不需要多少能量,正确的人工智能运算就应该模仿人的大脑,靠堆算力卡和巨大的电力来支撑的AI,是走在错误的道路上。
用户17xxx38
20万张卡做出来和dewpseek差不多的效果,很骄傲吗?这篇文章无非是想证明,算力和金钱依然是第一位的。但是这是大家本来就知道的,能证明什么呢?
白兰家族
堆算力是护城河没多大意义。事实证明我们ds不走堆算力的路,也能达到同样功能。
一只黑鸡
Deepseek再进化一下,大力护城河就填满了!
Mr-Yumi金
战略上的错误靠战术上的成功是弥补不了的。马斯克这是强行给美式AI续命。
璐兰兰
不管怎么优化算法,对算力的追求永无止境!
a o e
花几倍的钱,效果差不多,你会选哪个[墨镜]
青色
李彦宏又得赶紧闭源
没有昵称
别急,等我们国产出来