刚看完马斯克Grok 3的发布会,我真的大失所望!本以为能见证AI领域的重大飞跃,结果呢?这所谓的地表最强AI大模型,在我看来,就是一场“烧钱又烧脑”的闹剧,说难听点,简直就是环境污染和能源浪费!

今天,马斯克终于揭开了Grok 3的神秘面纱。从发布会的数据来看,Grok 3在数学、科学和编程的基准测试中,确实超过了GPT-4o、DeepSeek-V3等主流模型 ,其推理模型Grok 3 Reasoning beta和Grok 3 mini reasoning的跑分,也超越了DeepSeek-R1等同类。但这些数据真的能代表它的实力吗?我看未必!

马斯克这是给我们玩了一场数字魔术。就拿LMSYS的评测数据来说,Grok 3看似遥遥领先,高居榜首。可仔细看数字,它的得分不过1400分左右,GPT4O以1380分紧随其后,差距仅有20分,也就1%多一点。DeepSeek-R1是1360分 ,差距也不过2%。哪怕是Grok 3的推理模型,和表格中表现较差的Gemini 2 Flash Thinking相比,也只差10%多。跑分这东西,大家都懂,水分大得很,实际使用体验才是关键。想当初,Grok 2就顶着高分低能的“帽子”,实际用起来一言难尽。我敢断言,Grok 3大概率还是换汤不换药,大家先把视频收藏好,等着看后续“翻车”。

为了这点跑分优势,马斯克付出的代价堪称恐怖。Grok 3训练用了20万张英伟达H100 GPU,累计训练时长达到2亿GPU小时。再看看人家DeepSeek V3,只用2000张H800训练两个月,马斯克的算力是人家的100倍,结果就多了几分跑分,这不是“拿着金碗讨饭吃”,资源浪费是什么?用巨大算力去堆砌跑分,就像用火箭发射擀面杖,能做到,但毫无意义。这种提升,更多是靠海量参数记忆边缘知识,在真正的智能上,并没有实质性突破,就像一个只会死记硬背的小孩,背得再多,不会思考,也成不了大器。

马斯克太迷信规模效应,这恰恰是走错了方向,也是DeepSeek能后来居上的关键。模型越大性能越强没错,但大到一定程度,边际效应就会递减。看看GPT系列,参数从GPT3的1750亿,到GPT4的1.8万亿,再到传言中GPT4.5的256万亿,一路狂飙,数据规模也疯狂增长,可AI性能并没有成比例提升。再看看人脑,重量比不过大象,神经元数量比不过蓝鲸,算力没啥优势,数据接触量更是被很多鸟类吊打,但人类就是凭借独特算法,成为万物之灵。

如今,AI发展陷入算力和数据的疯狂竞赛,消耗大量资源,效果却不尽人意。反观DeepSeek,采用MOE混合专家模式,像人脑一样节能高效。它的强化学习方法,模拟人类教育小孩的过程,注重内在逻辑和反思能力培养,而不是单纯记忆。小孩子看一次苹果就认识,AI却要训练上百万张图片,还容易“脸盲”。Grok 3大量使用合成数据,其智能密度远低于自然数据,对提升模型智能和推理能力能有多大帮助,要打个大大的问号。

马斯克说服投资人搞来20万张卡预训练,如今Grok 3就这水平,实在让人失望。如果他现在还来找你要一千亿美金,说再把跑分提高十个点,你还会给吗?量变不能引起质变,甚至还边际递减,或许AI真的该换换思路了,别再一条道走到黑!