黄仁勋硬刚DeepSeekR1:推理模型算力需求暴增100倍!

评科技的阿刚 2025-03-20 22:30:40

英伟达CEO黄仁勋在GTC大会上公开表示,称外界对DeepSeek R1这类推理型AI模型的“低算力需求”的猜测,完全错误。

外界原以为,像R1这样的推理模型(用于实时决策,比如自动驾驶、客服对话)只需少量算力,能帮企业省芯片钱。

黄仁勋却泼了一盆冷水,“未来算力需求只会更高!”

难道AI芯片的“省电模式”不存在?这场争议背后藏着什么产业真相?

黄仁勋的“算力警告”:为什么推理型AI为何更“费电”?

1. 推理≠低算力!动态优化是关键

这里存在一个误区 ,以为AI训练完成以后,推理阶段只需“照本宣科”就完成任务。

但是黄仁勋指出,R1这类模型在进行实时处理复杂的场景时 (例如金融高频交易、医疗诊断),必须动态学习新的数据,算力的消耗是传统模型的100倍。

以自动驾驶为例,自动驾驶汽车每秒需要处理2000+图像帧,传统模型根本“吃不消”。

2. 多模态+长记忆:算力“吞金兽”诞生

多模态模型面临的挑战,R1同时处理文本、图像、视频时,就好比让让AI“一心多用”,算力的需求自然就直线上升。

例如,AI客服需要记住用户过去1年的对话记录,内存和计算量会瞬间爆表。

3. 英伟达的“阳谋”:算力霸权再升级

黄仁勋暗示,未来需要更强大的服务器芯片(如GB200),而非减少用量。这难道是英伟达的一个阳谋?

有一些企业想自研芯片,但是英伟达已投入数千亿美元建立了生态壁垒,其他厂商难望其项背。但是对于中国用户来讲,只能依靠我们自己。毕竟美国的限制措施,让英伟达无法给我们提供性能更强的算力芯片。

未来趋势:AI算力竞赛远未终结

AI竞争正在从“一次性训练”转向“实时推理”,算力需求进入指数级增长阶段。马化腾曾说“AI生态仍在早期”,未来数据中心、边缘计算将成新战场。

对于企业来讲,赶紧升级算力储备,否则AI服务可能卡成PPT,但是对于中国企业来讲,不能只怀念英伟达,本土企业才是我们的依靠。

不过黄仁勋的警告,并非危言耸听,推理型AI的普及,必将掀起比训练阶段更疯狂的算力革命 。芯片厂商可能会迎来新的春天,AI服务的成本短期内难以下降。

不过我们需要考虑一个问题,这场算力的军备竞赛,究竟是推动人类进步,还是让科技巨头垄断更严重?

0 阅读:65
评科技的阿刚

评科技的阿刚

感谢大家的关注