爆火的DeepSeek引发成本、技术质疑,未来算力还重要吗?

玩数据还有点懒 2025-02-11 02:57:22

近期,DeepSeek在AI大模型领域引发热议,凭借其惊人的性能表现和低成本训练模式,迅速吸引了全球关注,且热度一直不减。但随之而来的,对其成本、技术以及为未来作为大模型基础设施的算力也引发了争议。

复制DeepSeek,算力竞赛还能持续吗

目前来看,DeepSeek对英伟达股价造成的冲击,源于市场对其算力需求预期产生了悲观看法。

实际上,英伟达的业绩增速在最新季度已出现一定波动。2025财年第三财季,英伟达营收增速已下降至94%,而此前连续多个财季数倍增长,其中以芯片为核心的数据中心业务增速也在持续放缓。

这一放缓趋势可能延续。英伟达预计,2025财年第四财季营收为375亿美元,同比增长不到70%,增速继续下降,而DeepSeek则加强了放缓预期。

那么,这是否意味着,大模型未来的技术进步,不再需要大规模的GPU算力支撑?或者,换句话说,DeepSeek的路径能被广泛复制吗?

微软CEO萨蒂亚·纳德拉(Satya Nadella)此前谈到DeepSeek时表示:“DeepSeek的新模型令人印象深刻,他们不仅有效地构建了一个开源模型,能够在推理计算时高效运行,而且在计算效率方面表现出色,我们必须非常非常认真地对待中国的AI进步。”

当前阶段的AI霸权之争已经结束,而中国最近的进展,对OpenAI而言无疑是个重大打击。

打破算力魔咒未来算力还重要吗

基于我们前述成本的优势,有业内观点认为,DeepSeek的出现,打破了英伟达等科技巨头“堆积算力”的路径,也就是说,美国AI巨头们认定的那个靠钱、靠更高算力芯片才能堆出来的更好的模型,不需要那么高昂的门槛了。

原来我们一直认为不断“堆积算力”才能提高AI模型能力,但Deepseek的出现走出了另一条路,即不一定要提升很高的参数规模就能实现很高的性能,可能对算力需求至少降到10倍以上。“堆算力”本身没有错,但随着Deepseek的出现我们会发现这条路的性价比不高。

DeepSeek-V3极低的训练成本预示着AI大模型对算力投入的需求将大幅下降,但也有观点认为,DeepSeek表现固然优秀,但其统计口径只计算了预训练,数据的配比需要做大量的预实验,合成数据的生成和清洗也需要消耗算力。

此外,在训练上做降本增效不代表算力需求会下降,只代表大厂可以用性价比更高的方式去做模型极限能力的探索。

近日,DeepSeek-V3的正式发版引起AI业内广泛高度关注,其在保证了模型能力的前提下,训练效率和推理速度大幅提升。DeepSeek新一代模型的发布意味着AI大模型的应用将逐步走向普惠,助力AI应用广泛落地;同时训练效率大幅提升,亦将助力推理算力需求高增。

而Bloomberg Intelligence最近的一篇报告显示,企业客户可能会在2025年进行更大规模的AI投资,而AI支出增长将更侧重于推理侧,以实现投资变现或提升生产力。

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:34
玩数据还有点懒

玩数据还有点懒

感谢大家的关注