英伟达炸了!中国大厂芯片国产替代,未来不需要GPU了!

是欧阳公明仔父 2025-03-25 14:59:06

知情人士透露,蚂蚁集团利用中国制造的芯片开发了训练AI模型的技术,成本降低了20%。

蚂蚁集团使用了国产芯片,采用所谓的专家混合(Mixture of Experts)机器学习方法来训练模型,取得了与英伟达H800芯片一样的效果。

蚂蚁集团仍在使用英伟达进行AI开发,但现在主要依赖AMD以及中国芯片在内的替代品来开发最新模型。如果这些模型如宣传的那样,蚂蚁平台可能通过大幅降低推理或支持AI服务的成本,为中国人工智能发展迈出又一步。

随着全球公司向AI投入巨资,MoE模型已成为一种热门选择。

该技术将任务分成较小的数据集,就像拥有一支专家团队,每人专注于工作的一个部分,从而提高效率。

然而,MoE模型训练通常依赖于高性能芯片,如英伟达GPU。

成本对许多小型公司来说过于高昂,限制了更广泛的采用。

蚂蚁集团一直在研究更高效地训练大型语言模型(LLM)的方法,以消除这一限制。

中国大厂明确表明了目标,未来无需高端GPU即可扩展模型。

这与英伟达的理念背道而驰。

黄仁勋认为,即使出现了像DeepSeek R1这样更高效的模型,计算需求仍将增长,公司需要更好的芯片来增加收入,而不是更便宜的芯片来降低成本。

坚持具有更多处理核心、晶体管和更大内存容量的大型GPU战略。

蚂蚁集团表示,使用高性能硬件训练1万亿个令牌的成本约为635万元人民币(88万美元),但优化方法可将成本降低至510万元人民币,使用较低水平的芯片。

该公司计划利用大型语言模型Ling-Plus和Ling-Lite上的最新突破,为包括医疗和金融在内的工业AI解决方案提供支持。

论文表示,Ling-Lite模型在一个关键基准测试中表现优于Meta的Llama模型之一。

Ling-Lite和Ling-Plus模型在中文基准测试中均超过了DeepSeek的同类模型。

如果你找到一个突破点击败了世界上最好的厂商,你可以说你打败了他们,这就是为什么现实世界的应用很重要。

蚂蚁集团已将Ling模型开源。

Ling-Lite包含168亿个参数,这些参数是可调节的设置。

Ling-Plus拥有2900亿个参数,在语言模型领域被认为相当庞大。

相比之下,据《麻省理工科技评论》估计,ChatGPT的GPT-4.5拥有1.8万亿个参数。

DeepSeek-R1则有6710亿个参数。

蚂蚁集团在训练的某些领域遇到了挑战,包括稳定性。

即使硬件或模型结构的微小变化也会导致问题,包括模型错误率的突然上升。

0 阅读:2
是欧阳公明仔父

是欧阳公明仔父

感谢大家的关注