Meta第二代自研AI芯投产,摆脱英伟达依赖,为买H100砸数百亿美元

科技电力不缺一 2024-03-05 10:52:51

Meta第二代自研AI芯片Artemis,今年正式投产!据悉,新的芯片将被用于数据中心的推理(Inference)任务,并与英伟达等供应商的GPU一起协同工作。对此,Meta的发言人表示:我们认为,我们自主开发的加速器将与市面上的GPU相得益彰,为Meta的任务提供最佳的性能与效率平衡。

Meta斥资数十亿美元采购英伟达AI芯片

Meta创始人兼首席执行官马克·扎克伯格在2023年9月27日于加利福尼亚门洛帕克的Meta总部举办的Meta Connect活动上发言。

Meta正投入数十亿美元购买英伟达受欢迎的计算机芯片,这些芯片是人工智能研究和项目的核心。

扎克伯格在Instagram Reels的一条帖子中表示,公司对AI的“未来路线图”要求构建“大规模计算基础设施”。到2024年底,扎克伯格表示该基础设施将包括35万台Nvidia的H100显卡。

扎克伯格并未透露公司已经购买了多少这种图形处理单元(GPU),但H100直到2022年底才上市,且供应有限。Raymond James的分析师估计,Nvidia将H100以25,000至30,000美元的价格销售,而在eBay上可能超过40,000美元。如果Meta以价格范围的低端支付,那将达到近90亿美元的支出。

此外,扎克伯格表示,Meta的计算基础设施将包含“几乎相当于600,000台H100的计算资源,包括其他GPU”。去年12月,Meta、OpenAI和微软等科技公司表示他们将使用AMD的新Instinct MI300X人工智能计算机芯片。

Meta需要这些重型计算机芯片,因为他们正在追求通用人工智能(AGI)的研究,扎克伯格称这是公司的“长期愿景”。OpenAI和Google的DeepMind部门也在研究AGI,这是一种类似于人类智能水平的未来形式的人工智能。

专为大模型定制AI芯

去年5月,Meta首次展示了最新芯片系列——「Meta训练和推理加速器」(MTIA),旨在加快并降低运行神经网络的成本。

MTIA是一种ASIC,一种将不同电路组合在一块板上的芯片,允许对其进行编程,以并行执行一项或多项任务。

内部公告称,Met首款芯片将在2025年投入使用,同时数据中心开启测试。不过,据路透社报道,Artemis已经是MTIA的更高级版本。

其实,第一代的MITA早就从2020年开始了,当时MITA v1采用的是7nm工艺。

该芯片内部内存可以从128MB扩展到128GB,同时,在Meta设计的基准测试中,MITA在处理中低复杂度的AI模型时,效率要比GPU还高。

在芯片的内存和网络部分,Meta表示,依然有不少工作要做。

随着AI模型的规模越来越大,MITA也即将遇到瓶颈,因此需要将工作量分担到多个芯片上。

当时,Meta团队还设计了第一代MTIA加速器,同样采用台积电7nm,运行频率为800MHz,在INT8精度下提供102.4 TOPS,在FP16精度下提供51.2 TFLOPS。它的热设计功耗(TDP)为25W。

2022年1月,Meta还推出了超算RSC AI,并表示要为元宇宙铺路。RSC包含2000个英伟达DGX A100系统,16000个英伟达A100 GPU。这款超算与Penguin Computing、英伟达和Pure Storage合作组装,目前已完成第二阶段的建设。

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:41

科技电力不缺一

简介:感谢大家的关注