AI芯片格局剧变:推理崛起,ASIC能否挑战GPU霸主地位?

芯有芯的小事 2025-01-22 21:18:37

英伟达正迈出重要一步,进军炙手可热的特定应用集成电路(ASIC)市场。凭借着在芯片设计和生产方面深厚的专业知识,再加上台湾强大的半导体生态系统,英伟达将处于有利地位。

英伟达以在GPU技术领域的主导地位闻名,尤其是为OpenAI的ChatGPT等AI应用提供产品。英伟达现在正转向半导体行业的新前线,特定应用集成电路。

大模型发展拐点:从训练到推理

过去几年,AI模型的发展主要集中在预训练阶段,即通过海量数据对模型进行训练,以提升其性能。这一阶段,对算力的要求极高,英伟达GPU凭借其强大的并行计算能力,成为了AI训练的首选芯片。

然而,预训练并非没有瓶颈。前OpenAI联合创始人Ilya Sutskever指出,预训练时代即将结束,数据作为AI的“化石燃料”是有限的,当前用于AI预训练的数据已经达到峰值。

此外,模型扩展的边际效益递减,而算力成本仍然居高不下,这些都促使人们开始思考AI训练阶段的未来。

与此同时,AI大模型的下一阶段——逻辑推理,正逐渐成为新的焦点。逻辑推理是指基于现有大模型,开发AI在各细分垂直领域的应用,以实现终端落地。

从谷歌的Gemini 2.0到OpenAI的GPT系列,AI Agent(智能体)已经成为各大公司的主攻方向。与预训练不同,推理阶段更注重模型的应用和效率,对芯片的要求也发生了变化。

ASIC作为一种专用芯片,在处理特定任务时,能够实现更高的处理速度和更低的能耗,因此更适用于推理端边缘计算。

GPU和ASIC,到底谁厉害

ASIC作为专用定制芯片,基于芯片所面向的专项任务。它的计算能力和计算效率都是严格匹配于任务算法的。芯片的核心数量,逻辑计算单元和控制单元比例,以及缓存等,整个芯片架构,也是精确定制的。

所以,ASIC可以实现极致的体积、功耗。这类芯片的可靠性、保密性、算力、能效,都会比通用芯片(GPU)更强。

例如,在同等预算下,AWS的Trainium 2(ASIC芯片)可以比英伟达的H100 GPU更快速完成推理任务,且性价比提高了30-40%。明年计划推出的Trainium3,计算性能更是提高了2倍,能效提高40%。

但是,为什么这两年一直火的都是GPU呢?主要是因为英伟达太猛。

英伟达在AI上也是歪打正着。当年AI大佬辛顿(就是那个新晋诺贝尔奖得主)带着徒弟使用GPU做AI训练,获得巨大突破,才让英伟达发现自己竟然还有这样的泼天富贵。

然后,英伟达就开始在AI发力,拼命做更厉害的GPU(当然,也有游戏的带动)。

在英伟达的持续努力下,GPU的核心数和工作频率一直在提升,芯片面积也越来越大。算力越强,有利于缩短训练时间,加快产品发布,这也是重要优势。

当然,算力变强,功耗也水涨船高。但是,靠工艺制程、水冷等被动散热,勉强也能兜得住,反正不会烧掉。除了硬件之外,英伟达在软件和生态方面也很会布局。

他们捣鼓出来的CUDA(AI开发的软件套件),是GPU的一个核心竞争力。基于CUDA,初学者都可以很快上手。所以,英伟达的GPU方案,被全球用户广泛接受,形成了牢固的生态。

相比之下,FPGA和ASIC的开发还是太过复杂,不适合普及。

ASIC之所以在AI上干不过GPU,和它的高昂成本、超长开发周期、巨大开发风险有很大关系。现在AI算法变化很快,ASIC这种开发周期,很要命。

综合上述原因,GPU才有了现在的大好局面。

值得一提的是,前面说了,AI计算分为训练和推理两种。训练任务,需要更强大的算力,所以在AI训练上,厂商们主要以GPU为主。

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:15
芯有芯的小事

芯有芯的小事

感谢大家的关注