英伟达正迈出重要一步,进军炙手可热的特定应用集成电路(ASIC)市场。凭借着在芯片设计和生产方面深厚的专业知识,再加上台湾强大的半导体生态系统,英伟达将处于有利地位。
英伟达以在GPU技术领域的主导地位闻名,尤其是为OpenAI的ChatGPT等AI应用提供产品。英伟达现在正转向半导体行业的新前线,特定应用集成电路。
大模型发展拐点:从训练到推理过去几年,AI模型的发展主要集中在预训练阶段,即通过海量数据对模型进行训练,以提升其性能。这一阶段,对算力的要求极高,英伟达GPU凭借其强大的并行计算能力,成为了AI训练的首选芯片。
然而,预训练并非没有瓶颈。前OpenAI联合创始人Ilya Sutskever指出,预训练时代即将结束,数据作为AI的“化石燃料”是有限的,当前用于AI预训练的数据已经达到峰值。
此外,模型扩展的边际效益递减,而算力成本仍然居高不下,这些都促使人们开始思考AI训练阶段的未来。
与此同时,AI大模型的下一阶段——逻辑推理,正逐渐成为新的焦点。逻辑推理是指基于现有大模型,开发AI在各细分垂直领域的应用,以实现终端落地。
从谷歌的Gemini 2.0到OpenAI的GPT系列,AI Agent(智能体)已经成为各大公司的主攻方向。与预训练不同,推理阶段更注重模型的应用和效率,对芯片的要求也发生了变化。
ASIC作为一种专用芯片,在处理特定任务时,能够实现更高的处理速度和更低的能耗,因此更适用于推理端边缘计算。

ASIC作为专用定制芯片,基于芯片所面向的专项任务。它的计算能力和计算效率都是严格匹配于任务算法的。芯片的核心数量,逻辑计算单元和控制单元比例,以及缓存等,整个芯片架构,也是精确定制的。
所以,ASIC可以实现极致的体积、功耗。这类芯片的可靠性、保密性、算力、能效,都会比通用芯片(GPU)更强。
例如,在同等预算下,AWS的Trainium 2(ASIC芯片)可以比英伟达的H100 GPU更快速完成推理任务,且性价比提高了30-40%。明年计划推出的Trainium3,计算性能更是提高了2倍,能效提高40%。
但是,为什么这两年一直火的都是GPU呢?主要是因为英伟达太猛。
英伟达在AI上也是歪打正着。当年AI大佬辛顿(就是那个新晋诺贝尔奖得主)带着徒弟使用GPU做AI训练,获得巨大突破,才让英伟达发现自己竟然还有这样的泼天富贵。
然后,英伟达就开始在AI发力,拼命做更厉害的GPU(当然,也有游戏的带动)。
在英伟达的持续努力下,GPU的核心数和工作频率一直在提升,芯片面积也越来越大。算力越强,有利于缩短训练时间,加快产品发布,这也是重要优势。
当然,算力变强,功耗也水涨船高。但是,靠工艺制程、水冷等被动散热,勉强也能兜得住,反正不会烧掉。除了硬件之外,英伟达在软件和生态方面也很会布局。
他们捣鼓出来的CUDA(AI开发的软件套件),是GPU的一个核心竞争力。基于CUDA,初学者都可以很快上手。所以,英伟达的GPU方案,被全球用户广泛接受,形成了牢固的生态。
相比之下,FPGA和ASIC的开发还是太过复杂,不适合普及。
ASIC之所以在AI上干不过GPU,和它的高昂成本、超长开发周期、巨大开发风险有很大关系。现在AI算法变化很快,ASIC这种开发周期,很要命。
综合上述原因,GPU才有了现在的大好局面。
值得一提的是,前面说了,AI计算分为训练和推理两种。训练任务,需要更强大的算力,所以在AI训练上,厂商们主要以GPU为主。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。
