最近大厂开发ASIC的消息频出,在博通公布财报的前一天,就传出苹果与博通合作,开发面向AI推理的ASIC芯片,将采用台积电N3P工艺,计划在2026年投入生产。而亚马逊也在月初公布了AI芯片Trn2UltraServer和Amazon EC2Trn2的应用实例,展示出ASIC的应用性价比远超GPU。
什么是ASIC定制芯片行业称为专用集成电路,往往是只针对特定客户的某种特定功能而开发出来,无法做到像GPU和CPU加上操作系统就可以部署在任意客户应用场景下。
为什么谷歌这类互联网大厂要找上博通去开发了一款专用AI ASIC?
其中的逻辑是这样的,因为谷歌打造自己的Gemini人工智能模型,与ChatGPT对抗。但英伟达芯片太贵,而且货很难买到,买完硬件还需要用英伟达的CUDA软件,配上英伟达NV Link网络传输,才能够实现 GPU 之间的高速数据共享,使得多个 GPU 可以更快速地协同工作,提高并行计算效率。
听起来是不是被黄仁勋拿捏得死死的,于是,谷歌想来想去直接决定自己研发,谷歌自己搞芯片的首要逻辑条件是:
第一、我不想依赖CUDA,自然而然我可以不用英伟达的GPU,可以不给英伟达剥削我的机会;
第二、我自己开发一款专用芯片,这款芯片只用我自己开发的系统,只要能跑我自己的算法,能训练我自己的模型就够了。
互联网大厂,以及那些跑模型的AI公司,对算力极度渴求,但是又不想花大钱的买英伟达芯片,就找到了博通,Marvell(MRVL)这样的芯片开发经验丰富的公司来协助完成新的芯片研发工作,最终在风险,算力,性能,成本上达到完美的平衡点。
有消息称微软就找到Marvell谈合作,Marvell高管还透露称:微软给的机会比想象中要大。
博通的AI芯片布局博通的传统优势是在高速互连方面,比如数据中心的以太网传输中用到的高速光模块产品组合,还有在高速互连中使用到的高速SerDes内核IP等。而目前博通在AI芯片领域,主要也是提供ASIC解决方案,提供设计、广泛IP组合、先进封装等方案,集成了内存、高速SerDes、PCIe接口等IP,以及Arm/Power PC等CPU内核。
ASIC即专用集成电路,顾名思义,与英伟达提供的通用GPU不同,ASIC是专门针对某种场景或应用设计,目前不少云计算巨头都在使用定制的ASIC作为数据中心的核心芯片。作为一种专用芯片,在设计之初就是为了满足特定的任务和算法需求,因此在针对算法开发的情况下,计算效率和能效比都能够相比通用GPU大幅提高。
比如谷歌去年推出的TPU v5e专为提升中大型模型的训练、推理等任务设计,相比上一代的TPU v4训练性能提高2倍,推理性能提高2.5倍,但成本只有上一代的一半不到,大幅提升了计算效率以及成本效益。
对于云计算巨头而言,为了降低对英伟达的依赖,同时也为了降低成本,选择定制ASIC都会是一个比较确定的方向。除了谷歌之外,亚马逊、华为、阿里、百度等云计算巨头都已经有自研数据中心ASIC产品,并已经投入使用。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。