ChatGPT被卡脖子,美国科技巨头公司OpenAI正计划自研AI芯片

宇见未来 2023-10-07 15:06:08

近日,有报道称美国人工智能行业巨头公司OpenAI正计划自研AI芯片,以应对其对于昂贵且稀缺的英伟达GPU芯片过于依赖的问题。

自从ChatGPT等AI大模型走红以来,全球AI领域已经掀起一股AI算力的需求浪潮。这些大模型的训练需要庞大的计算资源,而英伟达GPU芯片一直在AI算力领域占据绝对的霸主地位,市场份额高达95%。

随着英伟达GPU芯片的供应不足和AI算力成本的持续上涨,即使是强大如OpenAI这样的巨头科技公司,也不得不开始寻求新方案,以避免被长期卡脖子。

当前,英伟达占据了全球数据中心AI加速市场的82%份额,同时在AI训练领域市场占有率高达95%。这一垄断地位使得英伟达GPU成为许多AI公司的唯一选择,这也导致了英伟达GPU显卡供应的极度紧张。

据悉,OpenAI使用了数万颗英伟达GPU来训练GPT-3.5模型,而GPU显卡价格的上涨使得AI算力的成本不断攀升,再加上系统配置、电力消耗、场地租金和运维成本等,AI训练的总成本已经超过数亿美元。

为了解决AI芯片卡脖子难题,OpenAI团队在去年就进行了内部讨论,并提出了三种解决方案:

一、构建自己的AI芯片,摆脱卡脖子困局。

二、与英伟达公司合作更加紧密,寻求部分采购优惠。

三、计划在英伟达之外实现多元化芯片供应,减少对英伟达的依赖。

据报道,OpenAI公司正在考虑自研AI芯片的计划。然而,这并非易事。芯片的研发和量产通常需要至少两年以上的时间,而且每年的研发成本就需要数亿美元,这显然是一项巨额投资。

不仅OpenAI,谷歌、亚马逊、微软、Meta等科技巨头也一直在积极研发AI芯片,以满足其业务需求。谷歌的Pixel 8系列手机使用了自研的Google Tensor G3芯片,亚马逊则推出了自研的ARM服务器CPU芯片Graviton 3E。这表明,科技巨头们都意识到AI芯片的重要性,以及依赖外部供应商的风险。

有业内人士称,OpenAI正在考虑收购一些AI芯片公司以加速自研芯片的进程。不过,这一计划是否能够成功,以及是否能够真正解决AI大模型领域的算力与成本问题,仍需时间来检验。

0 阅读:47

宇见未来

简介:分享最新资讯,引领潮流生活。