云计算巨头集体降价,大模型开卷“价格战”

玩数据还有点懒 2024-07-27 04:20:38

近一年多以来,大模型技术和应用都在快速发展。无论是OpenAI、谷歌,还是百度、腾讯、字节等,大模型产品都已经经过了多次迭代,应用也在不断拓展。而接下来,大模型将呈现怎样的发展趋势,仍然是业界关注的重点。

核心竞争力是什么

无论是阿里云、百度云还是火山引擎,这些大厂的云计算平台,都太需要大模型客户了。

甚至在大模型还没有被打上聚光灯前,Minimax、智谱AI等头部大模型客户已经成为兵家必争之地——这是云计算厂商近几年来为数不多的增量客户。

随着这些大模型公司业务体量的扩张,每天的调用量都在指数级增长。早期他们往往依靠自建的小规模算力平台即可满足需求,但两三年以后,自己的算力肯定是不够用了。

去年3月,大模型被ChatGPT骤然推上风口。头部初创公司融资屡创记录,投资人和大厂也接连涌入。大模型对外要讲的第一个故事就是大模型能力,训练参数规模是其中重要指标,而算力决定了大模型训练的质量和速度。

拿到足够多的钱之后,大模型公司进入了一个疯狂采购算力的阶段。“是不是存在浪费的情况,根本不是他们关注的重点。”一位数据中心从业者对界面新闻说。

大模型公司向云计算公司传递焦虑,而云计算平台转而疯狂向英伟达采购用于AI计算的GPU芯片。在目前的形势下,英伟达GPU等同于“算力”,几乎没有替代品,A800是国内能买到最好的芯片。

但英伟达的产能完全跟不上全球大模型公司汹涌而至的AI算力需求。

国内云计算平台中,火山引擎采购量比较大,规模约有几万张计算卡,但英伟达根本无法保证交货时间。据其透露,火山引擎一家去年和英伟达签的订单量已经达到了前年BAT三家的总和,而BAT几家大厂和英伟达的订单已经签到了2024年。

也正是在这个关键时间,因为算力跟不上,火山引擎最终丢掉了靠低价竞标得来的大客户Minimax。

算力供给挑战

自生成式AI热潮席卷全球以来,AI算力几乎始终处于短缺状态。且随着大模型参数不断提升,供需紧张的局面大有愈演愈烈之势。

过去两年间,美国多次加码对华芯片出口禁令,又进一步加大了国内厂商的采购难度。2023年10月,美国升级芯片禁令后,A800、H800、消费级产品RTX4090都被纳入了管制范围。2023年底,英伟达针对中国市场推出了三款特供芯片:H20、L20和L2。

据悉,其中性能最强的H20,被认为是目前欧美公司大模型训练普遍采用的H100阉割版,算力约只有H100的不到15%。国产芯片中,华为芯片目前和英伟达相比,在性能和生态上仍存差距。

在六度智囊促成的一次访谈中,前任国际商业机器(中国)有限公司AI技术总监兼资深顾问表示:

“华为910B在字节跳动、科大讯飞、蚂蚁集团、美图公司、百度和小红书等互联网企业中被广泛应用,主要用于推理任务。这些公司出于实际需求,更倾向于使用910B来处理推理工作负载。目前,真正利用昇腾910B进行大规模训练的用户主要有两类:一类是像科大讯飞这样的企业,他们自建了万卡集群;另一类是一些政府和研究机构,进行小规模训练。

由于华为的生态系统较为封闭,客户需要将自己的大模型算子或参数转换成华为芯片能够识别的代码才能在910B集上运行,这使得客户的迁移成本非常高。由于华为无法为每个客户提供大规模的常驻支持团队,因此只有那些愿意与华为建立深度合作关系的客户才能获得全面的支持。”

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:41

玩数据还有点懒

简介:感谢大家的关注