
作为日活跃用户数量9亿的超级大APP,微信介入DeepSeek对算力市场的影响有多大?对AI加速服务器的需求有多大?对浪潮信息业绩的影响有多大?本文将基于若干假设,给出我的研究思路。
一、AI大模型的生产成本

根据网上公开资料,浪潮信息NF5688M7型号服务器的价格为172万元/台,千亿参数的AI大模型需要使用32台浪潮信息NF5688M7型号的AI服务器组成集群。因此,运行千亿参数的AI大模型,单单硬件成本至少需要5500万元。一般来说,服务器的平均使用寿命在3至5年。按照使用寿命5年计算,每天的服务器折旧成本约为3万元。
此外,浪潮NF5688M7服务器的功率为3200W,32台NF5688M7服务器的功率合计为102400W,24小时的用电量为2457.6度。按照每度电0.6元计算,每天的电费约为1474.56元。
因此,AI服务器的折旧成本和电力成本合计为31474.56元/天。
浪潮信息NF5688M7型号服务器的GPU为8颗英伟达H20的GPU模组,H20的平均推理速度为400字(token)/秒,32台浪潮信息NF5688M7型号的AI服务器组成集群的平均推理速度约为102400字/秒;如果按照“天”(每天8小时)为周期计算,平均推理速度约为29.4912亿字(token)/天。
换言之,AI大模型的生产成本约为1067.25元/亿字(token),或者0.1元/万字(token)。
二、微信用户对AI大模型的需求
举例来说,每个微信用户平均每天使用AI搜索功能3次,每次输出文字数量平均约为1000字,也就是每天输出3000字,由于微信的日活跃用户数量约为9亿,即每天输出的文字量约为27000亿字。
5500万的AI服务器组成集群每天的最大输出字数为29.4912亿字,不考虑集中访问的系统并发问题,微信就需要配置305组由32台浪潮信息NF5688M7型号的AI服务器组成集群,也就是需要至少503.25亿元。
如果假设集中访问高峰的算力需求是日平均需求的2至3倍,那么至少需要配置610组由32台浪潮信息NF5688M7型号的AI服务器组成集群,也就是需要1006.5亿至1509.75亿元。
三、市场需求规模

我们选取了国内日活排名前31名的APP,这些APP的日活数量合计约为62.3亿。如果这些APP全都需要搭载AI大模型,理论上,这些互联网公司对AI服务器的需求量合计约为6967.2亿元至10450.8亿元。
这还仅仅是排名前31名的APP的需求量。国产AI大模型的出现,确实拉开了算力基建大规模建设的序幕。
四、小结
“互联网+”对算力的需求量和“AI+”对算力的需求量根本不可以同日而语,有机构预测,未来10年,通用算力将增长10倍,而人工智能和高性能计算将增长500倍,新增算力中AI算力将达到70%至80%。
对于像浪潮信息这种AI服务器市占率超50%的龙头企业,我认为,它的春天要来了!