大干快上,大模型加速数据中心行业洗牌

玩数据还有点懒 2024-08-08 20:54:45

算力,作为数据中心的服务器通过对数据进行处理后实现结果输出的一种能力,对其需求的暴增,开创了数据中心的建设高峰——中国信通院、中商产业研究院共同发布的数据显示,2023年,全球数据中心市场规模可望突破800亿美元,我国则将向2400亿元人民币的整体规模发起有力冲击。

大模型带来的IT市场迭代

AI大模型的爆发,客观上给IT企业带来了巨大的机会。这是由于传统的IT设备,大多数都无法满足AI大模型的训练与部署需求。其中最知名的,就是AI需要专项算力。于是就产生了AI服务器这个全新的IT市场。再比如集群化AI训练,需要对数据中心的网络设备进行全面升级,以此来避免珍贵的AI算力在集群化过程中被浪费。

这些由大模型特殊性产生的IT设备迭代需求,伴随着AI技术的爆发给IT市场格局带来了显著影响。比如,根据TrendForce此前发布的数据,2023年全球AI服务器(包含搭载GPU、FPGA、ASIC等)出货量应该可以达到120万台,年增长率高达38.4%,并且市场规模上将占到整体服务器市场出货量的近9%。

如果这种情况持续下去,AI技术专项适配的IT设备,既是目前阶段的增长爆发点,也可能是未来市场的主流需求。因此没有IT厂商可以放弃大模型带来的战略契机。

回溯IT市场的发展历史,行业内经常将过去划分为早期IT市场的信息化时代,以及互联网兴起之后的数字化时代。那么伴随着AI大模型的全面渗透,市场很可能将迎来IT第三春,也就是智能化时代。

在智能化契机的序曲当中,还有一条不能忽视的主线,那就是IT技术的国产化。尤其在2023年,伴随着AI芯片禁令的反复炒作,AI算力国产化成为科技自主可控趋势中的重中之重。

国产化意味着新需求。这一需求与AI大模型带来的市场需求交融在一起,加重了这一轮IT市场迭代的分量。

面对走向IT第三春的可能,各个厂商纷纷开始寻找自己的AI市场切入口,同时注重提升自主可控AI产品的占比。而分析IT厂商实现这一目标的战略,我们可以将其归纳为以下三种。

大模型如何改变数据中心

为了满足大模型的训练需求,智算中心有几大明显的变化,首先是服务器和机柜功率显著提高,传统x86架构的通用计算服务器,标准形态是2U2节点或4节点,一台服务器功率600W—900W,四十多U的机柜空间里插12—15台服务器,其余部分是交换机、电源等模块。到了智算时代,一台GPU服务器八张GPU卡加两个CPU,至少10千瓦、12千瓦起步。

以前一台服务器里既有CPU,又有内存和硬盘,今天的GPU服务器更像一种纯算力的堆叠,在一定规模下,大模型训练效率随着GPU数量增加而提高,前提是网络时延足够低。

智算中心的第二大变化,便是短距离传输,降低网络时延。韩玉表示,通用服务器架构设计需要算力经网卡互联造成转换速率较慢,英伟达实现了CPU直连GPU的直接通信的架构设计,算力效率数量级提升,更高功率、更短距离、更低时延、更可靠的GPU互联,是大模型训练的基础。

目前智算中心还未完全定型,架构设计要具备高度兼容性。合盈数据CTO 周天宇提到,芯片、功率密度、风液混合,三者均存在变数,一个数据中心 的寿命如果以20年计,基础设施如何应对由于芯片,不同制冷方式带来的散热挑战,也是行业面临的共性问题。

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:7

玩数据还有点懒

简介:感谢大家的关注