算力是数字经济时代的新质生产力,而且现在正进入一个绿色化、低碳化、智算化高质量进程加快的新时期。近年来,从国家层面到各地政府,都开始积极完善政策支持、建设新型基础设施,尤其是在有力有序提升算力供给方面不断发力。
大模型快速迭代,全球AI算力需求不断攀升2022年11月,OpenAI推出基于 GPT-3.5的新型机器人ChatGPT,引领了全球生成式 AI 技术发展的浪潮,此后海内外科技巨头纷纷投入开启 AI 大模型军备竞赛,推动全球 AI 算力需求不断攀升。随着大语言模型向多模态方向演进,需要同时处理图像、音频等多种数据类型,而这些数据的大小和复杂性远高于单一模态的纯文本数据,导致多模态大模型训练和推理过程的算力需求较单模态大模型显著增长。
例如,根据中国信通院发布报告显示,2023年OpenAI推出的多模态大模型GPT-4的参数数量已扩大到1.8万亿,约为GPT-3的10倍,其训练算力需求则上升至GPT-3的68倍。伴随着模型加速迭代,向多模态化趋势发展日益显著,全球AI算力需求将不断攀升。
2024年9月,OpenAI o1 模型的发布提供了模型发展的新技术范式。不同于预训练阶段强调规模优先,o1在后训练阶段即推理阶段通过强化学习(投入更多训练时间)和提供更多的思考时间(增加模型测试时的计算),有效提升了模型的性能。这意味着模型推理阶段同样存在 Scaling Law,即模型推理时间越长,模型的性能就越强。
国内方面,2024年11月,大模型初创公司月之暗面推出首款推理能力强化模型 k0-math,其在数学能力上已实现对标 OpenAI o1 系列公开发布的 o1-mini 和 o1-preview 两个模型。k0-math 同样采用了强化学习和思维链推理技术,通过模拟人脑的思考和反思过程,大幅提升了模型解决数学难题的能力,帮助用户完成更具挑战性的数学任务。伴随着更多类o1模型的推出,推理阶段新Scaling Law展现出巨大的发展潜力,推理端算力需求有望快速提升。
国产算力链迎发展新机遇然而,算力不仅仅是对服务器有要求,对数据存储容量、高速数据传输能力、数据处理和管理、网络带宽、弹性扩展能力等各方面提出了更加严苛的要求。在节能方面,传统风冷散热已经完全无法支撑了,之前液冷技术的发展还是对CPU进行接触散热为主,现在对散热功能需求加大了,液冷、风冷占比持续增加,对GPU散热、内存、网卡等等功能也提出了进一步的要求。
在AI 2.0时代热潮下,智算中心耗电成为“阿喀琉斯之踵”。在陈振宽看来,随着智算中心建设爆发,液冷服务器也将迎来黄金时代。 用液体替代空气,为服务器降温——这也是液冷服务器的魔力所在。它不仅大幅提升了散热效率,更在能耗、噪音控制上实现了质的飞跃。
随着数据中心能耗问题日益凸显,液冷技术如同一股清流,为行业带来了革命性的解决方案。国家与地方政策频出,力挺液冷服务器发展,从《绿色数据中心政府采购需求标准》到各地政府的专项支持,液冷服务器的春天已经到来,液冷服务器随之成为市场的新宠儿。
其实,对于液冷技术布局,联想早在20年前就已开启。自2012年以来,联想依托持续的技术创新,不断优化自身液冷散热解决方案。目前,联想第六代“海神”液冷技术,已实现支持多类型GPU、CPU,散热效率可达98%,PUE最佳可降至1.1,极大降低了数据中心的能耗水平。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。