随着AI技术的迅猛发展,传统的数据中心已无法满足日益增长的计算需求,全球的算力版图正悄然发生巨变。如今,传统数据中心正在向人工智能算力中心(智算中心)转型,这不仅仅是规模上的扩大,更是技术架构的全面革新。
智算时代算力需求不断变化数据中心制冷也曾面临和锂电池一样的困境。
随着智算中心芯片和服务器密度的不断提升,散热问题成为业内关注焦点。传统风冷散热方式已难以满足高密度、高功率的需求,液冷制冷技术应运而生。然而,液冷技术的应用也面临着产业链成熟度低、成本高、可靠性待验证等问题。
当然,在今天,液冷的境遇相比于锂电池要好上一些。这是因为2023年以来智算需求的突飞猛进迅速推高了智算设备的功率,液冷散热成为了屈指可数的选择。同时,散热作为“日常必需”,相比于UPS和储能这些“备用”需求,其应用更加紧迫。
因此,虽然液冷依旧面临着机房改造、服务改造、成本高,以及运维不成熟、冷却液选型的问题,业内的液冷部署意愿和实际案例也开始飞速增长。无论是浸没式还是冷板式或适应当前需求的风、液混合模式都有很多厂商在探索实践,这里就不一一赘述。
智算中心将会遇到新挑战作为新型的智算算力工厂,AIDC为各行各业打造新质生产力奠定了坚实基础。截至2024年上半年,国内已经建设和正在建设之中的智算中心超过250个。专注于人工智能和大数据处理的AIDC与传统数据中心在技术重点、应用场景、能耗管理、发展趋势等诸多方面存在显著差异。
从大约20年前企业刚开始“上云”,到今天纷纷落地AI应用,安全从来都是头等大事。从华为的大量实践来看,安全可靠作为核心需求,在智算时代的重要性进一步提升。
众所周知,AIDC的投资巨大,主要体现在对GPU、DPU等芯片需求的增加,以及单机柜功率的显著提升。而随着AI基础设施规模和投资的增加,导致并行计算故障域扩大,且单次回退损失增加。尤其是在万卡集群甚至十万卡集群需求快速涌现的情况下,AI基础设施面临的安全性挑战进一步加剧。
与传统算力相生相伴的就是高功耗、高排放。今天,AI带来了算力的爆炸式增长,AIDC中芯片和服务器的功率密度越来越高,对制冷和供电也提出了更严苛的要求。绿色低碳是实现算力高质量发展的关键目标之一。信通院的数据显示,截至2023年底,我国数据中心在用的810万标准机架总耗电量达到1500亿KWh,数据中心碳排放总量为0.84亿吨。面对大容量超大集群获取电力难,碳排高、能耗高,传统风冷散热无法支撑高功率密度等挑战,AIDC的绿色低碳之路任重道远。
当前,智算业务的迅猛增长加速了数据中心上线周期。市场不确定性的增加、技术的快速迭代,要求数据中心基础设施必须具备弹性演进、快速交付的能力,以便更好地降低初期投资成本,满足用户当前需求的同时,还能兼顾未来发展升级。
从满足智算发展需求的角度来说,安全可靠、绿色低碳、弹性演进是今天AIDC必须具备的基本能力,同时也是华为数据中心秉承的核心理念和创新基因所在。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。