在资本市场迅速“降温”的人工智能技术仍然面临冷却难题
众所周知,人工智能技术的发展离不开强大的计算力支撑,背后的数据中心更是耗电量惊人。据统计,全球数据中心每年消耗的电量相当于一个中等规模国家的年用电量。然而,鲜为人知的是,训练和部署这些庞大的人工智能模型不仅耗电,还需要消耗大量水资源。
数据中心水资源消耗惊人
近期的一份报告显示,全球数据中心的用水量急剧上升,其中位于全球“数据中心之都”——美国北弗吉尼亚的数据中心用水量在过去五年里增长了三分之二。更为深入的研究发现,GPT-3级别的模型(拥有约1750亿个参数)在一次包含20至50个问题和回答的简单对话中,大约需要“喝掉”一瓶500毫升的水。而如今,GPT-4模型的参数规模已增长至1.7万亿至1.8万亿,耗水量无疑将进一步飙升。
省电不省水,省水不省电
数据中心本身并不会直接消耗大量水资源,真正的问题在于水被从当地环境中抽取,却未能有效归还。而且,AI模型本身也不是水资源消耗的罪魁祸首。即使是采用液冷技术的数据中心,系统运行过程中几乎不会损失任何液体。真正大量消耗水资源的是用于冷却数据中心的蒸发冷却器(俗称“湿帘冷却器”),它们负责维持数据中心设备在安全温度以下运行。
然而,这种冷却方式并不是所有数据中心的必选方案。在较冷的气候中,干冷却器或所谓的“自然冷却”就足够应对,而在干旱的炎热地区,制冷剂冷却系统可能是更常见的选择。例如,在经历与当地政府的废水纠纷之后,微软在亚利桑那州的Goodyear市建设数据中心时选择了制冷剂冷却系统。
虽然蒸发冷却能够有效降低电力能耗,但在供电紧张的地区,这种做法往往加剧了水资源的消耗,特别是在水资源本就匮乏的干旱地区。尽管存在替代冷却方案,但这些方案往往需要消耗更多电力,这在电力供应短缺的当下显得尤为棘手。
对于大规模数据中心运营商而言,选择蒸发冷却器更多的是出于成本考虑。相比其他冷却技术,水的导热效率更高,这意味着可以降低电费,甚至在电力紧张的地区建造更大、更密集的数据中心设施。尽管在某些情况下,蒸发冷却的水资源消耗与减少化石燃料使用之间存在权衡,但这通常依赖于所在地区的具体情况。在水资源短缺的干旱地区,蒸发冷却器无疑加剧了水荒。
直接液冷技术潜力巨大
随着AI技术的飞速发展,芯片发热量不断增加,许多设备的功率已经突破千瓦级别,这推动了液冷技术的广泛应用。例如,Nvidia的Grace Blackwell超级芯片的功耗达到了2700瓦,这迫使其采用直接液冷(DLC)技术。
液冷技术虽然能提高能源效率,但对数据中心的运营商而言却是一大难题,尤其是许多旧的数据中心难以改造以适应这一技术。
从长远来看,液冷系统的广泛应用可减少数据中心的水资源消耗,因为液冷技术的高热传导系数允许使用干冷却器,这种冷却器类似于汽车散热器,只是规模更大。
此外,液冷技术还有助于实现废热再利用。例如,在一次关于GPT-3模型训练的实验中,研究人员估算其产生的废热足以为4.6个温室提供热量,生产超过一百万颗番茄。在一些地区,数据中心已经开始将废热用于区域供暖。
尽管液冷技术的潜力巨大,但在其广泛部署之前,数据中心的水资源消耗问题仍将持续存在。随着AI模型的不断扩展,如何平衡水电资源的消耗,将成为摆在科技公司面前的一大挑战。
东数西算的“水荒”挑战
在中国,人工智能与数据中心面临的资源挑战同样严峻,尤其是在水资源方面。中国的水资源分布极不均衡,华北地区、华东地区人口稠密,但人均水资源极度紧缺,远低于全球平均水平。根据水利部数据,北方的用水紧张问题多年未解,而长三角、珠三角等经济发达地区也面临着水资源的巨大压力。
与此同时,中国提出的“东数西算”战略正推动大量数据中心从东部向西部地区转移,利用西部相对低廉的土地与电力资源解决东部数据中心的高能耗难题。然而,这一战略也带来了水资源管理的新挑战。西部地区的干旱气候,尤其是西北和华北等地区,水资源匮乏,气候条件使得蒸发冷却器的使用效率较高,但这无疑将进一步加剧当地的“水荒”。
例如,内蒙古、新疆等地近年来成为“东数西算”战略下的重点数据中心建设区域,但这些地区长期以来都面临着严重的水资源匮乏问题。在水资源本就紧张的情况下,大规模的数据中心建设可能加剧当地的生态压力。对于数据中心运营商而言,如何在电力与水资源之间寻求平衡,选择更加节能高效的冷却方式,成为了至关重要的决策。
未来,“东数西算”战略的实施不仅需要考虑电力布局,还需要充分评估水资源的承载能力。