目前,像OpenAI 的 ChatGPT这样流行的生成式 AI 工具对数据的需求非常大,这已经不是什么秘密了。训练这些模型所需的数十亿甚至数万亿个信息参数都存储在使用电力进行冷却和处理能力的大型数据中心中。但新的预测和预报表明,对越来越强大的 AI 模型的需求不断增长,可能会使当前的能源供应超出我们的想象。根据美国电力研究机构 (EPRI) 发布的一份新报告,仅在美国,负责为先进 AI 模型提供动力的数据中心到本世纪末就可能占到该国整体能源需求的 9.1%。大部分新需求可能会由不可再生的天然气来满足,这可能会使全球减少碳排放的努力复杂化。
EPRI 的分析警告称,未来几年广泛采用生成式 AI 工具可能会导致“电力需求发生重大变化”。报告指出,到 2030 年,数据中心的能源需求可能占到美国总发电量的 4.6% 至 9.1%。相比之下,目前这一比例为 4%。新发现的需求并不局限于美国。国际能源署 (IEA)估计,到 2026 年,全球数据中心的能源需求可能会翻一番。
报告指出,预计的需求增长很大一部分源于独特的耗能生成式 AI 模型。EPRI 估计,对 OpenAI 的 ChatGPT 进行简单查询所需的电量大约是典型 Google 搜索的 10 倍。这种巨大差异可能是由于使这些模型按预期运行需要大量的训练数据和计算能力。这还只是用于文本响应。报告称, OpenAI 的 Sora等新兴生成式 AI 音频和视频模型生成的数据量“史无前例”。有一点似乎很清楚:人工智能是推动数据中心不断增长的能源需求的原因。金融巨头高盛最近发布的预测显示,到 2028 年,仅人工智能一项就将占数据中心电力需求的 19%。
高耗电的数据中心可能会在未来几年对电网造成真正的压力。根据高盛的预测,截至 2024 年,数据中心将占全球电力需求的 1-2%。预计到 2020 年,这一数字将上升到 3-4%。美国拥有全球大约一半的数据中心,预计到 2030 年,这些设施将占美国整体能源消耗的 8%。能源供应商已经在竞相推出新发电厂,以确保满足这些日益增长的能源需求。高盛预测,满足这些需求所用的能源中,超过一半(60%)将来自不可再生资源。该预测支持了之前的报告,即单靠可再生资源可能不足以满足数据中心的能源需求。
新的能源要求也使OpenAI 的 Sam Altman 等技术领袖过去的声明变得更加复杂,他们曾表示强大的人工智能模型可以在长期内减少温室气体排放。Altman 之前曾表示,强大的人工智能时代需要“能源突破”,据报道,他是最近向 Exowatt 投资 2000 万美元的少数硅谷知名人士之一,Exowatt 是一家试图利用太阳能为人工智能数据中心供电的初创公司。
但数据中心和能源供应商不一定需要等待技术灵丹妙药来解决人工智能的一些能源难题。在其报告中,EPRI 呼吁数据中心研究如何通过减少用于温度冷却和照明的电量来提高内部效率。据报道,仅冷却一项就占数据中心能源使用量的 40% 左右。此外,EPRI 指出,由可再生能源驱动的备用发电机也可以在支持更可靠、更可持续的能源网方面发挥作用。
报告指出:“将数据中心与电网的关系从目前的‘被动负载’模式转变为协作的‘共享能源经济’,不仅可以帮助电力公司应对人工智能的爆炸式增长,还可以为所有电力用户提供可负担性和可靠性。”