人工智能这块儿发展那可是嗖嗖滴快,不过它带来的一个问题咱也不能忽视——那就是能源。现在这人工智能越整越高级,用的电那是噌噌往上涨,把咱现有的电力系统都压得够呛。
就拿那个OpenAI家的ChatGPT来说吧,一天就能造掉超过50万千瓦时的电,就为了给那约摸两亿个用户的请求忙活,这电耗抵得上美国一般人家用电的1.7万多倍!要是生成式AI再这么广泛推广开去,电费账单估计能吓人一跳。
老黄仁勋在斯坦福大学那讲话说得明白,“AI走到最后还得靠光伏和储能扛大旗!光琢磨着怎么提高运算能力不行,照这么搞下去,光计算机就得耗掉14个地球的能量。以后的超级AI啊,那简直就是个填不满的电老虎窝。”
OpenAI的老总萨姆·奥尔特曼也发话了,说下一轮的生成型人工智能系统耗电量绝对是要超乎想象,到时候能源系统怕是接不住招。
马斯克那边也多次提到,这技术革命加上AI的发展,对能源的需求眼瞅着就要翻天覆地,特别是那些数据中心、大规模计算和智能电网这些地方,对电力的压力大得不是一星半点儿。
周鸿祎那头呢,也说了不止一次,人工智能最头疼的就是能源问题,这是阻碍它长远发展的老大难。
Huggingface 自家的 BLOOM 大模型,有 1760 亿参数,光是前期训练它,就得花掉 43.3 万度电,我换算了下,相当于国内 117 个家庭一年用掉的电量。
和它参数量相当的 GPT-3 ,耗电量就更不受控制,同样是前期训练,就要用掉128.7 万度电,足足是前者的三倍。
甚至有人做过这样一个类比, OpenAI 每训练一次,就相当于 3000 辆特斯拉同时跑 32 公里。。。
这还只是 AI 前期训练用的电,在后期使用过程中累积的耗电量才是大头。一般来说,训练就是不断调整参数、重复训练,最后得到一个使用体验最好的模型,整个过程是有限度的。后期的推理过程就不一样了,比如我们用 ChatGPT ,每问一次问题都相当于是一次推理请求。现在 ChatGPT 的月活用户早已经破亿,它每天推理的频次的飙升可想而知。更具体一点,拿自动驾驶来说,前期训练花费的能耗成本就只有两三成,剩下的七八成都是后期的推理消耗的。
《晚点 LatePost 》之前也拿 ChatGPT 做了这么一个测算,按日均最高访问量 2.7 亿次来计算,假设每个人每次访问会问五个问题,一整个月下来光是推理消耗的电量就是 1872 万度。
总的来讲, AI 这几年来消耗的电力正在以指数级别增长,然而现在全球发电已经差不多已经趋于平缓。
照这个态势发展下去,估计再过几十年,光是 AI 的耗电量,就足以导致全球用电荒了。。。
来自 AMD ,红色表示 AI 能耗,绿色表示现有能源
而之所以这么耗电,一方面和近几年来 AI 圈子内部搞起的军备竞赛不无关系。
国外在 OpenAI 之后,谷歌、 Meta 自家大模型的研发迭代也没停过。
国内卷得就更厉害,百度的文心一言、阿里的通义千问、腾讯的混元等等等等,参数一个赛一个高,这还只是大厂们的赛道,一些大模型初创企业更是海了去了。
另一方面, AI 用掉这么多电,和它背后数据中心不无关系。
在数据中心,用电最多的地方就是 AI 服务器,因为要有大规模的计算,普通的服务器根本就不够用,还得用专属的 AI 服务器。
然鹅 AI 服务器,光是功率就比普通服务器高出了六七倍,普通服务器一般只需要两个 800W~1200W 的电源, AI 服务器,则要 4 颗 1800W 的高功率电源。
emmm 这不耗电都说不过去。。。
AI 的耗电,当然卷大模型的厂商比我们清楚得多,毕竟在他们那里可是真金白银的电费哗哗往外流。。。
所以在解决 AI 能耗的问题上,业内也是使出了浑身解数。
第一个办法是想办法提高 AI 芯片性能,性能上去了,耗电自然而然也就下去了。
另外一个办法就简单粗暴了,既然耗电多导致电费高,那找个更便宜的能源不就行了。
就比如国内目前就在搞 “ 东数西算 ” 的工程,在西部清洁能源丰富的地区建立数据中心,用来处理东部的数据。
并且东部地区数据中心密集,工商业的平均电价大概在 0.676 元 / 度,而西部地区平均电价在 0.541 元 / 度,钱不就这么省下来了么。
总结起来就是一句话,人工智能要想真正跑到终点,能源自给自足那是关键。所以啊,早点儿在能源这盘棋上下功夫,那才是在掌控未来的科技命脉。太阳能、储能还有核聚变这些清洁又高效的能源技术,那都是给人工智能解渴的救命水。另外,提高能源使用效率,别乱糟蹋电,这也是解决问题的一个重要法子。
像 OpenAI 和微软都先后投资了核能发电,不过不是传统的核裂变发电方式,而是还在实验室阶段的核聚变。早在 2015 年, OpenAI CEO 奥特曼就对核聚变发电感兴趣了,向一家核聚变初创企业 Helion 投资了 950 万美金, 2021 年,又给它豪掷了 3.75 亿美元。
紧接着在今年 5 月份,在核聚变发电站还没着落的时候,微软就和 Helion 签订了购电协议,说要在 2030 年前实现负碳目标。
世超倒真有点好奇,这个 Helion 到底有什么魔力,在八字还没一撇的时候,让 OpenAI 和微软先后都在它身上下这么大的注。
不过这事吧,从它给微软的的承诺中就能窥探出一二。Helion 在那份购电协议中表示, 2028 年前上线的核聚变装置,在一年内会把发电功率提升到 50 兆瓦以上。什么概念?相当于撑起 40000 户家庭的供电。更重要的是,买核聚变发出来的电,还贼拉便宜,折合成人民币相当于 7 分钱一度电,这诱惑谁挡得住啊。微软也没把所有鸡蛋放在一个篮子里,在下注核聚变发电的同时,他还看好了近几年发展起来的小型核反应堆( SMR )。不久前,微软发了个招聘通知,说要找个 “ 核技术首席项目经理 ” ,来管SMR 这块的工作。
和传统核电的大型反应堆比,理论上 SMR 这玩意儿体积更小,甚至可以在工厂里批量生产。发电功率也是传统反应堆的三倍,并且 SMR 也不用担心损坏时释放放射性元素,因为它能在第一时间自动关闭系统。同时 SMR 也更省钱,平均每 1000 度电下来就能省将近 100 美元。。。
当然,这些东西目前还是八字没那一撇, AI 耗电猛的现状,短时间内也很难会得到改变。各种核聚变项目,世超也不好说它们到底能不能成。但 AI 的发展,说不定会给核能来一记大助攻。
再说到咱国内的AIGC(人工智能生成内容)市场,那可是热火朝天,资本家们都抢着投。虽然多数投资者还在边儿上瞅着,但到了2023年融资规模肯定要往上蹿一大截。等底层的大模型全都放开,商业价值一验明正身,估摸着2024年这人工智能和大数据产业的融资能来个指数级的增长,投资范围会覆盖全链条。
不过呐,这中国的AIGC市场还没形成啥垄断局面,竞争那叫一个激烈。按人工智能专利数掰扯,截止到2023年5月,排在前头的四家公司市场份额也就刚摸到20%左右,前八名加一起也就占了大概25%,市场集中度那是真不高。为啥呢?一是这AI技术更新太快,谁也不敢说自己能一直领先;二是这行细分领域太多,大部分还都在起步阶段,发展空间大得没边儿。
再说这大型虚拟世界跟人工智能的关系,那真是密不可分。虚拟世界的建设靠着游戏引擎、3D技术,再加上人工智能和大数据的支持,能给AI创造一个既安全、可靠又省钱省事、反复试验的绝佳环境。将来啊,大型虚拟世界绝对是人工智能和大数据产业发展的重要舞台。
至于英伟达这公司,那在人工智能界可是举足轻重的角色,它的产品给那些大厂比如亚马逊、Meta、微软他们提供了训练生成式AI所需的强大算力。黄仁勋大佬说了,咱们现在已经跨入生成式AI的新纪元了。
Numenta公司的苏布泰·艾哈迈德也感叹,这一年变化忒快,ChatGPT一出世,人工智能一下就成了焦点,但这还只是个开头。他们跟那些实际应用LLM模型的公司合作发现,未来想要消除人工智能应用和炒作之间的距离,得有简单好用、容易扩展、经济实惠的方案,而且能让公司牢牢把握住自己的数据和模型。
信达证券的研究报告也提到了,生成式AI这玩意儿啊,能大大推动影视产业的各个环节,像剧本创作、特效制作、视频剪辑什么的都能用上。短期内,AI虽还没达到能全程包办影视作品的程度,但它妥妥的是帮影视行业降低成本、提高效率的好助手;长期看,随着AI+视频技术继续升级,类似Pika、Runway这类文转视频产品的迭代,影视创作者的工作效率那将会大大提高。总之,无论是数据还是实践,都显示人工智能和能源、影视等多个领域的深度融合正在发生深刻变革。
宁德时代作为中国乃至全球领先的电池制造商,在储能领域具备深厚的技术积累和产能优势。面对AI产业对储能的巨大需求,宁德时代和其他类似的中国企业迎来了历史性的发展机遇,它们可以通过研发更高能量密度、更长寿命、更快充放电速度的电池技术,以及拓展包括但不限于液流电池、固态电池在内的多元储能解决方案,来满足不断增长的市场需求。
同时,在全球范围内,绿色燃料、储能设施、固态电池、风能以及其他各种新能源产业,在政策引导和技术进步的双重驱动下,不仅有利于环境保护和碳排放目标的实现,也将迎来一轮新的发展高潮和修复期,这对于产业链上下游的企业都是一个战略性的窗口期,可以预见这些领域在未来几年内会有显著的增长和创新突破。