Deepseek应用高潮席卷了全球,事实上,美国比我们更激动,国内用户多用于使用,国际用户的讨论点聚焦在了芯片人士,给这款被冠之以“业内奇迹”的开源人工智能“验明正身”。
![](http://image.uc.cn/s/wemedia/s/upload/2024/4d5b7008c33bfa96e26e44cd36a73c19.jpg)
数据显示DeepSeek应用上线20天,日活突破了2000万。这波应用高潮发生在春节前夕,它一夜掀翻美国科技股,随后又登顶了苹果中国地区和美国地区应用商店免费App下载排行榜,在美区下载榜上甚至超越了ChatGPT。
![](http://image.uc.cn/s/wemedia/s/upload/2024/5e4f037d435150c6e950433f60a30117.jpg)
如此火爆,也难怪市场对Deepseek的未来充满期待。
随着人工智能技术呈指数级发展,其背后所需的庞大能源支撑也与日俱增。
IEA曾在今年1月的一份报告中曾计算,ChatGPT响应一个请求平均耗电2.9瓦时,这相当于将一个60瓦的灯泡点亮略少于三分钟。另外,据美媒报道,ChatGPT每天响应约2亿个需求,消耗超过50万度电力,相当于1.7万个美国家庭平均一天的用电量。
微软去年排放量较2020年增30%,谷歌较2019年增48%。未来能源使用预测更惊人,瑞典预计本十年用电量翻倍,英国同期预计增长500%。
人工智能系统,尤其是大型语言模型,在训练和推理过程中,需要大量计算资源。以GPT-3为例,它拥有数以百亿计的参数,训练一次所消耗的计算量极其庞大,这些计算都依赖于数据中心的服务器,而服务器运行离不开稳定的电力供应。数据中心为保证人工智能系统24小时不间断运行,不仅要消耗大量电能,还需配备专门的散热系统,同样依赖着电力。
虽然理论上未来可能有其他能源形式介入,但就当下技术发展和产业现状,电力是支撑人工智能运转的核心能源。
为了满足人工智能系统运行所需的海量电力,这些企业不得不四处探寻新的电力来源,甚至将目光聚焦到了已停运的核电站。然而,这一选择虽然在短期内可能缓解能源压力,但从长远来看,无疑给这些企业实现宏大气候目标增添了重重阻碍,也为全球能源结构的绿色转型与可持续发展带来了前所未有的复杂难题。
DeepSeek在初始阶段便以“低成本、高性能”为核心规划,通过算法优化,极大地降低了训练成本。其R1模型预训练仅耗费557.6万美元(相当于美国和欧盟同类大语言模型成本的1/50),在2048块英伟达H800GPU(针对中国市场的低配版GPU)集群上运行55天就宣告完成。反观OpenAI等企业,训练模型时动辄需要数千甚至上万块高算力的NvidiaA100、H100等顶级显卡,训练成本高达数亿美元。
![](http://image.uc.cn/s/wemedia/s/upload/2024/af0d53039c9d3ac5d5b23c0c2395ed33.jpg)
基于这样的成本优势,DeepSeek-R1在性能表现上也十分亮眼。传统大模型处理问题时,无论复杂程度,都要激活全部参数,这就好比让一家医院的所有科室都来会诊普通感冒,造成资源浪费。而DeepSeek-R1则聪明得多,它会先对问题类型进行判断,遇到数学题就交给逻辑推理单元,用户想写诗,便调用文学模块处理。这种精准调用的设计,让模型响应速度提升了3倍,能耗也大幅降低,在人工智能领域以臂使指,展现出它的独有竞争力。
DeepSeek的能效突破为AI行业带来了新的曙光,那么,AI是否真的能够摆脱“吞电兽”的标签?尽管DeepSeek通过优化算法和硬件,大幅提升了计算效率,进一步降低了单次计算的电力消耗,但这并不意味着AI对电力的需求会因此大幅减少。
从自动驾驶到智能医疗,从金融分析到气候预测,未来,AI应用场景的涌现必然带来对更强算力、更大计算需求的追求,这反而可能导致电力需求的总量上升。
技术进步往往会刺激需求增长,最终形成能源消耗的上升趋势。正如杰文斯悖论所揭示的,效率提升与需求增长之间存在着微妙的平衡。在这一过程中,绿色能源革命和智能电网技术的创新才是真正能够决定我们能否实现AI行业与能源消耗可持续平衡的关键。