最近一段时间,一个原本听起来颇具科幻色彩的设想,正从各方科技领袖的口中变成现实议题:把大规模 AI 算力中心送上太空轨道,让它们在地球周围运行。这不是某个企业的孤立幻想。贝佐斯的 Blue Origin 已秘密推进太空 AI 数据中心技术多年,公开预测未来十到二十年内有可能实现。与此同时,马斯克领导的 SpaceX 正计划将升级版星链卫星用作AI计算载荷,探索在轨算力的商业路径(网页链接)。更有谷歌的高层在公开场合谈及类似远景(网页链接),创业公司也在布局轨道 AI 网络(网页链接)。在全球 AI 训练对算力与能源需求爆炸式增长的背景下,这一跨越地球向太空延伸的想法,正在成为新一轮科技竞赛的焦点。理由听起来相当充分。AI 正在变成一个被电力限制的产业,算力的上限越来越取决于能不能稳定供电。地面上,电网、土地、审批、散热,每一样都在卡脖子。而太空不一样。没有黑夜,没有云层,太阳辐照度比地面更高,几乎可以全天候发电。再加上火箭发射成本这些年一路下探,把“服务器上天”从天方夜谭拉进了可讨论的范围。乍一看,这像是顺理成章的下一步。问题出在一个很少被普通人认真思考的地方:热。高性能计算有一个残酷的事实:你消耗的电,几乎百分之百都会变成热。AI 芯片不会把能量“用掉”,它们只是把能量转化成计算,再转化成热量。地面数据中心能活得好好的,并不是因为它们不热,而是因为我们有两样在太空里不存在的东西:液体和空气。在地面,热量可以先通过金属和冷却液传导,再通过空气对流带走,最后被冷却塔或外部环境吸收。这是一整套依赖重力和流体存在的过程。但太空,是真空。没有空气,也没有对流。热量能走的路只剩下一条:以电磁辐射的形式,被“照”出去。这不是工程偏好,而是物理定律。按照斯特藩–玻尔兹曼定律,在电子设备能接受的工作温度范围内,即使是接近理想的散热表面,每平方米也只能辐射出几百瓦热量。现实一点的空间散热器,往往只有一两百瓦每平方米。换算一下尺度,问题立刻变得具体而刺眼。如果你想在轨道上运行一个功率为一吉瓦的数据中心,单是把热散出去,就需要数百万平方米的散热面积。即便考虑散热板正反两面同时工作,这依然意味着“散热结构”的边长将超过一公里,像一座摊开的城市。这还只是理论下限。国际空间站正好提供了一个现实参照。它的平均电功率只有七八十千瓦,却已经配备了庞大的散热翼和复杂的热控系统,还必须精确调整姿态,把散热器对准深空。即便如此,空间站上的计算能力,和一个现代数据中心相比也微不足道。把这套系统按 AI 数据中心的规模放大一万倍,散热就不再是工程难题,而是几何问题。事情还没完。太空中的辐射环境,会不断向电子设备注入高能粒子,引发计算错误和额外发热。为了保证数据可靠性,你需要更复杂的纠错、更高的冗余、更耐辐射的芯片设计。这些都会吞噬算力,也会继续增加热负荷。维修同样是个绕不开的现实问题。地面数据中心里,一块板卡坏了,工程师推着车就能解决。在轨道上,一个散热回路或面板失效,可能就意味着整排服务器降频甚至停摆,直到下一次维护任务抵达。现实已经证明,让在轨维修变得廉价而常态,并不容易。有人会问,哪怕算力不在身边,延迟是不是还能接受?对普通通信来说,几十毫秒的问题不大。但对大规模 AI 训练来说,许多核心操作依赖的是微秒级的高速互连。把这些任务放到轨道上,等于主动切断了它们最重要的神经系统。算到最后,经济账也并不乐观。发射价格确实在下降,但它仍然比修一座机房、铺一条光纤昂贵得多。再加上成平方公里计算的散热结构、辐射防护、保险成本和太空碎片风险,商业可行性会被迅速压缩。这并不意味着太空计算毫无意义。恰恰相反,在数据本来就产生于轨道上的场景里,小规模、专用计算非常合理。比如对遥感数据进行在轨预处理,减少下传带宽;或者在通信卫星上集成算力,让数据就地消化。真正站不住脚的,是把“地面的超大规模数据中心”整体搬到天上。太空经济确实会继续增长。发射、通信、观测都会受益。但当话题落到 AI 的算力心脏时,有些界限不是靠资本或想象力跨越的。在这件事上,热力学比任何人都更保守。它提醒我们,有些服务器,还是老老实实待在地球上更合适。~~~~~~图源:TESAT信源:chaotropy.com 上的相关评论文章
