阅读预计 7 分钟
本文转载自谷歌要把TPU送上太空,用太阳能养AI

在算力和电力疯狂扩张的当口,谷歌抛出一个“登月级”研究项目:Suncatcher 计划(逐日者)。
它设想把搭载 TPU 的卫星发到近地轨道,依靠太阳能供电,将上百颗小卫星组成在轨数据中心。

谷歌官方博客公示,团队已宣布与 Planet 合作,最早在 2027 年初发射两颗原型星,先送硬件“上天试炼”。
为什么算力非要上天?
人工智能模型的算力需求正以爆发式增长,背后是巨大的能耗压力。
据高盛预测,到 2030 年 AI 数据中心的耗电量将比 2023 年增长约 165%。
美国政府研究估计,2028 年美国数据中心用电可能占全国总电力的 12%,其中一半以上电力仍依赖化石能源。
如何为“贪吃”的 AI 提供清洁且充足的能源,成为科技产业亟待解决的难题。
这种背景下,将算力“搬出地球” 是种不错的解决思路。

太空拥有取之不尽的太阳能,且无需占用地面水土资源。由于不受大气削弱,且轨道阳光强度比地球中纬度地区高出数倍;卫星在太空中散热可直接利用真空冷阱,无需耗水冷却;更没有邻居抱怨噪音和废热。
换言之,太空为能源密集型计算提供了一个天然清洁且几乎无限的“绿能”环境。
谷歌研究团队指出,在近地太阳同步轨道上,卫星所携光伏板几乎可连续发电,使其单位面积发电能力比地球上提升约八倍。
同时谷歌发布了一篇论文,分享了一些早期研究成果。

论文标题:Towards a future space-based, highly scalable AI infrastructure system design
论文地址:https://goo.gle/project-suncatcher-paper
如何解决能源和通讯问题?
在地球轨道上建设数据中心,首先要解决能源和通信两大核心问题。
能源方面,谷歌计划把卫星部署在黎明-黄昏(Sun-synchronous)近地轨道,使卫星始终处于地球昼夜线附近,24 小时晒太阳,补充能源。
这条轨道高度约 500-700 公里,通信延迟相对较低且发射成本可控。
通信方面,为了让 AI 更智能,数据在卫星间传输必须快如闪电。论文指出,要实现类似地面数据中心的性能,卫星间链路带宽需达每秒数十太比特(Tbps)级别。
但传统卫星激光通信速率在 1–100Gbps 量级,远不能满足咱每秒数十太比特(Tbps)级别的带宽需求。
咋提速?谷歌提出的方案:缩短距离,让卫星“抱团”飞。

距离越近,光束光斑越小,单位面积光强越高,因而可以在相同发射功率下实现更高带宽。此外,近距离还有利于在两星之间同时建立多束平行激光链路。
谷歌团队分析,若卫星相距 1 公里以内,采用现有 COTS 商用波分复用光模块,每对卫星可实现约 10Tbps 的总带宽。

这时,又有家人要问了:“这么近的编队飞行,咋飞啊?不会撞吗?
谷歌还有办法。
他们设想了一个半径约 1 公里、包含 81 颗卫星的平面编队为蓝本,模拟在约 650km 高的太阳同步轨道上,各卫星在无推力情况下相对运动情况。
结果显示,由于地球非球形引力等扰动,编队在轨运行中会发生周期性形变,但相邻卫星距离始终在约 100~200 米范围内规律振荡,没有发生碰撞接近。
更关键的是,一整圈轨道周期(约 90 分钟)后编队几乎可回到初始构型,只需很小的推进器脉冲修正即可长期维持队形。

当然,实际环境中还有地球引力扰动、大气阻力等因素影响,团队通过模拟计算,发现只需非常小幅度的轨道修正,就能补偿这些扰动,将卫星保持在预定队形。
牛啊!那又有家人要问了,宇宙射线有辐射,咋办?
算力如何在真空中活下去?
一句话,比人好活!
虽然外太空充斥着高能粒子辐射,会引发电子元件的累计损伤。
AI 能不能活,关键在于他的器官——芯片、内存、硬盘、散热扛不扛得住。
首先是芯片。为了让他在宇宙中活下去,谷歌对自研 Trillium TPU V6e 芯片进行了测试。
他们发现芯片在收到约 2000 rad(Si) 剂量辐射后才开始出现细微异常,照近地轨道一年约 150 rad(Si)的受照剂量估算,TPU 挺 10 年都没问题!

也就是说,TPU 本身出乎意料地自带抗辐射“体质”,即使不做特殊加固,只要加装适当屏蔽,也足以胜任数年的太空任务。

但能不能活,还得看存储。
高带宽存储(HBM)是相对薄弱环节了。
经测试,HBM 在累积约 2000 rad 后开始出现轻微异常,这意味着每年或出现数次单粒子翻转导致的内存比特错误,频率极低。
但对于 AI 推理任务来说,这样的误码率可忽略不计!

还有个重要的问题,散热做不好,TPU 还是活不下去。
地面数据中心靠冷却塔和水循环将上百千瓦的热量带走,而卫星在真空中只能依赖导热和辐射散热。
鉴于太空环境的背景温度,我们只要把热量能传到散热器表面,就可有效向外辐射。

但 TPU 等芯片功率密度很高,卫星尺寸有限,如何将大量热流可靠传输出去?
谷歌提出,需要开发先进的热界面材料和被动热控技术,尽量以无动力方式高效地将芯片热量送达散热器。
这要求在卫星结构设计上将计算单元、散热单元和发电单元深度融合,形成整体热管理方案。
有研究者设想,从更长远看,或许需要全新的计算架构,使之天然适应太空环境——比如降低峰值发热、容忍一定软错误,以及易于并行分布等。
整体来看,即便在严苛太空环境,商业 AI 芯片也有望稳定工作。
最最最后一个问题,怎么把 TPU 送上太空?
把 TPU 送太空,这笔买卖很昂贵
再好的技术设想,若经济账算不过来,终究难成气候。
多年来,居高不下的发射费用一直是太空探索的拦路虎。
有经济分析指出,当火箭发射成本降至每公斤约 200 美元(约合人民币 1460 元)时,在轨道部署大规模基础设施才具备可比于地面方案的经济性。

过去,将有效载荷送上太空的费用高得望而却步,每公斤数万美元。
好消息是,随着 SpaceX 等推行可重复使用的重型火箭,航天发射正沿着经验曲线快速降价。
公开数据显示,SpaceX 从小型猎鹰 1 到大型猎鹰 Heavy,累计发射总质量每翻一番,单位成本约下降 20%。
按此经验曲率推算,若星舰(Starship)完全投入运营并达到高频发射,2035 年前后进入 200 美元/公斤的门槛并非天方夜谭。届时,每千瓦算力的年发射摊销成本约为 810 美元(约合人民币 5900 元),已相当接近美国数据中心平均每千瓦每年 570~3000 美元的电费开支。
换言之,一旦重型火箭降低了门槛,将 TPU 送上太空的事儿就成啦!
难吗?听起来还行,这样这样,然后这样……

其实啊,谷歌并非第一个有梦想的人。
-
OpenAI 的 Sam Altman 早就畅想过太空数据中心——他坦言,随着 AI 的发展,“世界迟早被数据中心覆盖”。甚至脑洞大开地设想过在太阳周围建造“戴森球式”数据中心获取能量(当然,他也承认这还太科幻)。 -
无独有偶,亚马逊创始人杰夫·贝索斯和谷歌前 CEO 埃里克·施密特也都表示过对太空算力的兴趣。
值得注意的是,民间创业公司已经开始行动了。
-
Starcloud、Axiom、Lonestar 等初创企业近年已累计获得数千万美元投资,尝试把小型计算集群送入轨道。 -
今年 8 月,Axiom Space 将“轨道数据中心单元”原型送上国际空间站试验; -
Lonestar 公司则在 2 月通过私人登月任务把一台微型服务器送上月球(里面甚至存着 Imagine Dragons 的一首歌)。 -
Starcloud 公司最初计划在今年 8 月发射一颗内置多块 Nvidia 芯片的冰箱大小卫星上天,虽因故推迟,但最终在 11 月 2 日成功将其 Starcloud-1 号卫星送入约 325 公里高度的轨道,寿命约 11 个月,到期将受控再入大气焚毁。
从技术实验看,太空算力正处于从 0 到 1 的关键起步阶段。虽然距离全面商用还有相当距离,但 Google 等科技巨头的入局无疑将该赛道的竞争提升到新的高度。
结语
从地面到云端,再从云端到太空,计算架构正随着人类需求的爆炸式增长而不断演进。
在不久的将来,全天候的太空太阳能、有序飞行的卫星算力阵列、激光穿梭的数据洪流,都可能不再是科幻电影里的场景,而成为支撑数字世界的基础设施之一。
但太空并非“免费午餐”,技术、经济、管理上的难题一个都不少。
要将这一愿景变为现实,面临的技术与经济挑战丝毫不亚于登月工程。
然而,一旦关键瓶颈被突破,那个时刻的到来可能比我们想象的更快。
当仰望星辰的人们意识到其中有一部分光芒来自人类自己,我们对于“天地之利”的理解也将被赋予新的内涵。



相关推荐: AI写稿被AI认成人类?GPT-5.1pro彻底把同行卷麻了
AI写的稿子,被AI检测成“95%人类” 先从一个有点好玩的实验讲起。 我们把OpenAI发布的《Building more with GPT‑5.1-Codex-Max》官方英文文档,整份扔进新发的GPT‑5.1 Pro里,让它给“亲兄弟”GPT‑5.1-C…