
AI的胃口太大了¶
如果你今天用 ChatGPT 问一个问题,它消耗的电量大约是 Google 搜索的 10 倍。
这不是一个遥远的预测——这是此时此刻正在发生的事。每一次你和 AI 对话、让它生成一张图、写一段代码,背后都是一排排服务器在疯狂运转,而这些服务器的电费账单,正在让整个科技行业头皮发麻。
台积电在上周的财报会上说了一句话让所有人沉默了:"AI 芯片的需求增长太快,台湾的电力供应已经跟不上了。"他们正在紧急转向海上风电,但这远远不够。
美国电网同样承压。弗吉尼亚州是全球数据中心最密集的地方,当地电力公司 Dominion Energy 预测,到 2030 年数据中心的用电量将翻三倍。三倍是什么概念?相当于再多造一个纽约市的电网。
一位数据中心运营经理在 Reddit 上匿名发帖:"上个月我们的电费账单是 230 万美元。老板看完沉默了整整五分钟。然后他说:'不能让 AI 停下来。'这就是我们现在的生活。"

硅谷的疯狂解法:把服务器扔进海里¶
面对这场电力危机,硅谷的工程师们开始做一些听起来像科幻小说的事。
今年 4 月,一家名为 Nautilus Data Technologies 的初创公司拿到了 2 亿美元融资,他们要做的只有一件事——把数据中心建在海上。不是建在船上,是直接把服务器泡在海水里冷却,用海浪发电。
原理其实不复杂:数据中心最大的耗电来源不是计算本身,而是散热。空调、风扇、冷却系统占了总能耗的 40% 以上。海水天然就是一个无限大的散热器,而且完全免费。
马斯克也没闲着。xAI 在孟菲斯的超级计算机集群"Colossus"已经扩张到 20 万块 GPU,他们直接在旁边建了一座天然气发电站。是的,一家 AI 公司开始自己发电了。
更激进的是核电路线。微软去年签了一份合同,重启三里岛核电站——就是 1979 年发生美国最严重核事故的那个。Sam Altman 本人投资了核聚变公司 Helion,号称 2028 年就能并网发电。
这些人的算盘很简单:AI 不能停,电不够用,那就自己造。

内存也不够用了¶
电不是唯一的瓶颈。
美光科技的 CEO Sanjay Mehrotra 在上周的行业峰会上抛出一个警告:"AI 时代才刚开始,但内存已经不够了。"三星和 SK 海力士的高带宽内存(HBM)产能已经被长协合同锁到了 2027 年。任何一家 AI 公司想临时加单?不好意思,排队。
这就是为什么我们看到一个奇怪的现象:AI 能力在指数级提升,但每一代新模型的训练成本也在指数级飙升。DeepSeek V4 的训练成本据传超过 5 亿美元,而就在两年前,GPT-4 的 1 亿美元训练费还被称为"天文数字"。
MemVerge 公司 CTO 打了个比方:"我们现在的情况就像高速公路上突然涌入了 100 倍的车辆,但路还是那么宽。车再好也没用,堵死了。"
这对普通人意味着什么¶
你可能觉得数据中心耗电跟自己没关系。但有两个信号值得关注:
第一,AI 的免费时代正在结束。字节跳动的豆包已经推出了三档付费订阅,最高一档每月 500 元。OpenAI 的 GPT-5.5 虽然目前免费,但"Pro"级别的深度推理功能每月 200 美元。这不是割韭菜——算力确实贵,而且越来越贵。
第二,你的电费可能也会涨。当一个地区的数据中心密集到一定程度,电网扩容的成本会分摊到所有居民头上。爱尔兰的数据中心已经占到了全国用电量的 21%,当地居民的电费在过去三年涨了 35%。
但硬币的另一面是:这种压力正在倒逼出真正的技术创新。海水冷却、小型核反应堆、光子计算芯片……当年摩尔定律快走到尽头时,人们也说"完了",然后 3D 堆叠和 Chiplet 又续了十年命。
一位在谷歌数据中心工作了八年的工程师说:"2018 年我以为 AI 的瓶颈是算法,2022 年以为是数据,到了 2026 年我发现,瓶颈是物理——是电、是水、是地皮、是把几十万块芯片塞进一栋楼里不烧起来的本事。这才是真正的硬核科技。"

最后的思考¶
AI 行业正在经历一个微妙的转折:从"能不能做得更好"变成"能不能做得更省"。过去五年,所有人都在卷模型参数、卷 benchmark 分数。现在,真正的竞赛变成了:谁能在更少的电、更少的芯片、更少的水资源下,做出同样好甚至更好的 AI。
DeepSeek 之所以让硅谷震动,不是因为它的模型比 GPT 强,而是因为它用十分之一的算力做出了接近的效果。这才是真正的"降本增效"。
下一个改变游戏规则的可能不是某个天才的算法突破,而是某个工程师在冷却系统上的一次巧妙设计,或者一种新型内存的诞生。
AI 的未来不是赛博朋克,是电力工程师的春天。