年底将至,AI 领域仿佛开启了一场“军备竞赛”,OpenAI 带头在全球狂扫算力资源,与甲骨文联手豪掷 3000 亿美元建数据中心,从英伟达手中抢购价值 1000 亿美元的芯片,甚至试图从 AMD 那里“分一杯羹”。
在科技巨头们不遗余力的推动下,AI 泡沫似乎正借助 GPU 交易被越吹越大。然而,微软 CEO 萨蒂亚·纳德拉却语出惊人,直指 AI 发展的核心痛点:电力短缺。
“别光顾着囤芯片了,很多算力因为缺电根本无法启动。” 纳德拉的警告,揭示了 AI 发展背后潜藏的能源危机,缺电问题正逐渐成为 AI 发展的瓶颈。
那么,美国的电力究竟去了哪里?
首先,AI 本身就是一个“用电大户”。
美国能源部的一份报告指出,2023 年美国数据中心总耗电量占全国总发电量的 4.4%,达到 176 太瓦时,几乎相当于马来西亚一年的总用电量。预计到 2028 年,这个数字还将翻倍。
更令人担忧的是,AI 模型的电力利用效率并不高。数据中心普遍采用的 PUE(Power Usage Effectiveness)指标显示,目前全球平均水平为 1.56,这意味着只有约三分之二的电力真正用于 GPU 计算,剩余的三分之一则被消耗在制冷、供电系统等辅助设施上。
另一方面,美国老旧的电力基础设施也难以满足 AI 发展带来的巨大电力需求。电力供应不足导致电费飙升,普通居民的用电需求受到挤压。

2000 至 2025 年美国电价趋势
更甚的是,美国政府在能源政策上的摇摆不定,也加剧了电力供应的紧张局面。 特朗普政府时期对新能源项目的限制,无疑给美国的能源转型带来了更多不确定性。
在电力短缺的背景下,即使科技巨头们拥有再先进的 GPU,也只能面临“英雄无用武之地”的尴尬境地。更糟糕的是,芯片还会面临过期风险。
随着新一代芯片的不断涌现,老款芯片的价值将逐渐降低。
例如,目前市面上备受追捧的 H100 和 A100 芯片,实际上是 2022 年以前发布的产品。随着 H200、B200 以及未来的 B300 等新型芯片的陆续上市,老款芯片的竞争力将大打折扣。
根据 TrendForce 的预测,到 2025 年,NVIDIA Blackwell 系列 GPU 的出货量将占其高端 GPU 总产量的 80% 以上。这意味着,如果 OpenAI 囤积的 H100 芯片因缺电无法及时投入使用,很可能直接被性能更强大的 B200、B300 替代,造成巨大的资源浪费。

GPU 利用率不高,还将影响 AI 公司的估值。要知道,AI 公司的市值在很大程度上取决于其拥有的 GPU 数量和对 GPU 的需求。而如果大量芯片无法实际运用,将会加速 AI 泡沫的破裂。
面对困境,科技公司们不得不寻求“自救”。一方面,继续不惜代价地购买芯片;另一方面,积极寻找新的电力来源。
部分企业选择自建发电厂,例如 OpenAI 和甲骨文在德克萨斯州合作建设天然气发电厂。 然而,自建发电厂不仅需要大量资金投入,还面临环保方面的挑战。
另一条路径则是将数据中心转移到电力资源更丰富的国家和地区,例如墨西哥、智利以及一些非洲国家。然而,这种做法可能会加剧当地的电力供应紧张,对居民生活和生态环境造成不利影响。
更具想象力的是,一些公司,如英伟达和谷歌,甚至计划将数据中心搬到太空,利用太阳能供电。 虽然这一方案前景广阔,但也面临着技术、成本等多方面的挑战。
相比之下,中国在电力保障方面更具优势。2024 年,中国数据中心总耗电量达到 166 太瓦时,约占总社会用电量的 2%。 同时,中国还在大力发展绿色能源,降低碳排放。
由此可见,AI 发展的瓶颈并非仅仅在于芯片,还涉及到物理学、航空航天、土木工程等多个领域。在电力短缺的现实面前,PPT 里的美好愿景显得有些苍白无力。未来,高科技公司的竞争力或许将不再仅仅取决于芯片数量,而在于其获取和利用电力的能力。