今天這篇文章來自 2026 年初 SemiAnalysis 兩位能源基礎設施研究員的深度訪談。
訪談對像是 Jeremie Eliahou Ontiveros 和 Ajey Pandey.
Jeremie 此前是歐洲買方分析師,目前主要負責資料中心與能源基礎設施研究團隊。
Ajey 來自市政電力公司,學的是電氣工程。他在佛蒙特州伯靈頓市工作時負責的電網峰值負載是 50 MW,現在一個常規 AI 資料中心的負載等於"10 個伯靈頓"。
這篇文章核心討論的問題是:
當 AI 資料中心的電力需求以指數級增長,而傳統電網無法跟上節奏時,科技公司如何自己動手解決電力問題?
這個故事要從一個研究方法說起。
大部分機構預測資料中心能源需求時,用的是線性增長模型——假設每年增長 10% 或 15%,這是標準做法。
SemiAnalysis 團隊換了個思路:既然 AI 資料中心的爆發是由 GPU 驅動的,為什麼不直接統計 Nvidia 出貨了多少晶片,然後乘以每顆晶片的功耗?
算出來的數字讓所有人都愣住了。
2019 到 2022 年,全球資料中心行業每年新增電力容量大約 4-5 GW。這包括所有類型:社交媒體、雲端運算、各個地區加起來的總和。
2024 年,Nvidia 一家公司出貨的 GPU 需要 5 GW 電力。
“Nvidia 一家公司,就讓整個行業的規模翻了一倍。”
問題隨之而來:
這些電從那來?資料中心建在那?冷卻系統跟得上嗎?變壓器夠不夠?電工夠不夠?
Jeremie 的團隊開始用衛星圖片逐個追蹤全球數千個資料中心的建設進度。
他們發現,光看衛星圖就能判斷一個資料中心的電力系統和冷卻方案,他們並基於此預測雲服務商季度收入。
他們甚至能提前預判亞馬遜 Q3 的增長加速,因為他們看到了亞馬遜新資料中心的通電時間表。
這種方法之所以有效,是因為當前市場裡供給決定收入。
只要資料中心通電了,收入基本就鎖定了,因為需求遠超供給。每通電一 MW,你就能算出對應的晶片數量,再算出能產生多少收入。
這個邏輯會一直有效,直到供給超過需求。
誰最早看到了這個趨勢?
Microsoft,毫無疑問。
2020 年,Microsoft 向 OpenAI 投資 10 億美元。2023 年初,ChatGPT 爆火後,Microsoft 又追加了 100 億美元。
但投資只是表面動作,真正的訊號藏在資料中心租賃市場裡。
資料中心有兩種建設模式:自己建,或者從第三方營運商那裡租。租賃市場的玩家包括 QTS、Digital Realty、Equinix 這些老牌廠商。
2023 年,Microsoft 在租賃市場的表現只能用“瘋狂”來形容。
全年,Microsoft 一家租走了北美市場 60% 的可用容量。
2023 年 Q3,Microsoft 單季度租下了 2 GW,這相當於 2022 年整個北美市場全年的租賃總量。
同時,Microsoft 還在全球範圍內大規模啟動自建資料中心項目。從 2023 年開始,他們在美國各地和國際市場同時開工,建設周期通常需要一年多。
這些決策的結果在 2024 年底到 2025 年初開始顯現:
Microsoft Azure 的雲業務增速明顯加快,因為那些在 2023 年租下和開建的容量,陸續上線了。
其他巨頭呢?都慢了一拍。
Meta 最慘。
他們過去十年一直在建 H 型資料中心——150 MW,五棟樓,全風冷,能效比做到了行業最低。
但問題是:這種設計完全不支援液冷,而 GPU 叢集需要液冷;更要命的是,建設周期要兩年半。
當 Meta 意識到問題時,他們做了一個激進的決定:把一個已經開工的資料中心推倒重建,換成適配 AI 負載的新設計。
直到 2024 年下半年,Meta 才真正開始大規模上線 AI 算力。
Amazon 和 Google 也都晚了,只是程度不同。
這場競賽裡,反應速度決定了未來 18 個月的競爭格局。
電力短缺是當下正在發生的現實。
僅德克薩斯州,每個月就有數十 GW 的資料中心電力申請湧入。
過去 12 個月,真正獲批的只有 1 GW 多一點。
電網賣光了。
但這裡有個弔詭的地方:到底是真的沒電了,還是被流程卡住了?
答案是兩者都有,但更大的問題是囚徒困境。
當你向電力公司申請接入時,需要經過配電、輸電、電網營運商三方協調,跑一套複雜的負載模擬。
這個過程本身就很慢,而且經常會發生這種情況:等你的審批快完成時,又有新項目上線了,你得重新排隊。
更糟糕的是,因為大家都不確定能在那裡拿到電,所以每家公司都在全國各地瘋狂提交申請。
德州有申請,弗吉尼亞有申請,俄勒岡也有申請。
這導致整個系統被垃圾請求淹沒。
統計下來,美國全國的資料中心電力申請總量接近 1 TW,相當於美國電網峰值負載的兩倍。
顯然,這些申請大部分是假的,或者說是佔坑性質的。
但正是因為大家都在佔坑,真正的需求反而更難被滿足。
這就是囚徒困境:如果大家能協調,問題會容易得多;但因為每個人都在自保,整個系統陷入了惡性循環。
德州正在立法解決這個問題,要求申請方披露更多資訊,篩掉那些“拿著 100 英畝地就想招商引資”的投機者。
但即便清理掉噪音,硬體層面的約束依然存在:
變壓器、開關裝置、燃氣輪機,這些東西的交付周期都在拉長。
GE Vernova 的 H 級燃氣輪機?訂單已經排到 2029 年了。
在所有人都在抱怨電網太慢的時候,馬斯克用四個月在孟菲斯建成了一個 300 MW 的資料中心。
他怎麼做到的?
第一性原理:不依賴電網,自己發電。
2024 年初,xAI 想進入 AI 競賽,但已經晚了。
馬斯克跟 Oracle 等雲服務商談過,對方說最快 2025 年中才能給你電。
馬斯克的反應是:那我自己搞。
第一步,別建新樓了,找個現成的。他們找到了孟菲斯一個舊家電廠房,直接改造。
第二步,別等電網審批了,自己發電。但怎麼快速搞到發電裝置?
馬斯克沒有去訂那些需要等兩年的大型公用事業級燃氣輪機。他找到了一家渦輪機租賃公司,對方手裡有現貨庫存。
這些是模組化的小型燃氣輪機,幾周就能部署到位,接上燃氣管道就能發電。
四個月後,xAI Colossus 資料中心上線,成為全球第一個 GW 級的 AI 訓練叢集。
這套打法被稱為“棕地+橋接電源”模式:
傳統資料中心行業的人覺得這是瘋了。
“我去參加行業會議,所有人都說不應該這麼幹,從房地產角度看這不合理。”
但 AI 實驗室的人全都覺得馬斯克是天才。
OpenAI、Anthropic、所有 AI Labs 都開始模仿這套方法。
現在,AI 實驗室在資料中心建設中的話語權越來越大,他們正在重新定義這個行業的遊戲規則。
最初,大家都把現場發電當作臨時方案。
等電網接入批下來,這些燃氣輪機就轉為備用電源,主要電力還是從電網取。
但現在情況在變。
越來越多的公司發現:電網承諾的接入時間不斷推遲。
2027 年底?不好意思,現在是 2028 年底。過幾個月再問,可能變成 2029 年,甚至 2035 年。
電網變得不可靠了。
這逼著公司開始規劃完全脫網的資料中心。
不再是橋接,而是長期運行。
這意味著裝置選擇會發生變化:
不再是那些適合快速啟動的小型模組化渦輪機,而是那些能跑 20-30 年、效率超過 60% 的大型聯合循環燃氣輪機(H-class CCGT)。
成本更低,但系統更複雜,需要自己管理冗餘備份。
從衛星圖和許可檔案來看,已經有資料中心在為 2027-2028 年規劃完全脫網的電力方案。
這帶來了新的供應鏈瓶頸:燃氣輪機、往複式發動機、開關裝置、變壓器,所有這些裝置的交付周期都在拉長,價格也在上漲。
但市場的反應也很快。
一家叫 Boom Supersonic 的公司,原本造超音速飛機的,現在宣佈要給 AI 資料中心提供燃氣輪機——簽了 1.2 GW 的訂單。
還有公司在拆退役的波音 747,把飛機上的渦輪發動機改裝成發電機組。
這聽起來很瘋狂,但算一筆帳就明白了:
Oracle、CoreWeave 這些雲服務商,每 GW GPU 叢集每年能產生約 120 億美元收入。
如果你能提前六個月上線,那怕電費貴一倍,也完全不是問題。
因為 GPU 叢集的主要成本是硬體,也就是 Nvidia 的毛利。電費翻倍?影響不大。
速度才是一切。
而這場競賽正在波及更廣泛的經濟:資料中心搶走了電工、管道工;燃氣輪機訂單擠佔了集裝箱船和噴氣式飛機的發動機產能。
AI 基建正在重塑整個工業供應鏈。 (錘子在找釘)