一個被輝達掩蓋的、中美AI最殘酷的物理真相……

在過去兩年裡,當我們在談論中美AI差距時,由於Nvidia GPU的顯性存在,我們幾乎把所有的目光都聚焦在了“算力鴻溝”上:

因為製程封鎖,由於H100/H800的禁售,中國AI”似乎“被卡住了脖子。

然而,就在所有人的眼睛都盯著矽(Silicon)的時候,大洋彼岸的華爾街和矽谷巨頭們,卻開始因為電子(Electrons)而焦慮。

微軟CEO薩提亞·納德拉(Satya Nadella)在上一季的財報電話會議上,以及馬斯克在最近的長達3小時的《Moonshots》對話中,幾乎是明著說了:

顯示卡不再是唯一的瓶頸,

真正的瓶頸正在變成吉瓦(GW)等級的電力和帶電的資料中心。

但在這個層面,也就是AI的基礎物理層,電力供應上,

中美正面臨著完全相反的兩種“絕境”——

美國面臨嚴重“缺電”危機,

而中國卻擁有20倍的冗餘!

但中國即便電費便宜,

AI算力的能源成本卻可能比美國高出40%?

這到底是怎麼回事呢?

01. 美國需要一場AI曼哈頓計畫

讓我們先看一組資料,這組資料來自麥格理(Macquarie)最新的估算:

到2030年,中國AI發展所需要的電力增量,僅相當於過去五年中國新增發電能力的1%到5%。而在同一時期,美國AI發展所需要的電力增量,將佔據其過去五年新增發電能力的50%到70%。

麥肯錫的最新預測更是表明,到2030,美國資料中心電力需求將翻兩番,達到80-100吉瓦(GW)

請細品一下這組對比資料。

如果你品出來了,就知道,中國在過去五年裡,為了這個AI時代提前儲備了近乎20倍於AI實際需求的電力冗餘。中國的電網,就像是一個蓄滿水的巨型水庫,AI這條“大魚”游進去,水位線幾乎紋絲不動。

反觀美國,它的電網建設速度不僅緩慢,而且面臨著巨大的存量替換壓力。如果要把AI這個新的巨獸塞進美國的電網系統,它將一口吞掉整個國家未來幾年新增電力的大半壁江山。

2023年,美國全年新增發電裝機容量約為51 GW(吉瓦)。同年,中國新增發電裝機容量達到了驚人的429 GW。

8倍的差距。

這是一個物理世界的降維打擊。

所以當OpenAI的Sam Altman在四處遊說,聲稱需要7兆美元來重構晶片產業鏈時,他其實更應該擔心的是,

即便有了晶片,他在美國那裡能找到足夠的電把它們跑起來?

在美國弗吉尼亞州的“資料中心走廊”,電力公司Dominion Energy已經無數次發出警告,由於輸電瓶頸,他們可能無法及時為新的資料中心供電。

而同樣的故事,正在全美各地重演。變壓器短缺、環保審批流程(NEPA)長達數年的拖延、老舊電網的各種物理限制,正在成為美國AI頭頂的“天花板”。

但,中國已經“解決”了近期的AI電力供應問題。

如果你是一個在中國做AI基礎設施的創業者,你可能還在為拿不到H100而頭疼,但你絕不會像你的美國同行那樣,因為申請不到市電擴容指標,而不得不去考慮自建核反應堆。

02. 那怕電費為零中國AI的成本依然可能更高

讀到這裡,我們中國的讀者可能會覺得:

穩了。

既然電力是AI的血液,而中國擁有龐大的造血能力,那我們在AI競賽中豈不是佔據了絕對的地利?

且慢。這裡有一個巨大的“但是”。

中國有電,

但是,“電怎麼轉化成算力”(Efficiency)。

這就要回到半導體物理學的基本常識。

目前,美國頂級AI晶片(如Nvidia的B200/GB200)採用的是台積電最先進的4nm甚至3nm工藝。而受限於製程封鎖,中國的主流國產AI晶片不得不停留在7nm或更成熟的工藝節點上。

製程落後不僅僅意味著單卡算力(FLOPs)的差距,

更意味著能效比(Performance per Watt)的巨大鴻溝

在微觀層面,電晶體越小,驅動它所需的電壓越低,漏電率控制越好。反之,為了在落後製程上堆出同樣的算力,工程師必須堆疊更多的電晶體、拉高頻率、忍受更高的發熱。

Weijin Research做了一個場景模擬:

對比華為的CloudMatrix叢集(基於國產晶片)與Nvidia的GB200叢集。即便在最理想的最佳化下,要在同樣的算力輸出(FLOPs)上對標輝達,國產系統消耗的能源可能要高出100%甚至更多。

這是一個非常可怕的乘數效應。

一套完整的CloudMatrix系統可以提供Nvidia的GB200接近2倍的計算能力,但功耗是其4.1倍

讓我們算一筆帳:假設美國的工業用電平均成本是每千瓦時0.12美元,而中國依靠強大的煤電和新能源優勢,將成本壓到了0.08美元(便宜33%)。但是,如果國產晶片跑同樣的模型需要消耗2.5倍的電力(能效比落後),那麼最終每生成一個Token,或者每訓練一個參數,中國的電力成本實際上是美國的140%。

這就是“效率黑洞”

即使我們的電網裡流淌著世界上最充沛、最廉價的電子,但由於終端轉換裝置(晶片)的能效瓶頸,這些電子在轉化為智能的過程中,被大量的熱損耗浪費掉了。

這就解釋了為什麼華為等中國巨頭在最新的技術白皮書中,瘋狂強調“液冷”、“系統級能效”、“叢集最佳化”。因為在單點物理能效無法突破製程天花板的情況下,必須通過系統工程(System Engineering)來補課。

液冷 CDU,核心作用是 安全、精準、高效地將冷卻液輸送到伺服器晶片,並回收熱量

但散熱也是物理限制。

當一個機櫃的功率密度從10kW飆升到100kW甚至更高時,傳統的風冷徹底失效,資料中心必須進行傷筋動骨的液冷改造。這對於基礎設施的營運能力提出了地獄級的挑戰。

03. 電網設計正在成為新的核心國力

如果我們跳出單純的“晶片卡脖子”敘事,站在更高的維度——能源與計算的共生(Energy-Compute Symbiosis)來看待這場博弈,你就會發現:

電力、電網設計和計算效率,正在成為AI時代的核心國家能力(Core National Capabilities)。

我們先來看美國的策略

面對陳舊的大電網,美國科技巨頭正在試圖“繞過”電網。

  • 亞馬遜買下了核電站旁邊的資料中心,直接取電。
  • 微軟和OpenAI正在投資核聚變和小型模組化反應堆(SMRs)。
  • Google正在探索地熱供電。

SMRs產生的熱量可用於燒開水、產生蒸汽、驅動渦輪機和發電機,從而在火力發電廠中發電

這是一場“去中心化”的自救運動。美國正在倒逼其能源技術創新,試圖用技術突破來彌補基建的虧欠。如果SMR(小型核堆)技術一旦成熟,美國將解決算力能源的“最後一公里”問題。

美國策略的關鍵詞是:

分佈式突圍與核能復興

中國這邊則在打一場完全不同的仗。

我們擁有世界領先的特高壓(UHV)輸電技術,能夠將西部(甘肅、內蒙、四川)過剩的風光水電,跨越數千公里輸送到東部的算力中心,或者直接在西部建設“東數西算”基地。但這還不夠。

中國的真正野心在於將AI嵌入到能源系統本身。

比如,華為不僅僅在賣晶片,它在賣“數字能源”解決方案,把太陽能逆變器、儲能系統和資料中心溫控做成了一體化。寧德時代正在把電池塞進資料中心,作為UPS(不間斷電源)和削峰填谷的神器。比亞迪正在建構從太陽能板到儲能電站的閉環。

華為的資料中心和能源基礎設施建設解決方案

這是一種“全端式”的打法。

中國正在試圖用極其強大的宏觀能源調度能力(Macro Energy Management),去避險微觀晶片能效(Micro Chip Efficiency)的不足。

既然我的晶片費電,那我就把電變得更便宜、更穩定、更易得。用物理世界的“大力”,去出奇蹟。

我們這裡的關鍵詞是:

系統級碾壓與特高壓輸送

04. 終局

文章的最後,我們需要看到一個更深遠的趨勢。

“當全世界都需要AI時,誰能提供‘交鑰匙’方案?”

想像一下,未來一個開發中國家(比如沙烏地阿拉伯、巴西或東南亞國家)想要建設自己的主權AI。他們面臨兩個選擇:

選項A(美國模式)

花費巨資購買Nvidia的H200晶片(如果美國商務部批准的話),然後自己解決頭疼的電力供應問題,自己去搞定電網擴容,自己去建設昂貴的液冷設施。這對於很多基建薄弱的國家來說,是不可承受之重。

選項B(中國模式):

中國公司提供一套“交鑰匙”方案(Turnkey Solution)。我不只賣給你AI伺服器(雖然能效稍差一點,但也能用),我還打包賣給你配套的:

  • 一片GW等級的太陽能電站;
  • 一套巨型的儲能電池系統;
  • 一套全液冷的資料中心基礎設施;
  • 甚至是特高壓輸電網路。

這不僅僅是賣鏟子,這是把“礦山”和“運礦車”一起打包賣了。

在“一帶一路”沿線,這種“綠色能源+數字基建”的組合拳,正展現出極強的競爭力。美國或許在晶片的最尖端擁有無可比擬的統治力,但中國正在掌握“將算力落地為物理現實”的完整產業鏈

中國提議在全球範圍內建構AI驅動的衛星巨型網路,惠及所有人

回到文章開頭,AI的戰爭絕不僅僅發生在幾奈米的微觀世界裡,同樣發生在高聳的輸電塔、連綿的太陽能板和轟鳴的變壓器之間。

美國焦慮的是“無米下鍋”——有最好的爐子(晶片),但缺柴火(電力)。

中國焦慮的是“柴火利用率”——有堆積如山的柴火,但爐子的熱效率不夠高。

這兩種焦慮,

將塑造未來十年兩個超級大國的科技樹走向。

值得注意的是,對於中國的產業界而言,

不要因為我們在電力基建上的巨大優勢而沾沾自喜,從而忽視了晶片能效落後帶來的長期成本黑洞;但也絕不要妄自菲薄,因為在即將到來的“能源算力時代”,我們有牌可打。

遊戲,才剛剛開始。 (TOP創新區研究院)