#超級電腦
中美暗戰的另一面:AI的未來不只在模型裡
2017年,一家中型避險基金的交易員為了挖礦加密貨幣,購買了一塊輝達的GPU。GPU 的目標使用者原本是電子遊戲玩家,但輝達提供的軟體能把它變成低成本的“超級電腦”。從資本回報的角度看,這個GPU太成功了。“如果五天就能回本,你會想多做幾次這樣的事。”一年之內,這些交易員就辭了避險基金的工作,成立了公司,購買了幾千塊 GPU。2018年,加密貨幣市場崩潰,這家公司從破產的曠工手裡購買了更多GPU。2022年,AI開始興起。公司創始人接觸到了文生圖AI模型stable diffusion,他心裡想,“這會迷住全世界。”而stable diffusion的訓練裝置和他們買的輝達GPU非常類似。他們嗅到了千載難逢的商機。很快,他們融資1億美元,全都拿去買了輝達的GPU。如今,這家公司是美國最大的獨立 A.I. 資料中心營運商,他們就是CoreWeave。OpenAI的山姆·奧特曼認為,未來世界上的大部分地方,最終都會被資料中心覆蓋。他甚至認為,未來真正稀缺的,或者說夠得上價值來源的,只有兩種東西,一種是土地,另外一種就是部署人工智慧的公司。而資料中心,可謂兩者的結合點。A.I. 不是魔法,它是電、是水、是土地,也是現金流。一座資料中心,就可以吃下與一座大城市相當的電力。一次頂級訓練要動用上萬 GPU、進行 10²⁴ 等級運算,而寫一篇論文也要消耗相當於“微波爐全功率三分鐘”的電。紐約客剛剛發表了一篇特寫報告,到我們走進CoreWeave 的拉斯維加斯機房與微軟神秘園區,貼身觀察“英雄跑”式訓練、成排輝達機櫃與滾滾熱浪背後,A.I. 如何把海量資料與電力,煉成一小份“權重”檔案,再被覆制到全球做推理服務。文章把技術、能源、金融與社會影響揉成一體,展示了 A.I. 幕後的真實工業尺度。這篇報導非常難得地提供了全端視角:資料中心如何推高電價、改變土地用途、重啟核電、轉向天然氣,並引發社區與環保爭議;算力經濟學又如何運轉的。當然,這不僅僅是美國故事。微軟資料中心高管說,“我更擔心的是我們建得不夠,而不是建得太多。”Google前首席執行官埃裡克·施密特說,為滿足資料中心的需求,美國必須在全國電力供應中新增 92 吉瓦,等於 92 個“費城”。如果電力不夠,美國的A.I. 開發商可能會輸給中東與中國,那裡的超大型資料中心項目已經在推進。美國一位能源高管則語氣裡帶著羨慕地說:“中國正在建 26 座核電機組。”A.I. 的未來,不只在模型裡,更在電網裡。尖峰報告:穩定幣到底是一場怎樣的財富大轉移?Inside the Data Centers That Train A.I. and Drain the Electrical GridBy Stephen WittOctober 27, 2025訓練人工智慧、耗盡電網的那些資料中心——一個資料中心的用電量可與費城相當。它是新的“美國工廠”,在創造未來、支撐經濟。這能持續多久?開車從幾乎任何一座美國城市出發,往幾乎任何方向走,不久你就會看到一個資料中心:一座從整平的土地上拔地而起的巨大白色盒子,周圍是發電機,外面圍上像監獄院子一樣的柵欄。面向人工智慧的資料中心,是新的“美國工廠”。它們塞滿計算裝置,吸收資訊,產出 A.I.。自 2022 年 ChatGPT發佈以來,這些設施開始以驚人的速度擴張。“我猜,隨著時間推移,世界上很大一部分地方都會被資料中心覆蓋。”OpenAI 的首席執行官薩姆·阿爾特曼最近說。美國最大的獨立A.I. 資料中心營運商是 CoreWeave。它的起點在八年前,帶點兒隨意的試驗色彩。2017 年,一家中等體量的紐約避險基金裡的交易員決定開始“挖礦”加密貨幣,用來當他們夢幻橄欖球(聯賽的報名費。為了挖礦,他們買了一塊圖形處理器(GPU),這是一種由輝達公司製造的強力微晶片。GPU 的目標使用者原本是電子遊戲玩家,但輝達提供的軟體能把它變成低成本的“超級電腦”。“從資本回報角度看,它太成功了,所以我們開始擴規模。”CoreWeave 的聯合創始人之一布賴恩·文圖羅(Brian Venturo)對我說,“如果五天就能回本,你會想多做幾次這樣的事。”一年之內,這些交易員就辭了避險基金的工作,買了幾千塊GPU,把它們放在文圖羅位於紐澤西州的祖父家車庫裡運行。2018 年加密貨幣市場崩盤後,CoreWeave 又從破產的礦工手裡收購了更多晶片。沒多久,這家公司搭出一個平台,讓外部客戶也能訪問這些 GPU。然後在 2022 年,文圖羅接觸到了 Stable Diffusion(一種圖像生成式 A.I.)。他向 A.I. 輸入不同場景的文字描述,模型就返回精準而漂亮的插圖。“這會迷住全世界。”文圖羅回憶自己當時這麼想。Stable Diffusion 的訓練所用裝置與 CoreWeave 的輝達硬體類似。文圖羅和聯合創始人嗅到了千載難逢的商業機會。CoreWeave 融了 1 億美元,幾乎全拿去買輝達的硬體。很快,輝達首席執行官黃仁勳安排與這個團隊會面。“他先花了大概十分鐘拿我來自紐澤西這件事打趣。”文圖羅說。但沒多久,輝達就入股了這家公司。到 2022 年年中,CoreWeave 已經在營運一種全新的業務:把 A.I. 開發者與一倉庫一倉庫的輝達裝置連接起來。現代資料中心的建設始於1990 年代,伴隨著商用網際網路的到來。資料中心託管網站、協調電子郵件、處理支付、串流媒體視訊和音樂。亞馬遜在建設資料中心方面尤其激進,它在弗吉尼亞州勞登縣建了太多,以至於那裡被稱為“資料中心走廊(Data Center Alley)”。即便在 A.I. 熱潮之前,資料中心也能賺錢;有些年份,亞馬遜的雲服務部門(AWS)在銷售額只有零售業務一小部分的情況下,利潤卻超過了後者。但輝達GPU 的到來與大規模 A.I. 訓練的興起,改變了資料中心的生意邏輯。ChatGPT 於 2022 年 11 月上線,一炮而紅。“全世界都瘋了。”文圖羅說。微軟與 OpenAI 合作,為 ChatGPT 提供運行所需的資料中心容量。當微軟跟不上需求時,它就轉向了 CoreWeave。如今,用輝達硬體成了身份象徵——證明你對 A.I. 是認真的。和工程師談裝置時,我想起曾經看到的一條蜿蜒長隊,年輕人頂著寒風排隊買潮牌 Supreme 的球鞋。不要浪費一場好泡沫今年早些時候,CoreWeave 上市了。文圖羅和聯合創始人成了億萬富翁。公司擁有數十萬塊 GPU。除了 OpenAI,它的平台也在為 Meta和其他領先實驗室訓練模型。今年夏天,我參觀了位於拉斯維加斯郊外的一處CoreWeave 設施。這是一座大型倉庫,外圍一道厚重的圍欄,按固定間距裝著安保攝影機。我通過旋轉閘門進入,一位穿防彈背心、腰挎泰瑟電擊器(Taser)的保安迎接了我。我上交了手機,從分配器裡拿了兩隻螢光綠耳塞,然後走進機房。一起進入的還有三位CoreWeave 工程師。他們是適應了“超級規模資本主義”的極客,就像達爾文的雀鳥適應了加拉帕戈斯群島。來自總部的雅各布·尤恩特(Jacob Yundt)身材瘦削、口才利落,頭髮分縫誇張。克里斯托弗·康利(Christopher Conley)戴著墨鏡和鬍鬚,熱情愛講解,負責硬體。肖恩·安德森(Sean Anderson)身高七英呎,是前大學籃球中鋒,穿著一件印著“MOAR NODES”的襯衫。[譯註:更多節點。“MOAR”為網路俚語,對“more”的誇張寫法。]所謂“節點(node)”,是一種淺托盤狀的計算單元,每個約 70 磅,內含 4 塊水冷 GPU 以及其他元件。18 個這樣的托盤疊起,再用線纜接到控制單元,就構成一個輝達 GB300 電腦機櫃。它比冰箱還高,造價數百萬美元。忙碌的一年裡,單個機櫃的用電量就能超過 100 戶家庭。這樣的機櫃有成排成排,延伸到遠處。為降噪與散熱,CoreWeave 把機櫃裝在白色金屬機箱裡。康利解開門扣,給我看一台運行中的機櫃,一股強風撲面而來。噪音糟糕透頂,像是打開掃帚間,裡面居然有一台正在噴氣的發動機。我看著指示燈閃爍、風扇飛轉。“耳鳴是職業病。”康利衝著我大喊。我環顧四周。機房裡有上百個一模一樣的機箱。我們頭頂是一道金屬棧橋,上面排著給裝置配電的配電器。我想到修道院裡的修士、軍營裡的士兵、牢房裡的囚徒。我在想,什麼樣的人會自願在這樣的地方工作?“人資說我不能再這樣提問了,但我喜歡招能吃苦的人。”尤恩特後來對我說,“耐力型選手之類的。”CoreWeave 不告訴我那天是那位客戶在用他們的裝置,不過尤恩特暗示,我們目睹的訓練規模算是“溫和”的。他開始講解機櫃的配置。我聽不清,只能一本正經地點頭,像是在夜店裡聊天。即便塞了耳塞,我的耳朵還是開始嗡嗡作響,頭也開始痛。尤恩特轉向我。“有時某位客戶會把整座機房佔滿,一佔就是好幾周。”他喊道。他分縫的頭髮被風扇的氣流吹得上下翻飛。“我們稱之為‘英雄跑(hero runs)’。”CoreWeave 的硬體可以把一個 A.I. 從零訓練到成品。軟體開發者通常在矽谷的工位上,把一個叫作“權重(weights)”的數字檔案和海量訓練資料上傳到資料中心。資料可以是文字、圖像、病歷記錄,或者幾乎任何東西。起初,權重是隨機的,A.I. 並不具備任何能力。接著,A.I. 會接觸一部分訓練資料,並被要求做預測——比如猜測句子中接下來的幾個字母。一個未訓練的 A.I. 幾乎一定會猜錯,但它至少會學到“不該怎麼做”。於是需要調整權重,以吸收這條新資訊。這類數學很笨重,尤其依賴一種叫“矩陣乘法(matrix multiplication)”的運算。注意力不是終極貨幣,穿越AI周期要向這家“大賣場”學習數學家G. H. 哈代(G. H. Hardy)在 1940 年寫道:“美是第一試金石:醜陋的數學在世上沒有立足之地。”但如今我們社會把大量邊際資源投入的矩陣乘法,優雅程度就像一個人拿錘子往木板裡釘釘子。它既不美,也不對稱:事實上,在矩陣乘法裡,a 乘 b 不等於 b 乘 a。隨著矩陣變大,算術需要巨大的計算力。最新的大語言模型可能包含約一兆個權重。為這樣的模型進行一場長達數周的“英雄跑”,要動用成千上萬塊 GPU,總運算量可達 10 的 24 次方(十兆億次)等級,超過可觀測宇宙中恆星的數量。資料中心必須與當地電力公司緊密配合來管理這些訓練。流經CoreWeave 晶片上方的冷卻水,入口是室溫,出口卻比熱水澡還燙。水會先在儲罐中被冷卻,再回收進系統。機房裡的空氣溫度、濕度、顆粒物含量也要嚴密監控。“冷凝水是我們的敵人。”康利鄭重地說。所有這些晶片、所有這些電力、所有這些風扇、所有這筆錢、所有這些資料、所有這些水冷泵和電纜,全是為了把那份小小的權重檔案調到最好。它小到可以裝進一個外接硬碟裡。很多事都繫於這一組調勻的“人工神經元”。開發它以及同類模型所花的錢,是人類歷史上最大規模的資本投入之一。當成品準備就緒,權重的副本會分發到全國各地的資料中心。使用者通過網際網路呼叫,這一步叫“推理(inference)”。使用者提出問題,驅動 A.I. 生成一個個“詞元(token)”。一個 token 可以是一小塊像素,也可以是一個詞的片段。寫一篇大學課程論文,A.I. 可能要生成約 5000 個 token,這耗電量相當於把微波爐開到最大功率運行大約 3 分鐘。隨著人們對 A.I. 的需求越來越複雜——視訊、音訊、心理諮詢等,所需算力將再成倍增長。把這個需求乘上每周使用ChatGPT 的 8 億多使用者,資料中心的爆炸式增長就不難理解了。如今 ChatGPT 的人氣超過了維基百科;年輕人把它簡稱為“Chat”,這個詞逐漸成了 A.I. 的代名詞,就像“Google(Google)”之於網際網路搜尋。我跟一位微軟的資料中心主管聊過,他認為未來我們會像需要網際網路、電力那樣不間斷地需要 A.I.,而現在的資料中心建設可能還不夠。“我更擔心的是我們建得不夠,而不是建得太多。”這位主管說。微軟是資料中心的主導營運商之一,而這項業務已成為美國經濟增長的主引擎。雖然公司仍在做作業系統和辦公軟體,但讓投資者興奮的恰恰是資料中心,這推動微軟的市值來到約4 兆美元,位居全球第二。為微軟提供晶片的輝達則是第一。想進微軟的資料中心非常難,就像想進諾克斯堡(Fort Knox)一樣難。[譯註:Fort Knox 是美國黃金儲備地,安保森嚴。]這些設施裡在開發的 A.I. 價值連城。CoreWeave 的首席技術官彼得·薩蘭基(Peter Salanki)對我說:“傳統上,如果你想偷價值離譜的東西,通常是‘把卡車倒過來裝貨’。”[譯註:英語俗語,比喻大量搬運。]“在這裡,只要有人帶個 U 盤潛進去,就能把 OpenAI 的全部智慧財產權都裝走。”不過今年秋天,經過大概兩百通電話,我被邀請去參觀一處正在建設中的微軟超巨量資料中心園區。我同意不拍照,把手機留在外面,對內部僅做有限描述,並且不透露它位於美國何處。9 月,我開了很長一段路,到了大荒郊野外。資料中心四周都是農田,至少還有三家公司也在附近建資料中心。田野之間,高壓電塔牽出的電線如麻,又有一個個巨大的難看盒子拔地而起。園區外牆沒有任何微軟標識——完全沒有任何標識。穿過圍欄和幾道車輛檢查點後,園區大部分還是一片空曠,只有一個角落,整齊排著編號的長條機棚。這些機棚白色、狹長、高挑,長度有好幾塊橄欖球場那麼長,讓我想起小時候去明尼蘇達州博覽會(Minnesota State Fair)時見過的牲畜棚。每個棚旁邊都排著一行柴油發電機和工業空調。我去的時候,有5 座機棚,計畫大約會建到 10 座。施工車輛隨處可見:曲臂車、推土機、盤著電纜的大卡車。有人在我參觀的機棚前做了點綠化,幾株小植物在陰影裡生長。未來一個人可以沒有工資,但不能沒有頭寸棚內,我見到了微軟高管朱迪·普里斯特(Judy Priest)和史蒂夫·所羅門(Steve Solomon)。他們的職業生涯都在管理“倉庫大小”的電腦。普里斯特是電氣工程師,畢業於麻省理工學院,眉骨高挑,金發凌亂。所羅門是機械工程師,回答我的問題時常以長篇技術獨白作結。兩人都為能參與這場新工業革命而興奮。普里斯特興致勃勃地講起她最近一次就醫,之後收到了 A.I. 協助生成的醫患對話摘要。所羅門則說,他的音響出問題了,就拍下背面的接線,上傳給“Chat”。A.I. 返回了 7 條故障排查方案。他的語調微微一揚,我猜那是在表達情緒:“第三條,管用。”穿上鋼包頭靴子,看完一段PowerPoint 演示,我通過安檢,進入“聖域”內部。這裡比 CoreWeave 的機房更安靜、更整潔,也更寬敞。數以百計的同款伺服器與計算裝置在嗡嗡作響,接駁著冷卻站,佔滿了大半地面空間。天花板上紮著用紮帶固定的線束:供電線、資料線、水氣管道。線纜接入一束更粗的總幹線,把各機棚連成一個統一的超級電腦。5 個機棚裡,用於計算的面積相當於 20 個橄欖球場。普里斯特解釋說,一次高級訓練可以把整套系統佔滿一個月。我和一位技師站在控制中心,觀察電力負載。我們看著功率尖峰——電腦正處理訓練資料。隨後功率回落——它在把結果寫回檔案。這樣的脈衝不斷重複,模型從一個“檢查點”推進到下一個。在這座建築的某個地方,模型正在變好。在這座建築的某個地方,電腦正在學著“如何思考”。離開資料中心,我突然渴望人類的接觸。半英里外,一座糧倉的塔頂從另一處資料中心工地後面探出頭。我開車穿過灰色建築、灌溉渠、電力線和蔥鬱田野交織的景觀,來到了一個佈滿拖拉機和皮卡的塵土院子。那裡,我遇見了一位傳了四代的苜蓿農。他穿牛仔褲、格子襯衫,頭戴繡著一輛槽罐車的棒球帽。他指向穿越他地塊的電線,那是當地電力公司在1940 年代架設的。“我們一直把那些東西當負資產。”他說,“我們以為它們會壓低地價。”但現在,能接近變電站成了值錢的寶貝。有個鄰居說,他把一塊農地賣給資料中心開發商,畝價超過 100 萬美元,比一輩子的種地收入都多。這位農民說,他們家也在一塊塊地這樣出手。農場北面新開了一處資料中心,東邊又在建一處。微軟那片龐大的設施主宰了地平線;它就坐落在他們家自1979 年起耕作的一片土地上。他告訴我,他很快打算搬走——周遭既不適合耕作,甚至也不適合人類生活。我問他,住在資料中心旁邊有沒有什麼環境影響。他說,對水資源的影響可以忽略不計。“說實話,我們可能用的水比他們多。”(訓練一套最先進的 A.I. 所耗用的水,比一年裡一平方英里農田的用水少。)電力則不同:這位農民說,當地電力公司準備在三年內第三次漲電價,最近一次擬議漲幅還是兩位數。最大的損失是肥沃的表土。他們家靠精心輪作維持了多年的土層肥力。“微軟找了台挖掘機,一天就給刨完了!”他像談起丟了傳家寶那樣說,“六到十英呎厚,統統沒了。”我們看著一隻黃狗起身,在原地轉了個小圈,又回到樹蔭下睡去。樹後,一座巨大長方體倉庫把樹都顯得渺小。我問他是否用A.I.。“我用 Claude。”他說,“Google現在不行了。”使用AI的正確姿勢,不是破局,而是做局資料中心正開始給美國電網施加巨大壓力。1999 年,康斯特雷申能源(Constellation Energy)買下三里島(Three Mile Island)僅存的一座運轉中的反應堆,並營運了二十年。2019 年,該公司關閉了這座反應堆,認定其經濟上不可行。負責該公司核電機組的高管布賴恩·漢森(Bryan Hanson)為員工辦了場告別派對。“有吃的,但沒人動。”他說,“氣氛就像葬禮。”派對也許很快會回到三里島。康斯特雷申宣佈,計畫在2027 年重啟該設施,並將其更名為“克雷恩清潔能源中心(Crane Clean Energy Center)”。與微軟的巨額合同改變了一切。“如果你在八年前告訴我會重啟這座電站,我不會信的。”漢森說。(該址的第二座反應堆在 1979 年曾向大氣中釋放放射性氣體,將繼續停擺。)像漢森這樣的能源高管,正被“加電”的請求淹沒。他說,資料中心“可能比我們此前接入電網的任何東西都大一個數量級”。“想想費城這座城市,它的負荷大約是 1 吉瓦(GW)。現在想像一下,往電網裡加上一個又一個 1 吉瓦級的資料中心,不是一個,而是許多個。”一個資料中心上線時,零售使用者通常要幫忙分攤電費:2025 年上半年,美國公用事業公司尋求的零售電價上調總額接近 300 億美元。今年春天,電力公司提出的漲價請求,幾乎是去年同期的兩倍。彭博社的分析估計,在資料中心附近地區,批發電價在過去五年裡上漲了 200% 以上。而且電價可能還會繼續漲——現有電廠的發電能力遠遠無法滿足需求。Google前首席執行官埃裡克·施密特說,為滿足資料中心的需求,美國必須在全國電力供應中新增 92 吉瓦——等於 92 個“費城”。如果電力不夠,美國的 A.I. 開發商可能會輸給中東與中國,那裡的超大型資料中心項目已經在推進。資料中心要想經濟上說得過去,必須24 小時全天候運行。(我參觀的那座微軟設施,獲批的“非計畫停機時間”是每年 5 分 15 秒。)風能太陽能等可再生能源受天氣制約,目前只能滿足其中一小部分。核電也幫不上太多忙,至少短期不行;漢森說,美國要建成新的大型核反應堆,需要很多年。他語氣裡帶著羨慕:“中國正在建 26 座核電機組。”短期內,新資料中心主要會靠化石燃料供電。開發商在馬塞勒斯頁岩(Marcellus Shale)等天然氣儲層附近買地。4 月,總部在賓夕法尼亞州的“霍默城重建公司(Homer City Redevelopment)”宣佈,打算把匹茲堡郊外一座封存的燃煤電廠改造成全美最大的天然氣電廠,幾乎專供資料中心使用,發電能力約 4.5 吉瓦。按一家環保非營利組織的估算,霍默城電廠每小時可能向大氣排放多達 400 萬磅二氧化碳,約等於 400 萬輛怠速汽車的排放。地球目前以每十年約0.3℃ 的速度變暖——大約是冰期結束時的 10 倍。上一個冰期結束後,海平面上升了 400 英呎。再添上像霍默城這樣的電廠,以及全球範圍內更多同類項目,只會加速這條災難性時間線。川普政府對此的回應,是在政府公文裡限制使用“氣候變化”這一表述。楊振寧之道:欲成大事者,必須走“捷徑”資料中心也會帶來本地污染。埃隆·馬斯克的 xAI在孟菲斯建了一座以天然氣供能的資料中心,位置靠近黑人社區 Boxtown。該地區本已是田納西州急診就診哮喘比例最高的地方,電廠投運後,能加劇哮喘的二氧化氮(NO₂)水平一度飆升達 9%。富裕地區則試圖阻止資料中心落地。2024 年 11 月,華盛頓特區富裕郊區弗吉尼亞州華倫頓的選民,把支援新建亞馬遜資料中心的市議員換成了反開發陣營。(在鄰縣因此丟掉席位的民主黨人安·惠勒〔Ann Wheeler〕把某些活動人士的心態稱為“BANANA”:Build Absolutely Nothing Anywhere Near Anyone,即“絕不要在任何人附近建任何東西”。)未來幾年,資料中心建設預計將佔美國國內生產總值(GDP)的 2%–3%。19 世紀,鐵路建設對 GDP 的貢獻約為 6%。鐵路改變了美國,帶來了巨大的但分配並不均衡的繁榮,可瘋狂建造也催生了歷史上最大的投機泡沫之一。隨後是 1893 年恐慌:失業飆升、數百家銀行倒閉、民粹情緒高漲,動搖了美國政治環境。另類資產管理巨頭黑石(Blackstone)總裁、金融家喬恩·格雷(Jon Gray)提到了羅恩·切爾諾(Ron Chernow)寫的約翰·D·洛克菲勒(John D. Rockefeller, Sr.)傳記。“很多鐵路都破產了!”他說,“你要設法避免這種結局,因為沒人知道終局會是什麼樣。”黑石通過發債建設資料中心;為了避免“做接盤的”,格雷會先從微軟或亞馬遜這樣的科技巨頭拿到一份 15 年期租約——這些客戶幾乎是最具信用的。一般沒有這樣的大客,黑石就不會投資料中心。“這不是邁阿密或迪拜的公寓泡沫。”格雷說。繼續建資料中心的前提是:往機棚裡塞更多輝達晶片,就能得到更強的A.I.。目前為止,這條經驗是對的:最新一代 A.I. 是有史以來能力最強的。OpenAI 的 GPT-5甚至能“造出”其他更原始的 A.I.。不過,“更多晶片=更強智能”並不是不可違背的定律,研究者也不清楚“規模效應(scaling)”為何存在。A.I. 先驅德米斯·哈薩比斯(Demis Hassabis)談到規模化時說:“我們會不會撞上‘磚牆’,這是個經驗問題。沒人知道。”也可能,會出現某個技術突破,讓“超級規模化”不再必要。今年早些時候,當中國公司 DeepSeek發佈看似更高效的 A.I. 訓練範式時,輝達股價暴跌,單日蒸發近 6000 億美元市值。(後來又漲回來了。)唐納德·川普把資料中心建設列為國家要務;科技公司高管把新項目帶到白宮宣佈,幾乎成了儀式。但討好川普,可能意味著“拉大旗作虎皮”。9 月的一次白宮晚宴上,馬克·祖克柏說,Meta 未來幾年將在資料中心及相關基礎設施上投入 6000 億美元。話筒還沒關,祖克柏湊近川普低聲說:“抱歉,我沒準備好。不確定你想讓我說那個數。”亞馬遜負責全球資料中心營運的凱里·珀森(Kerry Person)對我說,電力公司對一些新晉資料中心開發商提交的用電請求持懷疑態度。“看看排隊裡的需求量,再看看要實現這些需求需要多少錢——那筆錢根本不存在。”珀森說。GPT-5大失眾望,人工智慧的泡沫是不是要被奧特曼吹破了?A.I. 儘管能力奇妙,最終也可能讓投資者失望。它可能會變成一種不賺錢的“同質化商品”:Claude、Grok、Gemini和 ChatGPT 的能力很相近,而技術創新會被競爭者很快抄走。科技巨頭並非有取之不盡的資金:當微軟、Meta 等公司把錢源源不斷投進資料中心賽道,它們的現金儲備也在縮減。投資者也許期望過高:美國股市的估值倍數正在接近網際網路泡沫時期的水平,風險投資市場變得浮躁。傑夫·貝索斯最近說:“投資者通常不會給六個人的團隊幾十億美元、而且還沒產品。這很少見,但今天它在發生。”當然,也可能一切名副其實。輝達首席執行官黃仁勳是世界級的電腦科學家,他在造就A.I. 時代的關鍵晶片。“過去我們兩年才等來新一代矽。”微軟工程師普里斯特說,“現在幾個月就來一代。”輝達約佔標普 500 指數總市值的 8%,這是至少 45 年來單一成分股的最高集中度。很多人的養老,都系在黃仁勳能否持續造出更好的晶片上。水、能源和土地都稀缺,但對資料中心而言,最寶貴的資源,顧名思義,是“資料”。Claude 訓練用過 LibGen(LibGen,Library Genesis 的簡稱,海量盜版電子書庫,可通過 BT 下載)。9 月,Claude 的開發商 Anthropic同意向這些書籍的版權方支付 15 億美元賠償,約合每起侵權 3000 美元——這是史上最大規模的集體版權侵權和解。針對 OpenAI 和輝達的類似訴訟仍在進行中。微軟並不知道客戶往它的資料中心裡上傳了什麼——資料是專有的。要判斷 A.I. 時代版權侵權的規模很難,但我猜,它讓 Napster(早期音樂共享平台)看起來像同學之間換磁帶。現代 A.I. 開發的做法,是把能抓取到的網路資料都吸乾淨——音訊、視訊、幾乎所有英文出版物、和超過 30 億網頁,再交給律師去收拾爛攤子。不過,如今也有人在談“資料荒”。可索引網際網路大約有 400 兆詞,但正如 OpenAI 聯合創始人安德烈·卡帕西(Andrej Karpathy)所說,其中很多“純屬垃圾”。高品質文字更難找。如果趨勢持續,研究者認為,A.I. 開發者可能會在 2026–2032 年之間耗盡可用的人類文字。由於聊天機器人在“回收”既有作品,它們的表達難免陳詞濫調,措辭很快就會乏味。我試過,要它們寫出新鮮、優質的文字很難。年輕人率先覺醒開始退出社交媒體,靠流量賺錢的時代結束了微軟的普里斯特說,她並不擔心“資料不夠用”:文字之外還有整個宇宙,A.I. 開發者才剛剛開始探索。下一個前沿是“世界模型(world model)”資料,用來訓練機器人。視訊流和空間資料會被送進資料中心,用於開發自主機器人。輝達的黃仁勳也想搶灘這個市場,去年他曾與兩台移動人形機器人同台亮相。在洛杉磯,我已經在無人駕駛汽車後面等過路,也曾撞見一輛自主配送小車,但讓我真正理解“機器人革命”會是什麼樣的,是我最近一次去北京時見到的景象。在中國,機器人無處不在。我看到它們在商場裡補貨、清潔地面。我點了外賣到酒店房間,送餐的是一台兩英呎高、像垃圾桶一樣有輪子的機器人,聲音像個小孩。我打開門,一時不知所措,發現它正停在我面前,身上裝點著仿管家的裝飾,用普通話嘰嘰喳喳。機器人前面的一扇小艙門彈開,一盒面條滑了出來。它又嘰嘰喳喳。我拿走食物,小艙門合上,機器人掉頭離去。我愣在原地,端著餐盤,想著自己是否還會再和人類說話。 (不懂經)
禮來聯手輝達建製藥業最強超算和AI工廠:加速藥物研發,發現人類無法找到的分子
禮來公司攜手輝達打造由逾1000顆Blackwell Ultra GPU組成的超級電腦和AI工廠,預計明年1月上線。該系統將加速藥物研發,支援大規模AI模型訓練。禮來首席資訊和數字官Diogo Rau表示:“我們希望能夠發現僅靠人類永遠無法發現的新分子。”禮來公司與輝達宣佈合作建設製藥行業"最強大"的超級電腦和AI工廠,旨在加速整個行業的藥物開發處理程序。周二兩家公司宣佈,禮來預計於12月完成超級電腦和AI工廠的建設,並於明年1月上線運行。這套系統將由逾1000顆輝達Blackwell Ultra GPU晶片組成,通過統一高速網路連線。超級電腦將為AI工廠提供動力,後者是專門用於大規模開發、訓練和部署藥物研發AI模型的計算基礎設施。不過禮來首席資訊和數字官Diogo Rau表示,這些新工具可能短期不會為禮來及其他藥企帶來顯著回報。Rau說:我們現在討論的這些算力發現成果,真正的效益要到2030年才能看到。AI製藥仍處早期階段製藥行業利用AI加速藥物上市的努力仍處於早期階段。目前尚無使用AI設計的藥物上市,但進展體現在進入臨床試驗的AI發現藥物數量增加,以及藥企近期聚焦AI的投資和合作夥伴關係上。禮來首席AI官Thomas Fuchs表示:這台超級電腦是一種真正新穎的科學儀器,就像生物學家的巨型顯微鏡。Fuchs強調:科學家將能夠在數百萬次實驗中訓練AI模型以測試潛在藥物,大幅擴展藥物發現的範圍和複雜程度。Rau則指出,雖然尋找新藥不是這些新工具的唯一重點,但"這是最大的機會所在"。他說:我們希望能夠發現僅靠人類永遠無法發現的新分子。精準醫療目標需AI基礎設施禮來還計畫利用超級電腦縮短藥物開發周期,幫助治療效果能更快起效。該公司表示,新的科學AI代理可以支援研究人員,先進的醫學影像能讓科學家更清晰地觀察疾病進展,並幫助開發用於精準治療的生物指標。精準醫療是一種根據個體基因、環境和生活方式差異定製疾病預防和治療的方法。輝達醫療保健副總裁Kimberly Powell說:我們希望能兌現精準醫療的承諾,沒有AI基礎設施,我們永遠無法實現這一目標。所以我們正在進行所有必要的建設,我們將看到技術的起飛,禮來就是一個確切的例子。開放平台共享研發資料多個AI模型將在禮來去年9月推出的Lilly TuneLab平台上提供。這是一個AI和機器學習平台,允許生物技術公司訪問禮來基於多年專有研究訓練的藥物發現模型。這些資料價值10億美元。禮來推出該平台旨在擴大整個行業對藥物發現工具的訪問。Kimberly Powell表示:能夠幫助到這些初創公司非常有意義,否則他們可能需要幾年時間消耗資金才能達到那個階段。她還補充說,公司“很高興參與”這項工作。作為交換,生物技術公司需要貢獻部分自身研究和資料以幫助訓練AI模型。 (invest wallstreet)
輝達豪擲數十億殺入北歐!瑞典超級電腦背後的全球AI霸權爭奪戰
一、超級電腦的“北歐心臟”:算力、安全與主權博弈根據彭博社披露的協議,該項目首期將部署兩套NVIDIA DGX SuperPOD系統,搭載最新Grace Blackwell GB300晶片,單機算力可達300 Petaflops(每秒30億億次運算),是瑞典現有最快電腦的兩倍。其核心價值在於:主權AI基礎設施:資料儲存與處理完全在瑞典境內完成,規避歐盟《通用資料保護條例》(GDPR)的跨境風險;行業定製化:阿斯利康用於藥物研發的“多模態推理AI”、薩博的國防系統最佳化、愛立信的6G網路訓練均可獨佔算力資源;生態繫結:輝達通過技術中心提供深度學習培訓,未來十年計畫為北歐培養超10萬名AI工程師。值得關注的是,瓦倫貝格家族通過旗下投資機構主導了55億瑞典克朗(約6.5億美元)的WASP計畫,這是歐洲最大私營AI研究項目,已吸引40家企業參與。此次合作本質是“資本+技術”的雙向選擇——輝達需要打破地緣封鎖,北歐則渴望掌握AI時代的話語權。二、輝達的“三重算盤”:從晶片商到規則制定者黃仁勳在聲明中將此次合作稱為“第三次工業革命的基礎設施”,其戰略意圖遠不止賣晶片:算力標準輸出:通過SuperPOD系統定義企業級AI算力基準,擠壓AMD、英特爾的市場空間;產業鏈深度繫結:從製藥(阿斯利康)到國防(薩博),輝達滲透核心行業,形成“離開NVIDIA就無法轉型”的依賴;地緣避險:在美國限制對華高端晶片出口的背景下,歐洲成為輝達對衝風險的“安全港”。摩根士丹利分析指出,該項目可能推動輝達歐洲營收佔比從2024年的18%提升至2026年的25%,成為其增長最快市場。三、北歐為何成為AI新戰場?政策紅利:瑞典企業所得稅率20.6%,遠低於歐盟平均的21.3%,且對研發投入提供45%的稅收抵扣;產業基礎:愛立信的6G預研、薩博的軍工AI、阿斯利康的生物計算,形成跨領域協同效應;地緣中立性:在中美科技戰中,瑞典既能承接美國技術轉移,又不直接觸怒中國市場。但隱憂同樣存在——瑞典本土半導體製造能力薄弱,90%的高端晶片依賴進口。瓦倫貝格家族投資主席Marcus Wallenberg坦言:“我們必須與全球領導者合作,但絕不能失去控制權。”四、全球AI競賽的啟示:技術冷戰下的“多極化”未來技術標準分裂:美國主導的CUDA生態、中國推動的自主框架、歐洲嘗試的主權AI,全球算力市場或走向“碎片化”;資料主權爭奪:從歐盟的GDPR到中國的《資料安全法》,國家間“數字邊境”日益清晰;生態鏈重構:輝達的案例證明,未來巨頭競爭不僅是產品之戰,更是“晶片+演算法+人才+政策”的全鏈條博弈。這場北歐豪賭的終極懸念在於:當算力成為國家戰略資源,科技公司如何平衡商業利益與地緣風險? (視界的剖析)
誰擁有最多的AI晶片?
人工智慧的進步依賴於指數級增長的人工智慧超級電腦。自2010年以來,用於訓練最著名人工智慧模型的計算量每年增長4.1倍,從而實現了先進聊天機器人、圖像生成和蛋白質結構預測等突破。這種訓練計算量的增長主要依賴於更大規模的人工智慧超級電腦,這些電腦現在包含超過10萬個AI晶片,硬體成本達數十億美元,並且消耗相當於一個中等城市用電量的電力。我們通過系統地收集2019年至2025年的公開資料,彙編了一個包含全球500多台人工智慧超級電腦的資料集。我們將人工智慧超級電腦定義為使用AI晶片的系統,該系統在其首次投入營運時達到了領先人工智慧超級電腦至少1%的計算性能。通過將總性能與公開的AI晶片生產和銷售估算進行比較,我們估計我們的資料集涵蓋了現有AI超級電腦總容量的10-20%。領先人工智慧超級電腦的計算性能每9個月翻一番,這得益於更多和更好的AI晶片的部署(圖1)。兩個關鍵因素推動了這一增長:晶片數量每年增加1.6倍,以及每個晶片的性能每年提高1.6倍。雖然在2019年擁有超過1萬個晶片的系統很少見,但到2024年,各公司部署的人工智慧超級電腦的規模是當時的十倍以上,例如xAI擁有20萬個AI晶片的Colossus。圖1:領先人工智慧超級電腦的性能(以16位精度的FLOP/s計)每9個月翻一番(年增長率為2.5倍)領先人工智慧超級電腦的電力需求和硬體成本每年翻一番。人工智慧超級電腦的硬體成本每年增長1.9倍,而電力需求每年增長2.0倍。因此,截至2025年3月,性能最強的人工智慧超級電腦,即xAI的Colossus,其估計硬體成本為70億美元(圖2),電力需求約為300兆瓦——相當於25萬戶家庭的用電量。在電力需求大幅增長的同時,人工智慧超級電腦的能源效率也更高了:每瓦計算性能每年提高1.34倍,這幾乎完全歸功於更節能晶片的採用。如果觀察到的趨勢持續下去,到2030年6月,領先的人工智慧超級電腦將需要200萬個AI晶片,硬體成本將達到2000億美元,電力需求將達到9GW。歷史AI晶片生產的增長以及像5000億美元的“星際之門計畫”(Project Stargate)這樣的重大資本投入表明,前兩個要求很可能能夠滿足。然而,9GW的電力相當於9個核反應堆的發電量,這超出了任何現有工業設施的規模。為了克服電力限制,各公司可能會越來越多地採用分佈式訓練方法,這將使他們能夠將訓練任務分佈在多個地點的人工智慧超級電腦上進行。圖2:領先人工智慧超級電腦的成本(以2025年美元計)大約每年翻一番公司現在主導著人工智慧超級電腦。隨著人工智慧發展吸引了數十億美元的投資,各公司迅速擴大其人工智慧超級電腦的規模,以進行更大規模的訓練。這導致領先的行業系統性能每年增長2.7倍,遠高於公共部門系統每年1.9倍的增長率。除了更快的性能增長外,各公司還迅速增加了他們部署的人工智慧超級電腦的總數,以服務於快速增長的使用者群。因此,工業界在人工智慧總計算力中的份額從2019年的40%飆升至2025年的80%,而公共部門的份額則降至20%以下(圖3)。圖3:公共部門與私營部門人工智慧超級電腦總性能份額隨時間的變化美國擁有75%的人工智慧超級電腦,其次是中國。美國約占人工智能超級電腦總性能的四分之三,中國以15%位居第二(圖4)。與此同時,英國、德國和日本等傳統的超級計算強國在人工智慧超級電腦領域的作用已變得微不足道。這種轉變反映了總部位於美國的的大型公司在人工智慧開發和計算領域的主導地位。然而,鑑於我們資料庫中的許多系統都可以遠端使用,例如通過雲服務,人工智慧超級電腦的地理位置並不一定決定誰在使用計算資源。圖4:按國家劃分的AI超級電腦計算性能份額隨時間的變化。我們展示了在任何時間點份額超過3%的所有國家我們將在本次發佈後不久發佈我們的資料集以及相關文件。我們的資料將成為Epoch AI的AI資料中心的一部分,並將定期更新維護。引言自2010年深度學習時代開始以來,用於訓練著名AI模型的計算資源(算力)以每年4-5倍的速度增長(Sevilla & Roldan, 2024)。這種指數級的增長一直是許多領域(如大型語言模型或圖像生成(Erdil & Besiroglu, 2022; Ho et al., 2024))人工智慧能力提升的主要驅動力。這種算力增長的大部分是由更大、更高性能的AI超級電腦推動的(Hobbhahn et al., 2023; Frymire, 2024)。鑑於人工智慧超級電腦對人工智慧發展的重要性,系統地收集相關資料能夠幫助我們更好地理解其硬體成本、電力需求和全球分佈等趨勢。這種分析對政策制定者具有重要意義,因為算力既是人工智慧進步的推動力,也是潛在的治理工具(Sastry et al., 2024; Khan & Mann, 2020)。例如,關於人工智慧超級電腦在各國分佈的資訊能夠幫助政府評估其在人工智慧領域的國家競爭力,而電力需求增長的資料則有助於電網規劃。然而,儘管人工智慧算力非常重要,但目前尚不存在關於特定於人工智慧的超級電腦的全面資料集。諸如Top500榜單或MLPerf基準測試等資源依賴於自願提交,因此缺乏足夠的資料來可靠地分析趨勢(Top500,)。與此同時,用於商業智能的資料庫(如SemiAnalysis的資料中心模型)不公開用於分析,並且側重於當前的系統而非歷史趨勢(SemiAnalysis, 2024)。我們試圖通過收集各種公共來源的資料,建立一個包含2019年至2025年間500台人工智慧超級電腦的資料集來彌補這一差距。我們利用這個資料集來研究幾個關鍵趨勢:人工智慧超級電腦性能的增長、硬體成本、功耗以及人工智慧超級計算能力在國家和部門之間的分佈。方法人工智慧超級電腦的定義我們將人工智慧超級電腦定義為可以支援訓練大規模人工智慧模型,並部署在同一園區內的電腦系統。我們使用兩個標準來評估給定的系統是否可以支援訓練大規模人工智慧模型:1. 該系統包含可以加速人工智慧工作負載的晶片,例如輝達的V100、A100、H100和GB200,Google的TPU,以及其他常用於訓練前沿人工智慧模型的晶片。為了評估給定的晶片是否適用於大規模人工智慧訓練,我們使用了Hobbhahn等人(2023)建立的機器學習硬體資料集。如果某個晶片不在該資料集中,如果它具有以下特徵,我們將其視為人工智慧晶片:支援人工智慧訓練中常用的精度,例如FP16或INT8。具有專用於矩陣乘法的計算單元,例如輝達GPU中的張量核心。具有高頻寬記憶體(HBM)或其他能夠實現高記憶體頻寬的記憶體類型。曾用於訓練Epoch AI(2025)的著名人工智慧模型資料集中的模型。2. 該系統在人工智慧相關精度上具有較高的理論計算性能。由於硬體改進速度很快,我們使用移動定義,並且只包括在當時至少具有現有性能最強人工智慧超級電腦1%性能的系統。為了平衡資料收集工作和代表性,我們將資料收集的範圍限制在大約6年,從2019年初到2025年2月。我們將在https://epoch.ai/data/ai-supercomputers上維護資料集,並將其與Epoch AI的Data on AI hub整合。資料收集我們使用Google搜尋API、現有(AI)超級電腦的彙編以及手動搜尋來收集2019年至2025年間501台領先人工智慧超級電腦的資料集。我們還涵蓋了2019年之前的225個額外系統,總計726台人工智慧超級電腦。我們最重要的來源是公司公告、包含大量GPU的Top500條目以及Epoch AI(2025)的著名AI模型資料集。對於每個潛在的人工智慧超級電腦,我們手動搜尋詳細資訊,例如系統使用的晶片數量和類型、首次投入營運的時間、報告的性能、所有者和位置。我們估計我們的資料集涵蓋了到2025年生產的所有AI晶片總性能的約10%,以及截至2025年初最大公司的AI晶片庫存的約15%。截至2025年3月,我們的資料集涵蓋了Epoch AI著名模型資料集中25個最大規模訓練任務所用系統的大約一半(Epoch AI, 2025)。分析我們將收集到的資料與Epoch AI的機器學習硬體資料相結合,以估算我們資料庫中系統的總性能、硬體成本和電力需求(Epoch AI, 2024; Hobbhahn et al., 2023)。我們篩選了資料集,得到2019年1月1日至2025年3月1日期間389個高確定性、已確認運行的系統。然後,我們對研究期間首次執行階段在全球16位FLOP/s性能排名前十的57台人工智慧超級電腦的關鍵指標進行了回歸分析。我們分析的指標包括計算性能、晶片數量、電力需求、能源效率和硬體成本。我們進一步評估了資料集中所有人工智慧超級電腦(包括2019年之前的系統,總計470個系統)的總性能在不同部門和國家之間的分佈情況。結果我們首先評估了資料集中領先人工智慧超級電腦在性能、電力和硬體成本方面的增長情況。然後,我們考察了資料集中人工智慧超級電腦在私營部門與公共部門以及不同國家之間的分佈情況。領先人工智慧超級電腦的計算性能每九個月翻一番2019年至2025年間,領先人工智慧超級電腦的計算性能每年增長2.5倍(圖5)。僅考慮公司擁有的人工智慧超級電腦時,性能增長速度甚至更快(3.1.3節)。性能的快速增長使得2025年3月領先的系統,即xAI的Colossus,其性能達到了2019年領先的人工智慧超級電腦——橡樹嶺國家實驗室的Summit的50多倍。我們在2017年和2018年發現了幾台大型人工智慧超級電腦,其性能顯著高於我們2018年之後的結果所顯示的趨勢。目前尚不清楚這在多大程度上反映了我們資料集的覆蓋不足,或者這些是否確實是直到2021年部署的最大系統。我們在4.1節中討論了這些早期系統主要用於科學研究,而不是用於進行大規模訓練,因此可能無法與後來的系統直接比較。圖5:排名前十的領先人工智慧超級電腦的性能(以16位精度FLOP/s計)每年增長2.5倍(90%置信區間(CI):2.4–2.7倍)。我們從2019年開始回歸分析,但考慮了2019年之前的人工智慧超級電腦,以確定那些系統在2019年初排名前十。我們2019年之前的資料有限,無法納入回歸分析。我們突出顯示了一些值得注意的系統。性能提升依賴於使用更多和更好AI晶片的人工智慧超級電腦(1) 每年2.5倍的性能增長主要源於兩個大致相等的因素:AI晶片數量的增加和每個晶片性能的提高。首先,性能最高的人工智慧超級電腦中的晶片數量每年增加1.6倍(圖12)。2019年1月,橡樹嶺國家實驗室的Summit擁有最高的晶片數量,為27,648個NVIDIA V100晶片。到2025年3月,xAI的Colossus擁有所有已知系統中最高的晶片數量,為20萬個NVIDIA H100和H200晶片。將2019年之前的系統納入回歸分析可能會導致較低的增長率。然而,由於我們的資料收集只追溯到2019年,我們無法可靠地進行此項分析。其次,性能最高的人工智慧超級電腦中每個晶片的計算性能每年提高1.6倍。在我們的研究期間,有三個值得注意的晶片代系。2019年至2021年間,NVIDIA的V100是最主要的晶片,佔已安裝性能的90%以上。2021年,NVIDIA的A100開始變得突出,並在2023年成為最主要的晶片,而AMD的MI250X和Google的TPU v4僅佔少數份額。2023年,NVIDIA的H100變得更加普及,到2024年7月,在我們資料集中超過了總性能的50%。領先人工智慧超級電腦每個晶片計算性能的1.6倍(90%置信區間:1.5–1.7)的提升略快於FP32精度下AI晶片性能每年提升1.28倍(90%置信區間:1.24–1.32)和FP16精度下每年提升1.38倍(90%置信區間:1.28–1.48)的總體趨勢(Rahman, 2025; Hobbhahn et al., 2023)。這種差異可能源於人工智慧超級電腦主要採用領先的AI晶片,而不是平均性能的晶片。圖6:領先人工智慧超級電腦中的AI晶片數量每年增長1.6倍(90%置信區間:1.5–1.8倍)。我們從2019年開始回歸分析,但也收集了更早的資料,以確定那些2019年的人工智慧超級電腦位列前十。我們2019年之前的資料有限,無法納入回歸分析。完整方法見第2節。(2) 人工智慧超級電腦的性能增長速度超過了傳統超級電腦Benhari等人(2024)發現,1994年至2023年間,最大的Top500超級電腦的64位性能每年增長1.45倍。這一增長率使得排名前十的人工智慧超級電腦的性能增長速度顯著快於Top 500頂級機器的歷史趨勢。兩個因素可能導致了這種差異:特定於AI的晶片和更快的投資增長。首先,AI晶片的性能已經超過了CPU的性能(Hobbhahn et al., 2023)。這是因為AI計算工作負載的特性與傳統計算不同,這使得AI晶片設計者能夠最佳化平行矩陣運算的性能,從而導致AI晶片的性能提升速度顯著快於CPU的性能(Hobbhahn et al., 2023)。其次,對人工智慧超級電腦的投資增長速度快於對傳統超級電腦的投資增長速度。Top 500榜單歷史上主要由政府資助的項目構成,這些項目的預算增長緩慢。然而,我們的人工智慧超級電腦資料集主要包含大型公司擁有的系統,這些公司在2020年代迅速增加了對人工智慧超級電腦的投資(Cottier et al., 2024)。(3) 私營行業的人工智慧超級電腦已經超越了政府或學術界2019年至2025年3月期間,公司擁有的領先人工智慧超級電腦的性能每年增長2.7倍。與此同時,政府和學術機構擁有和資助的領先人工智慧超級電腦的性能增長速度明顯較慢,每年僅增長1.9倍(p = 0.022)。目前已知最大的公共人工智慧超級電腦——勞倫斯利弗莫爾國家實驗室的El Capitan,其計算性能僅為目前已知最大的工業界人工智慧超級電腦——xAI的Colossus的22%。我們將在4.4節討論這種從公共部門到私營部門的轉變。圖7:私營部門(公司)與公共部門(政府和學術界)擁有的領先人工智慧超級電腦的性能。領先的公共部門系統最初規模較大,但未能跟上工業界系統的發展速度,工業界系統每年增長2.7倍(90%置信區間:2.5–2.9倍),而公共部門系統每年僅增長1.9倍(90%置信區間:1.6–2.2倍)。請注意,我們排除了由公共和私營機構共同資助和擁有的人工智慧超級電腦。(4) 人工智慧超級電腦的增長速度與最大規模訓練任務每年4-5倍的增長速度保持一致Sevilla & Roldan(2024)發現,2018年至2024年間,最大人工智慧模型的訓練算力每年增長4.2倍(90%置信區間:3.6–4.9倍)。這與我們觀察到的人工智慧超級電腦性能增長相符,在我們考慮了訓練時長增加的情況下。在圖8中,我們展示了最大人工智慧訓練任務所需的計算性能,以及我們資料集中領先人工智慧超級電腦的性能。我們只考慮了運行絕大多數人工智慧訓練任務的工業界系統(Besiroglu et al., 2024)。為了計算訓練任務所需的性能,我們將訓練所需的FLOP數除以訓練時長(以秒為單位),並根據40%的平均性能利用率進行調整(Sevilla et al., 2022)。2019年至2025年間,最大的工業界人工智慧超級電腦始終達到最大人工智慧訓練任務所需計算性能的10倍(不包括最終訓練運行之前實驗所需的計算量)。雖然最大訓練任務所需的系統增長速度略快於領先的人工智慧超級電腦(3.4倍 vs 3.0倍),但我們發現這兩個趨勢之間沒有統計學上的顯著差異(p=0.18)。因此,如圖9所示,人工智慧超級電腦的增長與訓練算力的增長保持一致。圖8:最大工業界人工智慧超級電腦的計算性能以及最大已報告人工智慧訓練任務所需的性能(Epoch AI, 2025)。為了估算這些訓練任務所需的人工智慧超級電腦規模,我們假設GPU利用率為40%,並使用可用的聲明訓練時長,或者根據最大人工智慧模型的訓練時長回歸估算值。我們從著名模型的發佈日期減去訓練時長,以更好地估計其訓練開始時間。鑑於著名模型資料集未報告訓練所用的數值精度,我們還報告了人工智慧超級電腦的精度無關OP/s,考慮了32位、16位和8位數字格式下的最高可用性能。圖9:訓練算力增長驅動因素概述。“OOM”代表數量級。人工智慧超級電腦指標基於私營部門系統以及跨精度的最高計算性能。領先人工智慧超級電腦的電力需求每13個月翻一番我們根據報告的電力需求或(如果不可用)通過估算基於AI晶片數量和類型(包括額外的IT基礎設施,如CPU、網路交換機,以及資料中心支援基礎設施,如冷卻和電源轉換)的電力需求來評估領先人工智慧超級電腦的年度電力需求增長率。我們發現,2019年至2025年間,領先人工智慧超級電腦的電力需求每年增長2.0倍。2019年1月,橡樹嶺國家實驗室的Summit擁有最高的電力需求,為13兆瓦。2024年,首批系統的電力需求開始超過100兆瓦,到2025年3月,xAI的Colossus擁有最高的電力需求,估計為300兆瓦。相比之下,這相當於25萬美國家庭的用電量(美國能源資訊署,2024)。訓練前沿模型所需電力快速增長的情況已有充分記錄(Fist & Datta, 2024; Sevilla et al., 2024; Pilz et al., 2025)。我們將在4.2.3節討論這種趨勢是否能夠持續。圖10:領先的10台人工智慧超級電腦的峰值資料中心電力需求每年翻一番(90%置信區間:每年1.6–2.2倍)。我們在有報告的情況下顯示報告的電力需求。否則,我們根據所用晶片的數量和類型估算容量。(1) 領先人工智慧超級電腦的能源效率每年提高1.34倍我們計算人工智慧超級電腦的能源效率,單位為每瓦FLOP/s(16位精度),包括硬體和資料中心的電力需求。為了計算效率,我們將FLOP/s的計算性能除以報告或估計的瓦特資料中心電力需求。資料中心等級的能源效率包括伺服器、額外的叢集元件(如網路交換機)以及支援基礎設施(如冷卻和電源轉換)。我們發現,2019年至2025年間,人工智慧超級電腦的能源效率每年提高1.34倍(圖11)。在計算性能保持不變的情況下,人工智慧超級電腦每年所需的能源減少約25%。這與Benhari等人(2024)在研究期間Top500中最節能超級電腦的能源效率每年提高1.31倍的情況大致一致。圖11:2019年至2025年間,排名前十的領先人工智慧超級電腦的能源效率(每瓦16位FLOP/s)每年提高1.34倍(90%置信區間:1.25–1.43倍)。新晶片的採用是能源效率提高的主要驅動因素,而資料中心基礎設施效率僅發揮了次要作用。我們在有報告的情況下使用報告的電力需求,否則使用估計的電力需求。人工智慧超級電腦的能源效率提升可能來自兩個方面:硬體效率的提升和資料中心基礎設施(如冷卻)效率的提升。硬體效率的提升主要源於AI晶片的改進,但也包括CPU、網路交換機和儲存等其他硬體的改進。我們通過假設人工智慧超級電腦所在資料中心的能源效率遵循Shehabi等人(2024)報告的行業範圍內的電源使用效率(PUE)趨勢來建模其改進。PUE是提供給硬體的電力除以提供給資料中心的電力的商。理想的PUE為1.0表示所有輸送到資料中心的電力都直接用於硬體,而沒有電力在電壓轉換中損失或用於冷卻和其他操作(Pilz & Heim, 2023)。圖11顯示,每次有新的AI晶片可用時,能源效率都會顯著提高。與此同時,PUE的改進速度較慢,並且在我們的估計中已經接近1.0的理想值,導致每年的效率提升不到5%(Shehabi et al., 2024)。因此,能源效率的提高主要歸功於人工智慧超級電腦採用了更節能的硬體。領先人工智慧超級電腦的硬體成本每年翻一番我們基於公開報告的成本資料或(如果不可用)通過根據所用晶片的數量和公開可用的價格資料估算總硬體成本來分析領先人工智慧超級電腦硬體成本的年度增長情況。我們進一步包括了諸如CPU和網路交換機等額外硬體的估計成本,但不包括發電或資料中心建設成本。我們對所有數值進行通貨膨脹調整,以顯示2025年1月的美元成本。我們的成本估算與所有者報告的數值存在顯著差異,但這可能是因為報告的數值主要來自公共項目,這些項目通常在硬體採購方面獲得更高的折扣。我們發現,2019年至2025年間,領先人工智慧超級電腦的硬體成本每年增長1.9倍。我們有限的2019年之前的資料表明,在我們的研究期間之前,超過1億美元的硬體成本並不少見,例如橡樹嶺國家實驗室的Summit在2025年美元的成本約為2億美元。截至2025年3月,最昂貴的人工智慧超級電腦是xAI的Colossus,其估計硬體成本為70億美元。圖12:領先人工智慧超級電腦(按16位性能排序)首次投入營運時的硬體成本從2019年到2025年以每年1.9倍的速度增長(90%置信區間:每年1.8–2.1倍)。我們使用報告的成本,如果不可用,則使用改編自Cottier等人(2024)的硬體購置成本公式來建模成本。我們將所有數值調整為2025年美元以反映通貨膨脹。領先人工智慧超級電腦硬體成本每年1.9倍的增長速度低於Cottier等人(2024)報告的總訓練成本每年2.4倍(90%置信區間:2.0–2.9倍)的增長速度。這種差異歸因於兩個因素:首先,前沿模型的訓練時長每年延長1.4倍(Frymire, 2024),這意味著訓練任務使用同一台人工智慧超級電腦的時間更長,即使人工智慧超級電腦的成本保持不變,也會增加攤銷成本。其次,研究人員成本是人工智慧開發中佔比很大且不斷增長的部分,但不會影響人工智慧超級電腦的硬體成本(Cottier et al., 2024)。我們的資料覆蓋範圍的侷限性在分析人工智慧超級電腦在部門和國家之間的分佈之前,我們強調我們資料集的兩個重要侷限性:a) 我們僅捕獲了符合我們定義的所有人工智慧超級電腦的10%到20%。具體來說,我們估計我們的資料集涵蓋了2023年和2024年生產的所有相關AI晶片的約10%,以及截至2025年初最大公司的晶片庫存的約15%。截至2025年3月,我們的資料集涵蓋了Epoch AI(2025)中25個最大規模訓練任務所用系統的大約一半。較低的覆蓋率意味著我們的資料精度有限,單個系統的加入可能會顯著改變整體分佈。b) 不同部門、晶片類型和公司的覆蓋水平可能存在顯著差異。例如,我們捕獲了Meta公司約一半的人工智慧超級電腦總性能,而沒有捕獲任何蘋果公司的人工智慧超級電腦。由於政府往往對其項目更加透明,我們可能比行業系統更好地覆蓋了政府人工智慧超級電腦。鑑於這些侷限性,我們側重於人工智慧超級電腦在部門和國家之間的分佈,因為儘管我們的覆蓋率較低,這兩者都提供了可靠的見解:所有權從公共部門向私營部門的轉變是我們整個資料集中的一個顯著且穩健的影響。我們的國家層面資料可能比較可靠,因為我們能夠與其他資料進行交叉核對(見附錄C.3)。與此同時,我們不分析特定AI晶片類型或個別公司的分佈情況,因為這些更容易受到我們資料集中覆蓋偏差的影響。公司現在擁有大多數人工智慧超級電腦對於我們資料集中的每台人工智慧超級電腦,我們將所有者分為三類之一:私營:所有者是公司公共:所有者是政府實體或大學公私合營:人工智慧超級電腦有多個屬於這兩個部門的所有者,或者如果一個私人項目獲得了超過25%的總資金來自政府我們發現,私營部門的計算份額從2019年不到40%迅速增加到2025年的約80%(圖13),而公共人工智慧超級電腦的份額從2019年的約60%迅速下降到2025年的約15%。鑑於公司不太可能像公共所有者那樣公開其系統的資料,我們的資料甚至可能低估了這種轉變。然而,請注意,鑑於許多人工智慧超級電腦通過雲服務提供,公共部門實體可能仍然能夠訪問私營部門的人工智慧超級電腦。在4.1節中,我們討論了人工智慧開發和部署的經濟重要性日益增加如何可能導致私營部門份額的快速增長。圖13:基於人工智慧超級電腦所有者的公共和私營部門的相對性能份額。一台人工智慧超級電腦可能擁有多個所有者(例如,如果它是一個合作項目,或者如果政府資助了一個行業項目)。美國佔全球人工智慧超級電腦性能的大部分,其次是中國在分析跨國家的分佈時,我們發現在2019年初,美國約佔我們資料集中計算性能的70%,而中國約佔20%(圖14)。2019年至2022年間,中國的份額顯著增長,在2022年初達到約40%,儘管我們不確定這是否反映了真實的趨勢,還是我們較低資料覆蓋率造成的假象。此後,中國的份額有所下降;截至2025年3月,按性能計算,美國擁有約75%的人工智慧超級電腦,而中國約佔15%。圖14:我們資料集中人工智慧超級電腦按國家劃分的聚合16位計算能力份額隨時間的變化。我們展示了在任何時間點份額超過3%的所有國家。截至2025年3月,我們資料集中所有在美國運行的人工智慧超級電腦的總性能相當於85萬個H100(9.1×10²⁰ FLOP/s),其次是中國,相當於11萬個H100(1.9×10²⁰ FLOP/s),歐盟相當於5萬個H100(5.6×10¹⁹ FLOP/s)(圖15)。因此,美國的總計算性能幾乎是中國大陸的9倍,是歐盟總性能的17倍。圖15:按國家劃分的人工智慧超級電腦總性能(以H100當量計)。要將系統的性能轉換為H100當量,我們首先取其AI晶片支援的最低精度的性能(考慮32位、16位和8位),然後除以H100的8位性能。討論在本節中,我們首先討論是什麼導致了人工智慧超級電腦性能和資源需求的快速增長。然後,我們將這些趨勢外推到2030年,並簡要討論晶片數量、電力和硬體成本的增長是否能夠持續。我們進一步討論了人工智慧超級電腦在各國分佈的地緣政治影響,以及人工智慧超級電腦工業界份額的增加可能如何影響人工智慧研究。人工智慧算力的快速增長既依賴於人工智慧產業日益增長的經濟重要性,也促進了這種重要性的提升我們觀察到的人工智慧超級電腦性能的快速增長主要由人工智慧投資的激增驅動。雖然晶片設計和製造方面的傳統改進也促進了這一增長(Roser et al., 2023; Hobbhahn et al., 2023),但人工智慧超級電腦的增長速度遠快於傳統人工智慧超級電腦(第3.1.2節)。這種加速反映了人工智慧超級電腦的主要用例發生了根本性的轉變,從用於科學發現的學術工具轉變為運行具有經濟價值的工作負載的工業機器。2019年,最大的人工智慧超級電腦主要由政府超級電腦主導,例如美國能源部的Summit和Sierra。這些系統旨在處理不同科學領域的各種工作負載並推進基礎研究(橡樹嶺國家實驗室,未註明日期)。然而,在2020年代初,各公司越來越多地使用人工智慧超級電腦來訓練具有商業應用的人工智慧模型,例如OpenAI的GPT-3和GitHub的Copilot整合(Brown et al., 2020; Dohmke & GitHub, 2021)。這些人工智慧能力的展示導致了對人工智慧投資的顯著增加,創造了對人工智慧晶片的創紀錄需求(Our World in Data, 2024; Samborska, 2024; Richter, 2025)。隨著對人工智慧投資的增加,各公司能夠建構性能更高、擁有更多和更好AI晶片的人工智慧超級電腦。這形成了一個良性循環:增加的投資實現了更好的人工智慧基礎設施,從而產生了更強大的人工智慧系統,吸引了更多的使用者和進一步的投資。因此,人工智慧超級電腦的增長既是資金增加的結果,也是人工智慧超級電腦展示其經濟價值後持續投資的原因。觀察到的趨勢能否持續?在第上文中,我們得出結論,人工智慧超級電腦的增長速度與最大規模人工智慧訓練任務中算力每年4-5倍的增長速度保持一致。本節將討論晶片、硬體成本和電力需求方面的趨勢持續到2030年意味著什麼。表1:基於當前最大的人工智慧超級電腦和第3節描述的歷史增長率對趨勢進行的歷史資料和外推。僅使用工業界擁有的人工智慧超級電腦的增長率將導致更高的外推值。外推值已四捨五入,以避免暗示精確性。(1) 到2030年,最大的人工智慧超級電腦可能需要兩百萬個晶片如果AI晶片的數量繼續以每年1.6倍的速度增長,那麼到2030年,最大的人工智慧超級電腦將需要大約200萬個AI晶片(表1)。Sevilla等人(2024)估計,到2030年,AI晶片的產量每年可能增長1.3倍到2倍。從目前的晶片產量外推來看,這意味著2030年的年產量將達到740萬到1.44億個AI晶片。如果到2030年,最大的人工智慧超級電腦使用了200萬個AI晶片,那麼它將需要全球年AI晶片產量的1%到27%,這表明如果AI晶片(2) 到2030年,最大的人工智慧超級電腦的硬體成本可能約為2000億美元如果領先人工智慧超級電腦的硬體成本繼續以每年1.9倍的速度增長,那麼到2030年,領先系統的硬體成本將約為2000億美元(以2025年美元計)。這還不包括資料中心設施的成本,後者可能約為每GW100億美元,從而使購置成本再增加900億美元(Pilz & Heim, 2023)。當前的AI基礎設施已經接近這個規模:2025年,微軟宣佈計畫在全球範圍內投資800億美元用於AI基礎設施,而亞馬遜雲科技(AWS)宣佈計畫投資超過1000億美元(Smith, 2025; Gonsalves, 2025)。與此同時,OpenAI宣佈計畫在四年內為“星際之門”項目投入高達5000億美元(OpenAI, 2025)。這些公告與到2030年單個項目2000億美元的硬體成本是相符的,尤其是在預計AI投資將持續增長的情況下(Zoting, Shivani, 2025; IDC, 2025; Grand View Research, 2024)。(3) 到2030年,最大的人工智慧超級電腦可能需要9GW的電力如果人工智慧超級電腦的電力需求繼續以每年2.0倍的速度增長,那麼到2030年,領先的人工智慧超級電腦將需要大約9GW的電力(表1)。這略高於Sevilla等人(2024)外推的6GW,並且與Pilz等人(2025)對2030年運行最大規模訓練任務的人工智慧超級電腦的估計相符。目前最大的資料中心園區的容量為數百兆瓦,截至2025年初,尚未公開報導有超過1GW的現有園區。雖然到2028年建成一個2GW的人工智慧超級電腦可能是可行的,但到2030年建成一個容量為9GW的系統將需要相當於9個核反應堆的發電量,並且可能面臨嚴重的許可和裝置供應鏈挑戰,以及當地社區反對等其他潛在挑戰(Pilz et al., 2025)。由於難以獲得足夠的電力,各公司可能會越來越多地使用分佈式訓練技術,使其能夠將訓練任務分佈在多個地點的人工智慧超級電腦上進行。據報導,一些著名的訓練任務,包括GoogleDeepMind的Gemini 1.0和OpenAI的GPT-4.5,已經跨多個AI超級電腦進行訓練。(4) 結論:電力限制可能成為持續增長的主要制約因素電力限制很可能成為人工智慧超級電腦增長的主要瓶頸,推動訓練向跨多個站點的分佈式訓練轉變。這種演變可能會改變我們衡量人工智慧訓練能力的方式——從關注單個AI超級電腦轉向評估公司的總計算能力。雖然晶片生產和硬體成本趨勢在2030年之前似乎是可持續的,但所有這些趨勢的持續最終取決於AI應用是否能帶來足夠的經濟價值,以證明基礎設施擴張所需的大規模投資是合理的。美國在全球人工智慧超級電腦分佈中佔據主導地位本節討論美國的主導地位很可能源於其在相關產業的領先地位,並且鑑於美國既定的政策以及對關鍵AI晶片生產瓶頸的控制,這種主導地位很可能會持續下去。(1) 美國的主導地位源於在雲端運算和人工智慧開發領域的領先地位根據我們的資料,目前約75%的AI超級電腦性能位於美國(圖14)。在曾經在公共超級計算領域發揮重要作用的國家(如英國、德國或日本)的重要性下降的同時,美國是如何在AI超級電腦領域佔據如此主導地位的?美國的主導地位很可能直接源於AI超級電腦日益商業化並由公司(而非政府或學術界)主導,而這些公司主要位於美國,這是由於其在先前技術中的主導地位所致。這種優勢在雲端運算基礎設施中顯而易見,2019年,僅亞馬遜雲科技(AWS)、微軟和Google這三大領先的美國雲端運算公司就佔據了全球市場份額的68%(Gartner, 2020)。美國公司在關鍵AI進步方面也發揮了主導作用,包括推薦系統、AlphaFold等科學應用以及ChatGPT等LLM聊天機器人。總體而言,在Epoch AI(2025)記錄的476個著名AI模型中,美國公司參與開發了338個,並訓練了其中25個最大AI模型中的18個(按訓練算力計算)。雖然關於AI應用全球市場份額的可靠資料有限,但創紀錄的使用者增長可能表明美國公司在使用者總數方面也處於領先地位。(2) 美國很可能將繼續在人工智慧超級電腦領域保持領先地位美國不僅在人工智慧開發和雲服務提供方面佔據主導地位,而且在AI晶片的設計以及半導體製造的若干關鍵投入方面也處於領先地位。美國政府此前已利用其在AI晶片領域的主導地位對向中國出口AI晶片和關鍵裝置實施出口管制,並引入了一項AI擴散框架,該框架對向非美國親密盟友國家出口AI晶片設定了條件。與此同時,一些挑戰可能會限制美國在AI超級電腦領域的主導地位:電力需求:無論是在AI超級電腦所需的電力方面,還是在主要用於推理而部署的AI晶片總數方面,AI的電力需求都在大規模增長。美國在增加足夠的發電能力以維持當前AI資料中心增長速度方面正面臨重大挑戰。外國政府對主權基礎設施的投資:一些政府已開始投資於本地AI基礎設施,例如法國、英國、沙烏地阿拉伯和阿聯。然而,與領先的美國AI超級電腦相比,這些項目大多規模較小。此外,鑑於美國對AI晶片生產的控制,如果這些項目威脅到美國在計算領域的主導地位,美國可能會阻止這些項目獲得晶片。來自中國的競爭:中國政府和中國公司正在大力投資AI基礎設施,但由於無法進口領先的美國AI晶片,該國依賴性能較差的美國或國產AI晶片。有限的AI晶片獲取管道使得建立大型AI超級電腦的成本更高,並限制了中國的項目總數。到目前為止,中國自主生產AI晶片的努力因無法生產或進口DUV和EUV光刻機等關鍵裝置而受到嚴重阻礙,而這些裝置的生產極具挑戰性。總而言之,美國在AI模型開發和雲端運算領域處於領先地位,並控制著半導體供應鏈中的關鍵瓶頸。再加上美國政府推進美國AI領導地位的既定政策,這使我們得出結論,至少在未來六年內,美國很可能將繼續在AI超級電腦領域保持領先地位。私營部門主導地位增強的後果我們發現公司擁有越來越大份額的AI超級電腦,這與先前報導的一個趨勢相符:AI研究越來越由大型公司而非學術或政府機構主導。Besiroglu等人發現,學術機構在大型機器學習模型中的份額急劇下降,從2012年的約65%降至2023年的僅10%。AI超級電腦所有權從公共部門向私營部門的轉變很可能是由於其經濟重要性日益增加(第4.1節),這迅速增加了私人AI投資。更多的投資使得公司能夠建造像xAI的Colossus這樣昂貴的系統,其估計硬體成本為70億美元。與此同時,最昂貴的政府項目,Frontier和El Capitan,每個僅耗資6億美元。此外,政府通常只建造少量系統用於研究目的。然而,主要的科技公司通常建造數十台AI超級電腦,因為它們不僅要訓練更大的模型,還要為全球數百萬使用者提供服務。AI超級電腦所有權從公共部門向私營部門的這種轉變對AI研究產生了兩個重要後果:學術研究人員的訪問受限以及AI開發和部署的可見性降低。學術研究人員的訪問受限: AI超級電腦集中在工業界減少了學術研究人員對前沿計算資源的訪問,而學術研究人員歷史上為AI的進步做出了貢獻,並提供了獨立的評估和審查。系統的所有權本身並不決定計算資源的存取權,因為研究人員可以通過雲端運算公司租用AI超級電腦。然而,即使是短時間租用大量AI晶片(超過幾千個)對於學術研究人員來說仍然可能過於昂貴,迫使他們依賴較小、功能較弱的模型。缺乏可見性:隨著公司現在營運著領先的AI超級電腦,它們已成為前沿AI進步的主要驅動力,將政府和學術實驗室降為輔助角色。由於公司通常對其研究不太公開,政府可能越來越難以跟蹤AI模型的能力提升。此外,鑑於計算資源對於AI開發和部署的重要性,一個國家頂級AI超級電腦的規模和數量越來越與其在AI領域的競爭力相關。由於公司控制著大多數系統,政府越來越缺乏關於其國家AI基礎設施規模的資料,這阻礙了政策制定者制定連貫的技術競爭戰略的能力。政府增加對AI開發和部署的可見性並更好地瞭解國家競爭力的一種選擇可能是要求公司報告其基礎設施的關鍵資料,例如其最大AI超級電腦的性能及其基礎設施的總規模。政府還可以收集其他國家AI計算能力的情報,使其能夠更好地瞭解自身的競爭地位,並可能更容易核實未來潛在的國際AI協議。結論我們彙編了一個包含2019年至2025年間500台AI超級電腦的資料集,發現性能、晶片數量、電力需求和硬體成本都呈指數級增長。AI超級電腦性能的快速增長,加上訓練時長的增加,使得前沿AI模型的訓練算力每年增長4-5倍,這推動了AI能力的顯著進步,並進一步刺激了對基礎設施的投資。如果趨勢持續下去,到2030年,領先的AI超級電腦的硬體成本可能超過2000億美元,并包含超過200萬個AI晶片。然而,預計9吉瓦的電力需求在單個地點難以滿足,很可能迫使公司採用跨多個站點的分佈式訓練方法。我們的資料還揭示了AI超級電腦所有權的關鍵趨勢,公司在AI超級電腦總性能中的份額從2019年的40%增加到2025年的80%以上。這一發現強調了先前觀察到的工業界和學術界之間日益擴大的計算鴻溝。美國擁有全球約75%的AI超級電腦性能,並且很可能通過其對AI晶片供應鏈的控制保持這種主導地位。總而言之,AI超級電腦一直是AI進步的關鍵驅動力,並且是AI供應鏈的核心組成部分。我們的分析提供了關於AI超級電腦的增長模式、分佈和資源需求的寶貴資訊。這些資訊對於政策制定者以及更廣泛地理解AI的發展軌跡將變得越來越重要。 (半導體行業觀察)
用AI製造AI,輝達官宣在美國造「AI超算」,超級計算系統自身的新工業時代?
剛剛,輝達(NVIDIA)宣佈了一項重磅計畫:“首次在美國造AI超級電腦”。官網中寫道:“NVIDIA正在與合作夥伴一起,委託了超過100萬平方英呎的工廠,用於在亞利桑那州製造和測試 NVIDIA Blackwell 晶片,以及在德克薩斯州製造和測試AI超級電腦。”但別被標題迷惑了——這並不是簡單的晶片製造升級,而是一場涉及全球資源整合、本土化生產能力擴展的複雜戰略佈局。01 “芯”連“芯”:NVIDIA的超算聯盟拆解說明一下輝達的具體操作,這家公司的規劃非常完整:第一,NVIDIA計畫在德克薩斯州建設「超級電腦製造工廠」,其中一個在休斯頓與富士康合作建設,另一個在達拉斯與緯創資通合作建設,預計這兩家工廠將在未來12-15個月內實現大規模量產。NVIDIA Blackwell 晶片已經在台積電位於亞利桑那州鳳凰城的晶片工廠投產了。第二,NVIDIA還拉上了Amkor和SPIL這兩個封裝測試界的大腕,在亞利桑那州開展封裝和測試業務。(某種程度上,這是一個mini版的亞洲電子製造生態系統。)第三,未來四年,NVIDIA 計畫通過與台積電、富士康、緯創資通、Amkor和SPIL的合作,在美國生產價值5000億美元的AI 基礎設施。02 美國製造≠晶片製造:核心在於系統組裝NVIDIA 此次宣稱將在美國生產價值5000億美元的 AI 基礎設施,但這裡的重點並不能理解為是我們常聽到的詞語“造芯”,而是“組裝和整合”完整的 AI 超算系統。所以,我們需要分清楚兩個概念:晶片製造和系統整合。一方面,“晶片製造”是指從矽片到成品晶片的複雜工藝,這部分仍然主要依賴台積電等亞洲廠商。另一方面,NVIDIA 的“美國製造”更多指的是後期的製造、封裝、測試和系統級組裝——也就是把全球採購的核心零部件整合成一個完整的計算系統。舉個例子,這就像拼裝一輛超跑:發動機可能來自義大利,車身材料可能來自德國,這些元件像候鳥一樣在全球各地流轉,最終在美國完成“組裝”。03 全球供應鏈的複雜性:美國製造的背後沒有改變全球化電子產品,尤其是高端計算裝置,幾乎是全球化供應鏈的最佳範例。從晶片到 PCB(印刷電路板),從記憶體到散熱元件,各個零部件分佈在全球不同國家生產。輝達的 Blackwell 晶片仍然依賴台積電的最先進製程(目前主要在台灣和亞利桑那州的工廠完成),而封裝測試環節則交由 Amkor 和 SPIL 等公司負責。富士康和緯創資通負責整機組裝,分別在德克薩斯州的休斯頓和達拉斯建廠——這套供應鏈網路雖然在地理上分散,但通過美國本土的最終組裝。至於 “美國製造”的時機為何選擇此時?我們這裡不用多贅述了,懂得都懂。04 Blackwell 晶片:下一代 AI 超算的核心至於這次官宣的主角,讓我們簡單瞭解一下 Blackwell 晶片,它是輝達繼 H100 之後的下一代計算架構,在去年的GTC2024大會上宣佈。BlackWell的單顆晶片整合高達2080億個電晶體,將兩塊超大晶片通過每秒10TB高速互連整合為一體,突破了單晶片物理極限,帶來了算力和能效提升。Blackwell架構配備第二代Transformer Engine和第五代Tensor Core,支援FP4等新精度格式,顯著加速大模型訓練與推理,單晶片AI算力可達20 PetaFLOPS,支援10兆參數等級的生成式AI模型。所以根據輝達的官方描述,NVIDIA Blackwell架構是專為訓練和運行大規模 AI 模型而設計。NVIDIA這次還在官網中寫道:“NVIDIA AI超級電腦是新型資料中心的引擎,這種資料中心專為處理人工智慧而打造——AI 工廠,是驅動全新 AI 產業的基礎設施,預計未來幾年將建成數十座“千兆瓦 AI 工廠”,為美國 AI 工廠生產的NVIDIA AI 晶片和超級電腦,預計將在未來幾十年創造數十萬個就業崗位,並帶來數兆美元經濟。官網還寫道:“NVIDIA 將利用其先進的人工智慧、機器人和數字孿生技術來設計和營運這些設施,包括使用 NVIDIA Omniverse 建立工廠的數字孿生,以及使用 NVIDIA Isaac GR00T 建構機器人以實現製造自動化。”例如,借助 NVIDIA Omniverse 平台,輝達可以建立工廠的數字孿生,在虛擬環境中模擬生產流程、最佳化佈局、預測潛在問題。此外,使用 NVIDIA Isaac GR00T實現製造自動化,這意味著輝達不僅在造AI晶片,還在用 AI 來最佳化生產效率。這種“AI 製造 AI”的自洽邏輯令人印象深刻。對於這一舉措,我想可以做兩點理解。首先,這是AI算力產業鏈形態發生微妙變化的一個訊號。以Blackwell為核心的AI系統正嘗試在美國本土完成後段製造和部署閉環,這意味著產業邏輯正從“晶片即產品”轉向“系統即平台”。其次,從產業趨勢來看,AI超級計算系統將逐漸演變為“AI工廠”的標準化單元。NVIDIA所謂的“AI製造AI”路徑——通過Omniverse打造數字孿生工廠、通過Isaac平台推進機器人製造自動化——正在使生產與設計融為一體。這種具備自我演化能力的AI基礎設施,將成為未來十年影響深遠的產業變數。總結來看,輝達的佈局,不只是對現有算力需求的響應,更是對AI工業化路徑的一次預演。它展現了一個可能的方向:AI產業從“模型即產品”的技術驅動,過渡到“算力即基建”的系統驅動,未來的競爭,也將更多集中於誰能更快、更穩、更廣泛地完成AI系統的部署與營運。 (科技行者)
黃仁勳5000億豪賭:AI超算首次Made in USA!
【新智元導讀】輝達宣佈了一項開創性計畫,在美國製造AI超級電腦,通過與台積電、富士康等巨頭合作,打造價值5000億美元的AI基礎設施。輝達周一拋出重磅消息,宣佈將首次在美國製造AI超級電腦。未來四年內,輝達將通過與台積電、富士康、緯創資通、安靠(Amkor)和矽品(SPIL)的合作,在美國打造出價值5000億美元的AI基礎設施。目前,位於亞利桑那州鳳凰城的台積電工廠已經率先開工,開始生產Blackwell晶片。輝達已在亞利桑那州設立生產基地,用於製造和測試其Blackwell晶片,並在德克薩斯州設立生產基地,用於生產和測試AI超級電腦與此同時,在德克薩斯州,富士康和緯創資通正緊鑼密鼓地搭建超級電腦製造工廠。預計在未來12至15個月內,位於休斯頓和達拉斯的工廠就能逐步開啟大規模生產。輝達已經投入超過100萬平方英呎的場地,在亞利桑那州製造和測試其Blackwell晶片,和在德州生產AI超級電腦。關於輝達晶片全面本土生產的可行性,仍然存在重大疑問。報告顯示,雖然Blackwell晶片的前端處理可以在亞利桑那州進行,但這些晶片可能仍需使用台積電的CoWoS技術進行先進封裝,而該技術目前在亞利桑那州的工廠尚未配備。AI晶片和超級電腦的供應鏈極其複雜,對製造、封裝、組裝以及測試技術的要求極高。為了啃下這塊硬骨頭,輝達找來了得力幫手。在亞利桑那州,它與安靠(Amkor)和矽品(SPIL)合作,開展晶片的封裝和測試工作。建構用於加速AI模型訓練和推理的GPU供應鏈,需要合作夥伴共同提供先進製造、封裝和測試技術。混亂中的五千億美元豪賭輝達攜手一眾合作夥伴,開啟了在美國本土的大規模製造計畫。這些世界領先的公司正通過與輝達的合作,期望在拓展全球業務的同時,讓供應鏈更有韌性。輝達的AI超級電腦,堪稱新型資料中心的「心臟」,是推動AI產業飛速發展的關鍵基礎設施。黃仁勳表示,「全球AI基礎設施的引擎首次在美國建造。美國製造不僅能滿足市場對AI晶片和超級電腦日益增長的需求,還能增強供應鏈,提升企業應對風險的能力。」該公司將利用其先進的AI、機器人和數字孿生技術來設計和營運這些設施。包括用NVIDIA Omniverse建立工廠的數字孿生,以及用NVIDIA Isaac GR00T製造機器人以實現製造自動化。這表明該公司打算在其美國製造業務中引入大規模自動化。輝達也在公告中強調了其在美國創造就業機會的潛力,聲稱其晶片製造計畫有望在未來幾十年創造數十萬個就業崗位,並推動數兆美元的經濟活動。然而,鑑於現任美國政府國內和國際貿易政策的不確定性,很難說這些計畫是否真的會按設想實現。貿易制裁與極限施壓川普政府致力於推動本土製造業發展。這一決策並非偶然。據報導,如果台積電不在美國建立新的晶片工廠,將不得不繳納高額罰款。不少分析師認為,如果不是來自政府的壓力,輝達不太可能把生產環節搬到美國。此前,川普政府宣佈對半導體展開貿易調查。據報導,輝達通過與其達成本土製造協議,躲過了對H20晶片的出口管制。H20是功能強大的AI晶片,在當前美國限制下仍可合法出口。其規格有所降低,以符合出口管制規定,同時保持與CUDA平台的相容性。其他科技公司也紛紛效仿。今年1月,OpenAI與軟銀和甲骨文合作,推出了一項5000億美元「星際之門」計畫。微軟則承諾在2025財年投入800億美元建設AI資料中心,其中50%將在美國。然而,推動美國晶片製造業發展的計畫面臨著巨大且日益嚴峻的挑戰。針對中國的貿易限制反過來影響了原材料的供應,而且組裝晶片所需的熟練製造工人也嚴重短缺。與此同時,川普政府企圖破壞《晶片法案》,可能阻礙半導體巨頭的投資。 (新智元)