#最冷
榮耀機器人背後,7家中國供應商!
榮耀機器人奪冠的背後,顯然是一條國產人形機器人產業鏈的集體綻放。4月19日,北京亦莊一條21.0975公里的馬拉松賽道上,歷史被改寫了。榮耀旗下齊天大聖隊的“閃電”機器人以50分26秒的淨時成績衝過終點線,不僅將去年首屆賽事2小時40分鐘的冠軍紀錄壓縮了近三分之二,更超越了人類男子半程馬拉松57分20秒的世界紀錄,帶領榮耀系機器人包攬了賽事前六名,成為今年人形機器人半程馬拉松中表現最突出的參賽方。這無疑是中國人形機器人產業的一個標誌性時刻。但如果我們只看到榮耀機器人的成功,就錯過了真正重要的故事——從驅動晶片、3D視覺、雷射雷達、液冷系統到精密結構件,支撐“閃電”沖線的,是一張精密而龐大,覆蓋感知、決策、執行全鏈路的國產供應鏈網路。下面我們將從兆易創新、領益智造、藍思科技、瑞聲科技、奧比中光、禾賽科技、華科冷芯七大供應商切入,拆解榮耀機器人奪冠背後的技術密碼與產業邏輯。兆易創新在榮耀“閃電”複雜的內部架構中,決定其21公里長跑核心表現的關鍵部件之一的正是下肢關節驅動板。而這塊驅動板的核心控製器,來自兆易創新的GD32H757 MCU。人形機器人在半程馬拉松中需要經曆數萬次步態循環,每一次邁步,髖、膝、踝等下肢關節都要承受交變載荷並作出精準響應。關節驅動依賴多軸伺服系統,每個關節都需要獨立的閉環控制,涉及電流環、速度環、位置環的多級控制架構。兆易創新的GD32H7系列MCU,正是為此類高負載、高即時性場景而生。MCU的算力、即時性與可靠性,直接決定了機器人能否穩定奔跑,這也是下肢關節被公認為馬拉松奪冠的核心關鍵所在。GD32H757基於Arm Cortex-M7核心,主頻高達600MHz,採用基於Armv7E-M架構的高性能設計。兆易創新為這款MCU配備了雙精度浮點單元(FPU),並創新性地整合了硬體三角函數加速器(TMU)和濾波演算法加速器(FAC),大幅減輕核心的計算負擔。在機器人高速奔跑時,當關節電機需要完成高頻換相和精準力矩輸出,這套硬體加速架構能夠以微秒級響應完成PWM驅動訊號的生成與動態調整。儲存配置方面,該晶片配備高達3840KB片上Flash與1024KB SRAM,其中包含512KB可配置緊耦合記憶體,確保關鍵指令與資料的零等待執行。在多關節協同控制方面,GD32H757整合CAN-FD等工業級通訊介面,確保各關節MCU與主控製器之間實現低延遲、高可靠的資料互動。值得關注的是,GD32H7系列還包含整合EtherCAT從站控製器的版本,為人形機器人實現多軸精準聯動與步態協同提供了業界領先的即時通訊能力。面向下一代產品,兆易創新已於今年1月推出新一代GD32H7系列超高性能MCU,主頻提升至750MHz,配備640KB與CPU同頻運行的TCM記憶體,DC同步周期精度可達62.5微秒,進一步鞏固了在高端伺服控制領域的技術領先地位。兆易創新為人形機器人建構的遠不止單顆MCU,而是一個覆蓋“感知-決策-控制-執行”全鏈路的全端式晶片支援方案。除GD32系列外,其Flash儲存器為機器人的決策計算與程式碼執行提供高速可靠的資料保障;模擬產品線則覆蓋感測器訊號調理、電機驅動、電源管理等環節,如專為關節三相無刷直流電機設計的柵極驅動SoC GD30DRE518 / GD30DR1488 / GD30DR1401,與GD32 MCU協同建構了完整的電機控制鏈路。這種“MCU+儲存+模擬”深度協同的佈局,使兆易創新能夠為下游機器人廠商提供從晶片選型到系統整合的一體化解決方案。目前,兆易創新已在工業自動化、汽車電子、能源電力等領域積累了深厚的技術和量產經驗。當人形機器人從實驗室原型邁入規模化量產的關鍵拐點,這種跨領域的工程化積澱正成為其核心競爭力——不僅為機器人提供高性能晶片,更能以成熟的供應鏈管控能力和一致性保障,支撐行業走向量產落地。目前,兆易創新已成功量產75個系列800餘款MCU產品,這種規模化的量產經驗正在被無縫遷移至具身智能賽道,為其全面卡位人形機器人供應鏈奠定堅實基礎。領益智造如果說兆易創新賦予機器人“神經”與“智慧”,那麼領益智造則打造了機器人的“骨架”。據官方披露,支撐榮耀“閃電”完成21公里極限賽程的159款核心金屬結構件,均出自其東莞橫瀝工廠,覆蓋髖部、腿部、腳部、軀幹等全部關鍵運動單元。21公里的賽程對人形機器人的結構強度提出了嚴苛考驗,零部件必須在全程保證不形變、不斷裂、不松曠,同時支撐機器人自重與動態衝擊。在整個賽事中,這些結構件實現了全程零故障、零失效,這一成績源於其在精密製造領域近二十年的技術積累。成立於2006年的領益智造在人形機器人領域的佈局遠不止於結構件。公司擁有伺服電機、減速器、驅動器、運動控製器等執行層的核心技術,已能夠為客戶提供頭部總成、靈巧手總成、四肢總成、高功率充電和散熱解決方案等核心硬體。就在人形半馬開跑前兩天,領益智造北京具身智能超級工廠首批人形機器正式下線,從開工到投產僅用時兩個多月。該工廠今年規劃了具身智慧型手機器人1萬台套的產能,2027年將提升至2萬台套,2030年達成50萬台套年產能。據悉,領益智造還是首批配合榮耀機器人產品研發與生產製造的供應商,相關產品目前已實現批次交付。這意味著,領益智造不是單純的代工供應商,而是深度參與了榮耀機器人從研發到量產的全過程。這種聯合開發、同步驗證的合作模式,正在成為人形機器人產業鏈的新常態。藍思科技在榮耀的參賽陣容中,另一款獲得“最佳步態控制獎”的“元氣仔”機器人,其身體由另一家製造業巨頭藍思科技打造。支撐“元氣仔”完成21公里極限賽程的132款核心金屬結構件均出自藍思科技,覆蓋頭部、手臂、髖部、腿部等關鍵運動單元。據介紹,其材料選用高強鋼,經特製真空熱處理後硬度達到60HRC,拉伸強度超過2400MPa,在實現輕量化的同時大幅提升了結構件的耐久性,支撐機器人長時間高強度運動。工藝層面,藍思科技配置專用裝置叢集,採用五軸聯動一次裝夾完成複雜高曲面加工,通過車銑復合連續加工技術實現微米級精度控制,確保機器人關節配合精準、運行順暢。與領益智造類似,藍思科技與榮耀也處於聯合開發、同步驗證的深度協同階段,雙方共同攻克了人形機器人高自由度關節結構等行業難題。藍思科技將消費電子領域積澱的嚴苛品控與高效交付模式無縫遷移至人形機器人項目,為具身智能從實驗室走向消費級應用提供了成熟的工程化路徑。據官方披露的2025年業績顯示,藍思智慧型手機器人業務去年營收已突破10億元,人形與四足機器人出貨量居行業前列。隨著榮耀2026年小批次量產計畫的推進,藍思科技已完成產能配套,永安園區年產50萬台,泰國基地同步擴產。這也揭示了一個重要趨勢,消費電子產業鏈的精密製造能力,正在系統性地向人形機器人產業遷移。從手機中框到機器人關節,玻璃蓋板到高強鋼結構件,底層製造能力是一脈相承的——高精度、高一致性、大規模量產,這正是消費電子代工巨頭最擅長的領域。瑞聲科技如果說瑞聲科技在消費電子領域以聲學器件聞名,那麼在人形機器人賽道上,它則扮演著更為深層的關鍵角色,為榮耀“閃電”和“元氣仔”提供了全套精密結構件解決方案,成為機器人穩健本體的核心支撐者。瑞聲科技為榮耀機器人供應了覆蓋頭部、腿部核心運動單元的精密結構件。通過航空鋁、軸承鋼、碳纖維及玻璃纖維等多材料復合應用,在輕量化與高剛性之間實現精準平衡,並以MIM(金屬注射成型)與CNC(電腦數控加工)等精密工藝解決了高速步態下的結構損耗與精度問題,為機器人長距離奔跑的耐久性提供了堅實保障。官方介紹,憑藉與榮耀在消費電子領域的長期合作積累,瑞聲科技在極短周期內便完成了定製化MIM/CNC件的設計驗證與量產準備,這也展現了精密製造體系向具身智能賽道的高效遷移能力。瑞聲科技目前已全面切入人形機器人核心部件賽道。其已發佈的人形機器人解決方案包括運動關節、靈巧手、六維力感測器、IMU、微型麥克風陣列等核心產品矩陣。其中,高自由度腱繩靈巧手採用類似人體肌腱的傳動方式,具備全手18個主動自由度、22個關節,其2025年財報顯示,靈巧手相關產品已量產出貨且收入規模過億元。奧比中光今年的人形半馬賽道設計融合了平地、坡道、彎道、狹窄路段等10余種地形,包含接近90°的銳角彎道和5處變窄路段,能否精準感知周圍環境,直接決定了機器人的安全性與運動效率。榮耀機器人搭載了奧比中光Gemini 330系列雙目3D相機。該系列專為全場景機器人視覺應用設計,搭載了奧比中光自研的深度引擎晶片MX6800,配備高性能主被動融合成像系統,可在室內外及複雜光照環境下穩定輸出高品質深度資料。2022年在科創板上市的奧比中光,被稱為“3D視覺第一股”,公司專注於3D視覺感知技術研發,目前已服務全球超1000家機器人客戶。在人形機器人領域,奧比中光已實現對智元、優必選、樂聚機器人等本體企業3D視覺方案的供應覆蓋,並為榮耀、北京天工、螞蟻靈波等多家合作夥伴提供穩定可靠的3D視覺方案。財務資料顯示,奧比中光2025年全年實現營收9.41億元,同比增長66.66%;歸母淨利潤達1.28億元,實現上市以來首次年度盈利,其中AIoT及生物識別類股業務大幅增長,主要驅動力來自機器人和三維掃描業務。禾賽科技在感知層,除了奧比中光的3D相機,禾賽科技的雷射雷達同樣扮演著不可或缺的角色。榮耀“閃電”此次搭載的禾賽JT128雷射雷達,是禾賽科技專為機器人與工業領域設計的迷你型超半球3D雷射雷達。在人形機器人半程馬拉松中,雷射雷達可幫助機器人精準感知平地、坡道、狹窄路段等複雜地形,為路徑規劃與步態調整提供即時環境資料。從技術參數來看,JT128擁有全球最廣的360°×189°超半球視野,感知範圍相當於1.5個標準足球場大小,同時做到了最小探測距離為0米。整機重量僅為200至250克,極小的視窗露出高度使其能夠隱蔽式嵌入安裝在機器人的不同位置。此外,其採用禾賽第四代自研晶片架構,垂直方向配置128線數,平台最高支援256線,能夠高效生成3D SLAM,為機器人提供高精度定位與導航。JT系列的競爭力體現在兩個維度,第一是形態適配性,作為迷你型雷射雷達,其全球最廣的視野與小巧外形能夠無縫整合到人形機器人的有限空間內;第二是市場驗證,目前JT系列累計交付量已突破30萬顆,在人形及四足機器人方面,禾賽科技已獲得宇樹科技、榮耀機器人、銀河通用、魔法原子等公司的訂單。從業績來看,2025年,禾賽全年機器人雷射雷達出貨量達23.93萬台,同比增長425.8%,機器人業務毛利率超過37%,全年歸母淨利4.4億元,成功扭虧為盈,成為全球首家實現全年GAAP盈利的雷射雷達企業。去年12月,禾賽入選摩根士丹利《人形機器人科技25強》榜單,成為全球唯一入選的雷射雷達企業。華科冷芯在50分26秒的極限奔跑中,機器人關節電機持續輸出高扭矩,產生的熱量若不能及時排出,將直接導致電機降頻、性能衰減甚至停機,這也是不少參賽隊伍失利的重要原因。榮耀“閃電”應對這一挑戰的核心武器來自華科冷芯提供的高速懸浮泵液冷方案。成立於2024年的華科冷芯,脫胎於華中科技大學羅小兵教授團隊的科研成果。其核心產品高速懸浮泵擁有液磁耦合懸浮技術,摒棄了傳統機械軸承包方案,實現轉子全自由度無接觸懸浮,從根源上消除了機械磨損。這款懸浮泵轉速突破每分鐘2萬轉,效能達到傳統方案的3到6倍,在30毫米量級、重量不足100克的體積下,滿足人形機器人下肢關節電機模組散熱所需。在抗衝擊方面,高速懸浮泵具備獨特的衝擊耗散結構,運行狀態下可耐受500G衝擊測試,高強度震動或意外摔倒工況下,泵體不停轉、不損壞,保障散熱系統持續穩定運行。在馬拉松賽事中,華科冷芯的液冷方案幫助“閃電”將滿負載持續執行階段間提升至2小時以上,解決了關節模組熱量累積帶來的熱失控問題,使關節可維持連續功率輸出。值得一提的是,華科冷芯的高速懸浮微泵已在商業航天領域隨衛星熱控系統在軌穩定運行超過12個月,實現高可靠流體驅動單元在航天熱控系統中的實際閉環應用,這種“航天級”可靠性為人形機器人的極限運動提供了過硬的技術背書。目前,華科冷芯已完成首期懸浮微泵量產線搭建,形成多條標準化裝配與測試產線,具備月產數千至萬級交付能力,從單點突破,到系統協同當我們回顧榮耀機器人奪冠的故事,很容易把焦點放在那個率先沖線的“閃電”身上。但真正值得長期關注的,是背後支撐這個冠軍的龐大供應鏈網路,即那些在各自細分領域做到全球第一或中國第一的隱形冠軍們。榮耀工程師姚彬在賽後表示,硬體的可靠性為機器人綜合能力的快速提升提供了強有力的支撐,輕量化材料、高安全性結構,能夠讓機器人承受長距離高速奔跑的衝擊。這一判斷背後,正是基於整個中國供應鏈體系的集體貢獻。他們或許不像終端品牌那樣為大眾熟知,但他們共同構成了中國智造的底座。從兆易創新的MCU,領益智造、藍思科技、瑞聲科技的結構件,再到奧比中光的3D相機,禾賽科技的雷射雷達,華科冷芯的高速懸浮泵液冷,榮耀機器人的成功,顯然是一條國產人形機器人產業鏈的集體綻放。站在當下回望,從2025年首屆人形機器人半程馬拉松上的翻車,到2026年超越人類馬拉松世界紀錄,人形機器人僅僅用了一年時間便走完了從能站到能跑的進化之路。但速度從來不是終點。如清華大學自動化系研究員趙明國所言,馬拉松的真正價值在於“為行業提供了一個驗證平台,集中突破關鍵技術問題”。榮耀機器人的奪冠,意義不止於跑得快,它更對應出中國機器人產業鏈已從單點突破走向系統協同。產業鏈上的每一家供應商,都在用自己的方式,為中國智造的未來貢獻力量,他們的故事,或許是這個時代最值得被書寫的產業敘事。 (高工人形機器人)
GoogleTPU V8發佈!液冷架構曝光,四家中國液冷供應鏈有望快速受益
01.TPU V8發佈,單晶片1300W,液冷成必選,三大液冷賽道利多點2026 年 4 月 22 日,Google正式推出第八代定製 TPU,分為面向大規模訓練的TPU 8t與專注低延遲推理的TPU 8i,由 Google DeepMind 深度參與設計,是Google首次將訓練與推理晶片獨立打造的 AI 加速方案,將於年內晚些時候登陸Google AI 超級電腦。亮點1:單晶片功耗1300W,液冷成唯一可選Google於2026年4月22日在Cloud Next大會上宣佈,新一代TPU V8晶片將全面採用液冷散熱方案,TPU V8單晶片功耗達1300W,較前代V7的980W提升30%。TPU V8的單晶片功耗已超過輝達GB200單晶片功耗,風冷已完全無法滿足,液冷是本代機型的唯一選擇。依舊是延續V7採用小冷板方案,Manifold採用銅方案,這個和輝達的架構差異較大,液冷覆蓋率預估80%左右。亮點2:Google採用第四代液冷技術和Google第四代機櫃式CDU本次google的TPU v8架構將延用第四代液冷技術,CDU並未採用最新發佈的第五代2MWCDU,而是採用上一代的1MWCDU。亮點3:晶片出貨量上調,機櫃出貨量大增2026年其母公司Alphabet資本開支將超1700億美元,同比增長90%以上。同時,Google新一代訓練晶片TPU V8的出貨量呈現大幅超預期態勢,其中2026年(今年)出貨量預估達到90萬至120萬顆,較此前市場保守預估的50萬顆大幅上調,超出幅度超一倍,這一上調主要得益於Anthropic等外部大客戶的算力採購需求超預期,以及CoWoS封裝產能的逐步釋放,使得TPU V8成為2026至2027年GoogleTPU系列晶片中的放量主力型號。值得注意的是,本次上調的出貨量口徑覆蓋了TPU V8全系列,包括訓練型和推理型晶片,而此前市場僅保守關注V8p型號50萬顆的年出貨量預期。按照GoogleTPU V7/V8系列統一的標準整機櫃配置(1台整機櫃對應64顆TPU晶片)測算,2026年TPU V8對應的整機櫃數量區間為1.41萬台至1.88萬台,其中按90萬顆的出貨量下限計算,對應整機櫃數量為14062.5台,按120萬顆的出貨量上限計算,對應整機櫃數量為18750台。展望2027年,TPU V8的出貨量預估將進一步攀升至600萬顆,按照同樣的64顆/整機櫃標準配置測算,2027年TPU V8對應的整機櫃數量將達到9.375萬台。TPU V8全系列均採用液冷機櫃部署模式,隨著其出貨量的大幅增長,液冷散熱裝置以及等相關產業鏈環節的需求也將同步放量,進一步帶動整個算力產業鏈的發展。02.Google國內液冷供應鏈受益從今年Google在Cloud Next大會釋放的資訊來看。Google的ASIC晶片進展超出預期,產能與出貨量正穩步攀升,尤其TPU V8等新一代晶片出貨量大幅超預期,而且Google今年的TPU晶片將更大規模採用液冷,對於資料中心液冷基礎設施的廠商是極大利多資訊。此前Google,亞馬遜等北美頭部CSP客戶的主要液冷供應商是台灣的AVC,台達電等廠商,但幾乎液冷產能都被輝達生態預定,無法快速分出新的產能配合Asic機型的液冷需求。在這一背景下,Google轉向和更具性價比和快速交付的中國液冷供應商,為國內相關企業切入Google供應鏈、搶佔市場份額創造了絕佳機遇,國內液冷領域相關企業有望充分受益於這一行業紅利。此前三月就知情人士透露,Google近期正積極與中國多家企業展開接觸,就採購資料中心冷卻系統進行洽談。目前據最新消息,目前今年Google啟動的國內供應商洽談及審廠工作有序推進,其中四家企業的審廠進展十分順利,已逐步通過Google嚴苛的多輪稽核的相關流程,成為Google液冷供應鏈的優先受益對象。這四家企業分別是英維克,大元泵業、飛龍股份、以及立敏達(由領益智造控股)。英維克作為國內溫控龍頭,憑藉全鏈條液冷解決方案能力通過Google全流程驗證,供應Google的冷卻分配單元(CDU)。飛龍股份的電子水泵通過下游系統整合商匯入GoogleCDU供應鏈,產品適配GoogleTPU晶片的散熱需求且已獲得相關能效認證。大元泵業旗下子公司合肥新滬在液冷遮蔽泵領域具備較強競爭力,配合頭部液冷整合商的CDU產品,直接匯入Google的液冷供應鏈,供應水泵產品。立敏達通過的Google認證,將有望供應冷板及manifold,被領益智造收購後成為其切入Google供應鏈的核心載體,四家企業將優先承接Google液冷供應鏈的增量需求,在GoogleASIC晶片產能擴張的浪潮中實現業務突破與規模增長。 (零氪1+1)
全線爆發!兆巨頭,衝擊漲停!
A股午後爆發。4月22日,A股主要股指強勢上揚,滬指收復4100點,創業板指、科創綜指漲近2%;港股走勢疲弱,恆生指數跌超1%,恆生科技指數跌近2%。具體來看,A股主要股指盤中震盪上揚,尾盤強勢拉升,滬指重返4100點上方。截至收盤,滬指漲0.52%報4106.26點,深證成指漲1.3%,創業板指漲1.73%,科創綜指漲1.75%,滬深北三市合計成交約2.58兆元,較此前一日增加逾1500億元。A股市場超2900股飄紅,光通訊概念再度爆發,長光華芯20%漲停再創新高,長盈通、亨通光電、長飛光纖等均創新高;算力概念活躍,協創資料一度20%漲停,宏景科技漲超16%,均創新高;市值超兆元的工業富聯(601138)盤中一度觸及漲停;消費電子概念拉升,東山精密午後漲停續創新高。此外,液冷伺服器概念反彈,金富科技斬獲4連板;英維克早盤再度跌停,午後止跌回升。光通訊概念爆發光通訊概念盤中集體飆升,截至收盤,長光華芯20%漲停再創新高,長盈通漲超15%,亨通光電漲停,長飛光纖漲約8%,新易盛漲超7%,均創歷史新高。機構表示,隨著全球科技巨頭繼續加碼AI算力投資,光模組產業鏈有望延續高景氣度。根據LightCounting於2026年1月發佈的預測,全球高速率(100G及以上)數通光模組市場規模有望由2025年的164億美元擴張至2031年的521億美元。山西證券認為,隨著市場對中東局勢震盪逐漸脫敏,光通訊成為這一輪AI投資爆發中受益確定性最高,且遠期空間宏大的賽道,可能表現出顯著超出大盤的超額收益。除了業績正持續兌現的光模組龍頭標的外,資金從個股倉位考慮有望更多外溢至“小光”標的。建議“小光”擴散關注以下方向:一是關注光模組上游短期供需嚴重不匹配,有漲價趨勢的環節,比如高速光晶片、隔離器和環形器的核心材料法拉第旋光片、FA-MT。二是關注面向CPO、NPO等Scale up市場未來潛在增量市場空間較大的環節,比如光引擎配套的FAU和OE組裝、櫃內高密度MMC跳線、多平面組網的Shuffle等,這些環節是切換到2027業績拔估值的關鍵因素。三是關注光模組液冷。四是關注光通訊製造檢測裝置。算力概念活躍算力概念今日再度活躍,截至收盤,安諾其20%漲停,宏景科技漲超16%,均創新高;工業富聯漲近9%,盤中一度觸及漲停;利通電子漲約7%,續創新高。行業方面,進入2026年,以OpenClaw為代表的AI Agent類產品進入規模化應用階段,驅動全球算力需求呈現爆發式增長。根據全球最大的API聚合平台OpenRouter統計,2026年4月其平台周度累計Token消耗量相較去年同期提升約7—8倍,其中國產大模型貢獻了主要增量。在AI算力需求端快速擴張的同時,算力供給側受制於HBM產能、先進封裝吞吐量及電力基礎設施配套等多重剛性約束,短期邊際增量有限,導致國內外市場均陷入嚴重算力短缺,進而引發全球範圍的算力漲價潮。機構表示,短期來看,AI算力仍將是科技巨頭競相爭搶的戰略性稀缺資源,建議持續關注AI算力產業鏈投資機遇,重點關注AI晶片、AI伺服器、算力租賃及液冷等關鍵細分環節。液冷概念反彈液冷伺服器概念今日反彈走高,截至收盤,康盛股份、恆為科技漲停,金富科技斬獲4連板;早盤再度跌停的英維克午後逐漸止跌,收盤跌4.38%,全日成交161.2億元。消息面上,英維克4月20日晚間發佈一季度業績公告稱,歸屬於上市公司股東的淨利潤約866萬元,同比減少81.97%。英維克在21日披露的投資者關係活動記錄表中指出,公司的液冷相關業務收入持續快速增長,此前和當下主要是來自國內和東南亞市場的需求。目前在積極跟蹤參與的一些其他新增海外客戶的需求,從目前掌握的情況看,有可能集中在今年第三季度開始,公司將穩步推動目標實現。英維克表示,從液冷滲透率來說,全球2025年滲透率已經很高,但對於國內來說,還是相對滯後的。在算力裝置以及資料中心機房的高熱密度趨勢和高能效散熱要求的雙重推動下,液冷技術加速匯入。公司的冷板產品不僅適配CPU、GPU、計算ASIC晶片、交換ASIC晶片的散熱,還開始匹配伺服器或交換機裝置內部的記憶體、SSD、光模組等其他熱源,有效支撐相關算力裝置的100%全液冷需求。未來公司將不斷提升技術水平,持續積極拓展國內外客戶。 (證券時報)
【MWC 2026】出海硬剛輝達!華為昇騰950超節點及液冷架構解析
01. 華為攜950 SuperPoD出征海外,MWC展會硬剛輝達昨天,在 2026 年巴塞隆納世界移動通訊大會上,華為計算產品線總裁張世偉發佈了最新的 SuperPoD 產品 Atlas 950 SuperPoD、TaiShan 950 SuperPoD 以及一系列計算解決方案,標誌著這些產品首次在全球亮相。華為Atlas 950 SuperPoD專為人工智慧資料中心部署而設計,整合了8192顆華為昇騰950 DT晶片,是華為最新的高性能人工智慧基礎設施產品。此次活動將為華為提供向海外客戶展示其人工智慧解決方案的機會,報告補充道,SuperPoD計畫於2026年第四季度商用。除了Atlas系統外,華為還展示通用計算平台TaiShan 950 SuperPoD,以及包括TaiShan 500和TaiShan 200在內的下一代伺服器。02. 叢集級人工智慧:華為Atlas 950 SuperPoD揭秘在聊華為的950前,先簡單梳理下華為昇騰AI晶片出貨節點。25年9 月 18 日,在華為全聯接大會 2025 上,華為輪值董事長徐直軍公佈了最新的 AscendAI 晶片路線圖。根據路線圖顯示,華為在25年 Q1 已經推出了 Ascend910C,2026 年 Q1 推出全新的 Ascend950PR晶片,2026 年 Q4 推出 Ascend950DT,2027 年 Q4 推出 Ascend960 晶片,2028 年Q4 推出 Ascend970 晶片。關於華為的Atlas 950 SuperPoD的架構特點: 華為為其SuperPoD開發了一種名為UnifiedBus的新型互連架構,旨在與NVIDIA的NVLink競爭。在基於 UnifiedBus 的 Atlas 950 SuperPoD 每個機櫃整合 64 個 NPU,最高可擴展至128個機櫃,也是就 8,192 個 NPU,可以為為大規模人工智慧訓練和高並行推理提供卓越的性能。與傳統叢集相比,它顯著提升了模型訓練效率、可靠性和推理性能。950超節點整機櫃是通過正交架構,可實現零線纜電互聯,採用液冷接頭浮動盲插設計做到零漏液,其獨創的材料和工藝讓光模組液冷可靠性提升一倍。其創新的 UB-Mesh 遞迴直連拓撲網路架構,支援單板內、單板間和機架間的 NPU 全互聯,以 64 卡為步長按需擴展,最大可實現 8192 卡無收斂全互聯。03. 液冷唯一標配!華為950超節點液冷用量及架構解析華為950 Atlas SuperPoD採用面向大規模AI訓練場景的超節點架構設計。該系統由8192張 Huawei Ascend 950昇騰加速卡構成,單機櫃配置64張加速卡,總體由128個電腦櫃和32個互聯機櫃組成,整套系統共計160個機櫃,形成完整的大規模AI算力叢集。在散熱方案上,Atlas 950 SuperPoD全面採用全液冷架構設計,不提供風冷版本選配,出廠即為液冷機櫃。這一策略表明,隨著算力密度和功耗持續提升,液冷已從傳統的可選配置升級為基礎架構能力。通過全液冷部署,系統能夠實現更高的功率密度、更優的能效表現以及更穩定的運行環境,滿足大模型訓練等高強度負載的長期運行需求。同時,統一液冷形態也有助於提升系統交付效率與維運標準化水平,降低複雜度,體現出當前AI資料中心從“風液混合”向“全液冷”演進的趨勢。整機櫃架構方面,華為950採用高密度超節點設計。單機櫃由16台1U伺服器構成,總計整合64顆NPU晶片,整櫃設計功耗約75kW,已進入典型高密度液冷部署區間。在散熱方案上,整體採用冷板式液冷架構,對核心高功率器件進行直接液冷覆蓋,以保障在高算力負載下的穩定運行與能效表現。在系統架構層面,該方案機櫃內部不配置Rack級CDU(機架內CDU),而是採用機櫃式CDU進行統一冷卻液分配與控制。這種集中式CDU部署方式有利於提升維護便利性與系統一致性,同時減少機櫃內部空間佔用,最佳化結構佈局。伺服器方面,華為950平台採用分佈式獨立冷板架構,在每一顆NPU上均配置單獨冷板,實現對高功率核心器件的精細化散熱管理。據業內資訊顯示,當前華為尚未大規模引入MLCP技術,而是以成熟穩定的單級冷板方案為主,以兼顧可靠性與工程可落地性。在管路設計上,華為採用EPDM材質的液冷軟管,強調柔性與裝配便利性,並未像 NVIDIA 那樣大量採用不鏽鋼金屬波紋管結構。同時,在連接方式上,華為引入浮動接頭設計,以緩解裝配公差、熱膨脹及振動帶來的機械應力,從而提升系統長期可靠性。值得關注的是,華為950方案中液冷覆蓋範圍進一步擴大。此前液冷主要集中於CPU/NPU等核心晶片,本次方案則將光模組納入液冷散熱體系。在超節點(Supernode)架構下,光互連密度與頻寬需求顯著提升,光器件功耗持續攀升,傳統風冷逐漸難以滿足熱管理要求。隨著高速光模組(如800G及以上)功耗進入更高區間,液冷正從“可選方案”向“必選路徑”轉變,這也標誌著伺服器液冷從核心計算晶片向系統級關鍵器件全面擴展。更多液冷前沿趨勢,液冷大會現場呈現 2026年4月14日至15日,第五屆資料中心液冷峰會暨展覽會將在上海舉行。本次大會由零氪主辦,聚焦AI時代資料中心散熱技術升級與產業生態協同,吸引了包括整機廠、晶片廠、資料中心營運商及核心裝置供應商在內的產業鏈頭部企業參與,預計2000位行業專家參與。 (零氪1+1)
西伯利亞的冬天有多可怕?汽車幾個月不敢熄火,上個廁所都要拿命去搏!
眾所周知,南極洲是地球上最冷的大陸,但是在有人居住的區域,西伯利亞的冬天才是真正的生命禁區!這裡的寒冬長達七個月,冷到呼吸的水汽會瞬間在臉上凝結成冰碴,河裡的魚剛被撈起來就被凍成硬邦邦的“冰棍”,極端低溫甚至能達到零下71℃,讓這裡的一切生命活動都圍繞著“對抗寒冷”展開。西伯利亞的冷從來不是溫和的降溫,而是源於獨特的地理環境,高緯度讓這裡接收的太陽輻射極少,東面、西面、南面被山脈環繞,只有北面向北冰洋敞開,北極的冷空氣能長驅直入並在谷地中停滯,再加上西伯利亞冷高壓的長期盤踞,讓這裡成了冷空氣的“聚集地”,最終造就了這場漫長的極寒考驗。極端的低溫不僅重塑了西伯利亞的自然景觀,更徹底改變了當地的生活節奏,尤其是出行依賴的汽車,在冬天成了需要時刻守護的“夥伴”,稍有疏忽就可能陷入癱瘓。當地居民深知極寒對汽車的破壞力,機油會在低溫下變得像凝固的油脂,失去流動性無法潤滑發動機,電瓶電量會快速流失,那怕用特製保溫棉覆蓋車身,每隔兩小時啟動一次預熱,在零下30℃以下啟動汽車都要耗費數小時。汽車一旦熄火便無法重啟,在積雪封路、救援困難的冬季,被困在路上往往意味著致命的危險,而帶地暖的車庫費用高昂,多數家庭難以承受,於是讓汽車從10月到次年4月持續怠速運轉,成了很多居民的無奈選擇,即便會耗費大量的燃油,也比失去出行能力更穩妥。新能源汽車在這裡完全無法立足,老式蘇聯汽車憑藉簡單的機械結構,反而能在零下40℃的環境中勉強啟動,偶爾還能看到駕駛員在發動機下生火解凍,這些特殊的用車場景,都要拜極寒氣候所賜。如果說汽車不熄火是為了應對機械的脆弱,那麼人類在極寒中的暴露,就是直面生命的極限,那怕是短暫離開溫暖的房屋,比如上個廁所,都要做好生死較量的準備。人體的核心體溫低於35℃就會進入凍僵狀態,而在西伯利亞的核心寒區,暴露在外的皮膚不到5分鐘就會出現凍傷,皮膚會從蒼白變得麻木,後續可能發展為組織壞死,要是沒做好防護,簡單的如廁往返,就可能讓手腳留下永久性損傷。更危險的是極寒對身體機能的破壞,寒風吹拂下,體溫會快速下降,初期會劇烈寒戰、牙齒打顫,隨著體溫降低,意識會逐漸模糊,陷入昏迷。2012年,西伯利亞遭遇幾十年來最強寒潮時,10天內就有100多人因嚴寒失去生命,近2000人凍傷,其中不少人就是因為短暫暴露在戶外,沒能及時保暖導致悲劇發生。當地人出門時會裹上厚重的鹿皮大衣、帽子和靴子,那怕是這樣,也會儘量縮短在戶外停留的時間,赤手觸碰金屬更是絕對的禁忌,因為低溫會讓皮膚瞬間粘在金屬表面,強行拉扯就會撕裂皮膚,這些刻在骨子裡的警惕,都是用無數教訓換來的。極寒早已滲透到西伯利亞生活的每一處細節,為了熬過漫長的冬季,當地人從8月末就開始進行冬儲,醃肉、煙燻魚、凍魚堆滿庫房,土豆、胡蘿蔔等耐儲蔬菜被放進地窖。每家每戶還要儲備大量的木材,屋裡的火爐需要整夜燃燒,一旦熄滅,屋內溫度在1小時內就會降到零下30℃以下。即便是這樣精心準備,供暖系統故障、燃油耗盡等意外,依然可能讓當地居民的生存陷入危機。極寒的西伯利亞,讓我們深刻地認識到,自然力量的強大足以重塑人類的生活方式,而生命在逆境中頑強生長的姿態,更成了這片冰封土地上最動人的風景,這份在嚴寒中堅守的勇氣,遠比寒冷本身更令人震撼。 (寰宇志)
他在戈壁灘上,為全球算力退燒
美國矽谷,聖克拉拉。輝達即將完成GB300液冷方案認證,坐鎮北美主場,在溫控領域實力雄厚的維諦,希望繼續主導市場。此前,這一格局已經延續了很多年。但這一次,他們碰到了中國廠商的強力挑戰。最終的結果是,維諦(Vertiv)保住了全球系統級合作夥伴的地位,但同時在中國市場上,他們不得不做出讓步。迫使其讓步的,是以英維克、高瀾為主的中國廠商。據第三方行業測算,2025年Q3英維克拿下輝達G300中國區液冷機櫃近一半市場份額。此外,它還在全球範圍內,為維諦提供關鍵零部件。更重要的是,它通過了輝達極其嚴苛的NPN Tier1認證,是中國大陸唯一獲得該認證的液冷供應商。過去,維諦一家獨大的格局,從此被改寫。敗給英維克,維諦並不冤,畢竟領銜英維克的不是泛泛之輩,而是前華為悍將齊勇。早在二十多年前,朗訊、北電、摩托羅拉等一眾美國通訊廠商,就敗在華為陣下,而齊勇當時就任職於華為電氣。從華為離職後的齊勇,在溫控領域默默耕耘了近二十年。這期間,他歷經技術的多次迭代,最終在AI液冷時代,臻於極致,登頂產業巔峰。過去十幾年,全球AI產業的敘事一直圍繞算力、模型和應用展開,而散熱是一個長期被忽略的主戰場。隨著算力密度持續提升,當單個GPU功耗超過千瓦時,人們才幡然醒悟:如果散熱失控,GPU再貴、演算法再先進,都是廢鐵。面對飆升的功耗,傳統風冷技術開始頂不住了。於是,液冷技術走到台前。不只國內廠商,包括維諦在內的全球頭部玩家,都在往液冷方向轉型。但問題也恰恰出在這裡。很多廠商嘴上說擁抱液冷,腦子卻還停留在風冷時代,其產品針對穩態運行的邏輯設計,難以應對AI時代的極端工況和極端負載。更麻煩的是,液冷本身也不是裝上就完事。冷板會不會被腐蝕?管路會不會漏液?冷卻液用久了會不會失效?這些事故一旦出現,輕則停機,重則整機報廢,讓很多客戶望而卻步。而齊勇帶領團隊,跳出行業思維慣性,從真實場景需求出發,去倒推AI時代究竟需要怎樣的液冷技術。最終,他們做出了令輝達難以拒絕的液冷部件和方案。以快接頭為例,英維克自研部件可滿足插拔200萬次依然穩定無故障,遠超行業平均5-10萬次的水平。微流道設計的冷板,則將熱阻值降至行業平均水平的一半以下,晶片發熱瞬間被導走,不會因過熱卡頓、當機。再加上冷卻液分配單元(CDU)的加持,猶如一個聰明的大管家,可精準泵送冷卻液、控制溫度壓力、監測漏液,節省每一度電。這種全端自研的液冷方案,從一開始就對齊了輝達的需求。它不光為穩態工況而設計,而是充分考慮到輝達AI伺服器在極端功耗、極端熱密度和長期滿負荷運轉的現實,即便在最差條件下,依然可控、可交付。這也是黃仁勳反覆斟酌之後,最終選擇英維克的原因。英維克在液冷時代的崛起,很大程度上,要歸因於齊勇的戰略遠見。早在2015年,齊勇就預判到,隨著資料中心算力密度的快速提升,傳統風冷散熱已逼近物理極限,將難以為繼。彼時,AI尚未爆發,雲端運算才初現端倪,主流資料中心仍在用風冷,液冷被視為超前的小眾技術。客戶擔心,液冷技術不成熟,一旦漏液,將導致價值數百萬的伺服器報廢。團隊內部也有人反對,認為液冷研發投入太大,風險太高,應該先鞏固公司在傳統基站業務上的地位。面對各方質疑與阻力,齊勇力排眾議,堅持押注液冷賽道。理由很簡單,技術趨勢不可逆,液冷是未來的必然方向。另外,風冷時代,市場長期被外資主導,液冷是國產換道超車的機會。拍板不容易,做起來更難。在英維克之前,無論冷板液冷還是浸沒式液冷,早有美國企業積累了數十年專利,行業主流的做法是:外購零部件,然後做整合。但齊勇卻劍走偏鋒,堅持自研核心零部件。這個決定,最初只是為了突破外資的技術壁壘,但隨著項目的推進,齊勇更堅信,只有全端自研才能解決困擾行業多年的耦合難題。液冷不是一個零件,而是冷板、接頭、冷卻液等在一起工作。過去,這些零部件來自不同供應商,將它們拼接在一起,適配困難不說,接觸久了,還容易發生漏液等嚴重事故。在算力飆升和極端負載之下,更是漏洞百出。齊勇拒絕拼湊思路,提出全鏈條戰略,在公司內部組建跨學科團隊,統籌推進全端自研。核心部件的研發沒有捷徑。為此,齊勇和他的團隊,面臨種種技術挑戰。在快接頭研發初期,為瞭解決密封件老化、插拔精度不足等問題,團隊與英特爾聯合進行了上千次的循環測試。因為複雜度極高,原計畫半年完成的測試,實際耗時接近一年。同樣經過上千次測試的,還有微通道冷板。這是英維克的專利技術,換熱效率較傳統冷板大幅提升。為瞭解決漏液這個液冷行業最大的痛點,英維克甚至自研了長效液冷工質。此舉,不僅打破了國外技術壟斷,更突破傳統工質的腐蝕魔咒,可實現5年免維護,讓裝置告別生鏽漏液。大膽押注液冷賽道的齊勇,最終摘到了果實。在AI算力大爆發時代,英維克憑藉多年的前瞻性佈局和技術積累,接住了輝達的潑天財富,成為中國液冷之王。加冕液冷之王,讓齊勇身處聚光燈下。過去一年,在輝達等巨頭訂單的刺激下,英維克股價狂飆,從每股31元一路上漲至最高117元,市值破千億。齊勇也因此賺得缽滿盆滿,按直接和間接持股計算,身價超過200億元。然而,就在媒體試圖打探這位AI液冷新貴的消息時,卻發現他十分低調。最近幾年,齊勇很少接受媒體專訪,行業峰會、論壇等公開場合也鮮少露面,似乎把更多時間花在了工作上。這位前華為老兵不喜歡拋頭露面,而更願意待在客戶現場,這是他在華為收穫的一筆寶貴財富。1968年出生在內蒙古包頭的齊勇,於上個世紀90年代,坐上南下的綠皮火車。在深圳,他通過社招進入華為電氣,從此開啟了與精密溫控的不解之緣。期間,他從普通電氣工程師成長為技術部門負責人,主持了通訊基站溫控裝置研發,參與多項關鍵技術突破。遺憾的是,2001年由於戰略調整,華為將該業務賣給了美國艾默生。但這段經歷,為齊勇植入了華為“以客戶為中心,奮鬥者為本”的基因,並養成現場主義的工作習慣:問題在現場,答案也在現場。這也成為他後來創業的核心指導思想。2005年創業初期,英維克只有8人團隊,沒有市場,沒有產品,沒有資源,沒有訂單!但有理想和一腔熱血。齊勇租來民房當辦公室,在樓道里搭建實驗室,用二手裝置搞研發。為了趕工期、偵錯產品,他帶領團隊通宵達旦,每天工作16個小時,餓了泡泡麵,累了趴在桌上打盹。一次產品測試中,空調壓縮機在高溫下突然爆裂,飛濺的金屬碎片擦過齊勇耳際,他卻異常冷靜地說:“如果連安全測試都通不過,我們憑什麼讓客戶信任?”這種對技術的極致追求,讓英維克成立僅一年,就入圍中國移動、中國聯通採購名單,打破了外資品牌在基站溫控領域的壟斷。站穩了腳跟的齊勇,並沒有忘記初心,反而以更大的熱情投入現場。為了打造更可靠的產品,他不僅組建了國家級測試中心,還要求研發人員將更多時間投入現場。從40℃高溫的新疆戈壁灘,到零下30℃的東北雪林,再到海島高鹽霧環境……英維克的產品經受住了各種極端測試。在齊勇看來,實驗室資料再完美,也抵不過現場真實運行。20年間,正是在對可靠性近乎偏執的追求中,英維克從通訊基站起步,把溫控一步步做到了儲能、AI資料中心等眾多領域,並在一個個高難度場景中,贏得客戶信任。當年,日本軟銀在全球尋求高可靠性基站方案,英維克團隊帶著裝置飛赴東京,經受住一輪又一輪近乎苛刻的測試,敲開了海外市場的大門。今天,站在AI算力時代的風口上,英維克再次贏得了輝達的信賴。科技產業一日千里,雖然英維克已在冷板市場佔據先機,更高效的浸沒式液冷路線,也正在逼近。前有強敵,後有追兵,壓力始終存在。“潮平兩岸闊,風正一帆懸。”去年8月,時逢英維克成立20周年,齊勇意氣風發,目光投向更遠的未來。“我們希望在英維克三十而立時,真正站立於精密環境控制領域的全球巔峰。”他說。 (華商韜略)
2026十大突破性技術─深度解讀超大規模AI資料中心:核電站供電、液冷取代空調,AI正在重塑全球能源版圖
這是《麻省理工科技評論》2026 年“十大突破性技術”深度解讀系列的第四篇內容,關注 DeepTech,關注新興科技趨勢。在廣闊的農田和工業園區裡,一棟棟塞滿電腦機架的超大型建築正拔地而起,為 AI 競賽提供動力。這些工程奇蹟是一種新型的基礎設施:它們是專為訓練和運行超大規模大語言模型而設計的超級電腦,並配備了專用的晶片、冷卻系統,甚至獨立的能源供應。2025 年,AI 基礎設施的投資規模已從“數十億美元”的量級躍升至“兆美元”。1 月 21 日,美國總統川普在白宮宣佈了“星際之門”(Stargate Project)——由 OpenAI、軟銀、Oracle 和阿布扎比投資基金 MGX 組建的合資企業,計畫四年內向美國 AI 基礎設施投資 5,000 億美元,首期即刻部署 1,000 億美元。軟銀 CEO 孫正義出任董事長,OpenAI 負責營運。星際之門正迅速從藍圖變為現實。位於德克薩斯州阿比林的旗艦園區已於 9 月投入營運,Oracle 開始交付首批輝達 GB200 晶片機架。到年底,星際之門已宣佈五個新址,總規劃容量接近 7 吉瓦,投資額超過 4,000 億美元。與此同時,OpenAI 還在阿聯、挪威和阿根廷啟動國際佈局,阿根廷巴塔哥尼亞的“星際之門阿根廷”項目投資高達 250 億美元,將成為拉丁美洲最大的資料中心。但星際之門只是冰山一角。據 HSBC 估計,全球已規劃的 AI 基礎設施投資超過 2 兆美元。亞馬遜承諾投入 1,000 億美元,Google 750 億美元,Meta 650 億美元,微軟僅 2025 年就將支出 800 億美元。據一項分析估算,OpenAI 已承諾在 2025 年至 2035 年間向硬體和雲基礎設施支出約 1.15 兆美元,涉及輝達、AMD、Oracle、微軟、Broadcom 等七家主要供應商。超大規模 AI 資料中心將數十萬個 GPU 晶片,如輝達的 H200 或 GB200,捆綁成協同工作的叢集。這些晶片擅長平行處理海量資料,每秒執行數兆次數學計算。數十萬英里長的光纖電纜像神經系統一樣連接著它們,巨大的儲存系統晝夜不停地輸送資料。但驚人的算力是有代價的。首先是電力。國際能源署(IEA)預測,全球資料中心電力消耗將在五年內翻一番以上,到 2030 年將超過 1,000 太瓦,相當於整個日本的用電量。僅在美國,資料中心已佔全國電力消耗的 4.4%,而 2018 年僅為 1.9%;到 2028 年可能攀升至 12%。在弗吉尼亞州這個全球資料中心最密集的地區,資料中心消耗了該州約 26% 的總電力。在建的最大型資料中心可能吞噬超過一吉瓦的電力,足以為約 75 萬戶家庭供電。某些規劃中的園區佔地 5 萬英畝,耗電量可達 5 吉瓦,超過美國現有最大核電站的容量。Grid Strategies 估計,到 2030 年美國將新增 120 吉瓦電力需求,其中 60 吉瓦來自資料中心,相當於義大利的峰值電力需求。目前,煤炭以約 30% 的份額成為資料中心最大電力來源,天然氣佔 26%,可再生能源約 27%,核能佔 15%。儘管可再生能源增長最快,但天然氣和煤炭仍將在 2030 年前滿足超過 40% 的新增需求。科技巨頭們正競相尋找清潔方案:亞馬遜從賓夕法尼亞州核電站直接獲取約 960 兆瓦電力;Google與 Kairos Power 簽署協議部署小型模組化反應堆;OpenAI 在挪威利用水電資源建立資料中心。但核能從開工到發電需要 5 至 11 年,資本支出是天然氣的 5 至 10 倍,遠水難解近渴。第二個挑戰是冷卻。AI 晶片的功率密度從過去的每機架 15 千瓦飆升至 80 至 120 千瓦,傳統空調已無法滿足需求。直接晶片冷卻(D2C)正在成為主流,這種技術將冷板直接安裝在 GPU 上,閉環系統在熱源處帶走 70% 至 80% 的熱負荷。浸沒式冷卻則更進一步:伺服器被浸泡在非導電液體浴槽中,可將冷卻能耗降低 50%,水耗降低最高 91%。微軟最新設計採用晶片內微流體冷卻,微小通道直接蝕刻在矽晶片背面,使 GPU 溫度降低 65%。然而,許多設施仍依賴蒸發冷卻,消耗大量淡水。據估計,2023 年美國資料中心直接消耗約 175 億加侖水,到 2028 年可能翻兩番。僅訓練 GPT-3 就蒸發了 70 萬升清潔淡水。彭博社報導,自 2022 年以來建造的美國資料中心約三分之二位於高水壓力地區。公眾正在為這些建設買單。Dominion Energy 的 2025 年報告顯示,弗吉尼亞州居民電費預計到 2039 年將翻一番以上,主要因資料中心增長。在佐治亞州牛頓縣,某些擬議資料中心每天請求的水量超過整個縣的日用水量,迫使當地官員在拒絕項目、要求替代冷卻方案或對居民實施限水之間艱難抉擇。地方反對正在加劇。據 Data Center Watch 統計,自 2023 年以來美國已有 180 億美元項目被取消,460 億美元被延遲。僅 2025 年第二季度,被阻止或延遲的項目價值達 980 億美元。居民們因噪音、光污染、水資源枯竭和電費上漲而組織抵制;2025 年 12 月,超過 200 個環保組織聯名致信國會,呼籲暫停批准新的資料中心。科技高管們對此不以為然。AMD 首席執行長蘇姿丰在被問及 AI 熱潮是否過度時斬釘截鐵:“絕對不是。”他們將答案訴諸於 8 億每周 ChatGPT 使用者、40% 大型企業的 AI 採用率,以及 AI 作為經濟引擎和國家安全優先事項的戰略價值。OpenAI 首席財務官 Sarah Friar 引用歷史作為辯護:“當網際網路剛起步時,人們總覺得我們建設過度了。看看我們今天在那裡?”這些交易的循環性質以及預測的需求能否兌現,仍是懸而未決的問題。電網規劃者發現科技公司正在向多個公用事業展示同樣的項目以尋求最快的電力接入,使需求預測變得困難。聯邦能源監管委員會前主席 Willie Phillips 坦承:“有些地區預測了巨大的增長,然後又向下調整了。”從 1990 年代的本地伺服器到 2000 年代的雲端運算,再到如今的 AI 超級工廠,資料中心的演進從未停止。生成式 AI 已從瓶中釋放,沒有回頭路。但關於經濟預測是否精準、資源供應能否持續、建成後誰來使用,這些問題的答案,或許只有時間才能揭曉。我們邀請了三位來自產業與科研一線的代表,圍繞其關鍵技術路徑與產業影響進行點評。以下評論內容均為個人見解,不代表《麻省理工科技評論》觀點從算力堆疊到能源博弈:超大規模 AI 資料中心的現狀、瓶頸與趨勢首先需要明確一個核心概念:超大規模 AI 資料中心,絕對不是傳統資料中心的簡單放大版。它誕生的根本驅動力,是為了滿足大模型對算力近乎指數級增長的海量需求。因此它的架構是革命性的,本質上是把數十萬計的 GPU 通過極高速網路“粘合”在一起,形成前所未有的單體式超級電腦。Google、微軟、亞馬遜、Meta 等全球科技巨頭,都在投入數千億美元競相佈局。但與此同時,這個龐然大物也帶來了一系列前所未有的挑戰:驚人的功耗、棘手的散熱、巨大的能源壓力,以及如何在規模擴展與效率提升之間找到最佳平衡點。目前業界的技術路徑已經比較清晰,核心思路是通過高速互聯技術建構高效的“超節點”,最大程度減少晶片間的通訊延遲和開銷。算力確實已邁入 ZFLOPS 時代,但“記憶體牆”,即資料搬運的瓶頸,也愈發突出。另一個無法迴避的挑戰是散熱:隨著晶片密度飆升,傳統風冷已力不從心,液冷技術正從“可選項”變為“必選項”,配套供電架構也必須同步升級。而這個產業也面臨著多維度的瓶頸。首先是能源約束。一個超大規模資料中心的功耗可超過 1 吉瓦,相當於一座中型城市的用電量。這使它從單純的電力消費者,變成必須像能源公司一樣深度規劃電力獲取的“准公用事業體”。獲取穩定充足的清潔能源成為首要任務,而全球許多地區老舊電網的承載能力,已開始反向制約資料中心的選址和規模。其次是時間約束。AI 晶片迭代速度極快,約一年一代,遠超傳統資料中心基礎設施兩年左右的更新周期。這導致一個尷尬局面:本代資料中心剛建成,就要準備迎接兩三代新晶片。而市場競爭又要求算力快速上線,建設周期被從近兩年壓縮至一年以內,對預製化、模組化的快速交付能力構成極致考驗。最後是生態與治理約束。算力高度集中必然引發一系列新問題:市場壟斷的擔憂、資料主權的爭議、對當地水資源和環境的影響等。產業競爭也在從純粹的技術比拚,轉向標準與生態之爭——未來是走向開放協作,還是形成若干封閉的私有體系,將深刻重塑整個算力市場的格局。往前看,幾個趨勢比較確定:架構將更加立體協同。“雲端集中訓練、邊緣就近推理”的模式會日趨成熟,“全球算力網際網路”的構想也可能逐步落地,實現跨地域的算力調度與最佳化;它的營運將更加智能高效,用 AI 最佳化資料中心自身能耗會成為標配,行業關注的指標將從單純的 PUE,轉向更本質的“每瓦特電力產出多少有效算力”;這項技術將更加綠色多元,液冷全面普及之外,餘熱回收、水循環等深度綠色方案會加速落地;芯粒(Chiplet)、光計算等後摩爾時代的新技術,也將從實驗室走向產業試點。綜上,超大規模 AI 資料中心無疑是智能時代最關鍵的基石之一,但它也對能源、基建和治理能力提出了巨大挑戰。資料中心正從支撐業務的“成本中心”,演變為驅動創新的“智能生態樞紐”。其成功將取決於能否與電網、社區共建可持續的“數字能源共同體”,並對環境影響實現透明、負責任的管理。未來能在這一領域脫穎而出的,必定是那些以架構創新破解算力瓶頸、以卓越工程能力贏得時間競賽、同時以生態責任感建構可持續未來的實踐者。從電力成本到模型安全:AI 資料中心的三重挑戰隨著大模型的規模化應用,AI 資料中心正面臨一系列深層次的產業挑戰。以下從成本、算力調度和資料安全三個維度,分析當前的關鍵瓶頸與應對方向。首先,電力成本將成為 AI 服務社會的主要成本。大模型目前在正確性和確定性上仍有待改進:錯誤會快速累積,導致不可接受的結果;而提高正確性,則意味著增加計算量;不確定性帶來的重試機制,又可能引發新的錯誤,形成惡性循環。在這一背景下,更廉價的電力意味著在同樣計算成本下獲得更好的模型服務效果。電力成本,正在成為AI能否大規模服務社會的核心變數。其次,加速卡的多樣性將持續提高。隨著時間推移,不同品牌、不同代際的加速卡將長期共存於資料中心。CPU 與 GPU 虛擬化技術以及高速網路技術的發展,將使算力調度更加靈活——推理任務可以有效利用不同加速卡從而降低成本,但大型訓練任務的複雜性仍需適應多樣化的算力環境。短期來看,宏觀的任務調度策略與微觀的通訊計算融合策略會有所幫助;長期來看,建構混合加速卡計算框架將是必然選擇。最後,丟失模型等於丟失資料。大模型有效壓縮了海量資料並支援靈活提取,壓縮比可達十萬倍。丟失一個磁碟容量僅為 700GB 的模型成品,基本等效於丟失 70TB 的原始訓練資料。由於資料的差異化帶來模型的差異化,企業獨有的資料正在轉化為企業獨有的競爭力。在資料安全合規的諸多限制下,企業需要擁有自有算力,在開源模型基礎上精調自有模型。這意味著,基礎設施在保護核心模型方面面臨的挑戰,比傳統資料安全場景更為嚴峻。超大規模 AI 資料中心的關鍵轉向:液冷與新型能源架構超大規模 AI 資料中心是人工智慧時代的關鍵基礎設施。Scaling Laws 揭示了模型性能與參數規模、資料量、算力投入之間的冪律關係 [1],使大模型發展從經驗探索轉向可預測的工程實踐,並推動 Amazon、Google、Microsoft 等科技巨頭斥資數千億美元建構數十萬塊 GPU 互連的超級計算叢集,以滿足大模型訓練的爆炸性算力需求。然而,當 GPU 機櫃的功率密度突破 50 千瓦時(例如輝達 GB200 NVL72 機櫃級系統的功率密度高達 132 千瓦/櫃 [2]),傳統風冷散熱技術成為了制約系統的瓶頸。風冷散熱依賴空氣對流傳熱,其有效功率密度上限為 20-50 千瓦,超過此閾值後,維持散熱所需的風量呈指數級增長,導致風道截面積、風扇功耗、噪音和系統體積急劇上升而難以工程實現。另一方面,全球資料中心預計 2030 年佔全球總用電量 4%-7%、單體資料中心能耗將突破吉瓦級 [3]。因此,傳統的風冷與供電模式已難以為繼,行業正加速向液冷技術及核能等新型能源架構轉型。液冷技術通過直接接觸式散熱並將餘熱用於園區供暖、工業供熱,能夠有效改善資料中心的電能使用效率,而核能的穩定基荷特性為解決“AI 大模型訓練的持續高功耗與傳統電網的負荷平衡模式存在本質衝突”這一困境提供了有效途徑。Google、Amazon、Microsoft 等公司均在積極推進核電工程,以滿足超大規模 AI 資料中心的用電需求 [4]。此外,瑞士 Deep Atomic 公司和美國愛達荷國家實驗室計畫建造首個核動力人工智慧資料中心 [5],標誌著能源-算力一體化資料中心架構正在從概念走向實踐。因此,基於液冷與核能的超大規模資料中心能夠有效地支撐算力規模的擴展與躍遷,代表了全球 AI 算力基礎設施形態的趨勢,也為物理極限約束下的 AI 持續發展開闢了新的空間。 (麻省理工科技評論APP)
資料中心散熱革命,冷機退場,但熱量管理永不過時
資料中心散熱革命:冷機退場,但熱量管理永不過時核心命題:晶片功率飆升正在改寫散熱遊戲規則,傳統冷機可能不再是唯一選擇,但如何高效排熱始終是繞不開的死結。💡 行業共識正在坍塌📌 聚焦Nvidia CEO 黃仁勳在 2024 年 10 月的一次演講中斷言:"液冷將成為主流,空氣冷卻即將過時。"但現實遠比這句話複雜得多,冷卻技術的演變不是簡單的二選一,而是一場關於能效、成本與物理極限的三方博弈。資料中心營運商長期依賴的冷水機組(Chiller)正面臨存在性挑戰。原因很簡單,當單個 GPU 功耗從 300W 狂飆至 1000W 以上時,傳統風冷系統的極限被徹底暴露。行業開始轉向液冷方案,尤其是浸沒式冷卻和冷板式液冷,這些技術能直接接觸晶片帶走熱量,效率遠超空氣介質。但這裡有個被忽視的矛盾:液冷減少了對冷機的依賴,卻無法消除熱量本身。無論採用何種冷卻方式,資料中心每消耗 1 兆瓦電力,就必須向外界排放近乎等量的熱能。問題從"如何冷卻"變成了"如何排熱",而後者的技術壁壘和成本壓力絲毫不比前者低。🔥 Nvidia 的 Rubin 晶片:一場能源危機預告⚠️ 警示Nvidia 即將推出的 Rubin 架構晶片單卡功耗預計突破 1500W,這意味著一個標準 42U 機架的總功耗可能達到 200kW 以上,相當於 150 個美國家庭的用電量。如果繼續沿用傳統散熱方案,資料中心的能源帳單將徹底失控。以某超大規模雲服務商的實際案例為參照:部署 10,000 台搭載 Rubin 晶片的伺服器,總計算功耗約 15MW,但配套的冷卻系統額外消耗 5-7MW 電力。這意味著每投入 1 美元用於計算,就要額外支付 0.35-0.5 美元用於散熱。更致命的是,許多老舊資料中心的電力基礎設施根本無法承載這種負荷,改造成本動輒上億美元。這張表揭示的真相是:即便 PUE(電能使用效率)最佳化到 1.1,散熱消耗仍佔總能耗的 10%。當計算密度提升 5 倍時,散熱的絕對成本增長可能達到 8-10 倍,因為你需要更強的泵、更大的冷卻塔、更複雜的管網。🌊 液冷不是萬能藥,排熱才是終極戰場🔍 洞察液冷技術解決的是"如何把熱量從晶片轉移到冷卻液"的問題,但冷卻液最終仍需通過乾冷器(Dry Cooler)或冷卻塔將熱量釋放到大氣中。這個環節的效率瓶頸,正在成為行業新的焦灼點。歐洲某 AI 訓練中心的工程師曾透露一個細節:他們採用浸沒式液冷後,機房內溫度從 28°C 降至 20°C,但室外冷卻塔的負荷卻增加了 40%。原因在於液冷系統雖然減少了空調能耗,卻對散熱末端提出了更苛刻的要求。傳統冷卻塔依賴水蒸髮帶走熱量,但在低溫或乾燥地區,蒸發效率急劇下降,必須引入乾冷器或混合系統。現實是殘酷的:乾冷器的初裝成本比冷卻塔高 2-3 倍,維護費用也更高,但它能在水資源匱乏地區運行,這對中東、北非的資料中心至關重要。Meta 在瑞典建設的資料中心就完全放棄了水冷,轉而使用全乾冷方案,利用北歐寒冷氣候實現 90% 以上時間的自然冷卻,PUE 常年維持在 1.08 左右。📊 冷機的退場與堅守:一場區域性的分裂✅ 機遇冷機並非即將消亡,而是在重新定義自己的生存空間。在高溫高濕地區(如東南亞、中東),冷機仍然是維持穩定運行的基石;在寒冷地區(如北歐、加拿大),自然冷卻和液冷的組合則大幅降低了對冷機的依賴。以下是不同氣候區域的冷卻策略差異:新加坡政府在 2023 年批准的一項資料中心擴建計畫中明確要求:所有新建設施必須將 PUE 控制在 1.3 以下,否則不予審批。這迫使營運商採用高效冷機配合液冷系統,並投資昂貴的餘熱回收裝置。相比之下,微軟在愛爾蘭的資料中心全年 75% 時間僅依靠外界冷空氣散熱,幾乎不啟動冷機。金句警示:冷機不會死,但它正在從"必需品"降格為"奢侈品",只有那些別無選擇的地區才會繼續為它買單。⚡ 餘熱回收:從成本中心到利潤來源💎 案例芬蘭資料中心營運商 Yandex 將伺服器廢熱輸送至赫爾辛基市政供暖網路,每年向市政府出售熱能收入超過 200 萬歐元,同時獲得稅收減免。這種模式已在北歐多國複製,資料中心從"能源黑洞"變成"城市熱源"。餘熱回收技術的經濟學正在改寫。傳統觀念認為資料中心的熱量品質太低(通常 40-60°C),難以商業化利用。但液冷技術的普及改變了這一點,浸沒式液冷可以將冷卻液溫度提升至 70-80°C,足以直接接入區域供暖系統。計算一筆帳:一個 10MW 規模的資料中心,如果回收 50% 的廢熱用於供暖,在北歐地區每年可節省約 150 萬歐元能源成本,同時減少約 5000 噸碳排放。這不僅符合 ESG(環境、社會、治理)要求,還能顯著改善財務模型。但障礙同樣明顯:餘熱回收需要與市政供暖網路緊密耦合,這意味著資料中心選址必須靠近城市,而城市土地成本、噪音管制、社區反對等問題又會抬高建設門檻。德國法蘭克福就因居民投訴噪音污染,否決了一座計畫中的大型資料中心項目。🧠 跳出框架:散熱的終極解法可能不在地球上🚨 前沿思考當地面資料中心的散熱成本無限逼近算力收益時,也許該重新審視一個瘋狂的想法:把資料中心搬到太空或深海。SpaceX 已在測試衛星算力節點,而微軟的 Project Natick 證明了海底資料中心的可行性。這不是科幻,而是物理學對成本曲線的終極反抗。深海資料中心的邏輯很簡單:海水溫度常年穩定在 4-10°C,無需任何主動冷卻裝置,PUE 理論上可低至 1.05。微軟在蘇格蘭海岸部署的實驗艙運行兩年後,故障率僅為陸地資料中心的八分之一,因為密封環境隔絕了氧氣和濕度,延長了硬體壽命。但商業化路徑仍不清晰。海底資料中心的部署和維護成本極高,光纜鋪設、潛水器維護、緊急故障處理都是難題。更致命的是法律真空:誰擁有海底資料中心的產權?如何監管跨國海底網路?這些問題在聯合國海洋法公約中沒有明確答案。太空資料中心則面臨另一個極端挑戰:如何在真空環境中散熱?沒有空氣對流,熱量只能通過輻射排放,這需要巨大的散熱板,衛星體積和發射成本會急劇膨脹。但長遠來看,太陽能充足、無需地租、零碳排放的優勢可能抵消這些劣勢。🎯 結論:熱量是新的稀缺資源資料中心行業正在經歷一場範式轉移:從"如何用更多能源冷卻"轉向"如何讓每一焦耳熱量產生價值"。冷機可以減少,但熱量管理的複雜度只會增加。未來的贏家不是那些擁有最強冷卻裝置的公司,而是那些能把散熱變成系統工程、把廢熱變成商品的玩家。當 Rubin 晶片真正量產時,整個行業將面臨一次集體大考。那些仍在用 2020 年思維建設資料中心的人,會發現自己的資產迅速貶值;而那些提前佈局液冷、餘熱回收、智能熱管理的先行者,將在能效競賽中拉開代差。最後一句話送給所有從業者:在算力軍備競賽中,散熱能力才是真正的護城河,因為摩爾定律可以失效,但熱力學第二定律永遠有效。💬 專業評論解讀:散熱焦慮背後的行業共識與分歧🎯 核心共識:熱力學定律無法繞過看完內容,大家的評論雖然角度不同,但都指向同一個鐵律:熱量守恆定律不會因為技術進步而失效。David Chen 工程師的發言最為直白:"第一熱力學定律仍然適用,GPU 消耗的每一焦耳電能最終都會變成必須排出的熱量。"這句話擊碎了所有對"液冷能消除散熱問題"的幻想。🔍 關鍵洞察變化的不是熱量總量,而是處理方式的靈活性。溫水液冷(45-60°C)允許更高的冷卻液溫度,這意味著可以減少甚至消除機械製冷(冷機),轉而依賴自然散熱或環境輔助冷卻。這不是技術突破,而是物理約束的重新分配。⚖️ 分歧點一:乾冷器 + 密閉循環能否扛住極端場景?第一位評論者提出了最尖銳的問題:"在高溫缺水地區,乾式散熱 + 密閉循環系統能否在不犧牲韌性的前提下擴展?"這個問題戳中了行業痛點。乾冷器(Dry Cooler)的優勢是零水耗,但劣勢同樣致命:現實案例:中東某資料中心在 2023 年夏季遭遇 48°C 高溫時,乾冷器的散熱能力下降了 40%,迫使營運商臨時啟用備用冷機,能耗飆升 60%。這暴露了一個殘酷真相:乾冷器在理論上完美,但在極端氣候下的韌性仍需驗證。第一位評論者的擔憂完全合理——當機架密度衝破 200kW 時,任何散熱方案的容錯空間都在縮小。你不能允許系統在最熱的那 5% 時間裡崩潰,因為 AI 訓練任務是 7×24 小時運行的。📈 分歧點二:散熱是維運話題還是戰略決策?Cheong Nicholas 的發言將討論拉到了更高維度:"冷卻不再是設施部門的話題,而是董事會等級的決策。"這個判斷背後有三層含義:1️⃣ 選址邏輯徹底改寫傳統資料中心選址優先考慮:電力成本 > 網路延遲 > 土地價格。但現在必須加入新變數:氣候適配性北歐、加拿大等寒冷地區成為香餑餑水資源可得性新加坡、中東即便電力充足也面臨水限制餘熱消納能力能否接入市政供暖網路直接影響 ROI微軟在愛爾蘭、Meta 在瑞典的選址,本質上是用"地理套利"避險散熱成本。但這種策略有天花板——全球適合建大型資料中心的寒冷地區屈指可數,一旦飽和,晚來者只能硬啃高溫地區。2️⃣ 資本支出的結構性變化評論者提到"影響 CAPEX 規劃",具體體現在:前期投資重心轉移從 IT 裝置轉向散熱基礎設施全生命周期成本重估PUE 1.3 的傳統方案 vs PUE 1.1 的液冷方案,10 年 TCO 差距可達 30-40%靈活性溢價模組化液冷系統初裝貴 20%,但能快速響應算力擴容需求3️⃣ 風險管理的新維度Cheong 提到的"長期風險管理"包括:監管風險歐盟正在推動強制性 PUE 限制和碳稅氣候風險極端天氣頻率增加,散熱系統必須有冗餘設計社會風險社區對噪音、熱島效應的抵制可能導致項目擱淺金句提煉:當散熱成本佔總營運成本的 35% 以上時,它就不再是工程問題,而是生死存亡的戰略問題。🔄 分歧點三:餘熱回收是理想主義還是現實路徑?Chuck Blythe 的評論最具顛覆性:"不要只想著排熱,要想辦法回收熱量。用熱泵將 45°C 溫水升級到 85°C 以上,COP(能效比)可以超過 4,這些熱水有大量工業和農業用途。"這個思路在北歐已經驗證可行,但在其他地區面臨三大障礙:障礙 1:需求匹配難題新加坡資料中心產生的熱水,在當地幾乎找不到買家。即便能供應給工業園區,輸送距離超過 5 公里後,管道熱損失和成本就會吞噬大部分收益。障礙 2:基礎設施鎖定餘熱回收需要與市政系統深度耦合,但大多數資料中心選址時沒考慮這一點。改造成本包括:鋪設保溫管網(每公里 200-500 萬美元)建設熱交換站(500-1000 萬美元/站)法律協調成本(供熱協議談判可能耗時 1-2 年)障礙 3:商業模式不成熟芬蘭案例的成功有特殊性:政府強制要求新建建築接入區域供暖,且給予資料中心稅收優惠。但在美國、亞洲大部分地區,這種政策激勵缺失,餘熱回收項目 IRR(內部收益率)往往低於 8%,無法吸引投資。現實判斷:餘熱回收在 2026 年仍是"錦上添花"而非"雪中送炭"。只有當碳稅真正重到讓排放成本超過回收成本時,這個模式才會從理想走向主流。⚡ 隱藏議題:電網容量才是最大瓶頸David Chen 提到的一個細節值得放大:"省下來的冷機功率可以重新分配給額外的計算容量,提升每單位電網連接的 AI 輸出。"這句話揭示了一個被忽視的戰場:資料中心的增長速度已經超過電網擴容速度。以馬來西亞柔佛州為例,該地區計畫建設 10GW 資料中心產能,但當地電網容量僅 6GW,水資源也嚴重不足。結果是什麼?項目排隊等電力配額,部分營運商被迫自建燃氣電廠,成本暴漲 50%。換個角度看液冷的價值:傳統方案:100MW 計算 + 30MW 散熱 = 130MW 電網需求液冷方案:100MW 計算 + 10MW 散熱 = 110MW 電網需求在電網受限地區,這 20MW 差異意味著能多部署 20% 的伺服器。這才是液冷真正的殺手鐧——不是降低能耗,而是突破電網瓶頸。🚨 Steven Howell 的警告:紙面資料 ≠ 實際性能最後一條評論雖短,但擊中要害:"我見過太多 S45 規格隱藏冷卻極限,紙面數字不等於現場表現。"這是行業潛規則:實驗室 PUE 1.2→ 實際運行 PUE 1.5標稱冷卻能力 200kW/機架→ 實際穩定運行僅 150kW號稱零水耗→ 應急模式仍需蒸發冷卻原因很簡單:裝置廠商的測試條件是理想化的(恆溫 25°C、海拔 0 米、無灰塵),而真實資料中心要應對 40°C 高溫、沙塵暴、電壓波動等極端場景。建議:任何散熱方案都應該按"最壞情況設計,平均情況運行"。別指望系統在最熱的那 1% 時間裡仍能滿負荷,20% 的冗餘設計不是浪費,而是保命。🎯 彙總結論:行業正在經歷認知升級這五條評論共同勾勒出一個事實:資料中心行業正從"技術驅動"轉向"物理約束驅動"。✅ 已達成的共識液冷不是魔法,只是改變了熱量處理方式乾冷器 + 密閉循環在缺水地區有潛力,但韌性待驗證散熱已從維運話題升級為戰略決策餘熱回收理論上可行,但需要政策、基礎設施、商業模式三者對齊❓ 仍在爭議的問題200kW/機架密度下,那種散熱方案的 TCO 最優?電網瓶頸會不會倒逼資料中心向偏遠地區擴散?碳稅和水限制政策會不會重塑全球資料中心版圖?🔮 一個大膽預測2028 年前,我們會看到第一座"負碳資料中心"——不是通過碳抵消,而是通過餘熱回收產生的經濟價值超過自身碳排放成本。這不是環保口號,而是熱力學定律與市場機制共同作用的必然結果。最後一句話:在算力軍備競賽中,誰先解決散熱問題,誰就能在電網、水資源、土地這三重約束下搶到最後的擴張空間。技術迭代可以等,但物理極限不會給你第二次機會。(芯在說)