#nvidia
【CES 2026】突發開源!NVIDIA 宣佈推出用於物理 AI 的全新開放模型、框架和 AI 基礎設施之深度洞察!
引言:CES 2026 引爆行業革命,機器人開發的“ChatGPT時刻”正式到來太平洋時間2026年1月5日,拉斯維加斯國際消費電子展(CES)現場,NVIDIA創始人兼首席執行長黃仁勳的一句“機器人開發的ChatGPT時刻已然到來”,為全球機器人產業定下了新的發展基調。當天,NVIDIA正式宣佈推出用於物理AI的全新開放模型、框架和AI基礎設施,同時展示了Boston Dynamics、Caterpillar、Franka Robotics等全球領先企業基於其技術打造的多款新型機器人與自主機器,涵蓋移動機械臂、人形機器人、工業作業裝置等多個品類。這一系列發佈並非孤立的技術更新,而是NVIDIA對機器人產業發展瓶頸的精準突破,更是對未來“專家級通用”機器人開發範式的全面重構。長期以來,機器人產業始終面臨三大核心痛點:一是缺乏理解物理世界的通用智能,傳統機器人依賴預設程序,難以應對動態環境變化;二是開發流程分散複雜,模擬與現實存在巨大鴻溝,技術迭代效率低下;三是軟硬體協同不足,AI算力與能效難以匹配機器人輕量化、高即時性的應用需求。NVIDIA此次推出的全端技術體系——從Cosmos與GR00T開放模型,到Isaac Lab-Arena模擬框架與OSMO計算框架,再到Blackwell架構驅動的Jetson T4000硬體模組,形成了覆蓋“模型-框架-硬體-生態”的完整解決方案,旨在打通機器人開發的全生命周期,加速新一代AI驅動機器人的規模化落地。本文將從技術核心解析、產業鏈重構影響、應用場景突破、產業趨勢展望四大維度,深度拆解NVIDIA物理AI技術體系的核心價值與行業變革意義。一、技術核心解析:物理AI如何重構機器人的“認知與行動”能力黃仁勳所言的“機器人開發的ChatGPT時刻”,核心在於物理AI技術的突破性進展。不同於傳統AI聚焦數字世界的資訊處理,物理AI的核心目標是讓機器理解物理世界的運行規律,具備感知、推理、規劃與行動的閉環能力,實現從“執行指令”到“理解並決策”的跨越。NVIDIA此次發佈的技術體系,正是圍繞這一核心目標建構的全端解決方案,其技術核心可拆解為“感知-推理-行動-訓練”四大核心模組。1.1 核心模型 Cosmos與GR00T建構物理AI的“認知大腦”要實現機器人對物理世界的理解,首先需要建構能夠建模物理規律、融合多模態資訊的基礎模型。NVIDIA此次推出的Cosmos系列與GR00T N1.6模型,分別解決了“物理世界認知”與“人形機器人全身控制”兩大核心問題,共同構成了物理AI的“認知大腦”。1.1.1 Cosmos系列模型:賦予機器人“物理直覺”傳統機器人的最大短板在於缺乏“物理直覺”——無法預判環境變化對自身動作的影響,也難以理解物體的物理屬性(如重力、摩擦力、材質特性等)。這導致機器人在執行簡單任務時,一旦遇到未預設的場景(如地面油污、物體重量變化),就容易出現失穩或任務失敗的情況。Cosmos系列模型的核心價值,正是通過生成式AI技術,讓機器人內化物理世界的基本規律,具備即時預測、跨場景遷移與多步推理的能力。Cosmos系列包含三大核心模型,形成了“感知-預測-推理”的認知閉環:NVIDIA Cosmos Transfer 2.5:作為轉換模型,其核心功能是打通模擬與現實的“域鴻溝”。傳統機器人訓練依賴大量真實場景資料,成本高昂且周期漫長,而模擬資料又因與現實環境差異過大,導致訓練出的模型難以直接遷移。Cosmos Transfer 2.5支援空間條件控制的風格遷移,可將Isaac Sim中的合成資料轉換為帶有真實世界噪聲、光照幹擾、鏡頭畸變的等效資料,同時保持物理參數不變;反之,也能將真實世界的稀疏資料增強為多樣化的模擬場景,大幅提升模型從模擬到現實的零樣本遷移成功率。相較於前代模型,其體積更小、運行更快,生成質量顯著提升,域間遷移的誤差累積大幅減少。NVIDIA Cosmos Predict 2.5:聚焦物理世界的即時預測,解決機器人的“快思考”問題。該模型融合Text 2 World、Image 2 World、Video 2 World等生成能力,可根據文字、圖像或視訊輸入,生成連貫的環境演化序列。與傳統電腦視覺模型逐幀處理像素不同,Cosmos Predict 2.5直接對物理狀態的演化軌跡進行推演,能夠在毫秒級內預測環境變化對機器人動作的影響。例如在“機械臂倒水”任務中,傳統方法需要複雜的流體動力學方程求解,難以滿足即時性要求;而Cosmos Predict 2.5通過學習海量物理視訊資料,可即時預測下一時刻的流體分佈與不確定性,為控製器提供“是否會濺出”的預判依據,支撐機器人的動態微調。NVIDIA Cosmos Reason 2:作為開放推理視覺語言模型(VLM),負責機器人的“慢思考”——跨時間尺度的理解、推理與決策。該模型引入了大語言模型中成熟的思維鏈(CoT)機制,並將其擴展到視覺-動作領域,能夠直接從圖像中理解語義與空間關係,完成多步任務分解與因果推理。在“清理廚房檯面”這類複雜任務中,傳統規劃器依賴預定義的PDDL(規劃域定義語言),難以應對場景變化;而Cosmos Reason 2可自主分解任務(如“先移開水杯→再擦拭油污→最後整理餐具”),並通過反事實推理預判不同動作的後果,主動規避高風險操作(如避免碰撞易碎物品)。這種將感知、推理與決策緊密耦合的能力,有效解決了傳統模組化架構中資訊層層傳遞的損耗問題。三者的協同邏輯清晰:Cosmos Predict 2.5提供即時物理狀態預測,支撐毫秒級的動態反饋;Cosmos Reason 2負責長周期的任務規劃與風險預判;Cosmos Transfer 2.5則打通模擬與現實的資料通道,為前兩者的訓練提供高品質資料支撐,形成“預測-推理-資料迭代”的認知閉環。1.1.2 GR00T N1.6:解鎖人形機器人的“全身控制”能力如果說Cosmos系列模型解決了機器人“認知世界”的問題,那麼Isaac GR00T N1.6則聚焦於“如何行動”,特別是為人形機器人提供開放式的推理視覺語言行動(VLA)模型,實現全身動作的精準控制與上下文理解。人形機器人的控制難度遠超傳統機械臂,其擁有數十個自由度,需要兼顧平衡、協調、精準操作等多重目標,傳統控制方法難以實現複雜動作的靈活適配。GROOT N1.6的核心突破在於兩大技術創新:一是採用MoE(混合專家)架構,實現“通專融合”的控制能力。該架構包含多個獨立的“專家”子網路,在處理不同任務時啟動對應的專家模組——例如理解自然語言指令時啟動“通用語言專家”,執行精密銲接時啟動“運動控制專家”,既保證了通用任務的適應性,又提升了專項任務的精準度。二是深度整合Cosmos Reason 2模型,強化上下文理解與推理能力。通過融合視覺語言推理與動作控制,GR00T N1.6可直接將人類自然語言指令轉換為全身協調的動作序列,例如將“把桌子上的檔案遞給我”拆解為“移動至桌前→識別檔案位置→調整姿態→抓取檔案→精準遞出”的連貫動作,無需人工編寫複雜的運動控製程序。目前,Franka Robotics、NEURA Robotics、Humanoid等企業已開始利用GR00T賦能的工作流,進行機器人新行為的模擬、訓練與驗證。Salesforce則通過整合Agentforce、Cosmos Reason與NVIDIA Blueprint,對機器人採集的視訊片段進行分析,將事件解決時間縮短了50%,充分驗證了該模型在提升任務效率方面的核心價值。1.2 支撐框架 Isaac Lab-Arena與OSMO打通開發全流程物理AI模型的落地,離不開高效的開發與訓練框架支撐。長期以來,機器人開發麵臨兩大流程痛點:一是模擬評估體系分散,基準測試依賴人工操作,難以實現規模化驗證;二是端到端工作流複雜,需要跨工作站、雲端等異構計算資源,協同難度大,開發周期漫長。NVIDIA此次發佈的Isaac Lab-Arena開源模擬框架與OSMO雲原生計算框架,正是針對這兩大痛點的精準解決方案,旨在實現“模擬-訓練-評估-部署”的全流程閉環。1.2.1 Isaac Lab-Arena:標準化模擬評估的“協作平台”模擬訓練是機器人開發的核心環節,其質量直接決定了機器人在真實環境中的性能。但當前行業缺乏統一的模擬評估標準,不同開發者採用不同的測試體系,導致技術成果難以對比,且模擬場景與真實環境的差異過大,大幅降低了訓練效率。Isaac Lab-Arena的核心目標是建構一個開放原始碼的協作系統,實現大規模機器人策略評估與基準測試的標準化。該框架的核心優勢體現在三個方面:一是模組化設計,其評估層與任務層通過與光輪智能的深度合作完成建構,支援靈活配置不同任務場景與評估指標;二是多基準相容,可直接對接Libero、Robocasa等業界領先的基準測試體系,實現測試流程的標準化,確保機器人技能在部署至物理硬體前具備穩健性與可靠性;三是開源協作,現已在GitHub上公開發佈,開發者可基於該框架共享測試場景、驗證演算法效果,加速技術迭代。1.2.2 OSMO:跨環境協同的“開髮指揮中心”機器人開發涉及合成資料生成、模型訓練、軟體在環測試等多個環節,需要跨越工作站、邊緣裝置、混合雲等多種計算環境,傳統開發模式下,各環節相互獨立,資源調度複雜,嚴重影響開發效率。OSMO作為雲原生編排框架,將機器人開發整合至單一易用的命令中心,實現了全流程的高效協同。OSMO的核心功能包括:一是跨環境工作流定義,開發者可通過統一介面,定義覆蓋多計算環境的工作流,實現合成資料生成、模型訓練、測試驗證的自動化執行;二是資源智能調度,根據不同環節的算力需求,自動分配工作站、雲端等資源,提升資源利用率;三是快速整合適配,現已開放使用,並被Hexagon Robotics等企業採用,同時整合至Microsoft Azure Robotics Accelerator工具鏈中,大幅降低了開發者的接入門檻。1.3 硬體基石 Blackwell架構驅動的邊緣AI算力革命物理AI模型的即時運行,需要強大的邊緣AI算力支撐。機器人尤其是人形機器人、移動作業裝置等,對硬體的輕量化、低功耗、高即時性提出了嚴苛要求。傳統邊緣計算模組難以平衡算力與能效,無法滿足複雜物理AI模型的運行需求。NVIDIA此次發佈的Jetson T4000模組與IGX Thor工業邊緣平台,基於Blackwell架構打造,實現了算力與能效的跨越式提升,為物理AI的邊緣落地提供了核心硬體支撐。1.3.1 Jetson T4000:機器人的“高效小腦”Jetson T4000是Blackwell架構下放至邊緣端的首款機器人專用計算模組,現已正式發售,千片起訂量下單價為1999美元,為Jetson Orin客戶提供了高性價比的升級路徑。相較於上一代Jetson AGX Orin,該模組在核心性能上實現了全方位突破:Jetson T4000的核心突破在於NVFP4 4位浮點精度推理技術。對於物理AI應用而言,感知環節的精度可適當降低,但決策與控制的即時性至關重要。該技術允許機器人在邊緣端直接運行複雜的VLA模型,無需依賴不穩定的雲端網路,既保證了即時響應,又提升了運行安全性。在70瓦的可配置功率範圍內,其可提供1200 FP4 TFLOPS的算力,足以支撐Cosmos與GR00T模型的即時運行,是能耗受限型自主系統的理想選擇。1.3.2 IGX Thor:工業邊緣的“安全算力核心”除了面向通用機器人的Jetson T4000,NVIDIA還宣佈IGX Thor將於2026年1月晚些時候上市,聚焦工業邊緣場景,提供高性能AI計算與功能安全保障。該平台將機器人技術擴展到工業生產、建築採礦等複雜邊緣環境,具備企業級軟體支援能力,可滿足工業級應用對穩定性、安全性的嚴苛要求。目前,AAEON、Advantech、ADLINK等眾多合作夥伴已推出搭載Thor的系統,覆蓋邊緣AI、機器人和嵌入式應用等多個領域。1.4 生態協同 NVIDIA與Hugging Face打通開源開發鏈路技術的規模化落地離不開生態的支撐。當前,機器人已成為Hugging Face平台上增長最快的領域,而NVIDIA的開放模型與資料集在該平台的下載量持續領先。為進一步加速開源物理AI的開發,NVIDIA與Hugging Face達成深度合作,將開放原始碼的Isaac與GR00T技術整合到領先的LeRobot開源機器人框架中,建構了“軟硬體一體化”的開源開發生態。此次合作的核心價值在於打通了兩大開發者社區:NVIDIA的200萬機器人開發者與Hugging Face的1300萬全球AI開發者,實現了技術、工具與資源的雙向流動。具體來看,GR00T N系列模型與Isaac Lab-Arena已正式上線LeRobot庫,開發者可直接基於該框架進行模型微調和策略評估;同時,Hugging Face開放原始碼的Reachy 2人形機器人與NVIDIA Jetson Thor機器人電腦實現完全互操作,可運行包括GR00T N1.6在內的任何VLA模型;Reachy Mini桌面機器人則與NVIDIA DGX Spark實現相容,支援開發者基於NVIDIA大語言模型及本地運行的語音、電腦視覺開放模型打造自訂體驗。這種開源生態的協同,大幅降低了機器人開發的門檻,讓中小企業與個人開發者能夠快速接入頂尖的物理AI技術,加速了創新應用的孵化。正如Hugging Face首席技術官所言:“與NVIDIA的合作將徹底改變開源機器人開發的格局,讓更多開發者能夠聚焦應用創新,而非基礎技術建構。”二、產業鏈重構:從“碎片化”到“生態化”的全鏈路變革機器人產業鏈傳統上呈現“上游高壁壘、中游低利潤、下游分散化”的碎片化格局。上游核心零部件(控製器、伺服系統、減速器)佔據工業機器人總成本的60%以上,利潤分配比例超過40%,但技術門檻高,長期被海外企業壟斷;中游整機製造依賴上游零部件,同質化競爭激烈,毛利率普遍偏低;下游應用場景分散,不同行業的需求差異大,難以形成規模化效應。NVIDIA此次發佈的全端技術體系,將通過“技術賦能-生態整合-成本最佳化”三大路徑,重構機器人產業鏈的價值分配與協作模式。2.1 上游核心零部件 AI驅動的技術升級與國產化機遇上游核心零部件是機器人產業的“卡脖子”環節,也是利潤最集中的領域。NVIDIA的物理AI技術體系,將對上游零部件產業產生兩大關鍵影響:一是推動零部件的“智能化升級”,二是為國產零部件企業提供彎道超車的機遇。在智能化升級方面,傳統零部件以“高精度執行”為核心目標,而物理AI時代的零部件需要具備“感知-反饋-協同”的智能能力。例如,伺服電機需要即時採集運動資料,並與AI模型協同調整參數,以適應動態環境下的動作需求;減速器則需要具備更高的動態響應速度,配合機器人的即時微調動作。NVIDIA的GR00T模型與Jetson硬體平台,為零部件的智能化升級提供了標準介面與算力支撐,推動上游零部件從“被動執行”向“主動協同”轉變。在國產化機遇方面,長期以來,國內零部件企業受制於核心技術不足,難以與海外巨頭競爭。而NVIDIA的開放模型與框架,降低了零部件企業的智能化研發門檻。例如,國內控製器企業可基於NVIDIA的CUDA架構與GR00T模型,快速開發具備物理AI能力的智能控製器,無需從零建構演算法體系。伺服系統企業可借助Jetson平台的算力,實現運動資料的即時分析與參數最佳化。同時,隨著國內機器人產業政策的支援(如廣西出台的機器人產業發展政策,對核心零部件企業給予最高300萬元的年度獎勵),國產零部件企業將在技術升級與市場拓展中獲得更多助力。此外,NVIDIA Jetson T4000的量產與普及,將帶動上游晶片供應鏈的發展。該模組採用的Blackwell架構晶片,其國產化替代(如封裝測試、配套元器件)將為國內半導體企業提供新的市場機遇,進一步完善機器人產業鏈的國產化生態。2.2 中游整機製造 從“組裝整合”到“應用創新”的價值躍升中游整機製造是傳統機器人產業鏈的“薄弱環節”,長期依賴上游零部件進口,以組裝整合為主,缺乏核心技術,毛利率普遍低於20%。NVIDIA的全端技術體系,將徹底改變中游整機企業的發展模式,推動其從“組裝商”向“應用解決方案提供商”轉型。首先,降低研發成本與周期。傳統整機企業需要投入巨額資金建構AI演算法、模擬平台與硬體適配體系,研發周期長達1-2年。而基於NVIDIA的Cosmos模型、Isaac Lab-Arena模擬框架與Jetson硬體,整機企業可直接復用成熟的技術模組,聚焦行業應用場景的定製化開發,研發周期可縮短至3-6個月,研發成本降低50%以上。例如,智元機器人基於NVIDIA技術推出的面向工業和消費行業的人形機器人,以及配套的Genie Sim 3.0模擬平台,正是借助NVIDIA的技術賦能,快速實現了產品落地與迭代。其次,提升產品競爭力。借助NVIDIA的物理AI技術,中游整機企業的產品將具備“通用智能”能力,能夠適配更多場景,擺脫同質化競爭。例如,NEURA Robotics推出的第3代人形機器人(由保時捷設計),基於GR00T模型與Jetson Thor平台,具備精細化控制能力,可同時適配工業裝配、服務接待等多個場景;Richtech Robotics的移動人形機器人Dex,借助NVIDIA的導航與操作技術,能夠在複雜工業環境中實現精細操作與自主導航,大幅提升了產品的市場競爭力。最後,推動商業模式創新。隨著產品競爭力的提升,中游整機企業將從“賣裝置”向“提供服務”轉型,例如通過機器人租賃、按效果收費等模式,提升客戶粘性與長期盈利能力。例如,智元機器人推出的國內首個機器人租賃平台“擎天租”,正是基於其技術領先的機器人產品,開啟了新的商業模式探索。2.3 下游應用場景 從“單一化”到“規模化”的全面滲透下游應用場景的分散化是制約機器人產業規模化發展的關鍵因素。傳統機器人主要應用於汽車製造、電子加工等少數標準化場景,而醫療、建築、消費等領域的應用相對有限。NVIDIA的物理AI技術體系,通過提升機器人的環境適應性與任務通用性,將推動下游應用場景從“單一化”向“規模化”全面滲透,尤其是在工業、醫療、建築採礦、消費四大領域實現突破性進展。在工業領域,機器人將從“固定工位操作”向“全流程協同作業”升級。例如,富臨精工工廠引入的近百台遠征A2-W機器人(基於NVIDIA技術),已實現與AMR的協同作業,自主完成周轉箱的搬運、轉移與精準放置,覆蓋三條不同裝配線,涉及20余種物料,承載重量提升至14千克,且未發生一起物料傾倒事故。隨著NVIDIA技術的普及,更多製造企業將實現“機器人+智能製造”的升級,推動工業機器人的規模化應用。在醫療領域,物理AI技術將推動手術機器人與輔助診療裝置的精準化升級。LEM Surgical借助NVIDIA Isaac for Healthcare和Cosmos Transfer模型,訓練Dynamis手術機器人(搭載Jetson AGX Thor與Holoscan),大幅提升了手術操作的精準度;XRLabs則利用Thor平台與Isaac for Healthcare,為手術內窺鏡提供即時AI分析支援,幫助外科醫生精準判斷手術部位,降低手術風險。這些應用將推動醫療機器人從“高端試點”向“常規應用”普及。在建築採礦領域,Caterpillar與NVIDIA的深化合作將推動自主作業裝置的規模化落地。建築與採礦行業屬於典型的“危險、骯髒、枯燥”場景,對機器人的需求迫切,但環境複雜,傳統裝置難以適配。Caterpillar將借助NVIDIA的物理AI技術,開發具備自主導航、精準作業能力的重型裝置,提升作業效率與安全性。在2026年1月7日的CES主題演講中,Caterpillar CEO Joe Creed與NVIDIA高管將披露更多合作細節,預計將推出多款基於Blackwell架構的自主作業裝置。在消費領域,人形機器人將從“高端玩具”向“家庭助手”轉型。LG Electronics發佈的全新家用機器人,基於NVIDIA技術,可執行各種室內家務,具備動態環境適應能力,能夠應對家庭中的複雜場景(如躲避障礙物、處理不同材質的物品);宇樹科技推出的小型人形機器人Unitree R1,起售價僅2.99萬元,借助NVIDIA的輕量化AI技術,實現了低成本與高智能的平衡,大幅拉近了與人消費市場的距離。2.4 價值分配重構 生態主導者引領的利潤再平衡隨著NVIDIA全端技術體系的普及,機器人產業鏈的價值分配將發生重大變化:從“上游零部件企業主導”向“生態主導者+應用創新者”共同主導的格局轉變。NVIDIA作為生態主導者,將通過“模型授權+硬體銷售+生態服務”獲取穩定的利潤回報;而中游整機企業與下游應用解決方案提供商,將通過場景創新與服務增值,提升利潤佔比;上游零部件企業則需要通過智能化升級,維持其利潤優勢。這種價值分配的重構,將推動產業鏈從“零和博弈”向“共贏發展”轉變。NVIDIA通過開放模型與框架,幫助上游零部件企業實現智能化升級,提升其產品附加值;中游整機企業借助NVIDIA技術推出高競爭力產品,帶動上游零部件的需求;下游應用場景的規模化落地,又將反哺中游整機與上游零部件企業的發展,形成良性循環。據行業預測,隨著這種生態化格局的形成,2027年將成為中國機器人產業的“大規模商業化元年”,整個產業鏈的規模將突破兆級。三、應用場景突破:物理AI技術的落地案例與價值驗證技術的價值最終需要通過應用場景來驗證。NVIDIA此次發佈的物理AI技術體系,已在工業、醫療、消費、建築採礦等多個領域實現落地,通過一系列標竿案例,充分驗證了其在提升效率、降低成本、保障安全等方面的核心價值。本節將重點解析四個典型應用場景的落地案例,深入探討物理AI技術的實際應用效果。3.1 工業製造 富臨精工的“人形機器人+智能製造”升級富臨精工是國內領先的汽車零部件製造商,其生產車間涵蓋多條裝配線,物料搬運、上料等環節傳統上依賴人工操作,存在效率低、誤差率高、勞動強度大等問題。為實現智能製造升級,富臨精工與智元機器人達成合作,引入近百台基於NVIDIA Jetson Thor與GR00T模型的遠征A2-W人形機器人,建構了“智能中樞平台+人形機器人+AMR”的協同作業體系。該體系的核心優勢在於三個方面:一是全流程自動化,智能中樞平台即時監控線邊物料剩餘量,當觸及預設水位線時,自動觸發配送任務,人形機器人與AMR協同作業,自主完成周轉箱的搬運、轉移與精準放置,無需人工干預;二是動態適應性強,借助NVIDIA Cosmos Reason 2模型的推理能力,人形機器人能夠應對車間內的動態環境變化,如躲避移動的工人與裝置、調整物料放置角度等;三是規模化擴展能力,從最初的1個搬運工位擴展至4個,覆蓋三條不同裝配線,涉及物料種類從4種增至20余種,承載重量從5-6千克提升至14千克,且線邊上料場景至今未發生一起物料傾倒事故。據富臨精工相關負責人介紹,引入該體系後,物料搬運效率提升了60%,人工成本降低了40%,同時物料配送的誤差率降至0.1%以下。這一案例充分驗證了NVIDIA物理AI技術在工業製造場景的規模化應用價值,為其他製造企業的智能化升級提供了可複製的方案。3.2 醫療健康 LEM Surgical的精準手術機器人訓練體系手術機器人是醫療領域的高端裝備,其訓練需要大量的臨床資料與模擬場景,但傳統訓練方式存在資料稀缺、風險高、周期長等問題。LEM Surgical作為專注於手術機器人研發的企業,借助NVIDIA Isaac for Healthcare和Cosmos Transfer 2.5模型,建構了高效的手術機器人訓練體系,用於其Dynamis手術機器人的研發與最佳化。Dynamis手術機器人搭載了NVIDIA Jetson AGX Thor與Holoscan平台,具備高精度的手術操作能力。其訓練體系的核心的是Cosmos Transfer 2.5模型的域遷移能力:通過將Isaac Sim中的模擬手術場景,轉換為帶有真實手術環境噪聲、光照條件的等效資料,大幅提升了模擬訓練的真實性;同時,將少量真實手術資料增強為多樣化的模擬場景,解決了臨床資料稀缺的問題。借助這一體系,LEM Surgical的研發團隊能夠快速驗證手術機器人的操作策略,最佳化運動控制參數,大幅縮短了研發周期。此外,XRLabs利用NVIDIA Jetson Thor與Isaac for Healthcare,開發了智能手術內窺鏡系統。該系統通過外接手術內鏡採集即時圖像,借助Cosmos Predict 2.5模型的即時預測能力,分析手術部位的解剖結構與操作風險,為外科醫生提供即時引導,降低了手術難度與併發症風險。目前,該系統已在多家醫院開展試點應用,手術精準度提升了30%,手術時間縮短了20%。3.3 消費服務 LG Electronics的家用智慧型手機器人家用機器人是消費領域的重要增長點,但傳統家用機器人功能單一,難以應對複雜的家庭環境。LG Electronics在CES 2026上發佈的全新家用機器人,基於NVIDIA的Cosmos系列模型與Jetson T4000模組,具備全方位的家務處理能力與動態環境適應能力。該機器人的核心優勢在於其強大的物理AI能力:通過Cosmos Reason 2模型,能夠理解自然語言指令,並分解為具體的家務任務,如“清理客廳檯面”可拆解為“整理物品→擦拭灰塵→分類收納”;借助Cosmos Predict 2.5模型,能夠即時預測動作後果,如避免碰撞易碎物品、調整拖地力度以適應不同地面材質;依託Jetson T4000的高效算力,實現了即時感知與決策,響應速度提升至毫秒級。此外,該機器人還具備自主充電、故障自診斷等智能功能,能夠適應不同戶型的家庭環境。LG Electronics相關負責人表示,這款家用機器人的目標是成為“家庭助手”,而非簡單的“家務工具”,其定價將控制在萬元以內,以實現規模化普及。該產品的推出,標誌著消費級家用機器人正式進入“通用智能”時代。3.4 建築採礦 Caterpillar的自主作業裝置升級建築與採礦行業是典型的高危、高勞動強度行業,對自主作業裝置的需求迫切。Caterpillar作為全球領先的工程機械製造商,正在擴大與NVIDIA的合作,將先進的AI和自主系統引入建築和採礦領域的裝置及作業現場。基於NVIDIA的Blackwell架構與物理AI模型,Caterpillar正在開發多款自主作業裝置,包括自主挖掘機、自主礦用卡車等。這些裝置具備三大核心能力:一是自主導航,借助Cosmos模型的環境感知與推理能力,能夠在複雜的施工現場與礦區環境中精準定位,躲避障礙物;二是精準作業,通過GR00T模型的動作控制能力,實現挖掘、裝載、運輸等作業的精準執行,提升作業效率;三是協同作業,多台裝置可通過OSMO框架實現資料共享與協同調度,形成自主作業車隊。據Caterpillar透露,其自主礦用卡車已在澳大利亞某金礦開展試點應用,借助NVIDIA的技術,作業效率提升了25%,事故率降低了80%,同時減少了人工成本。在2026年1月7日的CES主題演講中,Caterpillar CEO Joe Creed將與NVIDIA高管共同披露更多合作細節,預計將推出面向建築行業的首款自主挖掘機,計畫2027年實現規模化量產。四、產業趨勢展望:物理AI驅動下的機器人產業未來圖景NVIDIA此次發佈的物理AI技術體系,不僅解決了當前機器人產業的核心痛點,更勾勒出未來機器人產業的發展圖景。結合行業發展規律與技術迭代趨勢,未來3-5年,機器人產業將呈現“通用化、輕量化、開源化、規模化”四大核心趨勢,而NVIDIA將在這一處理程序中扮演關鍵的引領角色。4.1 趨勢一 從“專用機器人”到“專家級通用機器人”的跨越傳統機器人多為“專用裝置”,針對特定場景開發,功能單一,難以跨場景應用。而物理AI技術的發展,將推動機器人從“專用”向“通用”跨越,最終實現“專家級通用”的目標——即能夠快速學習多種任務,適配不同行業場景的需求。NVIDIA的Cosmos與GR00T模型,正是這一趨勢的核心驅動力。通過內化物理世界的通用規律,機器人能夠快速適應新場景、學習新任務,無需針對每個場景進行重新程式設計。一款基於GR00T模型的人形機器人,既可以在工廠完成精密裝配,也可以在醫院協助護理,還可以在家庭處理家務,只需通過少量場景資料微調即可實現功能適配。據行業預測,到2028年,專家級通用機器人的市場佔比將超過30%,成為機器人產業的主流產品形態。4.2 趨勢二 硬體輕量化與能效比的持續提升機器人尤其是人形機器人、移動服務機器人,對硬體的輕量化、小型化、低功耗提出了嚴苛要求。隨著Blackwell架構的普及與技術迭代,邊緣AI算力模組將實現“更高算力、更低功耗”的持續突破,推動機器人硬體的輕量化發展。NVIDIA的Jetson系列模組已展現出這一趨勢:從Jetson AGX Orin到Jetson T4000,算力提升4.3倍,而功耗控制在70瓦以內;未來,隨著晶片製程的進步與架構的最佳化,Jetson系列模組的算力有望進一步提升,功耗則持續降低,甚至可能出現50瓦以下、算力突破2000 TFLOPS的產品。這將推動機器人的小型化發展,如宇樹科技的小型人形機器人、松延動力的Bumi小布米等輕量化產品將成為消費市場的主流,進一步擴大機器人的應用範圍。4.3 趨勢三 開源生態成為創新核心驅動力機器人產業的創新需要大量的技術積累與資源投入,單一企業難以完成全鏈條的創新。開源生態將成為未來機器人產業創新的核心驅動力,吸引全球開發者共同參與技術突破與應用創新。NVIDIA與Hugging Face的合作,正是開源生態發展的重要里程碑。隨著LeRobot框架的普及,越來越多的開發者將接入NVIDIA的物理AI技術體系,孵化出更多創新應用。同時,開源生態的發展將推動技術標準的統一,降低行業的協作成本,加速創新成果的轉化。預計到2027年,全球將有超過50%的機器人創新應用基於開源框架開發,開源生態將成為機器人產業競爭的核心戰場。4.4 趨勢四 規模化落地與成本快速下降隨著技術的成熟與生態的完善,機器人的規模化落地將推動成本快速下降,形成“規模效應-成本下降-需求擴大”的良性循環。據資料顯示,2025年國內人形機器人出貨量預計達1.8萬台,2026年有望攀升至6.25萬台;多位行業專家預測,2026年國內人形機器人產量將突破10萬台,2028年有望達到百萬台級。成本下降的主要驅動力包括三個方面:一是核心零部件的國產化替代,如國內企業已實現減速器、伺服系統的批次供貨,成本較海外產品降低30%以上;二是規模化生產帶來的製造費用降低,隨著產量的提升,整機製造的單位成本將大幅下降;三是開源技術的應用,降低了研發成本。預計到2030年,人形機器人的售價將降至5萬元以下,消費級市場將全面爆發。4.5 挑戰與應對 技術、倫理與政策的協同推進儘管機器人產業前景廣闊,但仍面臨技術、倫理與政策三大挑戰。在技術層面,機器人的泛化能力、安全性仍需進一步提升,尤其是在複雜動態環境中的可靠性;在倫理層面,機器人的廣泛應用可能帶來就業結構變化、隱私洩露等問題;在政策層面,相關的法律法規、標準體系尚未完善,如機器人決策失誤的責任界定、資料安全規範等。應對這些挑戰,需要政府、企業與科研機構的協同推進:一是加強核心技術研發,聚焦泛化能力、安全性等關鍵痛點,推動技術標準的統一;二是建立健全倫理規範與法律法規,平衡技術創新與社會影響;三是出台針對性的政策支援,如職業培訓、資料安全保障等,確保機器人產業的健康發展。NVIDIA作為行業引領者,已通過開放模型與框架,推動技術標準的統一;同時,其與全球企業的合作,也在積極探索機器人應用的倫理邊界。五、結語:物理AI開啟機器人產業的“黃金十年”CES 2026上NVIDIA的系列發佈,標誌著機器人產業正式進入物理AI驅動的新時代。從技術核心來看,Cosmos與GR00T模型建構了機器人理解物理世界的“認知大腦”,Isaac Lab-Arena與OSMO框架打通了開發全流程,Jetson T4000硬體模組提供了高效算力支撐,形成了覆蓋“模型-框架-硬體-生態”的全端解決方案;從產業鏈影響來看,其推動上游零部件智能化升級、中游整機企業嚮應用創新轉型、下游場景規模化滲透,重構了產業價值分配模式;從應用前景來看,工業、醫療、消費、建築採礦等多個領域的落地案例,充分驗證了技術的實用價值。黃仁勳所言的“機器人開發的ChatGPT時刻”,不僅是技術的突破,更是產業範式的變革。未來十年,隨著物理AI技術的持續迭代、開源生態的不斷完善、成本的快速下降,機器人將從“工業裝備”全面走向“生活助手”,深度融入製造業、醫療健康、家庭服務等多個領域,成為推動經濟社會轉型的重要力量。對於企業而言,接入NVIDIA的物理AI技術體系,將成為把握產業機遇的關鍵;對於行業而言,建構開放協同的生態,推動技術標準的統一,將加速產業的規模化發展;對於社會而言,擁抱機器人技術帶來的變革,做好就業轉型與倫理規範,將實現技術創新與社會福祉的共贏。我們有理由相信,在物理AI的驅動下,機器人產業將迎來前所未有的“黃金十年”,為人類社會帶來更高效、更安全、更便捷的生活與生產方式。這些新模型均可通過 Hugging Face 獲取,包括:NVIDIA Cosmos™ Transfer 2.5和NVIDIA Cosmos Predict 2.5:開放、完全可定製的世界模型,為物理 AI 實現基於物理原理的合成資料生成與機器人策略評估的模擬支援。NVIDIA CosmosReason 2:開放推理視覺語言模型(VLM),使智慧型手機器能夠像人類一樣看見、理解物理世界並採取行動。NVIDIA Isaac™ GR00T N1.6:專為人形機器人打造的開放式推理視覺語言行動(VLA)模型,可解鎖全身控制能力,並借助 NVIDIA Cosmos Reason 增強推理和上下文理解。 (AI雲原生智能算力架構)
【CES 2026】NVIDIA CES 2026 主題演講:AI 與加速計算的工業革命 (完整演講稿)
你好,拉斯維加斯!新年快樂,歡迎來到 CES。這裡的觀眾大概有 3000 人,外面的庭院裡還有 2000 人在觀看,據我在四樓原本應該是 NVIDIA 展區的地方還有 1000 人在觀看這場主題演講。當然,全世界還有數百萬人正在觀看這場直播,共同開啟新的一年。嗯,我們大概有 15 公斤重的乾貨要在這裡塞給大家。非常高興見到大家。每隔 10 到 15 年,電腦行業就會發生一次重設。新的平台轉移會出現:從大型機到 PC,從 PC 到網際網路,從網際網路到雲,從雲到移動端。每一次,應用程式的世界都會瞄準一個新的平台,這就是為什麼它被稱為“平台轉移”。你為新的電腦編寫新的應用程式。但這一次,實際上有兩個平台轉移同時發生。當我們轉向 AI 時,應用程式將建立在 AI 之上。起初,人們認為 AI 本身就是應用程式。事實上,AI 確實是應用程式,但你們將會在 AI 之上建構應用程式。除此之外,軟體的運行方式、軟體的開發方式也發生了根本性的變化。電腦行業的整個製造堆疊(Foundry stack)正在被重新發明。你不再編寫軟體,而是訓練軟體。你不再在 CPU 上運行它,而是在 GPU 上運行它。過去的應用程式是預先錄製、預先編譯並在你的裝置上運行的,而現在的應用程式能夠理解上下文,並且每一次都完全從零開始生成每一個像素、每一個 Token(詞元)。計算因此被從根本上重塑了,這歸功於加速計算,歸功於人工智慧。這五層蛋糕的每一層現在都在被重新發明。這意味著過去十年中大約10兆美元的計算基礎設施現在正在向這種新的計算方式現代化。這意味著每年有數千億美元的風險投資正在投入到現代化和發明這個新世界的過程中。這也意味著 100兆美元的產業,其中一部分研發預算正在轉向人工智慧。人們問錢從那裡來?這就是錢的來源。從傳統方法到 AI 的現代化,研發預算從經典方法向人工智慧方法的轉移。巨大的投資正在湧入這個行業,這也解釋了為什麼我們如此忙碌,去年也不例外。去年是不可思議的一年。(PPT 翻頁卡頓)這裡有一張幻燈片要出來。這就是不做綵排的後果。這是今年的第一場主題演講。我希望這也是你們今年的第一場主題演講,否則你們就已經夠忙的了。我們要把蜘蛛網清掃一下。2025 年是不可思議的一年。似乎所有事情都在同一時間發生,事實上可能確實如此。首先當然是縮放定律(Scaling Laws)。2015 年,第一個我認為真正產生影響的語言模型 BERT 出現了,它帶來了巨大的變化。2017年Transformer 問世。直到五年後的 2022 年,ChatGPT 時刻發生了,它喚醒了世界對人工智慧可能性的認識。那之後的一年發生了一件非常重要的事情。來自 ChatGPT 的第一個o1模型,即第一個推理模型,完全革命性地發明了這個叫做測試時縮放(Test Time Scaling)的概念,這是一個非常符合常識的事情。我們不僅預訓練一個模型讓它學習,我們還用強化學習對它進行後訓練(Post-train),使它能夠學習技能。現在我們還有了測試時縮放,換句話說就是“思考”。你在即時地思考。人工智慧的每一個階段都需要巨大的計算量,而計算定律在繼續擴展。大型語言模型(LLM)繼續變得更好。與此同時,另一個突破發生了,這一突破發生在 2024 年。代理系統(Agentic Systems)在 2025 年開始湧現。它開始普及到幾乎所有地方。代理模型擁有推理、尋找資訊、做研究、使用工具、規劃未來、模擬結果的能力。突然之間,它們開始解決非常非常重要的問題。我最喜歡的代理模型之一叫做 Cursor,它徹底改變了我們在NVIDIA 進行軟體程式設計的方式。代理系統將從這裡真正起飛。當然,還有其他類型的 AI。我們知道大型語言模型並不是唯一的資訊類型。只要宇宙有資訊,只要宇宙有結構,我們就可以教一個大型語言模型、一種形式的語言模型去理解這些資訊,理解它的表徵,並將其轉化為 AI。其中最重要、最大的一個就是物理AI(Physical AI)。即理解自然法則的 AI。物理 AI 是關於 AI 與世界互動的,但世界本身有編碼的資訊,這叫做AI物理學(AI Physics)。也就是說,物理 AI 是與物理世界互動的 AI,而 AI 物理學是理解物理定律的 AI。最後,去年發生的最重要的事情之一是開放模型(Open Models)的進步。我們現在知道,當開源、當開放創新、當全世界每個公司和每個行業的創新被啟動時,AI 將會無處不在。實際上,去年我們看到了DeepSeek R1 的進步,這是第一個開放的推理系統模型。它讓世界大吃一驚,它真正啟動了整個運動。非常非常令人興奮的工作。我們對它非常滿意。現在我們在全世界有各種各樣的開放模型系統,我們現在知道開放模型也已經達到了前沿。雖然穩固地落後於前沿模型六個月,但每六個月都有一個新模型出現,這些模型因為這個原因變得越來越聰明。你可以看到下載量爆炸式增長。下載量增長如此之快,是因為初創公司想參與 AI 革命,大公司想要參與,研究人員想要參與,學生想要參與,幾乎每個國家都想要參與。數字形式的智能怎麼可能拋下任何人呢?所以開放模型去年真正徹底改變了人工智慧。整個行業將因此被重塑。其實我們很久以前就有這種預感。你們可能聽說過幾年前,我們開始建立和營運我們自己的 AI 超級電腦。我們稱之為DGX Cloud。很多人問,你們是要進入雲業務嗎?答案是不。我們建立這些 DGX 超級電腦是為了自己使用。事實證明,我們營運著數十億美元的超級電腦,以便我們可以開發我們的開放模型。我對我們正在做的工作感到非常高興。它開始吸引全世界和各行各業的關注,因為我們在許多不同的領域做著前沿的 AI 模型工作。我們在蛋白質和數字生物學方面的工作:Llama-Protina 用於合成和生成蛋白質。OpenFold 3 用於理解蛋白質結構。Evo 2 用於理解和生成多種蛋白質,也就是細胞表徵的開端。Earth-2:理解物理定律的 AI。我們在 ForecastNet 和 CorrDiff 方面的工作真正徹底改變了人們進行天氣預測的方式。Nemotron:我們在那裡做了開創性的工作。第一個混合 Transformer SSM 模型,速度極快,因此可以思考很長時間,或者非常快地思考不需要很長時間就能產生非常聰明的智能答案。Nemotron-3 是開創性的工作,你可以期待我們在不久的將來發佈 Nemotron-3 的其他版本。Cosmos:一個前沿的開放世界基礎模型,一個理解世界如何運作的模型。Groot:一個人形機器人系統,涉及關節、移動性、運動。這些模型、這些技術現在正在被整合,並且在每一個案例中都向世界開放。前沿的人形機器人模型向世界開放。今天我們要稍微談談Alpamayo,我們在自動駕駛汽車方面所做的工作。我們不僅開源模型,我們還開源了用於訓練這些模型的資料,因為只有那樣你才能真正信任模型是如何產生的。我們開源所有模型。我們幫助你們從中通過衍生產品。我們有一整套庫,我們稱之為 NeMo 庫、物理 NeMo 庫和 Clara NeMo 庫(BioNeMo)。這些庫中的每一個都是 AI 的生命周期管理系統,以便你可以處理資料、生成資料、訓練模型、建立模型、評估模型、為模型設定護欄,一直到部署模型。每一個庫都極其複雜,所有這些都是開放原始碼的。因此,在這個平台之上,NVIDIA 是一個前沿的 AI 模型建構者,我們以一種非常特殊的方式建構它。我們完全在公開環境中建構它,以便我們可以賦能每個公司、每個行業、每個國家成為這場 AI 革命的一部分。我對自己在那裡的工作感到無比自豪。事實上,如果你注意圖表,圖表顯示我們對這個行業的貢獻是首屈一指的,你會看到我們實際上會繼續這樣做,甚至加速。這些模型也是世界級的。(突然螢幕黑屏/技術故障)所有系統都癱瘓了。這種事在聖克拉拉(NVIDIA總部)從來不會發生。是因為拉斯維加斯嗎?是不是有人在外面的老虎機中大獎了?所有系統都癱瘓了。好吧,我想我的系統還是癱瘓的,但這沒關係。我會即興發揮。所以,不僅這些模型具有前沿能力,不僅它們是開放的,它們還在排行榜上名列前茅。這是我們非常自豪的一個領域。它們在智能方面名列前茅。我們有重要的模型可以理解多模態文件,也就是 PDF。世界上最有價值的內容都捕捉在PDF 中。但這需要人工智慧來找出裡面的內容,解釋裡面的內容,並幫助你閱讀它。所以我們的 PDF 檢索器、我們的PDF 解析器是世界級的。我們的語音識別模型絕對是世界級的。我們的檢索模型,基本上就是搜尋、語義搜尋、AI 搜尋——現代 AI 時代的資料庫引擎,也是世界級的。所以,我們經常佔據排行榜榜首。這是我們非常自豪的領域。所有這一切都是為了服務於你們建構AI智能體(AI Agents)的能力。這確實是一個開創性的發展領域。你知道,起初當 ChatGPT 出來時,人們說,天那,它產生了非常有趣的結果,但它產生了嚴重的幻覺(胡言亂語)。它產生幻覺的原因,當然是因為它可以記住過去的一切,但它無法記住未來和現在的一切。所以它需要以研究為基礎(Grounding)。在回答問題之前,它必須做基礎研究。推理的能力——關於我是否需要做研究?我是否需要使用工具?我如何將一個問題分解成步驟?每一個步驟都是 AI 模型知道如何做的,並將它們組合成一系列步驟來執行它從未做過、從未被訓練過的事情。這就是推理的奇妙能力。我們可以遇到以前從未見過的情況,並將其分解為我們知道如何做的情況、知識或規則,因為我們在過去經歷過。現在,大型語言模型已經實現了這一根本性的飛躍。使用強化學習和思維鏈(Chain of Thought)、搜尋和規劃以及強化學習中的所有這些不同技術的能力,使我們擁有這種基本能力成為可能,並且現在也完全開源了。但真正棒的事情是另一個突破,我第一次看到它是在 Aravind 的Perplexity 上。Perplexity 這家 AI 搜尋公司,真的是一家非常有創意的公司。當我第一次意識到他們同時使用多個模型時,我認為這完全是天才。當然,我們會這樣做。當然,AI 也會呼叫世界上所有偉大的 AI 來解決它想在推理鏈的任何部分解決的問題。這就是為什麼 AI 真正是多模態(Multi-modal)的。意味著它們理解語音、圖像、文字、視訊、3D 圖形和蛋白質。它是多模態的。它也是多模型(Multi-model)的。意味著它應該能夠使用最適合該任務的任何模型。根據定義,它是多雲(Multi-cloud)的。因為這些 AI 模型位於所有這些不同的地方。它也是混合雲(Hybrid cloud)的。因為如果你是一家企業公司,或者你製造了一個機器人或任何裝置,有時它在邊緣,有時在無線電訊號塔,也許有時在企業內部,或者也許在醫院這樣你需要資料即時就在你身邊的地方。無論那些應用程式是什麼,我們現在知道這就是未來 AI 應用程式的樣子。或者換一種方式思考,因為未來的應用程式是建立在 AI 之上的。這就是未來應用程式的基本框架。這個基本框架,這種能夠做我所說的那些事情的代理 AI 的基本結構——即多模型的結構,現在已經為各種各樣的 AI 初創公司注入了強勁動力。現在你也可以,因為有了所有的開放模型和我們提供給你們的所有工具,你可以定製你的 AI 來教你的 AI 別人沒有教過的技能。沒有別人讓他們的 AI 以那種方式變得智能或聰明。你可以為自己做這件事。這就是我們在 Nemotron、NeMo 以及我們在開放模型方面所做的所有事情旨在做的。你在它前面放一個智能路由器(Smart Router)。那個路由器本質上是一個管理者,根據你給出的提示的意圖,決定那一個模型最適合那個應用程式來解決那個問題。好的。所以現在當你思考這個架構時,你擁有了什麼?當你思考這個架構時,突然之間你有了一個 AI:一方面完全由你定製。你可以教它為你公司的特定技能。它是商業機密,你有深厚的領域專業知識。也許你擁有訓練該 AI 模型所需的所有資料。另一方面,你的 AI 根據定義總是處於前沿。你總是擁有一方面的前沿技術。另一方面,你總是定製化的。而且它應該能直接運行。所以我們想我們會做一個最簡單的例子來讓你們可以使用。整個框架我們稱之為Blueprint(藍圖),我們的藍圖已經整合到世界各地的企業 SaaS 平台中,我們對進展感到非常高興。但我們要做的是向你們展示一個簡短的例子,說明任何人都可以做什麼。(演示視訊開始)(畫外音:讓我們建構一個個人助理。我想讓它幫我處理日曆、郵件、待辦事項列表,甚至幫我照看家裡。我使用 Brev 將我的 DGX Spark 變成個人云。所以我可以使用相同的介面,無論我是使用雲 GPU 還是 DGX Spark。我使用前沿模型 API 來輕鬆開始。)(音樂)(畫外音:我想讓它幫我處理郵件,所以我為我的代理建立了一個郵件工具來呼叫。我希望我的郵件保持私密,所以我將加入一個在 Spark 上本地運行的開放模型。現在,對於任何工作,我都希望代理為正確的任務使用正確的模型。所以我將使用一個基於意圖的模型路由器。這樣,需要郵件的提示將留在我的 Spark 上,其他所有內容都可以呼叫前沿模型。)(畫外音:我想讓我的助手與我的世界互動,所以我將它連接到 Hugging Face 的 Reachi 迷你機器人。我的代理通過工具呼叫控制Reachi 的頭、耳朵和攝影機。我想給 Reachi 一個聲音,我真的很喜歡 ElevenLabs,所以我將連接他們的API。)Reachi (機器人聲音): 嗨,我是運行在DGX Spark 上的 Reachi。使用者: 嘿 Reachi,今天我的待辦事項列表上有什麼?Reachi: 你今天的待辦事項列表:買雜貨、雞蛋、牛奶、黃油,還要把新指令碼發給 Jensen。使用者: 好的,給Jensen 發個更新。告訴他我們在今天結束前會給他。Reachi: 好的,會做的。使用者: Reachi,這兒還有個草圖。你能把它變成建築渲染圖嗎?Reachi: 當然。(音樂,生成渲染圖)使用者: 不錯。現在做一個視訊,帶我參觀一下這個房間。Reachi: 給你。使用者: 太棒了。通過Brev,我可以分享對我的 Spark 和 Reachi 的存取權。所以我要把它分享給Anna。Anna: 嘿,Reachi。Potato(寵物名)在幹什麼?Reachi: 他在沙發上。我記得你不喜歡這樣。我會叫他下去。Potato,下沙發!(畫外音:隨著開放原始碼的所有進展,看到你能建構什麼是令人難以置信的。我很想看看你會創造什麼。)(演示視訊結束)(音樂)這難道不令人難以置信嗎?現在,令人驚奇的是,這現在是完全微不足道的事情。這現在完全是微不足道的。然而,就在幾年前,所有這些都是不可能的。絕對無法想像。這種使用語言模型建構應用程式的基本框架——使用那些預訓練的、專有的、前沿的語言模型,並將其與定製的語言模型結合到一個代理框架、一個推理框架中,使你可以訪問工具和檔案,甚至連接到其他代理。這基本上就是現代 AI 應用程式或應用程式的架構。我們建立這些應用程式的能力非常快。注意,如果你給它以前從未見過的應用程式資訊,或者以一種並不完全像你想的那樣表示的結構,它仍然可以推理並盡最大努力通過資料和資訊來推理,試圖理解如何解決問題。這就是人工智慧。好的,所以這個基本框架現在正在被整合。正如我剛才描述的一切,我們有幸與世界上一些領先的企業平台公司合作。例如 Palantir,他們整個 AI 和資料處理平台正在由NVIDIA 加速。ServiceNow,世界領先的客戶服務和員工服務平台。Snowflake,雲端頂級資料平台。那裡正在做令人難以置信的工作。CodeRabbit,我們在 NVIDIA 各處都在使用CodeRabbit。CrowdStrike,建立 AI 來檢測和發現 AI威脅。NetApp,他們的資料平台現在上面有 NVIDIA 的語義 AI 和代理系統,用於做客戶服務。但重要的是這一點。這不僅是現在開發應用程式的方式,這將是你平台的使用者介面。所以無論是 Palantir、ServiceNow、Snowflake 還是我們要合作的許多其他公司,代理系統就是介面。不再是 Excel 和一堆你需要輸入資訊的方塊。也許不再僅僅是命令列。所有這些多模態資訊現在都成為可能,你與平台互動的方式更像是……如果你願意的話,就像你與人互動一樣簡單。這就是被代理系統徹底革命化的企業 AI。接下來的事情是物理AI(Physical AI)。這是你們聽我談論了幾年的領域。事實上,我們在這方面已經工作了八年。問題是,如何將那種在電腦內部很智能、通過螢幕和揚聲器與你互動的東西,變成可以與世界互動的東西?也就是說,它可以理解世界如何運作的常識。物體恆存性(Object permanence):如果我把視線移開再看回來,那個物體還在那裡。因果關係(Causality):如果我推它,它會倒下。它理解摩擦力和重力。理解慣性:一輛重型卡車沿路行駛需要更多的時間停下來,一個球會繼續滾動。這些概念對一個小孩子來說都是常識,但對 AI 來說完全是未知的。所以我們必須建立一個系統,允許 AI 學習物理世界的常識,學習它的定律,當然也要能夠從資料中學習,而資料是非常稀缺的。並且要能夠評估那個 AI 是否在工作,這意味著它必須在一個環境中進行模擬。AI 如何知道它正在執行的動作是否符合它應該做的,如果它沒有能力模擬物理世界對其動作的反應?模擬其動作的反應對於評估它非常重要。否則,就沒有辦法評估它。每次都不一樣。所以這個基本系統需要三台電腦。1.第一台電腦,當然是我們知道的 NVIDIA 製造的用於訓練AI模型的電腦。2.另一台電腦,我們知道是用於推理的電腦。推理模型本質上是運行在汽車裡、機器人裡、工廠裡或邊緣任何地方的機器人電腦。3.但必須有第三台電腦,它是為模擬而設計的。模擬幾乎是 NVIDIA 所做一切的核心。這是我們最舒適的地方,模擬確實是我們用物理 AI 所做幾乎所有事情的基礎。所以我們有三台電腦和運行在這些電腦上的多個堆疊、這些庫使其變得有用。Omniverse 是我們的數字孿生、基於物理的模擬世界。Cosmos,正如我之前提到的,是我們的基礎模型。不是語言的基礎模型,而是世界的基礎模型。並且也與語言對齊。你可以說像“球發生了什麼?”這樣的話,它們會告訴你球正滾下街道。所以是一個世界基礎模型。然後當然是機器人模型。我們有兩個。一個叫 Groot。另一個叫Alpamayo,我將要告訴你們。現在,對於物理 AI,我們必須做的最重要的事情之一是首先建立用於訓練 AI 的資料。資料從那裡來?與其像語言那樣,因為我們建立了一堆文字,那是我們認為 AI 可以從中學習的基準事實(Ground Truth)。我們如何教 AI 物理的基準事實?有非常多的視訊,非常多的視訊,但這幾乎不足以捕捉我們需要的多樣性和互動類型。這就是偉大的頭腦聚集在一起,將曾經的計算轉化為資料的地方。現在使用以物理定律為基礎和條件的合成資料生成(Synthetic Data Generation),以基準事實為基礎和條件,我們可以有選擇地、巧妙地生成資料,然後我們可以用這些資料來訓練 AI。例如,輸入到這個 AI、這個Cosmos 世界模型(左邊的)的是交通模擬器的輸出。這個交通模擬器對於 AI 學習來說幾乎不夠。我們可以把這個放入Cosmos 基礎模型中,生成環繞視訊,它是基於物理的、物理上合理的,AI 現在可以從中學習。這有太多例子了。讓我向你們展示 Cosmos 能做什麼。(Cosmos 演示視訊開始)(畫外音:物理 AI 的 ChatGPT時刻即將到來,但挑戰是顯而易見的。物理世界是多樣且不可預測的。收集真實世界的訓練資料緩慢且昂貴,而且永遠不夠。)(畫外音:答案是合成資料。它始於 NVIDIA Cosmos,一個用於物理AI 的開放前沿世界基礎模型。它在網際網路規模的視訊、真實駕駛和機器人資料以及 3D 模擬上進行了預訓練。Cosmos學習了世界的統一表徵,能夠對齊語言、圖像、 3D 和動作。)(畫外音:它執行物理 AI 技能,如從單張圖像進行生成、推理和軌跡預測。Cosmos從3D 場景描述中生成逼真的視訊。從駕駛遙測和感測器日誌中生成物理上連貫的運動。)(畫外音:來自規劃模擬器、多攝影機環境或場景提示的環繞視訊。它將邊緣情況(Edge Cases)帶入生活。開發者可以在Cosmos 中運行互動式閉環模擬。當動作產生時,世界會做出反應。)(畫外音:Cosmos 進行推理。它分析邊緣場景,將它們分解為熟悉的物理互動,並推理接下來可能發生的事情。Cosmos 將計算轉化為資料,為長尾情況訓練自動駕駛汽車(AV),並訓練機器人如何適應每一種場景。)(演示視訊結束)(音樂)我知道這令人難以置信。Cosmos 是世界領先的基礎模型。世界基礎模型。它已經被下載了數百萬次,在世界各地使用,讓世界為這個物理 AI 的新時代做好準備。我們也自己使用它。我們自己使用它來建立我們的自動駕駛汽車。用於場景生成和用於評估。我們可以擁有讓我們有效地行駛數十億、數兆英里的東西,但在電腦內部完成。我們取得了巨大的進步。今天,我們宣佈Alpamayo,世界上第一個會思考、會推理的自動駕駛汽車AI。Alpamayo 是端到端(End-to-End)訓練的。從字面上看,從攝影機輸入到執行輸出。攝影機輸入:大量由其自身駕駛或人類演示駕駛的里程,並且我們有大量由 Cosmos 生成的里程。除此之外,成千上萬的例子被非常非常仔細地標記,以便我們可以教汽車如何駕駛。Alpamayo 做了一些非常特別的事情。它不僅接收感測器輸入並啟動方向盤、剎車和加速,它還推理它即將採取的行動。它告訴你它將採取什麼行動,它得出該行動的理由,當然還有軌跡。所有這些都直接耦合,並由大量人類訓練資料以及 Cosmos 生成的資料組合進行非常具體的訓練。結果簡直令人難以置信。你的車不僅像你期望的那樣駕駛,而且它駕駛得如此自然,因為它直接從人類演示者那裡學習,而且在每一個場景中,當它遇到場景時,它會推理它要做什麼,並推理它即將要做什麼。這之所以如此重要,是因為駕駛的長尾效應(Long Tail)。我們不可能簡單地為每一個國家、每一個可能發生的情況、所有人口收集每一個可能的場景。然而,很有可能如果將每個場景分解成一堆其他的更小的場景,對於你要理解來說是很正常的。所以這些長尾將被分解為相當正常的情況,這輛車知道如何處理。它只需要對其進行推理。所以讓我們來看一看。你們即將看到的一切都是一次通過(One shot)。無手操作。(自動駕駛演示視訊開始)(音樂)聲音:導航至目的地。系好安全帶。(音樂)AI 聲音/提示:Heat. Heat. Heat.(註:此處為 AI 思考過程的聲音化或介面提示音,可能指熱力圖關注點或特定指令)(音樂)AI 聲音/提示:Heat.(音樂,車輛在複雜路況行駛,包括避讓、轉彎)AI 聲音/提示:Heat. Heat.AI 聲音/提示:Heat. Heat.(音樂)AI 聲音/提示:Heat. Heat.(掌聲)(音樂)AI 聲音/提示:Heat.(音樂)(掌聲)AI 聲音/提示:Heat.(音樂)(音樂)聲音:你已到達。(演示視訊結束)我們八年前開始研究自動駕駛汽車。原因是因為我們在早期推理出深度學習和人工智慧將重新發明整個計算堆疊。如果我們想要瞭解如何導航並將行業引向這個新的未來,我們必須擅長建構整個堆疊。就像我之前提到的,AI 是一個五層蛋糕。最底層是土地、電力和外殼。在機器人技術的情況下,最底層是汽車。上面一層是晶片,GPU,網路晶片,CPU,所有這類東西。再上面一層是基礎設施。在這種特定情況下,正如我提到的物理 AI,那個基礎設施是Omniverse 和 Cosmos。再上面是模型。在我剛才展示的模型層中,這裡的模型叫做Alpamayo。今天,Alpamayo 已經開源。這項令人難以置信的工作。這花了數千人。我們的 AV(自動駕駛)團隊有數千人。作為參考,我們的合作夥伴 Ola,我想 Ola 就在觀眾席的某個地方。梅賽德斯(Mercedes)五年前同意與我們合作,使這一切成為可能。我們想像有一天,道路上的十億輛汽車都將是自動駕駛的。你可以擁有一輛你正在編排並從某人那裡租用的 Robo Taxi(自動駕駛計程車),或者你可以擁有它並且它自己駕駛,或者你可以決定自己駕駛。但是每一輛車都將擁有自動駕駛汽車的能力。每一輛車都將由 AI 驅動。所以在這種情況下,模型層是Alpamayo,而上面的應用程式是梅賽德斯-奔馳。好的。所以這整個堆疊是我們的第一個NVIDIA First 全堆疊努力,我們一直致力於此,我很高興來自 NVIDIA 的第一輛 AV 汽車將在第一季度上路,然後在第二季度去歐洲,這裡是美國第一季度,然後歐洲第二季度,我想亞洲是第三季度和第四季度。而且強有力的事情是,我們將繼續用下一版本的Alpamayo和之後的版本更新它。我現在毫無疑問,這將是最大的機器人行業之一,我很高興我們致力於此,它教會了我們大量關於如何幫助世界其他地方建構機器人系統的知識。那種深刻的理解,知道如何自己建構它,自己建構整個基礎設施,並知道機器人系統需要什麼樣的晶片。在這個特定案例中,雙 Orin,下一代雙 Thor。這些處理器是為機器人系統設計的,並且是為了最高等級的安全能力而設計的。這輛車剛剛獲得評級。它剛剛投入生產。梅賽德斯-奔馳 CLA 剛剛被NCAP 評為世界上最安全的汽車。這是我所知道的唯一一個每一行程式碼、晶片、系統、每一行程式碼都經過安全認證的系統。整個模型系統基於感測器是多樣化和冗餘的,自動駕駛汽車堆疊也是如此。Alpamayo 堆疊是端到端訓練的,擁有令人難以置信的技能。然而,直到你永遠駕駛它,沒有人知道它是否會絕對安全。所以我們用另一個軟體堆疊來作為護欄(Guardrail),下面是一個完整的AV 堆疊。那個完整的 AV 堆疊是建構為完全可追溯的,我們花了大約五年時間來建構它。實際上大概六七年來建構第二個堆疊。這兩個軟體堆疊相互鏡像,然後我們有一個策略和安全評估器(Policy and Safety Evaluator)來決定:這是我有信心並可以推理出安全駕駛的事情嗎?如果是這樣,我會讓Alpamayo來做。如果這是一種我不太自信的情況,並且安全策略評估器決定我們要回到一個非常更簡單、更安全的護欄系統,那麼它就會回到經典的 AV 堆疊。這是世界上唯一同時運行這兩個 AV 堆疊的汽車,所有安全系統都應該具有多樣性和冗餘性。我們的願景是有一天每一輛車、每一輛卡車都將是自動駕駛的,我們一直在朝著那個未來努力。這整個堆疊是垂直整合的。當然,在梅賽德斯-奔馳的案例中,我們一起建構了整個堆疊。我們將部署這輛車。我們將營運這個堆疊。我們將維護這個堆疊,只要我們還活著。然而,就像我們作為一家公司所做的一切一樣。我們建構整個堆疊,但整個堆疊對生態系統是開放的。與我們合作建構 L4 和 Robo Taxi 的生態系統正在擴大,並走向各地。我完全預計這將會是——這對於我們來說已經是一個巨大的業務。這對我們來說是一個巨大的業務,因為他們用它來訓練我們的訓練資料、處理資料和訓練他們的模型。在某些情況下,他們用它來生成合成資料;在一些汽車公司,他們幾乎只建構汽車內部的電腦晶片;有些公司與我們進行全端合作;有些公司與我們進行部分合作。好的。所以不管你決定使用多少都沒有關係。我唯一的請求是儘可能多地使用一點視訊,整個東西都是開放的。這將是第一個大規模主流 AI 物理 AI 市場。現在我認為我們都可以完全同意,從非自動駕駛汽車到自動駕駛汽車的這個拐點可能就在這個時候發生。在接下來的 10 年裡,我相當確定世界上很大一部分汽車將是自動駕駛或高度自動駕駛的。但我剛才描述的這個基本技術——使用三台電腦、使用合成資料生成和模擬——適用於每一種形式的機器人系統。它可能是一個只是關節、機械手的機器人,也許是一個移動機器人,也許是一個完全人形的機器人。所以下一個旅程,機器人系統的下一個時代將是,你知道,機器人。這些機器人將會有各種不同的大小和……我邀請了一些朋友。他們來了嗎?嘿夥計們,快點。我有很多東西要講。快點,快點。你們告訴R2-D2 你們要來這裡嗎?你們告訴了嗎?還有 C-3PO。好的。好吧。過來。在此之前,現在,真正的一件事是……你們有Jetson。它們裡面有小小的 Jetson 電腦。它們是在 Omniverse 內部訓練的。這個怎麼樣?讓我們向大家展示一下你們這幫傢伙是在那個模擬器裡學會如何成為機器人的。你們想看看那個嗎?好的,讓我們看看那個。請播放。真的嗎?(機器人模擬視訊開始)(音樂)C-3PO/R2-D2 在 Omniverse 模擬環境中跌跌撞撞、學習行走的畫面(C-3PO 看著 R2-D2)聲音:看,什麼都沒有。(視訊結束)這難道不令人驚奇嗎?這就是你們學會成為機器人的方式。你們完全是在 Omniverse 內部完成的。機器人模擬器叫做Isaac Sim 和 Isaac Lab。任何想製造機器人的人,你知道,沒有人會像你們這麼可愛。但現在我們有所有這些……看看所有這些我們正在製造機器人的朋友。我們在製造大的。不,就像我說的,沒有人像你們這麼可愛。但我們有 Neura Robotics,我們有 Agility Robotics。那邊的 Agility。我們有 LG 在這邊。他們剛剛宣佈了一個新機器人。Caterpillar(卡特彼勒),他們有最大的機器人。那個是送到你家的食物配送機器人,連接到 Uber Eats。那是 Serve Robotics。我愛那些傢伙。Agility, Boston Dynamics(波士頓動力),不可思議。你有手術機器人,你有來自 Franka 的機械臂機器人,你有 Universal Robotics 的機器人,數量驚人的不同機器人。所以這是下一章。我們將來會更多地談論機器人技術。但這最終不僅僅是關於機器人。我知道一切都是關於你們這幫傢伙的。它是關於到達那裡。世界上最重要的行業之一將被物理 AI 和 AI 物理學徹底改變,那就是開啟了我們 NVIDIA 所有人的行業。如果不是我要談到的這些公司,這就不可能實現。我很高興所有這些公司,從Cadence 開始,將加速一切。Cadence CUDA-X 整合到他們所有的模擬和求解器中。他們有 NVIDIA 物理 AI,他們將用於不同的工廠和工廠模擬。你有 AI 物理學被整合到這些系統中。所以無論是 EDA 還是 SDA,在未來的機器人系統中,我們將擁有基本上相同的技術,讓你們這幫傢伙成為可能的技術現在完全徹底改變這些設計堆疊。Synopsys(新思科技)。沒有 Synopsys,你知道 Synopsys 和 Cadence 在晶片設計領域是完全不可或缺的。Synopsys 在邏輯設計和 IP 方面處於領先地位。而在 Cadence 的情況下,他們領導物理設計、佈局布線、模擬和驗證。Cadence 在模擬和驗證方面令人難以置信。他們倆都在進入系統設計和系統模擬的世界。所以在未來,我們將在 Cadence 和 Synopsys 內部設計你們的晶片。我們將設計你們的系統,並在這些工具內部模擬整個事物和模擬一切。那就是你們的未來。我們會給……是的。你們將會在這些平台內部誕生。相當驚人,對吧?所以我們很高興我們正在與這些行業合作,就像我們將 NVIDIA 整合到 Palantir 和 ServiceNow 一樣,我們將 NVIDIA 整合到計算最密集的模擬行業 Synopsys 和 Cadence 中。今天我們宣佈Siemens(西門子)也在做同樣的事情。我們將整合 CUDA-X、物理 AI、代理 AI、NeMo、Nemotron 深度整合到 Siemens 的世界中。原因是這樣的。首先,我們設計晶片,未來所有的晶片都將由 NVIDIA 加速。你們會對此感到非常高興。我們將擁有代理晶片設計師(Agentic Chip Designers)和系統設計師與我們一起工作,幫助我們做設計,就像我們今天有代理軟體工程師幫助我們的軟體工程師編碼一樣。所以,我們將擁有代理晶片設計師和系統設計師。我們將在其中創造你們。但之後我們要建造你們。我們必須建造工廠,製造你們的工廠。我們必須設計組裝你們所有人的生產線。而這些製造工廠本質上將是巨大的機器人。不可思議,對吧?我知道。我知道。所以你們將在電腦中被設計。你們將在電腦中被製造。你們將在電腦中被測試和評估,早在你們必須花時間應對重力之前。我知道。你們知道怎麼應對重力嗎?你們能跳嗎?能跳嗎?(機器人做動作)好的。行了。別顯擺了。好的。所以這……所以現在,使 NVIDIA 成為可能的行業,我只是很高興我們正在創造的技術現在處於如此複雜的水平和能力,我們可以回去幫助他們徹底改變他們的行業。所以從他們開始的事情,我們現在有機會回去幫助他們徹底改變他們的行業。讓我們看看我們要和 Siemens 做的事情。來吧。(西門子合作視訊開始)(畫外音:物理 AI 的突破正讓 AI 從螢幕走向我們的物理世界。正是時候,因為世界正在為晶片、電腦、救命藥物和 AI 建造各種各樣的工廠。隨著全球勞動力短缺的惡化,我們比以往任何時候都更需要由物理 AI 和機器人驅動的自動化。)(畫外音:這就是 AI 與世界上最大的物理行業相遇的地方,是NVIDIA 和 Siemens 合作的基礎。近兩個世紀以來,Siemens 建立了世界的工業,現在它正在為AI 時代重新發明它。)(畫外音:Siemens 正在將NVIDIA CUDA-X 庫、AI 模型和 Omniverse 整合到其 EDA、CAE 和數字孿生工具及產品組合中。)(畫外音:我們要一起將物理 AI 帶入完整的工業生命周期。從設計和模擬到生產和營運。)(音樂)(畫外音:我們要站在新工業革命的開端,這是由 NVIDIA 和 Siemens為下一個工業時代建立的物理 AI 時代。)(視訊結束)不可思議,對吧,夥計們?你們覺得怎麼樣?好的,抓緊了。抓緊了。所以這是,你知道,如果你看看世界的模型,毫無疑問 OpenAI 是今天領先的 Token 生成者。OpenAI 生成的 Token 比其他任何東西都多。第二大群體,第二大可能是開放模型。我的猜測是隨著時間的推移,因為有這麼多公司、這麼多研究人員、這麼多不同類型的領域和模態,開源模型將是迄今為止最大的。讓我們談談一個真正特別的人。你們想這樣做嗎?讓我們談談Vera Rubin。Vera Rubin。是的,繼續。她是一位美國天文學家。她是第一個觀察到……她注意到星系的尾部移動的速度與星系的中心差不多快。嗯,我知道這說不通。這說不通。牛頓物理學會說,就像太陽系一樣,離太陽較遠的行星繞太陽公轉的速度比離太陽較近的行星慢。因此,除非有不可見的物體,我們稱之為——她發現了——暗物質(Dark Matter),儘管我們看不到它,但它佔據空間,否則這發生是沒有道理的。所以 Vera Rubin 是我們以此命名我們下一台電腦的人。這難道不是個好主意嗎?我知道。(掌聲)好的。嘿,Vera Rubin是為瞭解決我們面臨的這個根本挑戰而設計的。AI 所需的計算量正在飆升。對 NVIDIA GPU 的需求正在飆升。它飆升是因為模型每年增加 10 倍,一個數量級。更不用說,正如我提到的,o1 的引入是 AI 的一個拐點。不再是一次性回答(One-shot),推理現在是一個思考過程。為了教 AI 如何思考,強化學習和非常顯著的計算被引入到後訓練中。不再僅僅是監督微調或稱為模仿學習或監督訓練。你們現在有了強化學習,本質上是電腦自己嘗試不同的迭代,學習如何執行任務。因此,預訓練、後訓練、測試時縮放的計算量因此爆炸式增長。現在我們做的每一個推理,不再僅僅是一次性,你可以看到 AI 在思考,這是我們所讚賞的。它思考的時間越長,通常產生的答案就越好。所以測試時縮放導致要生成的 Token 數量每年增加5倍。更不用說,與此同時,AI 的競賽正在進行。每個人都試圖達到下一個水平。每個人都試圖達到下一個前沿。每當他們達到下一個前沿時,上一代 AI Token 的成本就開始每年下降大約10倍。每年 10 倍的下降實際上告訴你在發生一些不同的事情。它在說競爭如此激烈。每個人都試圖達到下一個水平,有人正在達到下一個水平。因此,所有這一切都是一個計算問題。你計算得越快,你就能越快達到下一個前沿的下一個水平。所有這些事情都在同一時間發生。所以我們決定我們必須每年推進最先進的計算技術。一年都不能落下。我們一年半前開始發貨 GB200。現在我們正在全面量產GB300。如果 Vera Rubin 要趕上今年,它現在必須已經投產了。所以今天我可以告訴你們,Vera Rubin 已經全面投產。你們想看看 Vera Rubin 嗎?好的,來吧。請播放。(Vera Rubin 介紹視訊開始)(畫外音:Vera Rubin 恰好趕上了 AI 的下一個前沿。這就是我們如何建構它的故事。架構,一個由六個晶片組成的系統,工程設計為一體工作,源於極致的協同設計(Extreme Co-design)。)(畫外音:它始於 Vera,一個定製設計的CPU,性能是上一代的兩倍。以及 Rubin GPU。Vera 和 Rubin 從一開始就協同設計,以便更快、更低延遲地雙向一致地共享資料。)(畫外音:然後 17,000 個元件聚集在一個Vera Rubin 計算板上。高速機器人以微米級精度放置元件,然後 Vera CPU 和兩個 Rubin GPU 完成組裝。能夠提供 100 Petaflops 的 AI 算力,是其前身的五倍。)(畫外音:AI 需要快速的資料。ConnectX-9為每個GPU 提供每秒 1.6 Terabits 的橫向擴展頻寬。BlueField-4 DPU 解除安裝儲存和安全性,以便計算完全專注於AI。)(畫外音:Vera Rubin 計算托盤(Compute Tray)完全重新設計,沒有電纜、軟管或風扇。具有一個 BlueField-4 DPU、八個ConnectX-9 網路卡、兩個 Vera CPU 和四個 Rubin GPU,這是 Vera Rubin AI 超級電腦的計算建構塊。)(畫外音:接下來是第六代 NVLink Switch,移動的資料比全球網際網路還多,連接18 個計算節點,擴展到 72 個 Rubin GPU,作為一個整體運行。)(畫外音:然後是 Spectrum-X Ethernet Photonics(乙太網路光子學),世界上第一個具有 512 個通道和 200 Gbit 能力的共封裝光學(Co-packaged Optics)乙太網路交換機,將成千上萬的機架擴展為 AI 工廠。)(畫外音:自設計開始以來的 15,000 個工程師年。第一個Vera Rubin NVL72 機架上線。六個突破性晶片,18 個計算托盤,9 個 NVLink 交換機托盤,220兆個電晶體,重近兩噸。向 AI 下一個前沿的巨大飛躍。Rubin 來了。)(視訊結束)你們覺得怎麼樣?這是一個Rubin Pod。16 個機架中有 1152 個 GPU。正如你們所知,每一個機架有 72 個 Vera Rubin 或 72 個 Rubin。每一個 Rubin 是兩個實際的 GPU 晶片連接在一起。我要把它展示給你們看,但這有幾件事……好吧,我待會兒再告訴你們。我不能一下子告訴你們所有事情。好吧,我們設計了六種不同的晶片。首先,我們要公司內部有一條規則,這是一條好規則。任何新一代都不應該更改超過一兩個晶片。但問題是這樣的。正如你們所看到的,我們在描述每一個被描述的晶片中的電晶體總數。我們知道摩爾定律在很大程度上已經放緩。所以我們年復一年能得到的電晶體數量不可能跟上 10 倍大的模型。它不可能跟上每年生成更多 Token 的 5 倍。它不可能跟上 Token 成本下降將如此激進的事實。如果行業要繼續進步,就不可能跟上這種速度,除非我們部署激進的極致協同設計(Extreme Co-design)。基本上同時在整個堆疊的所有晶片上進行創新。這就是為什麼我們決定這一代我們別無選擇,只能重新設計每一個晶片。現在,剛才描述的每一個晶片本身都可以是一個新聞發佈會,而在過去的日子裡,可能有一整個公司專門做這個。每一個都是完全革命性的,同類中最好的。Vera CPU,我為它感到非常自豪。在一個受電力限制的世界裡,Gray CPU(註:口誤,應指Grace 的繼任者 Vera)性能是兩倍。在一個受電力限制的世界裡。它是世界上最先進 CPU 每瓦性能的兩倍。它的資料速率是瘋狂的。它是為處理超級電腦而設計的。Vera 是一個不可思議的 GPU(註:口誤,應指CPU)。Grace是一個不可思議的 GPU(註:口誤,應指 CPU)。現在 Vera增加了單線程性能,增加了記憶體容量,僅僅是急劇增加了一切。這是一個巨大的晶片。這是 Vera CPU。這是一個 CPU。這連接到 Rubin GPU。看看那個東西。這是一個巨大的晶片。現在,真正特別的事情是,我會過一遍這些。我想這需要三隻手,四隻手來做這個。好的。所以,這是 Vera CPU。它有 88 個 CPU 核心。CPU 核心被設計為多線程的。但Vera 的多線程特性被設計為每一個 176 個線程都可以獲得其全部性能。所以本質上好像有 176 個核心,但只有88 個物理核心。這些核心是使用一種叫做空間多線程的技術設計的。但 IO 性能令人難以置信。這是Rubin GPU。浮點性能是 Blackwell 的 5倍。但重要的事情是看底線。底線是它的電晶體數量僅為 Blackwell 的 1.6倍。這某種程度上告訴了你今天半導體物理的水平。如果我們不做協同設計,如果我們不在整個系統的每一個晶片層面上做極端的協同設計,我們怎麼可能提供那怕是最好每年 1.6 倍的性能水平呢?因為那就是你擁有的電晶體總數。即使你的每個電晶體性能多一點,比如說 25%,你也不可能從你得到的電晶體數量中獲得 100% 的良率。所以 1.6 倍某種程度上為你每年性能能走多遠設定了上限,除非你做一些極端的事情。我們稱之為極致協同設計。好吧,我們做的一件事,這是一個偉大的發明。它叫做NVFP4 Tensor Core。我們晶片內部的 Transformer 引擎不僅僅是我們放入資料路徑的某種 4 位浮點數。它是一個完整的處理器,一個處理單元,瞭解如何動態地、自適應地調整其精度和結構以處理 Transformer 的不同層級,以便你可以在可能損失精度的地方實現更高的吞吐量,並在你需要的地方回到儘可能高的精度。那種動態執行此操作的能力。你不能在軟體中這樣做,因為顯然它運行得太快了。所以你必須能夠在處理器內部自適應地做到這一點。這就是 NVFP4。當有人說 FP4 或 FP8 時,這對我們來說幾乎沒有任何意義。原因是讓它工作的是 Tensor Core 結構和所有的演算法。NVFP4,我們已經為此發表了論文。它能夠保持的吞吐量和精度水平是完全不可思議的。這是開創性的工作。如果是未來行業希望我們將這種格式和這種結構作為行業標準,我也不會感到驚訝。這是完全革命性的。這就是為什麼即使我們只有 1.6 倍的電晶體數量,我們也能提供如此巨大的性能提升。好的。所以這是……現在一旦你有了一個偉大的處理節點,這就是處理器節點,在這裡……例如這裡,讓我做這個……這就是……哇,它超級重。你必須是一個身材非常好的CEO 才能做這份工作。好的。所以這東西是……我猜這大概……我不知道,幾百磅。(有人笑)我也覺得這很有趣。來吧。(看向後台) 可能是這樣的。大家都走了。不,我不這麼認為。好的。所以看看這個。這是最後一個。我們徹底改變了整個 MGX 機箱。這個節點。43 根電纜,零電纜。六根管子,這兒只有兩根。組裝這個需要兩個小時。如果你幸運的話,需要兩個小時。當然,你可能會組裝錯。你得重新測試,測試,重新組裝。所以組裝過程極其複雜。作為我們第一批以這種方式解構的超級電腦之一,這是可以理解的。這個從兩小時變成了 5 分鐘。80% 液冷。100% 液冷。是的。真的,真正的突破。好的。所以,這是新的計算底盤。連接所有這些到機架頂部交換機、東西向流量的是Spectrum-X網路卡(NIC)。這是世界上最好的網路卡。毫無疑問,NVIDIA 的 Mellanox,很久以前加入我們的收購 Mellanox。他們在高性能計算方面的網路技術是世界上最好的,毋庸置疑。演算法、晶片設計、所有的互連、運行在上面的所有軟體堆疊、他們的 RDMA,絕對絕對首屈一指,世界上最好的。現在它有能力做可程式設計 RDMA 和資料路徑加速器,以便像 AI 實驗室這樣的合作夥伴可以為他們想要如何在系統中移動資料建立自己的演算法。但這完全是世界級的 ConnectX-9,Vera CPU 是協同設計的,我們從未透露過。直到 CX9 出現我們才從未發佈過,因為我們為一種新型處理器協同設計了它。你知道,ConnectX-9 或 CX8 和 Spectrum-X 徹底改變了乙太網路為人工智慧所做的方式。AI 的乙太網路流量要密集得多,需要更低的延遲。瞬時的流量激增不同於乙太網路所見的任何東西。所以我們建立了 Spectrum-X,即AI乙太網路。兩年前我們宣佈了 Spectrum-X。NVIDIA 今天是世界上最大的網路公司。所以它非常成功,被用於許多不同的安裝中。它正在席捲 AI 領域。性能令人難以置信,特別是當你有一個 200 兆瓦的資料中心,或者如果你有一個吉瓦的資料中心。這些是數十億美元。假設一個吉瓦的資料中心是 500 億美元。如果網路性能允許你多提供 10%——在 Spectrum-X 的情況下,提供 25% 更高的吞吐量並不罕見。即使我們只提供 10%,那也值50億美元。網路完全是免費的,這就是為什麼——嗯,每個人都使用 Spectrum-X。這真是一件不可思議的事情。現在我們將發明一種新型的……一種新型的資料處理。所以 Spectrum 是用於東西向流量的。我們現在有一個名為BlueField-4 的新處理器。BlueField-4 允許我們採取一個非常大的資料中心,隔離不同的部分,以便不同的使用者可以使用不同的部分。確保一切都可以虛擬化,如果他們決定虛擬化的話。所以你解除安裝了很多用於南北向流量的虛擬化軟體、安全軟體、網路軟體。所以 BlueField-4 標配在每一個這些計算節點上。BlueField-4 有第二個應用,我馬上就會講到。這是一個革命性的處理器,我對此感到非常興奮。這是 NVLink 6 Switch。就在這裡。這個交換機晶片。在這個 NVLink 交換機裡有四個。這每一個交換機晶片都有歷史上最快的 SerDes。世界勉強達到200 Gbits。這是 400 Gbits 每秒的交換機。這之所以如此重要,是為了讓我們可以讓每一個 GPU 在完全相同的時間與每一個其他GPU 對話。這個交換機,在這個機架背板上的這個交換機使我們要移動相當於兩倍全球網際網路資料量的資料,速度是兩倍。如果你拿整個地球網際網路的橫截面頻寬,大約是每秒 100 TB。這是每秒 240 TB。所以這某種程度上把它放在了透視中。這是為了讓每一個 GPU 都可以與每一個其他 GPU 在完全相同的時間工作。好的。然後在那之上……在那之上,好的,這是一個機架。這是一個機架。正如你們所看到的,這個機架中的電晶體數量是 1.7 倍。是的。你能幫我做這個嗎?所以,這通常大約是兩噸,但今天它是兩噸半,因為當他們運送它時,他們忘了把水排干。所以,我們從加利福尼亞運了很多水過來。你能聽到它尖叫嗎?你知道,當你旋轉兩噸半重的東西時,你得尖叫一下。哦,你可以做到。哇。好的,我們不會讓你做兩次。好的。所以,在這背後是NVLink Spines(脊柱)。基本上是兩英里的銅纜。銅是我們知道的最好的導體。這些都是遮蔽銅纜,結構化銅纜,世界上在計算系統中使用的最多的。我們的 SerDes 以每秒 400 gigabits 的速度驅動從機架頂部一直到底部的銅纜。這令人難以置信。所以這總共有 2 英里的銅纜,5000 根銅纜。這使得 NVLink Spine 成為可能。這是真正開啟 MGX 系統的革命。現在我們決定我們將建立一個行業標準系統,以便整個生態系統、我們所有的供應鏈都可以標準化這些元件。有大約 80,000 個不同的元件組成了這些 MGX 系統,如果我們每年都改變它,那就是徹底的浪費。每一個主要的電腦公司,從富士康到廣達再到緯創,你知道,名單還在繼續,到惠普、戴爾和聯想,每個人都知道如何建構這些系統。所以儘管性能如此之高,更重要的是功耗是兩倍,我們仍然可以將 Vera Rubin 擠進這個系統,這就是奇蹟:進入它的空氣,氣流大約是相同的。非常重要的是,進入它的水是相同的溫度,45°C。用 45°C,資料中心不需要冷水機組(Chillers)。我們基本上是用熱水冷卻這台超級電腦。它是如此令人難以置信的高效。所以這是……這是新的機架。電晶體多 1.7 倍,但峰值推理性能多5倍,峰值訓練性能多 3.5倍。好的,它們在頂部使用 Spectrum-X 連接。哦,謝謝。(掌聲)這是世界上第一個使用台積電(TSMC)新工藝製造的晶片,我們共同創新的工藝叫做COUPE。這是一種矽光子整合矽光子工藝技術。這允許我們將矽光子直接帶到晶片上。這是 512個連接埠,每秒200 Gbits。這是新的乙太網路 AI 交換機,Spectrum-X 乙太網路交換機。看看這個巨大的晶片。但真正令人驚奇的是,它有直接連接到它的矽光子。雷射從這裡進來。雷射從這裡進來。光學器件在這裡,它們連接到資料中心的其餘部分。我稍後會展示給你們看,但這在機架頂部。這是新的 Spectrum-X 矽光子交換機。好的。我們有一些新東西想告訴你們。正如我幾年前提到的,我們推出了 Spectrum-X,以便我們可以重新發明網路的方式。乙太網路真的很容易管理,每個人都有乙太網路堆疊,世界上的每個資料中心都知道如何處理乙太網路。當時我們唯一使用的是 InfiniBand,用於超級電腦。InfiniBand 延遲非常低。但當然,軟體堆疊、InfiniBand 的整個可管理性對於使用乙太網路的人來說非常陌生。所以我們決定第一次進入乙太網路交換機市場。Spectrum-X 就這樣起飛了,使我們成為了世界上最大的網路公司。正如我提到的,下一代 Spectrum-X 將繼承這一傳統。但正如我剛才所說,AI 已經重新發明了整個計算堆疊,計算堆疊的每一層。理所當然地,當 AI 開始部署在世界各地的企業中時,它也將重新發明儲存的方式。嗯,AI 不使用 SQL。AI 使用語義資訊。當使用 AI 時,它會建立這種臨時知識,臨時記憶,稱為KV Cache(KV快取)。鍵值組合,但它是一個 KV 快取。基本上是 AI 的快取,AI 的工作記憶。AI 的工作記憶儲存在 HBM 記憶體中。對於每一個 Token,對於每一個 Token,GPU 讀入模型,整個模型。它讀入整個工作記憶,它產生一個 Token,並將那個 Token 儲存回 KV 快取,然後在下一次它這樣做時,它讀入整個記憶,讀取它,並通過我們的 GPU 流式傳輸,然後生成另一個 Token。嗯,它一個 Token 接一個 Token 地重複這樣做,顯然如果你在那段時間與那個 AI 進行長時間的對話,那個記憶、那個上下文記憶將會極大地增長。更不用說模型正在增長。我們使用的輪次(Turns)正在增加。我們希望這個 AI 伴隨我們一生。記住我們曾經與它進行的每一次對話,對吧?我向它請求的每一丁點研究。當然,共享超級電腦的人數將繼續增長。因此,最初適合放在 HBM 內部的這個上下文記憶不再足夠大了。去年我們建立了 Grace Blackwell 的非常快的記憶體,我們稱之為快速上下文記憶體。這就是為什麼我們將 Grace 直接連接到 Hopper,這就是為什麼我們將 Grace 直接連接到 Blackwell,以便我們可以擴展上下文記憶。但即使那樣也是不夠的。所以下一個解決方案當然是去網路上,南北向網路,去公司的儲存。但如果你有很多 AI 同時運行,那個網路就不再足夠快了。所以答案非常清楚,要做得不同。所以我們建立了 BlueField-4,以便我們基本上可以在機架中擁有一個非常快的 KV 快取上下文記憶體儲存。所以我馬上就會向你們展示。但這是一個全新的儲存系統類別。行業非常興奮,因為這對於幾乎所有今天做大量 Token 生成的人來說都是一個痛點。AI 實驗室,雲服務提供商,他們真的因為 KV 快取移動造成的大量網路流量而受苦。所以我們將建立一個新平台、一個新處理器的想法,來運行整個 Dynamo KV 快取上下文記憶體管理系統,並將其放在離機架其餘部分非常近的地方,這是完全革命性的。所以就是這個。它就在這裡。所以這就是所有的計算節點。每一個都是 NVLink 72。所以這是 Vera Rubin NVLink 72,144 個 Rubin GPU。這是儲存在這裡的上下文記憶體。在每一個這些背後是四個 BlueField。在每一個 BlueField 背後是 150 TB……150 TB 的記憶體,上下文記憶體。對於每一個 GPU,一旦你在每一個 GPU 上分配它,將獲得額外的 16 TB。現在在這個節點內部,每個 GPU 本質上有一 TB。現在有了這裡的這個後備儲存(Backing Store),直接在同一個東西向流量上,以完全相同的資料速率,每秒 200 gigabits,實際上跨越這個計算節點的整個結構。你將獲得額外的 16 TB 記憶體。好的。這就是管理平面。這些是連接所有它們的 Spectrum-X 交換機,在這裡,末端的這些交換機將它們連接到資料中心的其餘部分。好的。所以這是 Vera Rubin。現在有幾件事真的令人難以置信。所以我提到的第一件事是,這整個系統的能源效率是兩倍。本質上,即使功耗是兩倍,使用的能量是兩倍,計算量是其許多倍,但進入它的液體仍然是 45 攝氏度。這使我們能夠節省大約 6% 的世界資料中心電力。所以這是一件非常大的事情。第二件非常大的事情是,這整個系統現在是機密計算安全(Confidential Computing Safe)的。意味著一切都在傳輸中、靜止時和計算期間被編碼。每一條匯流排現在都被加密了。每一個 PCI Express,每一個 NVLink,你知道對於 CPU 和 GPU 之間的 NVLink,GPU 到 GPU 之間,一切現在都被加密了,所以它是機密計算安全的。這允許公司感到安全,即他們的模型是由其他人部署的,但永遠不會被其他人看到。好的。這特定的系統不僅非常節能,而且還有一件事是令人難以置信的。由於 AI 工作負載的性質,它會瞬間飆升。通過這個稱為 All-Reduce 的計算層,電流的大小、使用的能量雖然是瞬間的,但確實超出了圖表。通常它會飆升 25%。我們現在在整個系統中擁有功率平滑(Power Smoothing),這樣你就不必過度配置 25 倍,或者如果你過度配置 25 倍,你不必留下 25%……不是 25 倍,是 25% 的能量被浪費或未使用。所以現在你可以填滿整個功率預算,你不必在此之外進行配置。最後一件事當然是性能。所以讓我們來看看這個的性能。這些只是建構 AI 超級電腦的人會喜歡的圖表。我們需要對每一個晶片進行完全重新設計,並在整個系統上重寫整個堆疊,才能使這成為可能。基本上這是訓練 AI 模型。第一列。你訓練AI 模型越快,你就能越快將下一個前沿帶給世界。這是你的上市時間。這是技術領導力。這是你的定價能力。所以在綠色的情況下,這本質上是一個 10 兆參數的模型。我們從DeepSeek 擴大了它,DeepSeek。這就是為什麼我們稱之為 DeepSeek++。在一個 100 兆 Token 上訓練一個 10 兆參數的模型。好的。這是我們對建構下一個前沿模型所需的模擬預測。Elon 已經提到 Grok 的下一個版本,Grok 3 我想是,不,Grok 5 還是什麼,是 7 兆參數(註:可能指Grok 3,此處為演講者口語推測)。這是 10 兆。綠色是 Blackwell。而在 Rubin的情況下,注意吞吐量是如此之高,因此只需要 1/4 的這些系統就可以在我們給出的時間(一個月)內訓練模型。好的。所以時間對每個人來說都是一樣的。現在你能多快訓練那個模型,以及你能訓練多大的模型,是你如何首先到達前沿的關鍵。第二部分是你的工廠吞吐量(Factory Throughput)。Blackwell 再次是綠色的。工廠吞吐量很重要,因為你的工廠在吉瓦的情況下是 500 億美元。一個 500 億美元的資料中心只能消耗一吉瓦的電力。所以如果你的性能、你的每瓦吞吐量非常好對比非常差,那直接轉化為你的收入。你的資料中心的收入與第二列直接相關。在 Blackwell 的情況下,它比 Hopper 高大約 10 倍。在 Rubin 的情況下,它將再高大約 10倍。好的。在現在的情況下……Token的成本,生成 Token 的成本效益如何。這是 Rubin,大約是 1/10,就像在……是的。所以這就是我們要如何讓每個人都到達下一個前沿,將 AI 推向下一個水平,當然還有能源高效和成本高效地建構這些資料中心。所以就是這樣。這就是今天的 NVIDIA。你知道,我們提到我們製造晶片,但正如你們所知,NVIDIA 現在製造整個系統。AI是一個全端。我們正在重新發明 AI,從晶片到基礎設施,到模型,到應用程式的一切。我們的工作是建立整個堆疊,以便你們所有人都可以為世界其他地方建立令人難以置信的應用程式。感謝大家的到來。祝大家有一個愉快的 CES。現在,在我……在我讓你們離開之前,有一大堆幻燈片我們不得不剪掉,我們不得不留在剪輯室的地板上。所以,我們這裡有一些花絮(Outtakes)。我想這會讓你們覺得很有趣。祝大家有一個愉快的 CES,夥計們。 (The AI Frontier)
國際周報 | Nvidia 宣佈 Vera Rubin 晶片支援 45°C熱水冷卻;DayOne 完成 20 億美元 C 輪融資
大廠動態No.01DayOne完成20億美元C輪融資加速亞太與歐洲擴張亞太資料中心營運商 DayOne 宣佈完成超過 20 億美元 C 輪融資,由 Coatue 領投,印尼主權財富基金 INA 等參與。資金將用於擴展其在新加坡、馬來西亞、印尼、泰國、日本與香港的資料中心佈局,並支援芬蘭 Lahti 和 Kouvola 園區建設。DayOne 前身為中國 GDS 國際業務,目前已擁有及在建容量超過 500MW,並儲備同等規模開發潛力。點評:萬國海外獨立後,融資提速全球化佈局。No.02百度與華為佔據中國GPU雲市場七成份額推動自研晶片全端融合Frost & Sullivan 報告顯示,2025 年上半年百度與華為共佔中國 GPU 雲市場 70.5% 份額,其中百度以 40.4% 居首。兩者均採用“晶片到雲”全端策略,建構自研晶片規模化資源池,以挑戰 Nvidia CUDA 生態。儘管市場仍面臨性能、生態與整合瓶頸,但百度與華為正加速融合軟硬一體能力。其他大廠如騰訊、阿里受限於 AI GPU 供應,資本開支明顯下滑。點評:中國國產替代提速,芯雲一體成主流路線。No.03xAI宣佈資料中心叢集擴建計畫總投資達 200 億美元馬斯克旗下 xAI 正在田納西州孟菲斯與密西西比州德索托縣同步推進資料中心建設,最新項目“MACROHARDRR”預計將推動整體算力容量增至約 2GW。該叢集將服務於 Colossus 超級計算平台,目標部署 100 萬顆 GPU。xAI 已完成 200 億美元 E 輪融資,輝達、思科等為戰略投資方。資料中心依託自建燃氣電廠與 Tesla Megapack 快速部署,但也引發環保爭議。密西西比州政府已給予稅收優惠,稱其為州史上最大經濟開發項目。點評:馬斯克火力全開,美南成算力高地。No.04軟銀將以40億美元收購資料中心投資公司 DigitalBridge軟銀宣佈將以 40 億美元收購全球數字基礎設施投資公司 DigitalBridge。後者管理資產規模達 1080 億美元,旗下投資組合包括 AIMS、AtlasEdge、DataBank、Switch、Takanock、Vantage 和 Yondr Group,資料中心總容量達 5.4GW。該收購將強化軟銀在 AI 基礎設施領域的佈局,特別是在支援 OpenAI 的 Stargate 超大規模資料中心項目上。交易預計於 2026 年下半年完成,DigitalBridge 將保持獨立營運。點評: AI 風口下,軟銀重金搶灘算力基建。No.05微軟計畫在密歇根州Dorr和Lowell建設資料中心園區Grand Rapids成新興熱點微軟近日確認將在密歇根州 Grand Rapids 附近的 Dorr 和 Lowell 兩地建設資料中心園區。公司已在 Dorr 購地 272 英畝,在 Lowell 提議開發 235 英畝園區,前者為已購土地,後者仍處初期溝通階段。第三個選址 Gaines 因社區反對暫緩推進。微軟表示將加強與社區溝通,並承諾新設施符合節水和可持續發展目標。該地區正成為繼底特律後新的資料中心集聚地。點評:微軟中西部佈局提速,小城鎮迎資料中心入駐潮。No.06OADC收購NTT在南非的資料中心資產泛非資料中心營運商 OADC 將收購 NTT 在南非的七個資料中心,地點包括約翰內斯堡、開普敦、布隆方丹等地,交易已獲南非競爭委員會批准。該資產原屬 NTT 於 2010 年收購的 Dimension Data,現總容量約 10MW。本次交易是 OADC 母公司 WIOCC 戰略擴張的一部分,旨在增強其在南非及非洲的中立資料中心佈局。點評:區域整合提速,非洲市場熱度不減。科技動態No.07Nvidia宣佈Vera Rubin晶片支援45°C熱水冷卻引發傳統 HVAC股價下跌在 CES 上,黃仁勳宣佈其新一代 Vera Rubin 晶片可在 45°C 熱水環境下運行,無需冷水機組,引發 Modine、江森自控、特靈科技等 HVAC 企業股價普跌。Rubin 系列性能大幅超越 Blackwell,將於 2026 年下半年上市,採用 100% 液冷與模組化托盤設計。分析稱,傳統空調廠商或受衝擊,而擁有液冷佈局的 nVent、Vertiv 有望受益。點評:熱水冷卻上場,資料中心製冷範式或變天。No.08Vertiv發佈2026資料中心趨勢預測,AI驅動電力架構與液冷系統深度變革Vertiv 在其《Frontiers》報告中指出,AI 工廠對密度、規模和部署速度的極致需求,正在重塑資料中心設計與維運。五大趨勢包括:向高壓直流電架構轉型以支援 AI 功耗密度;數字孿生驅動模組化部署;AI 推理推動邊緣與私有部署;本地發電成為能源保障核心;液冷系統走向智能自適應。Vertiv 預計“資料中心即算力單元”將成為 AI 時代基礎設施新範式。點評:AI 正在重寫資料中心設計公式,全端協同成關鍵。No.09江森自控將在新加坡投資6000萬新元擴建創新中心聚焦 AI 資料中心冷卻技術江森自控宣佈未來五年將在新加坡投資約 6000 萬新元(約合 4400 萬美元),擴建其創新中心,研發麵向 AI 與雲端運算資料中心的下一代冷卻、熱管理與自動化技術。項目將專注液冷與混合冷卻,適用於亞太高溫、高功耗環境,同時作為區域研發樞紐服務整個亞太市場。擴建後將增加至 90–100 名工程師,聯合高校與客戶進行應用測試。點評:液冷東南亞落地,瞄準 AI 高密集算力。No.10Ventiva在CES推出離子冷卻參考設計,適用於AI資料中心與邊緣裝置美國冷卻技術公司 Ventiva 在 CES 2026 上發佈其新型“分區空氣冷卻”參考設計,採用離子冷卻技術,可精準為 CPU、GPU 等高熱部件定向送風,適配資料中心、邊緣計算與消費裝置。該方案無需大型機械風扇,可釋放機箱空間、提高機架密度,並與液冷系統互補。該技術利用電場驅動電漿體產生氣流,被視為新一代高效熱管理方案之一。點評:離子冷卻登場,挑戰風冷液冷二元格局。行業萬花筒No.11S&P警告AI驅動銅需求激增或對資料中心建設構成系統性風險S&P Global 報告指出,銅將成為繼記憶體、雷射器之後又一關鍵瓶頸資源。受 AI 資料中心、電網擴建、電動車等多重需求推動,全球銅需求預計到 2040 年將增長 50%,缺口達 1000 萬噸。其中資料中心銅用量將從 2025 年的 110 萬噸升至 2040 年的 250 萬噸,AI 訓練負載預計 2030 年佔資料中心銅需求的 58%。雖然部分互聯已轉向光纖,但整體銅強度依舊高達每兆瓦 30–40 噸。點評: “缺銅”繼“缺芯”之後,AI 基建面臨全端資源瓶頸。No.12JLL預測全球資料中心將在2030年前迎來3兆美元投資超級周期JLL 報告預測,至 2030 年全球資料中心總投資將達 3 兆美元,容量增至近 100GW,年複合增長率達 14%。其中地產資產價值增長約 1.2 兆美元,8700 億美元為債務融資,1–2 兆美元將用於 GPU 與網路裝置升級。JLL 指出儘管存在電力、供應鏈、成本等挑戰,當前行業租賃率與預租比例仍顯示基本面健康。AI 推動推理型負載崛起,預計 2030 年將佔據一半資料中心容量。點評: AI 驅動全球算力熱,泡沫論暫難成立。 (DeepKnowledge)
【CES 2026】黃仁勳喊話“中國輝達”:期待競爭,你們世界頂尖,但必須努力
1月5日晚,身穿標誌性黑色皮夾克的黃仁勳站在拉斯維加斯CES 2026的舞台上,這位NVIDIA掌門人正式發佈了由六顆全新晶片組成的Rubin平台,宣佈將在2026年下半年向合作夥伴供貨。更重磅的是代號“Alpamayo”的自動駕駛AI軟體——黃仁勳稱之為“機器人技術的ChatGPT時刻”。黃仁勳在交流會現場一天之後的1月6日答疑會上,老黃繼續他的“布道之旅”,資訊量更是爆棚。談市場,他直接把預期拉滿:“自去年10月以後發生了很多新進展,應該會提高我們對5000億美中繼資料中心銷售的預期。” 他特別強調了一個被低估的趨勢——開源模型現在已經佔據了四分之一的AI代幣生成量。用他的話說,這個世界正在經歷一場10兆美元的計算現代化升級,而勞動力產業更是高達100兆美元。“這是第一次,技術在服務於世界整個經濟。”聊到中國,黃仁勳的態度務實又坦誠。關於H200出口和中國市場的反覆提問,他只用一句話回應:“我只期待採購訂單,當採購訂單到來時,它將暗示其他一切。” 對於中國的競爭對手,他既認可“中國企業家、工程師和AI研究人員是世界上最好的之一”,也不忘提醒:“我期待你們的競爭,你們必須努力工作。”技術細節層面,老黃如數家珍:可插拔NVLink交換機、功率平滑技術、端到端保密計算,還有把組裝時間從兩小時壓縮到五分鐘的創新。他甚至預言NVIDIA可能會成為“世界上最大的CPU製造商之一”和“最大的儲存公司之一”。最有意思的是關於機器人的討論。當有人問“什麼時候能得到具有人類水平能力的機器人”,黃仁勳的回答簡潔有力:“明年?哦,是今年。” 他不認為機器人會搶人類的飯碗,反而說“擁有機器人將創造就業機會”,因為“我們需要更多AI移民來幫助我們”。關於自動駕駛的安全哲學,老黃也給出了他的答案:“最好永遠不要有人車交接。所以即使你不承諾L4,也應該具有L4的能力。”兩天的CES之行,黃仁勳展現的不僅是NVIDIA的技術路線圖,更是他對AI時代的宏大敘事:從晶片到生態,從資料中心到機器人,從當下的幾千億到未來的百兆。這場百兆美元的技術革命,NVIDIA顯然不想缺席任何一個戰場。01 關於AI泡沫問題: 2025年10月你給出了一個當時令人震驚的數字,說未來四五個季度會賣出去大約5000億美元的資料中心。過去幾天你一直在說需求非常強勁。我們應該期待更高的數字嗎?黃仁勳: 我希望不要定期更新這個數字。但我要說的是,自那以後發生了許多新進展,應該會提高我們對這個數字的預期。去年我們有一些非常激動人心的消息。我們一直是模型建構者、AI建構者的好夥伴。OpenAI、xAI和Gemini長期以來一直在NVIDIA上運行。去年我們宣佈Anthropic未來也將在NVIDIA上運行,這是個大新聞。2025年世界的一個重大驚喜是開源模型的成功——DeepSeek R1,然後是Qwen、Nemotron、Cosmos。所有這些模型真正起飛了,以至於現在每四個生成的token中就有一個來自開源模型。我認為這被低估了。這極大地推動了NVIDIA和公有雲的需求。這也解釋了為什麼現在Hopper的定價實際上在雲端上漲。所有Hopper都在雲端被消耗,現在現貨價格開始上漲。這顯示了全球正在產生的需求。此外,看起來我們將重返中國市場。所以H200也會有所貢獻。綜合來看,我認為我們會有非常好的一年。02 出口和中國問題: 距離川普政府宣佈批准H200在中國的出口許可已經快一個月了。你預計什麼時候能向中國客戶出貨這些晶片?H200在中國獲得大訂單的可能性有多大?黃仁勳:我們已經啟動了供應鏈,H200正在生產線上流動。我們正在與美國政府完成許可的最後細節。這就是三個部分。之後,我認為我們會盡最大努力。最終,我的預期是我們會通過採購訂單瞭解一切。我們不會有任何新聞稿或大型聲明,只會有採購訂單。如果採購訂單來了,那是因為他們能夠下採購訂單。我認為就這麼簡單。所以我期待著採購訂單的到來。問題: 去年你在國會未通過GenAI法案時取得了重大勝利。但外交事務委員會主席Brian Mast有一項新法案,將授權國會不批准商務部發出的任何出口許可。你認為國會有能力阻止NVIDIA晶片出口中國的許可嗎?黃仁勳: 出口管制已經被分配給商務部是有充分理由的。所以我認為,政府中有一個來源來執行法律就足夠了。但最終,無論出現什麼法律,我們都會遵守。問題: 你認為H200在中國市場仍然有競爭力嗎?因為你自己說過華為是如此強大的競爭對手,而且中國有這麼多初創公司也在研發替代產品。黃仁勳: H200在市場上還有競爭力。但它不會永遠有競爭力。所以希望以後我們能夠發佈其他有競爭力的產品。為了保持美國在市場上的競爭力,法規也必須繼續發展。它不會是靜態法規,這沒有意義。現在H200將有競爭力。當它不再有競爭力時,希望我們會有其他新東西。然後隨著時間的推移,我們會繼續發佈(新產品),以繼續在市場上保持競爭力。問題:中國有很多新興的AI晶片玩家。在這種背景下,展望2026年,你如何看待競爭格局的演變?你認為今天NVIDIA最具防禦性的護城河是什麼?黃仁勳: 我認為中國湧現的初創公司數量很多,其中許多已經上市並做得非常非常好。這說明了中國技術產業的活力和能力。我認為可以毫不誇張地說,中國企業家、工程師、技術專家和AI研究人員群體是世界頂尖等級的。可以肯定地說,中國生態系統技術生態系統發展非常快。工程師工作非常努力,他們非常有創業精神。他們有如此聰明的想法,所以我完全相信中國技術市場將繼續繁榮並繼續發展。對於我們來說,要做出貢獻並向中國市場提供一些東西,我們將不得不競爭,我們將不得不繼續推進我們的技術。NVIDIA在今天以世界上沒有人能做到的規模創新AI。我們是世界上唯一一家從CPU一直到現在的儲存建構一切的公司。我們在其上開發每個軟體堆疊,也在模型等級以及基礎設施等級進行創新。我們與世界上幾乎每家AI公司都有合作。我們的市場推廣和管道將技術傳達到終端市場的合作夥伴。終端市場,無論是製造業,比如我們與西門子的合作夥伴關係,還是在醫療保健,我們與世界上最大的製藥公司Eli Lilly的合作夥伴關係,到汽車,到金融服務。所有這些不同的行業,NVIDIA都有真正深入的參與。所以我認為這是一個我們應該繼續領導的行業,這就是為什麼我們必須如此努力工作。我們公司在這方面非常擅長。我們以前所未有的速度進行創新,但我們不能認為任何事情是理所當然的。這個行業將會大幅發展了。這個行業有多大?世界在過去15年裡,在晶片領域投資了約10兆美元。這10兆美元正在從經典計算完全現代化到AI的過程中。因此,第一,10兆美元必須重新現代化。我們目前有了10兆美元中的幾千億美元。第二件事是軟體。AI技術第一次不僅僅是一個工具,它也是勞動力。正如我們之前提到的,未來將會有人形機器人,有自動駕駛汽車。將會有軟體編碼代理和晶片設計代理,它們增強勞動力。勞動力產業是100兆美元的市場。這是第一次,技術在服務於世界的整體經濟。所以有理由認為這將是一個極其龐大的市場。我並不驚訝有這麼多企業家想來競爭。我想我對他們的最後一句話是,我期待你們的競爭。你們必須努力工作。03 關於投資問題: 輝達現在正坐在一座巨大的現金山上,你能談談你如何考慮向前分配這些資本嗎?比如收購、招聘等?黃仁勳: 我們在幾個維度上投資生態系統。我們思考投資的第一種方式是建構世界無法建構或不存在的東西。除非我們建構它,否則它不會存在。例如NVLink就是個好例子。如果我們不建構它,它們就不會來。例如Grace CPU,只有一種這樣的架構。現在每個人都理解它的好處了,你可以用它來儲存長上下文記憶體,因為並非所有HBM上的記憶體都足夠大。而我們預期上下文記憶體會繼續增長。所以Grace裡的Vera記憶體,起初沒人知道它是用來做什麼的,現在大家都知道了它可以用作AI的記憶體。所以我們必須去建構自己的CPU。我們的偏好是專注於投資建構世界不能或不會做的事情。我們投資的第二種方式是投資我們的生態系統。我們向後看我們的供應鏈,向前看我們的供應鏈。如果你看NVIDIA的供應鏈,它包括記憶體供應商,我們已經分配了大量資本來支援我們的記憶體合作夥伴、系統合作夥伴。如果你看我們的供應鏈,NVIDIA通過向上游的供應鏈做出了數千億美元的承諾。如果我們不能確保下游供應鏈也得到照顧,那麼所有這些供應進來有什麼意義呢?我們的下游供應鏈,基本上是地球上任何公司中最多樣化和最大規模的市場推廣。世界上每一家雲服務提供商,幾乎世界上每個國家,每個電腦製造商HP、Dell等令人難以置信的合作夥伴,區域雲服務提供商,超級計算中心都是。如果你看我們的下游供應鏈,有時我們投資讓我們真正感到興奮的公司。這會開啟某天可能對生態系統很重要的新特定類別的客戶,比如CoreWeave,Lambda這樣的公司,我們可能會投資他們。我們系統性思考的方式是沿著供應鏈向上游和下游。我們考慮技術和規模等等。另一種方式是投資跨越AI蛋糕的五層的生態系統。第一層是土地、電力和外殼。第二層是晶片。現在也許我們甚至可能與其他晶片公司合作或投資他們。我們一直與其他晶片公司合作。我們與MediaTek合作,這是一個很棒的合作夥伴關係。我們與AWS合作,為他們帶來NVLink。我們可能會投資和合作,也可能會收購一些半導體公司。然後是系統方面和基礎設施方面。這是一個有很多豐富機會的領域。在那之上是模型,在那之上是應用程式,你也會看到我們在整個堆疊上進行投資。我們試圖做的是培育和加速AI發展。投資也建立了更緊密的工作關係和夥伴關係,所以能夠投資一些這些初創公司是令人難以置信的。這些是未來最重要的公司。問題: 過去幾年,輝達的業績一直超出並提高了期望。你如何處理營運世界最大公司的壓力,一個很多人說應該比今天更大的公司,並能夠持續超出期望的?黃仁勳: 首先,我不是一個人做的。我有一個了不起的團隊在我身邊,他們幫助承擔責任。毫無疑問,今天的NVIDIA在世界技術產業、供應鏈和終端市場中具有巨大影響力。但隨之而來的也是巨大的責任。我們非常認真地對待它。我們能做的主要事情之一是建構最好的技術。通過這樣做,我們不僅保持自己的相關性,我們所有的合作夥伴繼續成功,而且我們還確保AI以持續規模化的方式推進。如果AI繼續變得更聰明,我們將能夠更有效地使用它。這繼續規模化。如果我們降低成本,那繼續規模化。我們提高能源效率,那繼續規模化。所有這些都伴隨著技術。這是我們的首要責任。第二部分是確保我們有一個豐富的其他公司生態系統,從這場工業革命中受益,這就是為什麼我總是和CEO一起在台上。今天我和Roland Busch在台上一起分享,他是西門子的CEO。我們正在與西門子在不同領域合作,他們是世界上最大的工業軟體公司。他們幾乎在每一個工廠和每一個行業中。我們一起工作,帶入AI並徹底改變工廠的自動化。從軟體加速到物理AI、到AI物理到Omniverse數字孿生。我們在那裡所做的工作真的很廣泛。我們責任的第二部分是讓每個人都參與進來,我們與Snowflake和ServiceNow有合作夥伴關係、Palantir、Cadence、Synopsys、西門子,你能叫得出名字的我們都有合作。我們想確保每個人都參與進來。我認為,如果我們不是獨自前行,而是某種程度上融入這個圍繞世界的生態系統網路、並隨著技術一起前進,那麼這個行業的韌性將會更強。問題: 隨著你們對Groq的投資,我們能期待什麼?會有基於他們LPU架構的專用推理晶片嗎?黃仁勳: NVIDIA和Groq做的事情非常非常不同。我不期待那裡有什麼東西能取代我們用Vera Rubin和下一代晶片所做的事情。據我們所知,沒有合理的、更好的方法來做比Vera Rubin更好的事情。然而,我們可能能夠以一種增量式的方式,去加入他們的技術。這可能要等到下一個GTC才會透露出更多資訊。但我對Groq加入NVIDIA感到非常興奮,他們的團隊和技術都來到了我們這裡。現在仍然有一家公司在營運他們的雲業務。我會把它留到下次再說。04 關於儲存問題: 很久以前,英特爾出現並用行業標準處理器完全改變了儲存系統的設計方式。這導致了儲存開發方式的相當大的變化。你認為NVIDIA會在完全改變儲存的長期設計目標和架構方面發揮類似的關鍵作用嗎?黃仁勳: 我認為隨著時間的推移,我們將不得不發揮越來越強的作用,因為我們正在推動計算在每一個維度的極限。AI是一個平台轉變,因為這是一個新平台,因為新應用程式正在首次建構在AI上。這不僅是技術轉變,也是平台轉變,但這個平台轉變重新發明了整個計算堆疊。我們已經承認並現在認識到,我們從在CPU上運行的經典計算轉向在GPU上運行的AI。我們正在重新發明其上的堆疊。計算是基礎設施,計算也包括網路,這就是為什麼我們做了Spectrum X,我們對Mellanox的收購以及重新發明AI網路的團隊帶來了巨大的革命。這使我們成為今天世界上最大的網路公司。AI的工作負載與經典資料庫處理和SQL處理如此不同。因此,顯然儲存也將發生革命。鍵值快取的概念,語義記憶體,有意義的記憶體,語義記憶體,以及AI使用鍵值快取的方式,顯然與IT系統使用SQL查詢的方式非常不同。所以有理由認為我們將不得不重新發明儲存系統。這就是Bluefield 4的全部意義。我對我們用Bluefield 4所做的工作真的很自豪。我的感覺是,我們很可能會成為世界上最大的儲存公司之一。不是因為我們要建構儲存,而是我們將與HP、Dell以及所有儲存供應商如VAST、DDN、WEKA合作去重新發明儲存。我的感覺是Bluefield 4就是一種開始,它有一個非常高性能的CPU Vera Rubin,能支援Bluefield 4儲存,Bluefield 4智能網路卡,我們在資料中心擁有的高性能CPU數量將會爆炸式增長。我不會感到驚訝,如果NVIDIA成為世界上最大的CPU製造商之一,因為我們把CPU放在所有這些不同的地方。但我認為儲存需要被重新發明。問題: 關於計算架構。現在我們的電腦,CPU、GPU都是馮·諾依曼式架構。這意味著我們有很大的記憶體頻寬。我認為功耗依賴於這種架構,尤其是在記憶體方面。未來我們還會使用相同的記憶體架構嗎,還是會有另一種記憶體架構?黃仁勳: 馮·諾依曼架構的美妙之處在於它的可程式設計性。程式設計抽象和可程式設計性堆疊已經非常完善。最終,建構晶片是昂貴的,晶片本身當然也是昂貴的。但IT行業最昂貴的部分是頂部的軟體層。頂部的行業成本要高得多。當你出售晶片時你只賣一次,但當你建構軟體時,你要永遠維護它。所以這種架構非常受益於世界生態系統。輕易取代它,我認為是一種可怕的浪費。更不用說架構一直在演進。它不像載入儲存那麼簡單。如果你看看架構,我們有高度流式導向的架構。我認為在經典電腦的框架內,我們已經大幅推進了架構。05 關於新架構問題: 你昨天在主題演講中說Vera Rubin已經全面投產,這是指你們已經處於驗證和測試後階段了嗎?你會擔心發生類似Blackwell那樣的過熱問題嗎?黃仁勳: 我們做的事情極其困難。從未有過這種規模的電腦擁有這麼多新晶片——6顆新晶片:Grace CPU、全新的Vera GPU、Rubin、CX-9 NVLink交換機、帶有CoPackage光學器件的Spectrum X,以及Bluefield 4。所有這些晶片都是全新的。我們已經收到這些晶片有一段時間了。我們有相當多的新技術,但我們已經盡最大努力降低風險,在其他方面進行了嘗試。儘管如此,我們在這裡嘗試做的事情極其困難。世界上只有一家公司能以我們的規模和速度做到這一點。我不想輕視我們正在做的事情,但我完全有信心我們會成功。問題: 所以它們仍在驗證階段?黃仁勳: 我們總是在驗證階段,在不斷改進軟體,但晶片已經穩定可以進入製造階段了。問題: 當涉及到進步時,NVIDIA最大的挑戰和限制因素是什麼?是製造嗎?是晶片尺寸?是頻寬和延遲?黃仁勳: 是的,但以上所有都是。我們用Vera Rubin做的一些事情讓我非常自豪。有人問了關於可插拔NVLink交換機的問題。想像一下,今天我們有Grace Blackwell 200或300,它有18個節點,72個GPU,還有NVLink 72,這是9個交換機托盤。如果任何電纜或任何交換機有問題,或者鏈路不夠穩定,甚至可能是隨著時間推移的半導體疲勞。當我們今天更換某些東西時,實際上會把整個機架拆下來,讓它歸零。那個價值300萬美元的機架從全速運轉到零,直到你更換NVLink或任何節點並使其恢復運行,它會一直停機,可能一停就是幾個小時。有了Vera Rubin,你可以直接拔出NVLink,系統繼續運行。如果你想更新NVLink交換機的軟體,你可以在執行階段更新軟體。這使我們能夠讓系統運行更長時間。如果你看一個有一百萬GPU的資料中心,你到處都會有故障,因為這些極其複雜的系統的性質就是如此。如果整個資料中心仍然以99.9%的速度運行,而不是下降幾個百分點,成本、總體成本差異是相當大的。所以我對此真的很自豪。我也為Vera Rubin具有功率平滑功能而自豪。當我們訓練這些模型時,所有GPU協調工作,這意味著在某個時間點它們都會尖峰開啟或都會尖峰關閉。由於系統中的電感,瞬時電流上升或下降真的非常顯著,可能高達25%。對於許多資料中心,他們要麼過度配置25%,這意味著你讓25%的電力閒置,或者你放入一整組電池來吸收衝擊。Vera Rubin通過系統設計和電子裝置就能讓功率平滑。現在它基本上可以讓資料中心一直以100%運行,這太棒了。然後保密計算,是第一個端到端保密計算的系統。所以我們可以在一個AI工廠中同時運行不同模型製造商的智慧財產權。所有這些都非常了不起。過去我們組裝一個節點需要兩個小時。你可以想像工人們需要多少專業知識來組裝它。工廠非常樂意這樣做,因為這個產品和汽車的價格相當,所以為什麼不應該像汽車一樣花兩個小時組裝呢?但現在組裝Vera Rubin的時間可以從兩個小時減少到五分鐘。這在我們的供應鏈中完全是變革性的。它沒有電纜,100%風液冷卻而不是80%液冷。所有這些關於Vera Rubin的不同特性,從晶片本身到軟體堆疊,到AI模型,在系統等級,在AI工廠等級,我們創新了大量,我對團隊超級超級自豪。06 關於自動駕駛和物理AI問題: 關於安全性,我對AlphaMayo印象深刻。它真的能做到L4/L5等級的自動駕駛嗎?黃仁勳: 首先,讓我向你解釋這項技術。目前部署在奔馳中的NVIDIA AV系統是世界上唯一擁有冗餘AV系統的系統,其中一個達到了世界級,它以經典方式設計,有很多人類先驗知識。是汽車的安全護欄。在其上,才有AlphaMayo。這是一個端到端的AI模型,負責進行推理。AlphaMayo經過訓練,駕駛能力非常強,因為它一直模仿司機來提高駕駛能力。我先解釋這個的原因是,如果你的AV安全系統非常好,如果你知道你永遠不會處於危險之中,那麼AI駕駛員的能力就會更快變得儘可能好。因為無論發生什麼,你永遠不會處於危險之中。也許它無法執行很多自動駕駛操作,但它會安全地退到保持在車道上或緩慢停下或駛向左車道或停靠路邊。它總會保護乘客。我解釋這個是因為我相信我們會很快達到L4。唯一的問題是營運域是什麼?它有多少能力?在什麼條件下它有信心駕駛?但AlphaMayo和NVIDIA Drive堆疊的這一創新確實相當革命性。這就是為什麼花了這麼長時間。但無論如何,我們會看看進展如何。這些系統的安全性至關重要。我們應該比那更謹慎。問題: 這是不是昨天Ola(奔馳總裁)談到他將在美國提供L2++的原因?黃仁勳: 是的。我也建議我們從L2++開始把它交到客戶手中,給他們充分的機會推動它的極限。問題: 關於人機協作團隊,L2++最讓我擔心的是接管切換,在機器駕駛員和人類駕駛員之間的切換。這被廣泛認為是一個幾乎不可能解決的問題。為了讓NVIDIA推進AlphaMayo,你們有什麼樣的團隊來確保安全?黃仁勳: 我認為你回答了自己的問題。答案是永遠不要有接管。是的。即使你不承諾L4,你也應該具備L4的能力,努力讓自動駕駛永遠不要有接管。當汽車面對一些它不知道如何做的事情時,比如也許倒庫時因為空間太窄不會啟動,人還是需要的。所以你人必須在車裡,但希望AlphaMayo的目標是不脫離接觸。問題: 關於Vera Rubin。你剛提到我們有6顆新晶片。我們如何與台積電合作以確保穩定的產能和及時交付?第二個問題是關於AlphaMayo公告的後續,你如何描述AlphaMayo和特斯拉FSD之間的關鍵區別?黃仁勳: 第一個問題的回答很嚴肅。我們已經與台積電合作了25年多,幾乎30年。我們的規劃部門在與兩家公司非常緊密地合作。所以為了讓六顆晶片全部投入生產,我們和他們每天都在相互更新資料。而且這些不是我們唯一的晶片,我們仍然有Grace Blackwell,Grace Blackwell將運送大量元件和系統。所以我們有GeForce,我們有RTX Pro,我們有各種系統,我們有Thor和Orin。我們正在建構各種不同的晶片。2026年會是我們與台積電的業務合作的大年。我們的規劃團隊非常緊密地在合作。我非常感激他們的支援。我知道他們工作非常努力,Vera Rubin非常具有挑戰性,因為所有晶片都採用最新的工藝技術。它甚至使用一種叫做CoPackage的新矽光子技術。這是第一款用上它的產品。你第二個問題的答案。特斯拉的FSD是世界級的產品。他們已經在它上面工作了相當長的時間。它不僅在里程數上世界頂級,而且在設計方式、訓練資料收集和策展、合成資料生成、所有模擬技術方面都是世界級的。當然,最新一代是端到端完全自動駕駛,意味著它只是一個端到端訓練的大型模型。Elon的AV系統在各個方面都是100%最先進的。我真的對這項技術印象深刻。我有Tesla,我在我們家就開它,它跑的非常好。AlphaMayo和Tesla有兩個不同的差異點。第一個是NVIDIA不製造自動駕駛汽車,我們為其他人製造完整的堆疊和技術來製造自動駕駛汽車。對於人形機器人,我們建構三台電腦:訓練電腦、模擬電腦,還有機器人電腦。在這裡,是自動駕駛汽車,我們在所有這些電腦上都有軟體堆疊。我們的客戶可以使用所有堆疊或只用其中一部分。我們與整個汽車行業合作,從特斯拉的訓練系統,到Waymo的車機,NVIDIA是其中的一部分。我們的系統真的相當普遍,因為我們是技術平台提供商。毫無疑問,在我看來,今天路上的10億輛汽車,在接下來的10年時間裡,其中數億輛將擁有出色的自主能力。所以這可能是未來十年增長最快的技術領域之一。所以我認為這是一個非常非常重要的領域。我們做的最後一件事是開源一切。所以如果客戶想使用我們訓練的模型,我們歡迎他們這樣做。如果他們想使用我們的模型技術,但自己訓練,我們甚至會幫助他們完成訓練。我們不是一家自動駕駛汽車公司。我們只想讓世界的自主產業成為可能。一切移動的東西都應該是自主的。問題: 我知道你對物理AI非常興奮。但當我在展廳嘗試機器人時,它們往往相當初級。你認為我們什麼時候會得到真正具有人類水平能力的機器人?黃仁勳: 今年。因為我知道技術發展有多快。一些極其困難的東西,精細運動技能極其困難。原因是製造手很難,電機技術很難。我們不只是使用眼睛,我們也使用觸覺。機器人只有眼睛,所以它需要有觸覺。所以這些精細運動技能很難開發,但我們正在該領域開發技術。我知道行業的其他部分也在這樣做。移動很難。但這正在取得令人難以置信的進展。所以我認為移動將是第一個被解決的。粗大關節和抓取將是第二個,第三個將是精細運動技能,這是按難度程度排序的。認知技能正在非常快速地發展,我們將有真正非常好的推理AI模型駐留在機器人內部。所以機器人將能夠非常快速地推理,它想知道的任何東西,可以利用雲中的AI獲得額外的知識。所以你會看到一些相當驚人的事情。然後我要說的另一件事是,這些AI模型本質上是以人為導向的。但不要忘記,當你是人形機器人時,當你坐在汽車裡時,你以某種方式體現了汽車。你能夠駕駛汽車,就像它是你的延伸。當你拿起網球拍時,你體現了網球拍。以某種方式你的手臂變長了。AI成為多重體現的能力。意味著我們訓練一個AI模型成為人形機器人,但事實證明它是一個完美的操縱器。它是一個完美的自動駕駛汽車,那一天可能也會到來。所以我認為未來幾年將會非常令人興奮。問題: 如果是這樣的話,我知道很多人會擔心失業。你對此的回應是什麼?黃仁勳: 我認為情況恰恰相反。擁有機器人將創造就業機會。原因是,第一,我們世界上有勞動力短缺,不是一兩千人,而是數千萬人。而且會變得更糟,因為人口正在下降。所以我們知道我們作為一個人口,將不再能夠維持我們想要擁有的經濟。所以我們需要有更多,如果你願意的話,AI移民來幫助我們在製造車間,做我們可能決定不再做的工作類型。我認為機器人革命將推動經濟。當經濟增長時,企業會僱用更多的人。有很多工作在很長一段時間內不會被AI取代。我們只需要經濟運行良好。我們需要通貨膨脹保持低位,這樣人們可以創造更多的工作。生活成本將變得更容易被負擔,所有這些都將隨AI而來。 (騰訊科技)
台積電的真正瓶頸
2025年底,台積電剛剛完成了2奈米環柵(GAA)電晶體的架構革新——這是自2011年FinFET問世以來電晶體結構最重大的變革。我們對此里程碑事件進行了廣泛報導,實至名歸。每片晶圓的生產裝置密集度將增加30%至50% ,這將推動一個持續多年的資本支出周期,SEMI預測到2027年,該周期將達到1560億美元。相關報導指出,台積電表示,2 奈米技術已如期於2025 年第四季開始量產。 N2 技術採用第一代奈米片(Nanosheet) 電晶體技術,提供全製程節點的效能及功耗進步,並行展低阻值重設導線層與超高效能金屬層間電容以持續進行2 奈米製程技術效能提升。台積電指出,N2 技術將成為業界在密度和能源效率上最為先進的半導體技術,N2 技術採用領先的奈米片電晶體結構,將提供全製程節點的效能及功耗的進步,以滿足節能運算日益增加的需求。 N2 及其衍生技術將因我們持續強化的策略,進一步擴大台積電的技術領先優勢。與3 奈米的N3E 製程相比,在相同功耗下台積電2 奈米速度增加10% 至15%;在相同速度下,功耗降低25% 至30%,同時晶片密度增加大於15%。台積電也將推出N2P 製程技術做為2 奈米家族的延伸,計畫2026 年下半年量產,支援智慧型手機和高效能運算應用。台積電2 奈米在高雄廠、新竹廠同步展開,而高雄廠為2 奈米生產的重中之重。台積電規劃在高雄建置5 座2 奈米晶圓廠,總投資金額逾1.5 兆新台幣,P1 廠已於2025 年底量產,P2 廠預計2026 年第二季量產,創造7,000 個高科技職缺,帶動高雄產業轉型與升級。報導同時指出,受惠AI需求大爆發,今年2奈米製程將大發威,半導體業新傳出,今年2奈米量產最大月產能將高達14萬片,比市場預估的10萬片更多,創新製程量產一年就達海量,直逼3奈米今年將放大到16萬片,顯見需求熱絡,3奈米製程量產超過三年,目前也呈現供不應求熱況。但大多數報導都忽略了一點:真正的瓶頸不再是電晶體密度,而是先進的封裝技術。輝達佔據了台積電CoWoS-L晶片產能的70%以上。博通旗下的超大規模資料中心巨頭——Google、蘋果、Meta、Anthropic、OpenAI、字節跳動——則爭奪剩餘的產能。即便擁有世界上最先進的2nm計算晶片,如果無法將其與HBM記憶體封裝在CoWoS中介層上,它們也只不過是昂貴的庫存積壓晶片而已。GAA轉型和CoWoS之爭是同一枚硬幣的兩面。理解這兩者對於在這個周期中定位至關重要。讓我們深入探討一下。GAA轉型,至關重要對於任何研究過器件物理的人來說,FinFET 的尺寸縮放問題是可以預見的。FinFET 實現了三柵極控制——將柵極環繞在垂直矽鰭的三個側面。在 7nm 和 5nm 工藝下,這種方法效果極佳。但當柵極長度小於 5nm 時,計算結果就會出現災難性的偏差。罪魁禍首是漏極感應勢壘降低(DIBL:drain-induced barrier lowering)。隨著溝道尺寸的縮小,漏極的電場會更深入地滲透到溝道區域,從而降低阻止電流在“關斷”狀態下流動的勢壘。在5nm以下,DIBL超過100mV/V——這意味著電晶體在應該處於關斷狀態時會像篩子一樣漏電。亞閾值擺幅也會從理想的60mV/decade下降到70-90mV/decade。我記得光子學領域也遇到過類似的擴展瓶頸——到了某個階段,你面對的不再是工程問題,而是熱力學問題。在Deco Lighting公司,我們最終意識到,觸及物理極限意味著需要重新思考架構,而不僅僅是最佳化現有方法。GAA奈米片通過將柵極包裹在水平堆疊的矽帶的四個側面來解決這個問題。TCAD模擬表明,與同等尺寸的FinFET相比, DIBL降低了65-83% 。這並非漸進式改進,而是靜電控制方面的一次飛躍式提升。FinFET 與 GAA 奈米片橫截面對比圖台積電的N2方案採用堆疊3-4層矽奈米片,每層厚度約為5nm,寬度為10-50nm,層間距為7-15nm。與三柵極結構相比,GAA的“自然長度”(決定靜電完整性的自然長度)大約縮短了30% ,這正是該架構能夠持續微縮的原因。從設計靈活性的角度來看,最令我興奮的是台積電的“NanoFlex”技術。同一晶片上可變寬度的奈米片突破了FinFET設計中量化寬度的限制。在同一晶片上,可以採用窄奈米片實現低功耗核心,也可以採用寬奈米片實現高性能核心。這才是真正的架構自由。奈米片之後的路線圖很明確:叉狀片(預計在 2028 年左右)在 n/p 器件之間引入介電壁以實現更小的間距,然後CFET (預計在 2032 年左右)將 nMOS 直接垂直堆疊在 pMOS 上。GAA轉型引入了4-5個全新的工藝模組,使製造流程延長了約20%。而這些步驟中的每一個都需要專用裝置。矽/矽鍺超晶格外延:建構交替排列的犧牲矽鍺層和矽溝道層,並實現奈米級厚度控制。這是應用材料公司憑藉其Centura Prime Epi平台所擅長的領域。內間隔層形成:這是最複雜的新模組。首先通過橫向各向同性刻蝕形成SiGe層凹槽,然後採用保形LPCVD沉積介電層,最後進行精確刻蝕回刻,形成9-10nm的內間隔層。月牙形間隔層輪廓可能導致TDDB可靠性失效。奈米片釋放蝕刻:在保留矽溝道的同時選擇性地去除 SiGe 需要大於 100:1 的選擇性。據行業分析師估計,Lam 在 5nm 以下選擇性蝕刻領域佔據約80% 的市場份額。他們的 Selis 和 Prevos 平台幾乎是不可替代的。替代金屬柵極:將高介電常數和高功函數金屬沉積到懸浮薄片之間的空間中,將原子層沉積(ALD)技術推向了極限。應用材料公司的IMS平台比競爭對手的產品實現了約1.5埃的等效氧化層厚度優勢。計量技術爆炸式增長: KLA 報告稱,與 FinFET 相比,GAA 驅動高端薄膜計量層增加 30% ,關鍵檢測層增加 50% 。應用材料公司直接量化了這一點:每10萬片晶圓/月開工的裝置收入,加上GAA和背面供電,從約60億美元增長到70億美元。這是與產量無關的結構性需求增長。CoWoS才是真正的制約因素大多數半導體行業報導都忽略了一個關鍵資訊:先進封裝能力(而非電晶體密度)已成為制約人工智慧晶片領先地位的關鍵因素。你可以擁有世界上最先進的2nm計算晶片,但如果不能將它們與HBM記憶體封裝在CoWoS中介層中,它們就只是昂貴的庫存矽片而已。讓我來解釋一下為什麼先進的封裝會成為瓶頸——這是大多數產品都忽略的“基礎”部分。光罩面積限制問題:單次極紫外光刻曝光只能在約 858 平方毫米的面積上進行圖案化(“光罩面積限制”)。NVIDIA 的 GB100 晶片面積已達 814 平方毫米——基本達到極限。要建構更大的系統,必須將多個晶片連接在一起。這就是封裝技術。中介層挑戰:CoWoS 將多個晶片放置在矽或有機中介層上,從而實現晶片間的超高密度布線。最初的 CoWoS-S 採用單片矽中介層,但矽在超過光罩尺寸的約 3.3 倍(約 2700 平方毫米)後會變得脆弱且易變形。因此,台積電開發了 CoWoS-L。熱膨脹係數不匹配的噩夢:不同材料受熱膨脹係數不同。當GPU晶片(矽)、LSI橋接晶片(矽)、有機中介層(聚合物)和基板(層壓板)粘合在一起,並在1400W功率下運行系統時,熱膨脹係數不匹配會導致翹曲、開裂和連接故障。這正是Blackwell處理器推遲到2024年第三季度至第四季度發佈的原因。HBM 整合複雜度:每個 HBM3e 堆疊包含 8-12 個 DRAM 晶片,這些晶片通過數千個矽通孔 (TSV) 連接,並以20-30 微米間距的微凸點進行鍵合。預計於 2026 年推出的 HBM4 將微凸點間距縮小至10 微米,並採用 2048 位介面。良率計算極其苛刻——數千個連接中只要有一個不良連接,整個封裝就會報廢。台積電CEO魏哲家證實:“供應仍然非常緊張,這種情況可能會持續到2025年,我希望2026年情況能夠有所緩解。”儘管2024年和2025年產能都翻了一番,但需求仍然超過供應。價格說明了一切:先進封裝的平均售價每年增長10-20% ,而邏輯晶圓的平均售價僅增長5%。台積電的封裝業務目前約佔其營收的7-9% ,利潤率接近公司平均水平(毛利率約為53%)。摩根士丹利的詳細分析揭示了資產配置層級:NVIDIA 預計在 CoWoS-L (Blackwell 雙晶片設計所需的變體)中擁有 70% 以上的份額,這創造了結構優勢,但如果台積電決定多元化發展,也會帶來集中風險。不過,從台灣媒體最新的報導可以看到,由於雲端AI 引領GPU/ASIC 需求上升, CoWoS(Chip-on-Wafer-on-Substrate) 先進封裝供不應求狀況加劇。為滿足強勁的AI 晶片需求,台積電正加速擴充CoWoS 產能。1、產能大幅上修:國內法人已上修台積電2026 年底CoWoS 產能預估14%,達到125Kwpm(千片/月),且預計2027 年底將進一步提升至170Kwpm。2、多元化發展與技術佈局:台積電的先進封裝技術正朝向多元化發展,除了CoWoS 的強勁需求外,SoIC(System-on-Integrated-Chips) 技術已獲得AMD MI300 等產品應用,NVIDIA、Broadcom 也預計在2027 年後匯入。此外,蘋果的A20 晶片預計將匯入WMCM(Wafer-level Multi-Chip Module),用於iPhone 18/ 折疊手機。3、新技術研發:台積電正在開發CoPoS(Chip-on-Package-on-Substrate) 技術,預計在2027年後匯入AI/HPC 相關晶片,目的在提升封裝面積利用率、生產效率並降低成本。據報導,台積電的先進封裝廠區廣泛分佈,包括龍潭(AP3)、台中(AP5)、竹南(AP6)、嘉義(AP7)、台南(AP8)等。其中,AP8 的擴產加速主要用於滿足CoWoS-L 的需求,而嘉義的AP7 則專注於SoIC 和WMCM。在美國亞利桑那州(Arizona)的AP9 和AP10 廠區,未來規劃亦將包含CoWoS、SoIC 及CoPoS 技術。晶片巨頭們轉型帶來的挑戰NVIDIA 的製程路線圖顯示,其戰略重點在於電源傳輸而非晶片密度。據報導,NVIDIA 並非採用台積電的 N2 基礎製程,而是成為 A16 製程的首家(也是最初唯一一家)客戶。A16 是台積電的 1.6nm 製程節點,採用 Super Power Rail 背面供電設計。瞭解了功耗問題後,這一切就說得通了。Blackwell Ultra 的TDP 為 1400W ,而 Rubin 的目標功耗預計為2300W 。在這樣的功耗水平下,正面供電會產生無法接受的 IR 壓降。A16 的超級電源軌將供電轉移到了晶圓背面。當所有人都在關注輝達時,博通已悄然打造了一個價值約600億至900億美元的定製AI加速器市場。該公司首席執行長陳福陽表示,這一市場最初僅由三家超大規模資料中心客戶支撐,目前已有更多客戶正在開發中。博通在定製人工智慧加速器市場佔據約70% 的市場份額,2024 財年人工智慧收入達到122 億美元(同比增長 220%)。超大規模資料中心的轉型已成定局。每家大型人工智慧公司都在通過定製晶片來規避對輝達的依賴——而博通則是他們首選的設計合作夥伴。根據《巴隆周刊》(Barron's)與其他外媒報導,隨著AI應用從模型訓練快速轉向大規模推理運算,全球晶片業在2026年迎來新一輪關鍵競爭期。各大晶片廠紛紛推出新一代AI硬體,力拚效能、能耗與成本優勢,長期由輝達主導的市場版圖,正面臨前所未有的挑戰。超微、博通與英特爾同步加碼佈局,使AI晶片市場正式進入“四強爭霸”時代。眼前輝達的市場龍頭地位仍舊相當穩固。今年市場焦點落在輝達即將全面推進的Vera Rubin架構。該平台結合新一代Rubin GPU並採用安謀架構的Vera CPU,主打超大上下文處理能力,特別針對影片生成、複雜程式碼與即時AI服務等推理需求設計。輝達另透過高達200億美元的Groq授權交易,補強低延遲推理技術,強化在即時AI市場的護城河。相較之下,超微今年的策略重點放在“開放標準”。超微即將部署的Helios機架級AI架構,可在單一機架中整合72顆MI450系列GPU,並採用與Meta共同開發的“Open Rack Wide”開放標準,吸引希望降低供應商繫結風險的雲端業者。甲骨文已承諾大規模採用Helios,而OpenAI也被視為重要早期客戶。若Helios在效能與能耗上能逼近輝達,同時保有架構彈性,超微有機會在資料中心市佔率上取得實質突破。博通則走出不同路線,專注於客制化AI晶片。博通為Google打造的TPU已證明此模式可行,今年更將服務擴展至Anthropic等外部客戶,相關訂單規模高達數百億美元。博通主打較低的總體持有成本,成為訓練兆級參數模型的替代選項。不過,隨著博通AI業務佔營收比重提高,市場也關注其毛利率是否承壓。英特爾也試圖重返AI戰場,計畫在今年推出名為“Crescent Island”的資料中心AI GPU,強調能源效率與推理效能,鎖定“每美元效能”作為差異化賣點。該晶片搭載160GB較低速記憶體,並延續消費型GPU的設計思路,顯示英特爾暫不正面與輝達、超微的高階HBM方案硬碰硬,而是試圖從成本與能耗上切入。整體而言,今年AI晶片競爭已從“算力比拚”轉向“效率、成本與架構選擇”的綜合戰。在我們看來,這些巨頭的爭奪戰背後,台積電是最大的贏家。他們在產能上面臨的挑戰也將前所未見。寫在最後FinFET向GAA的轉變標誌著半導體製造複雜性的一次代際轉折。每片晶圓啟動時,裝置強度增加30-50%,從而帶來與單片產量無關的結構性需求增長。但真正的洞見是:CoWoS 容量,而不是電晶體密度,決定了人工智慧半導體領域的贏家。NVIDIA預計將獲得超過70%的CoWoS-L配額,這為其帶來了結構性優勢。博通的超大規模資料中心帝國——如今包括Google、蘋果、Meta、Anthropic、OpenAI和字節跳動——則佔據了剩餘份額。GAA的過渡對裝置投資者至關重要,但台灣各地正在建設的先進封裝工廠將決定誰能真正大規模出貨AI晶片。然而,Blackwell 在2024年第三季度至第四季度的延期交付源於CoWoS-L良率問題(CTE不匹配)。隨著封裝複雜性的增加,未來的架構將面臨類似的風險。但台積電正在通過其路線圖,給大家帶來更多保障。此外,由於台積電CoWoS 產能吃緊,且CSP(雲端服務供應商)考量分散業務風險,委外封測代工(OSAT) 業者正成為此波AI 封測需求擴張的第二波成長動能。據介紹,OSAT 端的CoWoS 擴產將在2026 年進入成長加速期。例如,日月光投控的先進封裝產能預計將由2025 年底的5 Kwpm,快速成長至2026 年底的20 Kwpm。此外,為最佳化AI 晶片的整體擁有成本,並應對晶片尺寸不斷增長的趨勢,OSAT 業者正積極發展面板級封裝。由於圓形中介層在尺寸超過9.5x 光罩大小時經濟效益大幅縮減,OSAT 廠商傾向採用大尺寸面板封裝方案,以追求生產效益最大化,此趨勢將帶來優越的成本效益比。 (半導體行業觀察)
【CES 2026】首款HBM4 GPU,全面投產
輝達周一表示,其下一代 Rubin AI 晶片已“全面投產”,並將於 2026 年下半年上市。同時,該公司還公佈了備受期待的 Blackwell 系列繼任者的更多細節。“我們必須每年都推進計算技術的進步,一年也不能落後,” 輝達首席執行長黃仁勳在 CES 2026 電子貿易展期間的主題演講中表示。魯賓發表此番言論之際,人們越來越擔心會出現“人工智慧泡沫”,因為人們越來越質疑大規模人工智慧基礎設施建設還能持續多久。這家晶片巨頭通常會在加州聖何塞舉行的 GTC 開發者大會上公佈其人工智慧晶片的最新進展,今年的 GTC 大會將於 3 月 16 日至 19 日舉行。輝達在2025年3月的GTC大會上預覽了Vera CPU和Rubin GPU,並表示Vera-Rubin晶片組將比其前代產品Grace-Blackwell提供更出色的AI訓練和推理性能。推理是指使用訓練好的AI模型來生成內容或執行任務。在周一的發佈會上,黃仁勳公佈了Rubin系列產品的更多細節。Rubin GPU的推理計算性能是Blackwell的五倍,訓練計算性能是Blackwell的3.5倍。與Blackwell相比,新一代晶片還能降低訓練和推理成本,推理令牌成本最多可降低10倍。Rubin 架構包含 3360 億個電晶體,在處理 NVFP4 資料時可提供 50 petaflops 的性能。相比之下,Nvidia 上一代 GPU 架構 Blackwell 的性能最高為 10 petaflops。同時,Rubin 的訓練速度提升了 250%,達到 35 petaflops。晶片的部分計算能力由一個名為 Transformer Engine 的模組提供,該模組也隨 Blackwell 一起發佈。據輝達稱,魯賓的 Transformer Engine 基於一種更新的設計,並具有一項名為硬體加速自適應壓縮的性能提升功能。壓縮檔案可以減少其包含的位元數,從而減少 AI 模型需要處理的資料量,進而加快處理速度。輝達首席執行長黃仁勳表示:“Rubin 的問世恰逢其時,因為人工智慧的訓練和推理計算需求正呈爆炸式增長。憑藉我們每年推出新一代人工智慧超級電腦的節奏,以及六款全新晶片的深度協同設計,Rubin 的推出標誌著我們向人工智慧的下一個前沿領域邁出了巨大的一步。”據輝達稱,Rubin 還將成為首款整合 HBM4 記憶體晶片的 GPU,其資料傳輸速度高達每秒 22 TB,比 Blackwell 有了顯著提升。該公司表示,Rubin 系列晶片已經“全面投產”,並將於今年下半年提高產量。微軟 Azure 和輝達支援的雲服務提供商 CoreWeave 將成為首批在 2026 年下半年提供由 Rubin 提供支援的雲端運算服務的公司之一。在周日的一次媒體簡報會上,輝達高級總監迪翁·哈里斯表示,提前推出 Rubin 產品是因為這些晶片“在展示實際準備情況方面達到了一些非常關鍵的里程碑”,並補充說,該公司正在努力使生態系統做好準備,以採用 Vera-Rubin 架構。“鑑於我們目前的準備情況,以及市場對 Vera-Rubin 的熱情,我們認為這是一個絕佳的機會,可以在 CES 上推出這款產品,”哈里斯說。然而,比預期更早發佈的 Rubin 一代晶片並未給市場留下深刻印象,輝達股價在周一盤後交易中下跌 0.13%,此前收於 188.12 美元。黃仁勳身著一件閃亮的黑色皮夾克,這是他標誌性皮夾克的改良版,在拉斯維加斯BleauLive劇院向3000名座無虛席的聽眾發表了主題演講 。現場氣氛熱烈——這位CEO一出場就受到了歡呼、掌聲和觀眾用手機拍照的熱烈歡迎——這充分證明了這家公司如彗星般迅速崛起,如今它已被視為人工智慧時代最重要的風向標。首席執行長此前表示,即使沒有中國或其他亞洲市場,該公司預計到 2026 年,其最先進的 Blackwell AI 晶片和 Rubin 的“早期產能提升”也將帶來5000 億美元的收入。與此同時,黃仁勳認為人工智慧的未來將主要體現在物理世界中。在CES 2026正式開幕前一天,也就是周一的場外活動中,輝達宣佈與多家製造商、機器人製造商和領先的汽車製造商達成合作,其中包括比亞迪、LG電子和波士頓動力公司。黃仁勳表示:“機器人領域的 ChatGPT 時刻已經到來。物理人工智慧的突破——能夠理解現實世界、推理和規劃行動的模型——正在解鎖全新的應用。”他指的是開啟生成式人工智慧熱潮的聊天機器人 ChatGPT。輝達發佈Vera Rubin NVL72人工智慧超級電腦在2026年國際消費電子展(CES)上,人工智慧無處不在,而輝達GPU則是不斷擴展的人工智慧領域的核心。今天,在CES主題演講中,輝達首席執行長黃仁勳分享了公司將如何繼續引領人工智慧革命的計畫,因為這項技術的應用範圍將遠遠超出聊天機器人,擴展到機器人、自動駕駛汽車以及更廣泛的物理世界。首先,黃仁勳正式發佈了輝達下一代AI資料中心機架級架構Vera Rubin。Rubin是輝達所謂的“極致協同設計”的成果,它由六種晶片組成:Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4資料處理單元和Spectrum-6乙太網路交換機。這些元件共同構成了Vera Rubin NVL72機架。對人工智慧計算的需求永無止境,而每款 Rubin GPU 都承諾為這一代產品提供更強大的計算能力:NVFP4 資料類型的推理性能高達 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 訓練性能高達 35 PFLOPS,是 Blackwell 的 3.5 倍。為了滿足如此龐大的計算資源需求,每款 Rubin GPU 都配備了 8 個 HBM4 視訊記憶體堆疊,提供 288GB 的容量和 22 TB/s 的頻寬。每個GPU的計算能力只是人工智慧資料中心的一個組成部分。隨著領先的大型語言模型從啟動所有參數以生成給定輸出詞元的密集架構,轉向每個詞元僅啟動部分可用參數的專家混合(MoE)架構,這些模型的擴展效率得以相對提高。然而,模型內部專家之間的通訊需要大量的節點間頻寬。Vera Rubin推出用於縱向擴展網路的NVLink 6,將每個GPU的交換矩陣頻寬提升至3.6 TB/s(雙向)。每個NVLink 6交換機擁有28 TB/s的頻寬,每個Vera Rubin NVL72機架配備9個這樣的交換機,總縱向擴展頻寬可達260 TB/s。Nvidia Vera CPU 採用 88 個定製的 Olympus Arm 核心,並配備 Nvidia 所謂的“空間多線程”技術,可同時運行多達 176 個線程。用於將 Vera CPU 與 Rubin GPU 連接起來的 NVLink C2C 互連頻寬翻倍,達到 1.8 TB/s。每個 Vera CPU 可定址高達 1.5 TB 的 SOCAMM LPDDR5X 記憶體,記憶體頻寬高達 1.2 TB/s。為了將 Vera Rubin NVL72 機架擴展為每個包含八個機架的 DGX SuperPod,Nvidia 推出了兩款採用 Spectrum-6 晶片的 Spectrum-X 乙太網路交換機,這兩款交換機均整合了光模組。每顆 Spectrum-6 晶片可提供 102.4 Tb/s 的頻寬,Nvidia 將其應用於兩款交換機中。更多產品同步發佈NVIDIA正式發佈了面向AI資料中心的新型CPU“Vera”和GPU“Rubin”。雖然此前已有相關計畫公佈,但首席執行長黃仁勳於1月5日在拉斯維加斯的主題演講中正式揭曉了這些產品。此外,該公司還發佈了高速網路產品,例如 NVLink 6 交換機(允許使用 Vera 和 Rubin 在機架內進行擴展)、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機(允許在資料中心內擴展此類機架)。Rubin是當前一代GPU“Blackwell”(NVIDIA B300/B200/B100)的繼任者,採用了全新的GPU架構和HBM4視訊記憶體。根據NVFP4的計算,Blackwell的AI推理和訓練性能為10 PFLOPS,而Rubin的推理性能達到50 PFLOPS,速度提升了5倍;訓練性能達到35 PFLOPS,速度提升了3.5倍。NVIDIA 正式宣佈 Vera 是一款採用 Arm 架構的 CPU,配備 88 個 NVIDIA 定製設計的 Olympus 核心;Rubin 是一款面向 AI 資料中心的 GPU,將成為當前 Blackwell (B300/B200/B100) 產品的繼任者。這款以美國著名科學家庫珀·魯賓 (Cooper Rubin) 命名的 Rubin GPU,採用 Rubin 架構,相比 Blackwell 架構,能夠實現更高效的 AI 計算。它還配備了全新的 HBM4 記憶體技術、第六代 NVLink、機密計算功能和 RAS 引擎,從而提升了平台級的性能和安全性。通過這些改進,在使用 NVIDIA 的高級推理模型和實現智能體 AI 的 MoE(專家混合)模型時,推理的每個令牌成本最多可以降低十分之一,訓練的每個令牌成本最多可以降低四分之一。與上一代 Blackwell(可能是 GB200 中搭載的 B200)相比,Rubin 的 NVFP4 推理性能提升至 50 PFLOPS,性能提升 5 倍;訓練性能提升至 35 PFLOPS,性能提升 3.5 倍(Blackwell 的這兩項均為 10 PFLOPS)。HBM4 的記憶體頻寬為 22 TB/s,是 Blackwell 的 2.8 倍;每個 GPU 的 NVLink 頻寬為 3.6 TB/s,性能提升兩倍。另一方面,Vera 是一款搭載 88 個 NVIDIA 定製設計的 Olympus 核心的 Arm CPU。它支援 NVIDIA 的專有虛擬多線程 (SMT) 技術“NVIDIA Spatial Multi-threading”,啟用後可作為 176 線程 CPU 使用。它可配備 1.5TB 的 LPDDR5X 記憶體(容量是上一代 Grace 的三倍),基於資料中心記憶體模組標準“SOCAMM”,記憶體頻寬為 1.2TB/s。與 Blackwell 系列一樣,Vera Rubin 每個模組將包含一個 Vera 處理器和兩個 Rubin 處理器。此外,還將推出 Vera Rubin NVL72,這是一款可擴展解決方案,可將 36 個 Vera Rubin 處理器整合到單個機架中。Vera Rubin NVL72 配備了支援第六代 NVLink 協議的 NVLink 6 交換機,單個機架可容納 36 個 Vera CPU 和 72 個 Rubin GPU。此外,NVIDIA 還計畫推出“HGX Rubin NVL8”,這是一款面向 OEM 廠商的設計,將八個 Rubin 模組整合在一台伺服器中;以及“DGX Rubin NVL8”,這是一款專為 x86 處理器設計的伺服器。客戶可以選擇將 Rubin 與 NVIDIA 的 Arm CPU 或 x86 CPU 搭配使用。同時,NVIDIA 還發佈了用於橫向擴展的高速網路新產品,包括 ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 乙太網路交換機。這些產品可以與前文提到的 Vera Rubin NVL72 和 HGX Rubin NVL8 配合使用,實現橫向擴展。該公司還發佈了“DGX SuperPOD with DGX Vera Rubin NVL72”,這是一款由八塊 Vera Rubin NVL72 GPU 組成的擴展型超級電腦,可作為人工智慧超級電腦的參考設計。通過利用 CUDA 等軟體解決方案,一台超級電腦即可使用 256 個 Vera CPU 和 512 個 Rubin GPU。據該公司稱,Vera 和 Rubin 計畫於 2026 年下半年發佈,並將通過四大雲服務提供商(AWS、Google雲、微軟 Azure 和 Oracle 雲基礎設施)以及戴爾科技、HPE、聯想和超微等原始裝置製造商 (OEM) 提供。該公司解釋說,OpenAI、Anthropic 和 Meta 等人工智慧模型開發公司已經宣佈了他們的採用計畫。輝達五年來首次“缺席”CES展會整個行業正陷入零部件短缺的困境,輝達剛剛在X平台上宣佈,其2026年CES主題演講將“不會發佈任何新的GPU”,這無疑給新PC組裝商們僅存的一點希望潑了一盆冷水。這打破了輝達連續五年在CES上發佈新款GPU(無論是桌面級還是移動級)的慣例;這一次,將不會有任何新的硬體產品問世。此次發佈會的大部分內容可能都會聚焦於人工智慧領域的最新進展。自2021年以來,微軟每年都會在CES上展示其最新的晶片產品。最近,RTX 50系列顯示卡在拉斯維加斯標誌性的CES展廳首次亮相,並且一直有傳言稱RTX 50 Super系列顯示卡也將在CES 2026上發佈。雖然官方從未正式確認,但DRAM短缺可能導致了此次發佈計畫的擱淺。否則,輝達本可以在CES 2024上發佈RTX 40 Super系列顯示卡,而這距離首款Ada Lovelace顯示卡發佈僅一年之隔。此外,該公司最新的Blackwell GPU採用的是GDDR7視訊記憶體,而GDDR7視訊記憶體的生產難度更高。情況已經惡化到如此地步,甚至有傳言稱輝達將重啟RTX 3060的生產,因為該顯示卡採用的是GDDR6視訊記憶體,並且採用的是三星較老的8nm工藝製造。記憶體供應是問題的關鍵所在。如果背後的工廠完全癱瘓,輝達就無法發佈新的GPU。全球只有三家公司——美光、SK海力士和三星——能夠生產尖端DRAM,而且它們都樂於將產品賣給AI客戶以獲取更高的利潤。對通用人工智慧(AGI)的渴求促使像OpenAI這樣的公司制定了突破性的計算目標,這些目標遠遠超出了我們現有供應鏈的承載能力。有些人可能會疑惑,為什麼政府不介入幫助消費者?監管市場難道不是他們的職責嗎?不幸的是,地緣政治因素使情況更加複雜,因為前沿人工智慧代表著另一場軍備競賽,而華盛頓希望保持對中國的領先優勢。歸根結底,不會有救星出現。就像2014年的記憶體危機和過去十年間各種GPU短缺一樣,我們只能等到人工智慧熱潮停滯不前才能迎來轉機。目前,輝達顯示卡的價格尚未上漲,所以這或許是我們重返黃牛倒賣時代的最後時刻。不過,社區裡有些人,比如藍寶石的公關經理,仍然抱有希望,相信這場風暴最終能夠過去。 (半導體行業觀察)
【CES 2026】黃仁勳:Vera Rubin 已進入生產,NVIDIA 押注 2026 下半年新一代 AI 平台
一、“已在生產、按期交付”:這次 NVIDIA 在強調什麼黃仁勳在拉斯維加斯 CES 的台上,把一句話說得很直白:Rubin 平台“在生產中”,而且客戶很快就能開始試用,並把時間窗錨定到 2026 年下半年。這種表述的價值,不在於多了一個新名字,而在於它等於在公開場合給路線圖打了一個“里程碑戳”。原因也不難理解。上一代 Blackwell 曾出現過工程與量產節奏上的波折,市場對“下一代是否會再被拖慢”天然敏感。Wired 提到,“full production”這類表述本身並沒有統一、嚴格的行業定義,但分析師往往會把它當成對投資者的訊號:項目在關鍵節點上沒有掉鏈子。與此同時,外部需求確實在推著 NVIDIA 必須更早、更明確地給出交付預期。Bloomberg 的報導強調了“客戶將很快能夠試用”的說法,背後反映的是雲廠商、AI 資料中心營運商對下一代平台匯入節奏的迫切。二、Rubin 不是一顆晶片:NVIDIA 把“六件套”當作產品在 NVIDIA 的敘事裡,Rubin 不再是“某一顆 GPU”,而是一個極端協同設計的六晶片平台。官方新聞稿與 NVIDIA 博文把這套組合列得很清楚:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch。這一套“六件套”的指向,是把資料中心裡原本分散的計算、互連、網路、安全與加速部件,做成可重複交付、可規模化部署的系統工程。你買到的不是“更快的卡”,而是更接近“可直接拼裝成 AI 工廠”的平台底座。Wired 也把這種轉變描述為:NVIDIA 正在把自己從晶片供應商進一步推向“AI 系統提供商”。對讀者來說,理解這裡的關鍵,是不要被命名繞暈:Vera 是 CPU,Rubin 是 GPU,它們與 NVLink、網路卡、DPU、交換晶片一起,被 NVIDIA 當成一個“從機櫃到機房”的系統方案賣給合作夥伴,再由合作夥伴賣給終端客戶。三、性能與成本口徑:那些是官方宣稱,那些需要謹慎理解CES 的舞台天然需要“高能句”。The Verge 總結了 NVIDIA 在演講中最吸睛的幾組口徑:Rubin GPU 的訓練性能相對 Blackwell 可達 5 倍;在某些 “mixture of experts(MoE)” 模型上,整套 Vera Rubin 架構能用約四分之一的 GPU完成訓練,同時把 token 成本降到約七分之一。Wired 則提到 NVIDIA 的另一種表達方式:AI 運行成本可降到 Blackwell 的十分之一量級,並同樣強調“用更少的晶片訓練更大的模型”。這些話可以引用,但不能照單全收。原因不是懷疑其真假,而是它們幾乎都隱含了前提:比較基線是什麼(Blackwell 的那種配置:單卡、HGX、還是 NVL 機櫃級系統);工作負載是什麼(訓練、推理、還是特定 MoE 架構/特定精度);系統瓶頸在那裡(算力、視訊記憶體頻寬、互連、網路、儲存、軟體棧成熟度)。換句話說,這些“倍數級提升”是 NVIDIA 在“整機視角”下給出的系統宣稱,而不是一顆晶片的裸性能。NVIDIA 自己在新聞稿裡也把重點放在“極端協同設計”“降低訓練時間與 token 成本”這種系統指標上。更值得寫清楚的一點是:這些指標的意義,正從“更快”轉向“更便宜”。當大模型應用開始從訓練走向海量推理、從實驗走向規模化部署,客戶最關心的不再只是峰值吞吐,而是每個 token 的成本、每瓦性能、以及在真實資料中心裡“擴起來是否順”。這也是為什麼 NVIDIA 在 CES 上把“成本口徑”放到了和“性能口徑”同等的位置。四、從機櫃到“AI工廠”:NVL72 這類系統化交付意味著什麼如果說“六件套”是概念,那麼 Vera Rubin NVL72 就是把概念變成交付形態的樣板。NVIDIA 的產品頁把 NVL72 定義為機櫃級 AI 超級電腦:72 塊 Rubin GPU + 36 顆 Vera CPU,並配套 ConnectX-9、BlueField-4、NVLink 6,以及面向外部擴展的 InfiniBand 與乙太網路方案。機櫃級方案最大的好處,是把資料中心的複雜度從“現場工程”變成“工廠化裝配”。Barron’s 提到,Rubin 的伺服器系統會更模組化、減少線纜,目標是讓裝配與維護更快。這類變化看似“工程細節”,但對大規模部署來說極其關鍵:裝得更快,意味著新機房上線周期更短;維護更像換模組,意味著停機時間更可控;系統化交付越成熟,越容易複製到更多機房與更多地區。更“硬核”的細節也在浮出水面。CRN 報導中引用了 NVIDIA 對 NVL72 的參數描述:整櫃 HBM4 容量可達 20.7TB,並給出了 LPDDR5x 容量、HBM4 頻寬與互連頻寬等指標,用來強化“系統頻寬”是這一代的核心敘事。Tom’s Hardware 則進一步提到 Rubin GPU 的封裝與 HBM4 配置(如每個封裝的 HBM4 容量與頻寬口徑),同樣指向“為了喂飽算力,視訊記憶體與頻寬在同步升級”。當 NVL72 變成主打形態,NVIDIA 其實在把競爭拉到更高維度:不是你能不能做出一顆晶片,而是你能不能把晶片、互連、網路、安全、軟體一起打包成“可落地、可維運、可擴張”的資料中心機器。五、競爭線:自研晶片、供應鏈與“按期交付”的資本市場含義NVIDIA 當然不是唯一想吃下 AI 資料中心的人。雲廠商在推進自研晶片,晶片創業公司與傳統半導體公司也在尋找突破口。Wired 在報導裡提到,在這種競爭壓力下,NVIDIA 更需要向外界證明兩件事:一是路線圖清晰,二是交付節奏可靠。因此,“已在生產、下半年交付”不僅是工程進度的匯報,也是資本市場溝通的一部分——它把不確定性從“會不會來”收斂到“什麼時候規模化、以什麼形態規模化”。Bloomberg Law 的轉述提到,黃仁勳表示六顆晶片已從製造夥伴處返回,並通過了一些里程碑測試,暗示項目正沿著預定軌道推進。但真正決定 Rubin 能不能延續 NVIDIA 的優勢,仍然取決於更具體、也更難在發佈會上講清的變數:供應鏈與產能爬坡:先進製程、先進封裝與高頻寬記憶體的任何一個環節都可能成為節奏瓶頸;軟體棧與生態遷移:平台化交付意味著客戶不僅換硬體,還要評估相容性與維運體系;Wired 提到 NVIDIA 與 Red Hat 等合作,也可被視為在補齊“平台落地”的軟體側能力。客戶匯入速度:報導提及微軟與 CoreWeave 等潛在早期採用者與資料中心計畫,這類客戶的匯入節奏往往會成為“新平台能否滾起來”的風向標。 (視界的剖析)
高盛:800伏特革命:Nvidia如何重塑AI資料中心的未來能源版圖
市場花了三年時間才算清楚這個永不滿足的 AI 資本開支黑洞——尤其是為了阻止中國贏得 AI 戰爭,未來五年至少需要 5 兆美元的資金投入;而這一認知幾乎危險地逼近了戳破 AI 泡沫的邊緣。正當華爾街剛開始適應那個需要填補的巨額 AI 資金缺口之際,這個缺口眼看還要進一步擴大。10 月,輝達宣佈了十多家合作夥伴,著手讓資料中心行業為 800 伏直流(DC)供電架構和 1MW 機櫃功率密度做好準備——這將是一次革命性的轉變,取代傳統的 415 伏交流(AC)供電架構。這家 GPU 巨頭在 10 月中旬表示,將公佈 Vera Rubin NVL144、MGX 代開放架構機櫃伺服器的規格。公司還計畫詳述對輝達 Kyber 系統的生態支援;該系統連接 576 顆 Rubin Ultra GPU,旨在滿足不斷增長的推理需求。作為回應,約 20 家行業合作夥伴正展示新的矽方案、元件、電力系統,以及對輝達最新 800 伏直流(VDC)機櫃系統與電力架構的支援,以支撐 Kyber 機櫃架構。輝達表示:“從傳統 415 或 480 伏交流三相系統遷移到 800VDC 基礎設施,可提供更強的可擴展性、更高的能效、更低的材料使用量,以及更高的資料中心性能容量。使用 800VDC,在相同銅材條件下可傳輸超過 150% 的電力,從而無需用 200 公斤的銅母排為單個機櫃供電。”當然,這也意味著一筆巨額升級帳單即將到來。據 DataCenter Dynamics 報導,CoreWeave、Lambda、Nebius、Oracle Cloud Infrastructure 和 Together AI 等公司都在按 800 伏資料中心進行設計。輝達指出,富士康在台灣的 40MW “Kaohsiung-1” 資料中心也在使用 800VDC。此外,維諦技術(Vertiv)發佈了其 800VDC MGX 參考架構,結合了電力與製冷基礎設施架構。HPE 也宣佈將為 Kyber 提供產品支援。輝達補充稱,新的 Vera Rubin NVL144 機櫃設計具備 45°C(113°F)液冷、新的液冷母排以實現更高性能,以及 20 倍的儲能來保持供電穩定。中央印刷電路板中背板取代傳統的線纜連接,實現更快的組裝與更易維護。Kyber——輝達 Oberon 的繼任者——將在 2027 年前後容納 576 顆 Rubin Ultra GPU。該系統包含 18 個計算刀片並垂直旋轉放置,“像書架上的書一樣”。為輝達轉向 800VDC 提供矽方案的廠商包括 Analog Devices、AOS、EPC、Infineon、Innoscience、MPS、Navitas、onsemi、Power Integrations、Renesas、Richtek、ROHM、STMicroelectronics 和 Texas Instruments。多家晶片供應商指出,800VDC 需要更換電源晶片與電源供應器(PSU),其中不少廠商強調了氮化鎵的能力。AOE 表示:“這種範式轉變需要先進的功率半導體,尤其是碳化矽(SiC)和氮化鎵(GaN),以在更高電壓與頻率下實現最高效率。”參與該項目的電力系統元件供應商包括 BizLink、台達(Delta)、Flex、GE Vernova、Lead Wealth、光寶(LITEON)和 Megmeet。電力系統供應商發佈了新的電源機架(power shelves)、液冷母排、儲能系統與互連方案,以滿足輝達新系統的需求。資料中心電力系統供應商包括 ABB、Eaton、GE Vernova、Heron Power、日立能源(Hitachi Energy)、三菱電機、施耐德電氣、西門子和維諦技術(Vertiv)。多家廠商已宣佈新的 800VDC 架構參考設計,使營運商能夠為未來的 1MW 機櫃做準備。部分營運商正在考慮提供“側車(side-car)”機櫃,放置在電腦櫃兩側,提供所需的供電與製冷。施耐德電氣資料中心 CTO Jim Simonelli 表示:“隨著計算密度提升,轉向 800VDC 是自然演進。施耐德電氣致力於幫助客戶安全、可靠地完成這一過渡。我們的專長在於理解從電網到伺服器的完整電力生態系統,並設計能夠無縫整合、性能可預測且運行安全的解決方案。”可以理解的是,Simonelli 對這場變革欣喜若狂:這意味著隨著 AI 的首個重大升級周期啟動,AI 領域將需要向他的公司訂購數百萬甚至數十億的新裝置。而那些需要為此買單的人,顯然不會那麼高興。這也是為什麼在高盛最近的一份研究報告(nlg.news 可下載)中,該行資料中心分析師 Daniela Costa 寫道,近期投資者圍繞資料中心資本開支(capex)的討論,已轉向輝達提出的 800VDC 架構,以及資本貨物類股中誰將成為贏家和輸家,當然還有這筆帳單到底會有多大。據 Costa 稱,AI 資料中心採用 800VDC 架構是一場由 AI 工作負載不斷攀升的電力需求與營運挑戰驅動的根本性轉變。此次遷移的首要原因,是為了高效支援現代 AI 機櫃前所未有的功率密度——其規模正從每櫃數十千瓦提升到遠超 1 兆瓦,超出了傳統 54V 或 415/480VAC 系統的能力範圍。輝達預計,從長期看,其 800VDC 架構可通過效率、可靠性和系統架構的改進,將總體擁有成本(TCO)最多降低 30%,這也與更低的裝置維護成本相關(當然,短期內這將是另一道重大的支出門檻)。輝達預計,向 800VDC 資料中心的過渡將與其計畫於 2027 年推出的 Kyber 機櫃架構部署同步。關於 2028 年以後可採用輝達 VDC800 運行的資料中心佔比,行業記憶體在很大分歧。例如,在高盛第 17 屆工業周上,Legrand 表示他們預計向更高電壓的轉變將提升每 MW 的收入潛力(從傳統資料中心的 200 萬歐元/MW 提升到可能的 300 萬歐元/MW),但同時指出即便到 2030 年預測值(2030E),超過 300kW 的機櫃也應仍屬小眾;目前仍有 3/4 的機櫃低於 10kW。然而,高盛近期還主持了一場關於 AIDC 供電的專家電話會議,其中提到的預期是:800VDC 架構可能成為主流,覆蓋 80–90% 的新建資料中心。無論採用程度如何,這一技術轉變都意味著部分資料中心的預算可能會被重新分配到與當今架構顯著不同的產品類型上,從而對投資者產生潛在影響。因此,Costa 的目的在於向投資者闡明這些影響;儘管這些影響在未來兩年內不太可能推動公司的預測發生變化,但很快就會開始對估值產生影響。以下摘錄自高盛報告,概述該行對即將到來的關鍵技術變革及其影響的主要觀察。向800VDC配電轉型:800VDC架構從根本上改變了AI資料中心的供電方式,使傳統的AC PDU和AC UPS系統在很大程度上變得不再必要。這類基礎設施需要更精簡的供電路徑,將電力轉換集中化,並在設施層面整合電池儲能。與由單體UPS為特定機櫃或分區提供備用電力不同,800VDC架構採用設施級電池儲能系統。這些大規模電池系統負責管理電力波動、在停電時提供短時支撐電力,並確保整個資料中心的電網穩定性。這可將AC PDU機櫃需求降低多達75%,並支援兆瓦級機櫃功率密度。根據高盛第17屆年度工業周管理層評論,ABB目前在中壓直流UPS(MV DC UPS)系統中佔據100%的份額。隨著資料中心轉向在中壓側採用集中式備電系統,該細分領域預計將變得愈發重要;而施耐德、羅格朗和ABB目前在AC PDU與AC UPS方面已有佈局。Sidecar(側掛模組)是現有資料中心改造的啟動關鍵:在VDC800首輪落地階段(2025–2027),Sidecar將作為過渡模組部署,在完全原生的直流機房上線前發揮作用。它們掛接在兆瓦級機櫃上,將輸入的交流電轉換為800VDC,並提供整合的短時儲能以穩定GPU負載尖峰。該設計消除了對傳統AC PDU和UPS系統的需求,同時使機櫃功率可擴展至1.2MW。施耐德是這些Sidecar的關鍵供應商,明確瞄準帶整合儲能、最高1.2MW的機櫃。這些Sidecar包含DC-DC變換器,ABB也在我們的會議上提到,在該新架構下這類裝置將出現強勁需求。NVIDIA認為,為最大化效率,800VDC資料中心最終形態中還將配備固態變壓器;不過高盛覆蓋的廠商目前均未生產該產品,儘管施耐德和ABB表示正在積極在該領域創新。銅用量降低:在800V下電流需求更低,可使銅質量減少多達45%。同等尺寸導體在800VDC下可較415VAC承載約高出157%的功率,從根本上改變電纜與母線槽的經濟性。這意味著系統將從四線制交流轉向三線制直流(POS/RTN/PE),降低導體與連接器複雜度。由於在相同功率下電流更小,可採用更細的電纜與更小的母排——Prysmian、耐克森(Nexans)、羅格朗和施耐德在資料中心電纜與母排方面有重要敞口。儘管最佳化後,電纜與母線槽仍是800VDC配電不可或缺的組成部分。此外,一些公司指出,儘管此類裝置的用量需求降低,但對質量的要求更高,從而推升ASP;隨著需求轉向直流母線槽、直流開關裝置及專用電纜(尤其是液冷電纜),單位MW的內容價值上升。儘管不用於資料中心應用,耐克森生產液冷超導電纜;Prysmian正在開發直流冷卻解決方案以滿足快充需求;NKT也在研發超導電纜。此外,ABB、施耐德和西門子供應直流開關裝置,而大多數電氣廠商供應直流母線槽。向液冷的決定性轉向:當機櫃功率從數十kW提升至最高1.2MW,這一功率密度會產生前所未有的熱量,傳統風冷系統越來越難以高效散熱。風冷在應對AI與現代計算不斷提升的散熱與功率需求方面表現不足,從而推動行業決定性轉向液冷,並採用兆瓦級冷卻液分配單元(CDU)。在高盛覆蓋範圍內,施耐德通過其Motivair資產在液冷方面敞口最大;阿法拉伐(Alfa Laval)也通過協作獲得間接敞口,相關系統中還包括Vertiv等液冷方案提供商、超大規模雲廠商以及承包商。Carel也提供控製器、加濕系統與感測器,廣泛應用於資料中心液冷及傳統製冷系統。保護與安全系統重構:800VDC架構簡化了配電方式,不再通過大量交流配電盤來分配交流電(這些配電盤是由斷路器、開關與控制裝置組成的大型成套裝置)。在800VDC架構中,它們正被先進的直流安全斷路器與固態保護裝置所取代。固態斷路器是該領域的關鍵創新,相較機械式產品具備更快速度與更強可控性。例如,ABB的SACE Infinitus被稱為全球首款獲得IEC認證的固態斷路器,專為使直流配電具備可行性而設計。此外,施耐德也表示正在開發固態開關裝置,但尚未實現商業化。對儲能的需求增加:向800VDC資料中心轉型需要更大的電池儲能,以應對更高的功率波動並繞開電網並網限制,因為機櫃負載可在毫秒級從30%躍升至100%利用率。儲能將演進為主動的“低通濾波器”,吸收高頻尖峰並平滑負載爬坡。這將支援分層策略:在更靠近機櫃處使用快速響應電容來應對毫秒級波動,在更靠近並網點處使用大型BESS來提供更長時間的支撐。高盛強調,施耐德在儲能向更靠近機櫃部署的趨勢中具備敞口。臨別之際,高盛分析師指出,這是一個趨勢,其對該銀行覆蓋範圍的影響尚不明朗但可以肯定;儘管如此,這種技術的出現需要時間,該銀行預計將在 2028 年左右開始看到商業化。最後,我們用幾張圖表來總結,首先是未來幾年需要更換和不需要更換的東西的可視化快照,以及向 800VDC 的過渡:橙色部分代表需要升級的裝置以及對當前產品的潛在較低需求,紅色部分代表可能被更換的裝置,綠色部分代表預計需求會更強的裝置。接下來,按公司彙總的產品曝光情況。最後,對資料中心裝置競爭格局進行總結。 (老李說研報)