輝達版Groq晶片來了!黃仁勳解讀技術亮點。就在剛剛,全球最大規模的AI盛會——輝達GTC 2026盛大開幕!智東西3月16日聖何塞現場報導,美西時間11點18分,輝達創始人兼CEO黃仁勳身穿標誌性皮衣登場,發表了一場激情澎湃的主題演講。200億美元買下的Groq技術、掀起“全民養蝦”盛世的OpenClaw、一大波全新開放模型、L4自動駕駛最新進展,全部濃縮在這場資訊密度極高的演講之中。先上重點,輝達發佈其旗艦AI計算平台Vera Rubin的5大機架級系統,推出全新AI推理晶片Groq LPU 3,宣佈7款晶片全面生產,並帶來太空計算裝置Space-1 Vera Rubin Module,將AI計算版圖擴展到地球之外。7款晶片分別是Rubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO,以及新整合的Groq 3 LPU。輝達還公佈了最新產品路線圖:對於Rubin架構,Oberon系統採用銅纜縱向擴展,還可以使用光學擴展,將NVLink擴展到576。黃仁勳說,銅纜縱向擴展和光學縱向擴展,輝達都會採用。Rubin Ultra晶片正在流片,即將到來;NVLink 7 Switch也近了;還有全新的LP35晶片——將首次融入輝達的NVFP4計算結構,帶來又一個幾倍的速度提升。Oberon之後,Kyber系統採用銅纜縱向擴展,還將有Kyber CPO縱向擴展——首次同時支援銅纜和共封裝光學的縱向擴展。計畫在2028年發佈的輝達AI資料中心扛鼎之作們,也被一次性曝光:Feynman GPU(定製HBM)、LP40 NVLink、Rosa CPU、Bluefield-5 DPU、NVLink 8 CPO、Spectrum7 204T CPO、ConnectX-10 SuperNIC。在2小時10分鐘的演講中,輝達密集甩出超過20項重磅發佈,涉及AI基礎設施、智能體、推理、開放模型、機器人、自動駕駛、企業級AI等,這些也是今年GTC大會的核心話題。今年恰逢CUDA誕生20周年,黃仁勳想說的話很多,最言簡意賅的當屬下面這張圖,基本概括了輝達100%的戰略佈局:CUDA龐大的裝機基數吸引開發者,開發者創造新演算法,演算法突破催生新技術,新技術開闢全新市場,全新市場建構新生態,更多企業加入生態,進而擴大裝機基數——這個飛輪,正在加速轉動。20年前,輝達發明了CUDA,這是其有史以來最重大的投資之一,消耗了公司絕大部分利潤,導致當時的輝達幾乎負擔不起。但歷經初期的重重困難,歷經13代產品、整整20年的堅持,如今,CUDA已無處不在。黃仁勳宣佈,輝達與IBM達成深度合作,並曬出與Google雲、AWS、微軟Azure等雲巨頭的合作案例。“今年我特別興奮的一件事是,我們將把OpenAI帶到AWS。”他提到過去兩年,ChatGPT、生成式AI、Claude Code三件事持續推動AI浪潮,輝達的計算需求已經爆表,現貨價格飛漲,推理的拐點已經到來。回顧整場演講,幾個掌聲雷動時刻,堪稱“人氣王”:1、黃仁勳預言:到2027年將坐擁1兆美元訂單黃仁勳估計輝達2025年訂單額約為5000億美元,並大膽預測,到2027年,這一數字將翻番,至少會達到1兆美元。2、龍蝦一出,全場歡呼在萌版紅色龍蝦出現在大螢幕的剎那,觀眾席瞬間沸騰!果然論起炸場,還得看今年AI領域的“頭號頂流”——開源AI智能體框架OpenClaw。為開發者掏心掏肺的輝達,這次直接端出“養龍蝦全家桶”:軟體包括輝達版龍蝦NemoClaw、智能體基礎模型Nemotron 3 Ultra、智能體工具包,硬體有個人AI電腦DGX Spark和桌面級AI超算DGX Station。大會期間,輝達每天都在GTC Park舉辦build-a-claw部署活動,幫參會者免費裝“龍蝦”。參會者帶上自己的NVIDIA DGX Spark或GeForce RTX筆記型電腦,就能在輝達專家的幫助下本地部署智能體,打造自己的專屬AI助手。輝達還誠意拉滿,給OpenClaw爆紅之路做了個精緻的回顧視訊。OpenClaw創始人Peter Steinberger特意發推文安利:“用OpenShell和 NemoClaw烹飪真的太有趣了!🦞”3、輝達機器人全家福亮相黃仁勳放出一張最新機器人大合照,有30多台機器人,包括比亞迪、庫卡、智元、小鵬、吉利的機器人。黃仁勳談道,機器人是一個50兆美元的製造業市場,輝達已在此深耕十年,本屆大會現場將展示110台機器人,全球幾乎每一家機器人公司都在與輝達合作。4、“雪寶”機器人壓軸登場,跟黃仁勳熱聊“這裡有很多人形機器人,但我最喜歡的之一……是一款迪士尼機器人。”黃仁勳誇獎一響,《冰雪奇緣》電影同款的“雪寶”機器人閃亮登場!“雪寶”機器人先是出現在一段展示“全球首次大規模物理AI部署已經到來”的影片裡,當迪士尼Newton Snow Solver物理引擎將“雪寶”所在的冰雪場景和彩色糖果場景絲滑切換,現場響起熱烈的掌聲。影片一結束,真正的“雪寶”機器人就走了出來,與黃仁勳熱聊互動,逗樂觀眾。5、魔性收尾:Q版黃仁勳、龍蝦和機器人組樂隊大會收尾別出心裁,黃仁勳數字人與一群機器人、一隻萌版龍蝦,一起拍了一支魔性音樂MV,歌詞把本屆GTC的核心乾貨唱了個遍,曲調也很上頭。(文末附上了歌詞全文)今年GTC大會人氣相當火爆,超過30000名參會者齊聚聖何塞,有1000多場技術分論壇、2000多位演講嘉賓。輝達將在本屆GTC大會上發佈大約100個庫、70個模型及40個模型。01. 5大機架組出Vera Rubin巨型AI超算 Groq 3 LPU晶片絲滑融入輝達全家桶“我們每Token的成本是全球最低的,無法被超越。”黃仁勳說,“我之前說過,如果你選擇了錯誤的架構,即便它是免費的,也還是不夠便宜。”在他看來,只有在AI工廠安置了最好的計算系統,才能獲得最低的token成本,而輝達的token成本基本無可匹敵,原因在於極致的協同設計。全新Vera Rubin平台是當前輝達瞄準AI推理計算市場的王牌產品:7款晶片、5種機架級電腦、1台革命性AI超算,專為智能體打造——僅用10年,就將算力提升了4000萬倍。在GTC主題演講中,黃仁勳一口氣介紹了Vera Rubin平台的5款全新機架級系統:NVIDIA Vera Rubin NVL72 GPU機架NVIDIA Groq 3 LPX推理加速器機架NVIDIA Vera CPU機架NVIDIA BlueField-4 STX儲存機架NVIDIA Spectrum-6 SPX乙太網路機架它們以統一的MGX模組化架構進行深度協同設計,可自由組合,按負載密度和價格梯度靈活部署,加快產品上市速度,服務於整個AI工廠。當這些匯聚在一起,意味著Vera Rubin平台將擴展整個AI工廠的收入機會。目前,7款全新晶片已全面量產,可在超大型AI工廠中規模化部署。基於Vera Rubin的產品將從下半年開始由輝達的合作夥伴提供。1、Vera Rubin NVL72 GPU機架Vera Rubin NVL72系統整合了由NVLink 6連結的72顆GPU與36顆Vera CPU,以及ConnectX-9 SuperNIC和BlueField-4 DPU。相較前代Blackwell平台,在Vera Rubin平台上訓練大型混合專家模型時,所需GPU數量僅為1/4,並在AI推理方面,實現吞吐量提升10倍,token單位成本降至原來的1/10。黃仁勳認為,token是新的大宗商品,一旦達到拐點、走向成熟,它將會分層細分,不同模型尺寸、智能、速度、上下文長度對應不同的價格。輝達在每一層都提升吞吐量。註:圖中免費層(千問3 235B 32K),中級層(Kimi K2.5 1T 128K),高級層(GPT MoE 2T 128K),旗艦層(GPT MoE 2T 400K)吞吐量需要大量算力,延遲和互動性需要巨大的頻寬。由於晶片面積有限,因此追求高吞吐量和追求低延遲,實際上是互相衝突的目標。輝達通過引入Groq技術來解決這一沖突,在最貴的旗艦層將性能提升35倍。如果將圖表裡的曲線向右延伸,想要每秒1000個token的服務,NVLink 72就會力不從心,因為沒有足夠的頻寬。而這,恰恰是Groq發揮作用的地方。2、Groq 3 LPX推理加速器機架去年12月,輝達買下AI晶片創企Groq非獨家協議和核心成員的交易轟動科技圈。業界密切關注Groq的LPU晶片是否會與輝達GPU形成競爭。現在,答案揭曉,LPU並不是來取代GPU的,而是來加入GPU這個家的。在輝達的佈局裡,Rubin性能強,LPU頻寬高、延遲低,兩者優勢恰好互補。因此,輝達推出全新NVIDIA Groq 3 LPU,實現GPU超強算力與LPU超高頻寬的融合。來看一組對比:一張Rubin GPU擁有3360億顆電晶體、288GB HBM4記憶體、22TB/s頻寬、50PFLOPs算力(NVFP4)、 2.5T(HBM4)。而一張Groq 3 LPU只有980億顆電晶體、500MB SRAM,記憶體容量僅為Rubin HBM4的1/500,算力達1.2PFLOPS。但其SRAM頻寬高達150TB/s,是Rubin頻寬的約7倍。在此基礎上,輝達發佈Groq 3 LPX機架。這款新機架可支援256張Groq 3 LPU,共有128GB片上SRAM、315PFLOPS算力、640TB/s擴展頻寬,可擴展至超過1000張LPU。黃仁勳說,Groq如此吸引人的原因在於:其計算系統是一種確定性資料流處理器,靜態編譯,由編譯器調度——編譯器預先確定何時執行計算,資料同步到達,所有這些都在軟體中靜態預排,沒有動態調度。該架構設計配備了大量SRAM,專為推理這一個單一工作負載而設計。需要大量的Groq晶片,才能儲存Vera Rubin的參數規模以及必須與之配套的KV Cache,這使得Groq受到一定限制。對此,輝達用Dynamo軟體重新建構推理的管線,使適合的工作放在Vera Rubin上運行,然後將解碼生成部分,也就是低延遲、頻寬受限的挑戰性工作負載部分,解除安裝到Groq上。這就將兩款各具極端優勢的處理器統一起來。協同設計的LPX架構與Rubin GPU緊密耦合,LPX作為token加速器,疊加在擁有高吞吐量的Vera Rubin之上,兩者合計可將運行兆參數模型時提供每兆瓦推理吞吐量提升35倍。Groq 3 LPU由三星代工,已進入量產,預計下半年出貨,大約在第三季度。3、NVIDIA Vera CPU機架智能體模型的訓練和部署推理都離不開CPU。GPU需要呼叫CPU來執行工具呼叫、SQL查詢和程式碼編譯等任務,CPU的速度至關重要。輝達將Vera CPU稱作“專為智能體AI工作負載打造的最佳CPU”。Vera搭載全新Olympus核心,是全球唯一使用LPDDR5的資料中心CPU,結合高性能與高能效的核心設計、高頻寬記憶體子系統以及第二代輝達可擴展計算Fabric,能在各類智能體應用場景和強化學習極端條件下提供更快的響應速度。相比傳統x86 CPU,Vera單線程性能提升50%,每核心記憶體頻寬提升至3倍,能效翻倍。今日,輝達發佈全新NVIDIA Vera CPU機架。該機架搭載256台液冷Vera CPU,提供400TB記憶體、300TB/s記憶體頻寬,整合64顆BlueField-4 DPU,全面相容Vera Rubin與MGX生態系統。輝達已完成初步晶片測試,Vera在各類工作負載上的性能提升從2倍到超過5倍不等。4、BlueField-4 STX儲存機架隨著智能體應用規模擴大,資料需求也在膨脹。傳統資料中心提供大容量的通用儲存,但缺乏AI智能體所需的即時響應能力。隨著上下文窗口增長、AI能力提升,傳統儲存路徑和資料通路會拖慢AI推理速度、降低GPU利用率。為此,輝達推出全新的BlueField-4 STX儲存機架。這是一個原生儲存基礎設施,基於BlueField-4 DPU,結合Vera CPU和ConnectX-9 SuperNIC,可將GPU記憶體無縫擴展至POD計算叢集中。STX提供了一種高頻寬共享層,用於儲存和檢索大語言模型及智能體AI工作流所產生的海量KV Cache資料。該機架可實現能效比提升至4倍,企業資料翻頁速率提升至2倍,同時讓AI工廠的上下文記憶每秒token處理速率快5倍。5、Spectrum-6 SPX乙太網路機架Spectrum-6 SPX乙太網路機架用於全資料中心橫向擴展的互連網路,讓以上所有系統連成整體。與傳統可插拔收發器相比,帶有共封裝光學器件(CPO)的Spectrum-X乙太網路光子技術實現了多達5倍的光學功率效率和10倍的彈性。6、Vera Rubin DSX AI工廠參考設計和Omniverse DSX數字孿生藍圖要在資料中心部署上述全新計算叢集和架構,必須考慮如何營運,並幫助整個資料中心生態系統實現效能提升。因此,輝達發佈Vera Rubin DSX AI工廠參考設計,這是一個AI基礎設施藍圖,概述了如何設計、建構、操作整個AI工廠基礎設施堆疊,可最大限度提高每瓦token和整體實際吞吐量,提高系統彈性並加快首次生產的時間。基於Rubin平台部署DSX架構後,AI工廠能在固定功耗下,實現能效比提升30%,同時增加30%的AI算力部署規模。NVIDIA Omniverse DSX藍圖現在提供NVIDIA Vera Rubin DSX AI工廠參考設計,為大型AI工廠設計和模擬提供數字孿生。開發者通過以下幾個API接入:DSX Sim,用於物理、電氣、熱力和網路模擬;DSX Exchange,用於AI工廠營運資料交換;DSX Flex,用於電網與資料中心之間安全的動態功率管理;DSX Max-Q,用於動態最大化Token吞吐量。7、NVIDIA RTX PRO 4500 Blackwell伺服器版在GTC期間,輝達還發佈了NVIDIA RTX PRO 4500 Blackwell伺服器版,為全球應用廣泛的企業資料中心和邊緣計算平台(包括本地部署和雲端)帶來多工作負載GPU加速功能。8、Vera Rubin AI太空計算模組“我們已經進入太空了,”黃仁勳說,“我們有抗輻射的GPU,我們在衛星上進行成像。未來,我們還將在太空中建造資料中心。”這很複雜,所以,輝達正與合作夥伴研發一款新型電腦,稱作NVIDIA Space-1 Vera Rubin Module,將發射入軌並在太空中建立資料中心。這是一款面向太空最佳化的AI計算模組,支援即時感知、決策和自主運作,將資料中心級AI計算性能帶到軌道資料中心、地理空間智能和自主空間與營運。在太空中沒有傳導、沒有對流,只有輻射散熱,所以必須想辦法冷卻這些系統,輝達有很多優秀的工程師正在研究。02. 發智能體工具包、桌面級AI超算 全方位助攻安全“養龍蝦”隨著OpenClaw爆火,智能體的“ChatGPT時刻”已至。黃仁勳評價說,OpenClaw是人類歷史上最受歡迎的開放原始碼專案,僅僅幾周內就做到,超越了Linux用30年取得的成就。在他看來,OpenClaw開源了,本質上就是一個“智能體電腦的作業系統”,與Windows使得PC得以實現沒區別,如今,OpenClaw使個人智能體的建立得以實現。因為OpenClaw的吉祥物是一隻紅色龍蝦,中國開發者更喜歡用“龍蝦”來稱呼這個智能體,並將部署OpenClaw稱作“養龍蝦”。“全民養蝦”熱潮正推動算力需求呈數量級增長,但也存在可能自主訪問敏感資料、濫用已連接的工具或自行提升權限等風險。對此,輝達發佈了多款智能體工具及硬體裝置,來幫助更高效、更安全地“養龍蝦”。1、為OpenClaw設計的NemoClaw輝達正與OpenClaw創始人Peter Steinberger合作,匯聚世界上最優秀的安全和計算專家,將OpenClaw改造為OpenClaw企業版,使其具備企業安全性和企業隱私能力。這被稱為輝達OpenClaw參考設計——Open NeMoClaw。只需一條命令(command),NemoClaw就能用輝達智能體工具包軟體來最佳化OpenClaw,將NVIDIA Nemotron模型、NVIDIA OpenShell執行階段一併安裝,通過OpenShell提供開放模型和一個增強智能體隱私安全性的獨立沙盒環境。這為智能體提供了按照預定隱私和安全護欄開發新Skills、完成任務的基礎,使使用者能在企業內部安全地保護和約束“龍蝦”的執行。NemoClaw可運行於各類專用平台,包括雲端、本地部署、RTX PC和筆記型電腦、DGX Station和DGX Spark超算等,確保智能體擁有持續建構軟體工具、完成任務所需的專屬算力。2、輝達智能體工具包輝達智能體工具包(NVIDIA Agent Toolkit)是一套開放模型、執行階段和藍圖的集合,用於建構、評估和最佳化更安全的長期運行自治智能體。該工具包以覆蓋推理、編碼、文件智能、語音和視覺領域的高效開放模型Nemotron為起點,配備NeMo用於智能體的性能分析、定製與最佳化,NIM提供模型推理服務,Dynamo負責規模化擴展。智能體需要各種Skills。其中NVIDIA OpenShell是一款面向智能體的新型開源安全與防護執行階段,提供了“龍蝦”缺失的基礎設施層,通過基於策略的安全、網路和隱私護欄進行管控。AI-Q是一個開源藍圖,融合前沿模型與開放模型的智能,打造全球領先的面向長期工作流的研究型智能體,且運行高效。軟體的世界已經改變。輝達認為,每一家SaaS(軟體即服務)公司,都將被重塑為AaaS(智能體即服務,Agent as a Service)。企業不再銷售工具,而是出租使用其工具的智能體。輝達正在幫助全球軟體企業完成這一轉型,支援他們基於輝達智能體工具包建構智能體。LangChain是開發者建構智能體的首選框架,下載量超過10億次,今日宣佈推出與輝達合作建構的企業級智能體AI平台。3、兩款“養龍蝦”裝置:DGX Spark與DGX Station建構好智能體之後,下一個問題就很簡單了:在那兒運行?它們可以在雲端或AI工廠中運行,但很多開發者更傾向於在完全可控的本地環境中開發。因此,輝達推出兩款適合運行NemoClaw的雲端開發者平台:個人AI電腦DGX Spark和全球最快桌面級AI超算DGX Station。DGX Spark旨在讓雲端開發更具普惠性,可以運行安全、常駐的自治智能體。多項DGX Spark更新發佈,支援將最多4個系統叢集到統一配置中,並支援GTC大會上發佈的最新AI模型。基於GB10的DGX Spark及OEM合作夥伴系統今日起在全球正式開售。DGX Station是終極雲端開發平台,讓開發者能直接在辦公桌上本地建構、微調和運行具備前沿智能水平的模型。這意味著開發者可在自己的機器上建構並運行“龍蝦”,無需連接雲端,全程保持本地化,實現開發過程中的完整掌控與安全保障。DGX Station將於今日起向OEM合作夥伴開放訂購。03. 一大波開放模型上新 涉及智能體、物理AI和醫療健康開放模型對AI生態發展至關重要。作為全球最大的開源AI貢獻者之一,輝達建構並行布六大系列的開放前沿模型及訓練資料配方和框架,幫開發者定製和採用。Nemotron 3 Ultra是最強開放基礎模型,在輝達自有基礎設施上完成預訓練,吞吐量是此前最佳開放模型的2倍。Nemotron 3 Omni具備音訊、視覺和語言理解能力,可支援智能體從視訊和文件中高效提取資訊。Nemotron 3 VoiceChat支援即時對話,把自動語音識別、大語言模型處理和文字轉語音功能結合在一個系統中。上周先一步發佈的Nemotron 3 Super模型是輝達迄今最強推理模型,在其同量級中智能水平最高、效率最優,在BFCL(伯克利函數呼叫排行榜,專門評估大模型作為智能體大腦的能力)中登頂開源模型第一,綜合排名全球第四。面向物理AI和醫療健康AI的全新開放模型包括:NVIDIA Cosmos 3,第一個統一合成世界生成、物理AI推理和動作模擬的世界基礎模型。NVIDIA GR00T N1.7,一個專為人形機器人建構的開放推理視覺語言動作(VLA)模型,在現實世界中部署具有商業可行性。NVIDIA Alphamayo 1.5,一個面向自動駕駛汽車的一種推理VLA模型。NVIDIA BioNeMo Proteina-Complexa,一個用於蛋白質結合體設計的生成模型,可加速基於結構的藥物發現和治療。以上模型均已在Hugging Face上發佈。黃仁勳還預告了GR00T N2,這是一個基於DreamZero研究的下一代基礎模型,預計將於今年年底發佈。該模型建構於新的世界動作模型架構上,幫助機器人在新環境中成功完成新任務的頻率是領先VLA模型的2倍多。此外,輝達宣佈成立Nemotron聯盟,聯手Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、AI Star、Bomb、Thinking Machines Lab等頂尖AI實驗室,匯聚專業知識、資料、評估體系和模型開發能力。輝達將使用內部DGX Cloud算力統一承擔訓練工作,避免每家機構在相同基礎模型上重複投入,共同建構開放的共享基礎。開發者和企業隨後可在此基礎上,針對各自的行業、地區和應用場景進行專項定製。聯盟的第一個項目是一款全新的基礎模型,正在輝達DGX Cloud上訓練,將成為即將發佈的Nemotron 4系列的基礎。04. 物理AI:工業軟體、機器人龍頭都在用 公佈L4自動駕駛、太空計算新進展整個IT行業只有2兆美元,而世界上其他所有行業,都需要能與真實世界互動的AI,需要能夠理解、建模並與真實世界互動的AI物理模型。從桌面到機器人、自動駕駛汽車,從AI工廠到電信網路,輝達的AI基礎設施已無處不在。1、物理AI資料工廠藍圖在機器人領域,算力即資料。當前的資料生成工作流極為碎片化,資料處理、生成、模擬、評估和部署分散在不同管道中。對此,輝達推出物理AI資料工廠藍圖,一個基於輝達Cosmos世界模型和Osmo機器人算力編排系統的開放參考架構,讓“用模擬資料大規模訓練機器人”這件事有了標準化管線。輝達正是用這套管線建構了Alphamaya、Cosmos和GR00T等前沿開放模型。微軟Azure和Nebius是首批採用該架構的雲服務商,首批客戶包括Field AI、Hexagon Robotics、Milestone Systems、Skilled AI和Teradyne Robotics。2、機器人企業們都在用輝達計算平台輝達為機器人製造商提供三類計算平台,以及開放模型、庫和框架,可按需組合使用。輝達宣佈,全球眾多頂級機器人企業都在這三類計算平台上進行建構:ABB、FANUC和庫卡合計佔全球工業機器人裝機量近半,均已將Omniverse庫整合至其機器人模擬工具中。Figure、智元機器人、1X等人形機器人企業採用Isaac Lab、Newton和Cosmos等機器人模擬庫進行建構,並採用Jetson和Thor進行邊緣推理。AI原生企業如Skilled AI和Field AI均在輝達Isaac和Cosmos技術堆疊上建構其通用機器人大腦。輝達是目前唯一一個每家機器人公司都在建構於其上的計算平台。3、L4自動駕駛計程車試點,擴展軟體安全自動駕駛汽車是物理AI大規模落地的第一個場景,也是全球首次大規模部署機器人。輝達建構了全球唯一的全端自動駕駛平台NVIDIA DRIVE,覆蓋自動駕駛訓練與驗證所需的架構、安全系統和AI基礎設施。其核心是NVIDIA DRIVE Hyperion,一款支援L4級自動駕駛的整車參考架構,整合計算、感測器和軟體,可供整個自動駕駛生態系統建構。自動駕駛的使命是安全,輝達宣佈推出L4自動駕駛汽車的統一軟體安全基礎NVIDIA Halos OS、開放推理VLA自動駕駛模型的全新版本NVIDIA Alphamamya 1.5,用於自動駕駛模擬的Omniverse NuRec也普遍可用了。輝達DRIVE生態系統正在持續擴大。比亞迪、吉利、日產等多家全球車企新近加入,採用DRIVE Hyperion,開發下一代L4自動駕駛程序。Uber全球L4無人駕駛計程車將採用DRIVE Hyperion,基於輝達全端DRIVE AV軟體運行無人駕駛網路,計畫於2027年在洛杉磯和舊金山啟動試點,2028年底前擴展至四大洲28座城市。4、全球工業軟體巨頭都在用輝達AI輝達宣佈Cadence、Dassault Systèmes、西門子、新思科技等主要工業軟體廠商將輝達AI、開放模型、CUDA-X、Omniverse和GPU加速工業軟體及工具帶到現代、本田、奔馳、聯發科、百事可樂、三星、SK海力士、台積電等公司,以加速設計、工程和製造。這些軟體領導者們還推出了由輝達驅動的智能體解決方案,用於複雜的晶片和系統工具流。例如,本田正使用新思科技的Ansys Fluent在輝達Grace Blackwell上運行空氣動力學模擬,速度比使用CPU快了34倍。5、輝達、T-Mobile等將物理AI應用部署到AI-RAN基礎設施輝達和T-Mobile宣佈正與諾基亞合作,將物理AI應用部署到AI RAN基礎設施。電信網路正在演變成AI基礎設施。T-Mobile試點NVIDIA RTX PRO 6000 Blackwell伺服器版AI基礎設施,補充AI-RAN創新中心的分佈式網路,以充分發揮物理AI的潛力。基於輝達加速計算的AI-RAN過渡解決了物理AI擴展的關鍵瓶頸:缺乏低延遲、安全和無處不在的連接。雖然Wi-Fi受到覆蓋範圍和安全性的限制,但T-Mobile的5G獨立網路為複雜AI智能體提供了廣泛的覆蓋和保證服務質量。05. 結語5套機架級系統、7款量產晶片、1套完整智能體開發軟硬體、覆蓋自動駕駛/機器人/工業/邊緣/太空的物理AI佈局……黃仁勳用2小時資訊量爆棚的演講,繪製出一張通往未來的AI基建施工圖。在這張圖裡,輝達的目標始終如一:垂直整合,橫向開放,確保每一個AI系統,無論運行在那裡、做什麼、規模有多大,都跑在輝達的平台上。未來已來,智能體大爆發正推動難以置信的計算需求。在這個AI新世界裡,算力即金錢。從桌面、機器人、汽車、工廠到資料中心甚至到近地軌道,每一層都有輝達的算力在運轉,每一個token的生成都在為它的收入計數。通過收購Groq LPU技術增強推理優勢,用開源頂尖模型激勵更廣泛的算力需求,以全端佈局和提高工具易用性來壘高使用者的遷移成本,輝達走得每一步棋,都堪稱教科書級。輝達是克制的,它堅持做基建商,不碰下遊客戶的分毫蛋糕。輝達又是貪婪的,這種貪婪驅動它以極強的戰鬥力向前狂奔,為自己創造更龐大的未來市場,又以一種高明的長期主義,把各行各業的頭部企業引入自己的生態軌道,把客戶的成功變成自己的護城河。最後,附上GTC 2026黃仁勳主題演講片尾曲的歌詞,來總結下本屆GTC的重點:The keynotes over, all was said Jensen mapped the road ahead.主題演講落幕,該說的都已講完,黃仁勳為我們鋪好了前路。AI factories coming alive, agents learning how to drive.AI工廠全面甦醒,智能體學會自主行動。From open models to robots too now we break it all down for you.從開源模型到機器人世界,現在我們為你拆解這一切。Compute exploded, what we saw from CNN’s to OpenClaw.從摺積網路到OpenClaw,我們親眼見證算力大爆發。Agents working cross the land but they need the power to meet demand.智能體遍佈各地但它們需要強大算力才能滿足需求。So we solved the problem, It was brilliant.於是我們解決了難題,方案堪稱絕妙。We multiplied compute by forty million.我們把算力提升了4000萬倍。Once upon an AI time training was the paradigm.曾經的AI時代訓練是核心範式。Sure it taught the models how, but inference runs the whole world now.它教會模型如何學習,但如今推理才是驅動世界的引擎。Vere shows us who’s the boss at thirty-five times less the cost.Vere告訴世界才是真正王者,成本降到1/35。Blackwell makes the tokens sing NVIDIA, the inference King.Blackwell讓Token放聲歌唱:輝達,推理之王。AI Factories once took year vendors pulling racks and gears.AI工廠曾經耗時經年,廠商們堆砌機架與配件。Built up slowly, piece by piece no clear way to scale the beast.一點點緩慢搭建,卻找不到規模化的路徑。DSX and Dynamo know what to do turning power into revenue.DSX與Dynamo指明方向把算力直接變成營收。Agents used to wait and see now act autonomously.智能體過去只會觀望等待。But if they ever try to stray safe Claws block and say ‘No Way!’如今可以完全自主行動,可一旦它們試圖越界,安全Claw會阻攔:“絕對不行!”NemoClaw’s there to guard the course and yes, my friends…NemoClaw守護全程航向,而且,朋友們……It’s open source.它還是開放原始碼的!Cars that think and droids that run this ain’t the movies, it’s all begun.會思考的汽車,能奔跑的機器人,這不是電影,一切已經開始。Alpamayo calls the shots it’s a GPT moment for the bots.Alpamayo掌控全域,這是機器人的GPT時刻。From sim to streets, now watch them drive throw your hands up for Physical AI.從模擬到街頭,看它們馳騁,為物理AI振臂高呼。The Industrial Age built what came before now we build for AI even more.工業時代鑄就了過往,如今我們為AI再造新章。Vera Rubin plus groq make the inference splash put them together,now it's raining cash.Vera 加上Groq掀起推理狂潮,兩者強強聯手財富如雨降臨。We build new architecture every year because Claws keep yelling, ‘More tokens here!’我們每年都打造全新架構,因為“龍蝦”不停吶喊:“這裡需要更多token!”The AI stack’s for all to make so let us all eat five layer cake.AI技術堆疊由所有人共同創造,讓我們共享這五層蛋糕。The moment's bright, the path is clear because open models led us here.此刻光芒萬丈,前路清晰坦蕩,是開源模型帶領我們抵達遠方。When data’s missing, there's no dispute we just generate more with compute.當資料缺失時毋庸置疑,我們用算力生成更多資料。Robots learning without a flaw fueling the four scaling laws.機器人完美學習無差錯,驅動四大增長定律。The future’s here, won't you come and see?未來已來,你難道不想親眼見證?Welcome all to GTC.歡迎所有人來到GTC大會。 (芯東西)