這是輝達 5 年來,第一次在 CES 上沒發消費級顯示卡。CEO 黃仁勳闊步走向 NVIDIA Live 的舞台中央,還是去年那件亮面鱷魚皮衣。與去年單獨主旨演講不同,2026 年的黃仁勳密集趕場。從 NVIDIA Live 到西門子工業 AI 對話,再到聯想 TechWorld 大會,48 小時內橫跨三場活動。上一次,他在 CES 發佈了 RTX 50 系列顯示卡,而這一次,物理 AI 和機器人技術成為了全新的主角。Vera Rubin 計算平台登場,依舊是買越多省越多發佈會期間,愛整活的老黃直接把一台 2.5 噸重的 AI 伺服器機架搬上了舞台,也因此引出了本次發佈會的重點:Vera Rubin 計算平台,以發現暗物質的天文學家命名,目標只有一個:加速 AI 訓練的速度,讓下一代模型提前到來。通常來說,輝達內部有個規矩:每代產品最多隻改 1-2 顆晶片。但這次 Vera Rubin 打破了常規,一口氣重新設計了 6 款晶片,並已經全面進入量產階段。究其原因,伴隨著摩爾定律的放緩,傳統性能提升方式已經跟不上 AI 模型每年 10 倍的增長速度,所以輝達選擇了「極致協同設計」——在所有晶片、整個平台各個層級上同時創新。這 6 款晶片分別是:1. Vera CPU:- 88 個 NVIDIA 定製 Olympus 核心- 採用 NVIDIA 空間多線程技術,支援 176 個線程- NVLink C2C 頻寬 1.8 TB/s- 系統記憶體 1.5 TB(為 Grace 的 3 倍)- LPDDR5X 頻寬 1.2 TB/s- 2270 億個電晶體2. Rubin GPU:- NVFP4推理算力50PFLOPS,是前代 Blackwell的5倍-擁有 3360 億電晶體,比 Blackwell 電晶體數量增加了 1.6 倍-搭載第三代Transformer引擎,能根據 Transformer 模型需求動態調整精度3. ConnectX-9 網路卡:- 基於 200G PAM4 SerDes 的 800 Gb/s 乙太網路- 可程式設計 RDMA 與資料通路加速器- 通過 CNSA 與 FIPS 認證- 230 億個電晶體4. BlueField-4 DPU:- 專為新一代 AI 儲存平台而建構的端到端的引擎- 面向 SmartNIC 與儲存處理器的 800G Gb/s DPU- 搭配 ConnectX-9 的 64 核 Grace CPU- 1260 億個電晶體5. NVLink-6 交換晶片:-連接 18 個計算節點,支援最多 72 個 Rubin GPU 像一個整體協同運行- 在 NVLink 6 架構下,每個 GPU 可獲得 3.6 TB 每秒的 all-to-all 通訊頻寬- 採用 400G SerDes,支援 In-Network SHARP Collectives,可在交換網路內部完成集合通訊操作6. Spectrum-6 光乙太網路交換晶片- 512 通道,每通道 200Gbps,實現更高速資料傳輸- 整合台積電 COOP 工藝的矽光子技術- 配備共封裝光學介面(copackaged optics)- 3520 億個電晶體通過 6 款晶片的深度整合,Vera Rubin NVL72 系統性能比上一代 Blackwell 實現了全方位的提升。在 NVFP4 推理任務中,該晶片達到了 3.6 EFLOPS 的驚人算力,相比上一代 Blackwell 架構提升了 5 倍。在 NVFP4 訓練方面,性能達到 2.5 EFLOPS,實現 3.5 倍的性能提升。儲存容量方面,NVL72 配備了 54TB 的 LPDDR5X 記憶體,是前代產品的 3 倍。HBM(高頻寬記憶體)容量達到 20.7TB,提升 1.5 倍。在頻寬性能上,HBM4 頻寬達到 1.6 PB/s,提升 2.8 倍;Scale-Up 頻寬更是高達 260 TB/s,實現了 2 倍增長。儘管性能提升如此巨大,電晶體數量只增加了 1.7 倍,達到 220 兆個,展現了半導體製造技術上的創新能力。工程設計上,Vera Rubin 同樣帶來了技術突破。以前的超算節點要接 43 根線纜,組裝要 2 小時,還容易裝錯。現在 Vera Rubin 節點採用 0 根線纜,只有 6 根液冷管線,5 分鐘搞定。更誇張的是,機架後面佈滿了總長近 3.2 公里的銅纜,5000 根銅纜構成 NVLink 主幹網路,實現 400Gbps 傳輸速度,用老黃的話來說,:「可能有幾百磅重,你得是體格很好的 CEO 才能勝任這份工作」。在 AI 圈裡時間就是金錢,一個關鍵資料是,訓練一個 10 兆參數模型,Rubin 只需 Blackwell 系統數量的 1/4,生成一個 Token 的成本約為 Blackwell 的 1/10。此外,雖然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升遠超功耗增長,整體推理性能提升 5 倍,訓練性能提升 3.5 倍。更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 數)提升10倍,對於造價 500 億美元的千兆瓦資料中心來說,這意味著營收能力將迎來直接翻倍。過去 AI 行業的最大痛點是,上下文記憶體不夠用。具體來說,AI 在工作時會生成「KV Cache」(鍵值快取),這是 AI 的「工作記憶」。問題是,隨著對話變長、模型變大,HBM 記憶體顯得有些捉襟見肘。去年輝達推出 Grace-Blackwell 架構擴充記憶體,但還是不夠。而Vera Rubin 的方案是在機架內部署 BlueField-4 處理器,專門管理 KV Cache。每個節點配 4 個 BlueField-4,每個背後有 150TB 上下文記憶體,分配到 GPU 上,每塊 GPU 額外獲得 16TB 記憶體——而 GPU 自帶記憶體只有約 1TB,關鍵是頻寬保持 200Gbps,速度不打折。但僅有容量還不夠,要讓分佈在幾十個機架、上萬塊 GPU 上的「便簽」像同一塊記憶體那樣協同,網路必須同時做到「夠大、夠快、夠穩」。這就輪到 Spectrum-X 登場了。Spectrum-X 是輝達推出的全球首款「專為生成式 AI 設計」的端到端乙太網路網路平台,最新一代的 Spectrum-X 採用台積電 COOP 工藝,整合矽光子技術,512 通道×200Gbps 速率。老黃算了筆帳:一個千兆瓦資料中心造價 500 億美元,Spectrum-X 能帶來 25% 吞吐提升,相當於節省 50 億美元。「你可以說這個網路系統幾乎是『白送』的。」安全方面,Vera Rubin 還支援保密計算(Confidential Computing)。所有資料在傳輸、儲存、計算過程中全程加密,包括 PCIe 通道、NVLink、CPU-GPU 通訊等所有匯流排。企業可以放心把自己的模型部署到外部系統,不用擔心資料洩露。DeepSeek 震驚了世界,開源和智能體是 AI 主流重頭戲看完,回到演講開始。黃仁勳一上台就拋出了一個驚人的數字,過去十年投入的約 10 兆美元計算資源,正在被徹底現代化。但這不僅僅是硬體的升級,更多的是軟體範式的轉移。他特別提到了具備自主行為能力(Agentic)的智能體模型,並點名了 Cursor,徹底改變了輝達內部的程式設計方式。最讓現場沸騰的,是他對開源社區的高度評價。黃仁勳直言,去年 DeepSeek V1 的突破讓全世界感到意外,它作為第一個開源推理系統,直接激發了整個行業的發展浪潮。PPT 上,我們熟悉的國產玩家 Kimi k2 和 DeepSeek V3.2 分別是開源第一和第二。黃仁勳認為,雖然開源模型目前可能落後最頂尖模型約六個月,但每隔六個月就會出現一個新模型。這種迭代速度讓初創公司、巨頭、研究人員都不願錯過,包括輝達在內。所以,他們這次也沒有只賣鏟子,推銷顯示卡;輝達建構了價值數十億美元的 DGX Cloud 超級電腦,開發了像 La Proteina(蛋白質合成)和 OpenFold 3 這樣的前沿模型。輝達開源模型生態系統,涵蓋了生物醫藥、物理 AI、智能體模型、機器人以及自動駕駛等而輝達 Nemotron 模型家族的多款開源模型,也成為這次演講的亮點。其中包含語音、多模態、檢索生成增強以及安全等多個方面的開源模型,黃仁勳也提到,Nemotron 開源模型在多個測試榜單上表現優秀,並且正在被大量的企業採用。物理 AI 是什麼,一口氣連發幾十款模型如果說大語言模型解決了「數字世界」的問題,那麼輝達的下一個野心,很明顯是要征服「物理世界」。黃仁勳提到,要讓 AI 理解物理法則,並在現實中生存,資料是極其稀缺的。在智能體開源模型 Nemotron 之外,他提出了建構物理 AI(Physical AI)的「三台電腦」核心架構。訓練電腦,也就是我們熟知的,由各種訓練級顯示卡建構的電腦,像圖片中提到的 GB300 架構。推理電腦,運行在機器人或汽車邊緣端的「小腦」,負責即時執行。模擬電腦,包括 Omniverse 和 Cosmos,它能為 AI 提供一個虛擬的訓練環境,讓它在模擬中學習物理反饋。Cosmos 系統能生成大量的物理世界 AI 訓練環境基於這套架構,黃仁勳正式發佈了震驚全場的 Alpamayo,全球首個具備思考和推理能力的自動駕駛模型。與傳統自動駕駛不同,Alpamayo 是端到端訓練的系統。它的突破性在於解決了自動駕駛的「長尾問題」。面對從未見過的複雜路況,Alpamayo 不再是死板地執行程式碼,而是能像人類司機一樣進行推理。「它會告訴你接下來會做什麼,以及它為什麼會做出這樣的決策」。在演示中,車輛的駕駛方式驚人地自然,能夠將極端複雜的場景,拆解為基礎常識來處理。演示之外,這一切也不是紙上談兵。黃仁勳宣佈,搭載 Alpamayo 技術堆疊的奔馳 CLA,將在今年第一季度於美國正式上線,隨後陸續登陸歐洲和亞洲市場。這輛車被 NCAP 評為全球最安全的汽車,底氣就是來自於輝達獨特的「雙重安全端」設計。當端到端的 AI 模型對路況信心不足時,系統會立即切換回傳統的、更穩妥的安全防護模式,確保絕對安全。發佈會上,老黃還特地展示了輝達的機器人戰略。九大頂級 AI 及相關硬體製造商之間的競爭,他們都在擴大產品線,尤其是要搶奪機器人賽道,高亮的儲存格為自去年以來的新產品所有機器人都將搭載 Jetson 小型電腦,在Omniverse 平台的 Isaac 模擬器中接受訓練。並且輝達正在把這套技術整合進Synopsys、Cadence、西門子等工業體系。黃仁勳邀請了包括波士頓動力、Agility 等人形機器人、四足機器人「登台」,他強調,最大的機器人其實是工廠本身自下而上,輝達的願景是,未來晶片設計、系統設計、工廠模擬,都將由輝達物理 AI 加速。發佈上,又是迪士尼機器人閃亮登場,老黃還因此對著這群超萌機器人調侃道:「你們會在電腦中被設計、在電腦中被製造,甚至在真正面對重力之前,就會在電腦中被測試和驗證。」如果不說是黃仁勳,整場主題演講看下來甚至會以為是某個模型廠商的發佈會。在 AI 泡沫論甚囂塵上的今天,除了摩爾定律的放緩,黃仁勳似乎也需要用 AI 到底能做什麼,來提升我們每個人對 AI 的信心。除了發佈全新 AI 超算平台 Vera Rubin 的強悍性能,來安撫算力飢渴,他在應用和軟體上也比以往花了更多的功夫,拼盡全力讓我們看到,AI 將會帶來那些直觀改變。此外,就像黃仁勳說的一樣,過去他們為虛擬世界造芯,現在他們也下場親自演示,將注意力放在以自動駕駛、人形機器人為代表的物理 AI,走進行業競爭更激烈的真實物理世界。畢竟,只有仗打起來,軍火才能持續賣下去。 (APPSO)