#演講全文
【CES 2026】黃仁勳CES演講2萬字全文:迎接計算量指數級增長,重新發明AI——突破運算新邊界的Vera Rubin時代,全端整合的高效“AI工廠”!
Agentic系統開啟的AI藍圖:人指揮Agent、多模態互動、融合物理AI,建構未來應用的基礎框架——智能代理系統(AIS)黃仁勳:拉斯維加斯的各位,新年快樂!歡迎大家前來觀摩。我們準備了約15場主題演講的豐富內容。見到各位我非常高興。這座禮堂裡坐著3000人,庭院裡還有2000人正在觀看。據說四樓原定作為輝達展區的區域,此刻也有上千人同步收看這場主題演講。當然,全球還有數百萬觀眾將通過直播共同開啟新年序幕!100兆美元規模的產業中,研發預算正轉向AI,而每年湧入AI的投資達數百億美元電腦行業每隔10到15年就會經歷一次重設。平台變革從大型機到個人電腦,從網際網路到雲端運算,再到移動裝置,每次都推動應用程式世界轉向新平台——這正是平台變革的本質。為新型電腦編寫新應用程式時,我們正面臨雙重平台變革——人工智慧與應用程式的同步演進。最初人們認為人工智慧即應用程式,事實上人工智慧確實屬於應用範疇,但未來我們將基於人工智慧建構更高級的應用程式。但除此之外,軟體的運行方式和開發方式也發生了根本性變革。整個電腦行業的技術堆疊正在被重新發明。你不再程式設計,而是訓練軟體。運行平台從 CPU 轉向 GPU。應用程式從預先編譯的固定程序轉變為即時生成——每次執行階段,它們都能理解上下文,從零開始生成每個像素、每個符號。由於加速計算和人工智慧的發展,計算領域已發生根本性變革。五層架構的每一層都在經歷重塑。這意味著過去十年約10兆美元的計算投資正向新型計算模式轉型。每年數百億美元的風險投資正湧入這個新興領域,推動技術革新與世界重構。更重要的是,價值100兆美元的產業體系中,數百分比的研發預算正轉向人工智慧領域。常有人問:資金從何而來?答案就在這裡——人工智慧的現代化處理程序,研發預算從傳統方法向人工智慧方法的轉移,以及湧入該行業的巨額投資,這些都解釋了我們為何如此忙碌。過去這一年也不例外。過去這一年令人難以置信。這一年,我們即將迎來一個轉折點。這是今年的第一場主題演講。希望這也是你今年的第一場主題演講。否則,你可能已經相當忙碌了。這是我們今年的第一場主題演講。我們要重回狀態。非凡的2025年:Scaling Laws突破、Agentic系統湧現、開源模型讓AI無處不在2025 年堪稱非凡之年,彷彿所有重大事件都同時爆發。事實上,首要突破當屬Scaling Laws!2015 年,那是我認為真正能改變格局的首個語言模型,它帶來了革命性變革, 它名為 BERT。2017 年 Transformer 模型問世。直到五年後的 2022 年,ChatGPT 的突破性時刻才真正喚醒世界對人工智慧潛能的認知。而一年後又發生了至關重要的事件——ChatGPT 推出的首個 o1 模型,作為首個具備推理能力的模型,徹底顛覆了行業格局。它開創了"測試時Scaling"這一革命性理念,本質上是極具常識性的創新: 我們不僅通過預訓練讓模型學習知識,更通過強化學習進行後訓練使其掌握技能。如今"測試時Scaling"技術的出現,本質上是實現即時思考的新途徑。人工智慧的每個發展階段都需要海量計算資源,而計算能力法則仍在持續擴展。大型語言模型正不斷精進。與此同時,另一項突破在 2024 年發生。Agentic系統於 2025 年開始湧現,並迅速滲透到幾乎所有領域。這些具備推理能力、資訊檢索能力、研究能力、工具使用能力、未來規劃能力及結果模擬能力的代理模型,突然間開始解決極其重要的問題。我最青睞的智能體模型名為Cursor,它徹底革新了輝達的軟體程式設計方式。智能體系統將由此迎來真正的騰飛。當然,人工智慧還有其他類型。我們知道大型語言模型並非唯一的資訊載體。宇宙中凡存在資訊之處,凡存在結構之處,我們都能訓練大型語言模型——作為語言模型的一種形式——去理解這些資訊,理解其表徵形式,並將其轉化為人工智慧。其中最宏大、最重要的當屬物理人工智慧(Physical AI),它們理解自然法則。而物理人工智慧的核心在於人工智慧與世界的互動——世界本身蘊含著編碼資訊。這種物理人工智慧既能與物理世界互動,又能理解物理定律。最後,去年最重要的進展之一是開源模型的突破。當開源理念、開放創新以及全球每家企業、每個行業的創新活動被啟動時,我們便能預見人工智慧將無處不在地普及。與此同時,開源模型在去年真正騰飛。事實上,去年我們見證了首個開源模型 Deep Seek R1 的突破性進展——這套推理系統令全球矚目,並切實推動了整個趨勢的興起。這項工作令人振奮,我們對此深感欣喜。如今全球各地湧現出各種開源模型系統。我們已知開源模型同樣抵達了前沿領域——儘管仍落後於前沿模型半年之久,但每隔半年便有新模型誕生。這些模型正變得日益智能。正因如此,下載量呈現爆發式增長。下載量激增源於初創企業渴望參與人工智慧革命。 大企業渴望參與,研究者渴望參與,學生渴望參與,幾乎每個國家都渴望參與。數字智能怎會讓任何人掉隊?開源模型去年真正引發了人工智慧革命,整個行業都將因此重塑格局。輝達的DGX雲與AI模型矩陣:橫跨生物、氣候、機器人與自動駕駛其實我們早有預感。或許你聽說過,幾年前我們開始自主研發並營運人工智慧超級電腦,稱之為 DGX 雲。許多人問:你們要進軍雲端運算業務嗎?答案是否定的。我們建造這些 DGX 超級電腦是為自身使用。事實上,我們投入數十億美元營運這些超級電腦,正是為了開發開源模型。我對我們正在開展的工作感到非常滿意。這項工作正開始引起全球及各行業的廣泛關注,因為我們在眾多不同領域都在進行前沿的人工智慧模型研究。我們在蛋白質領域、數字生物學領域(LA Protina 項目)取得的突破,實現了蛋白質的合成與生成。Open Fault 3 項目致力於解析聯合國機制,揭示蛋白質結構奧秘。Evil 2 項目探索多蛋白質的理解與生成機制。此外,我們還開創了細胞表徵的先河。更重要的是,我們研發的 AI 系統已具備理解物理定律的能力。我們與 Forecast Net 及 Cordiff 的合作,真正革新了人們進行天氣預測的方式。Nemo 系統正在嘗試突破。我們正在該領域開展開創性工作,首創的混合變壓器 SSM 模型具備驚人速度——既能進行長時間深度思考,也能在短時間內快速推演,從而生成極具智慧的智能答案。Nematon 3 是突破性成果,未來不久我們將推出該模型的其他版本。Cosmos,一個前沿的開放世界基礎模型,它理解世界的運作規律。Groot,一個類人機器人系統,具備關節活動能力、機動性和行走能力。這些模型與技術正在融合,每項成果都向世界開放——前沿的人類與機器人模型正向世界敞開大門。今天我們將重點探討 Alphamayo 項目——我們在自動駕駛領域的探索成果。建構未來應用的基礎框架:智能代理系統,模型到資料集的全端開源、多模態與檢索引擎的底層能力、多雲&多模型的智能體生態我們不僅開源模型,更開源訓練這些模型的資料集。唯有如此,才能真正驗證模型生成的可靠性。所有模型均開放原始碼,助力您基於此進行衍生創新。我們擁有完整的庫套件,包括 Nemo 庫、物理 Nemo 庫和 Clara Nemo 庫、BioNeMo庫。每一個都是 AIS 生命周期管理系統,支援資料處理、資料生成、模型訓練、模型建立、模型評估、模型防護,直至最終部署。 這些庫都極其複雜,且全部開源。基於這個平台,輝達成為前沿 AI 模型建構者,我們以獨特方式建構它。我們堅持完全開放的建設模式,旨在讓每家企業、每個行業、每個國家都能參與這場人工智慧革命。我對這項工作深感自豪。事實上,如圖表所示,我們在該領域的貢獻無可匹敵。未來我們將持續推進這項事業,甚至加速發展步伐。這些模型同樣堪稱世界級。因此這些模型不僅具備前沿能力,不僅開放共享,更穩居排行榜榜首。這是令我們引以為豪的領域——它們在排行榜和智能領域均處於領先地位。我們擁有能理解多模態文件(即 PDF 檔案)的重要模型。全球最具價值的內容都封存在 PDF 中,但需要人工智慧來發掘其內涵、解讀其內容並助您理解。我們的 PDF 檢索器、PDF 解析器、世界級語音識別模型,絕對是頂尖水平。檢索模型涵蓋語義搜尋、AI 搜尋等功能,堪稱現代 AI 時代的資料庫引擎,同樣達到世界級水準。正因如此,我們始終穩居排行榜前列。這是我們引以為豪的領域,所有這些都旨在助力您建構人工智慧代理。這確實是具有開創性的發展領域。記得最初 ChatGPT 問世時,人們驚嘆它能產出如此有趣的結果,但同時也存在嚴重幻覺問題。產生幻覺的原因在於:它能記憶過去的一切,卻無法預知當下與未來。因此必須建立在研究基礎上——在回答問題前,它需要進行基礎研究。關鍵在於具備推理能力:是否需要開展研究?是否需要使用工具?如何將問題分解為步驟?這些步驟都是 AI 模型已掌握的技能。通過組合這些步驟,它就能執行從未被訓練過的全新任務。這是推理能力的奇妙之處。我們能夠在面對前所未見的處境時,將其分解為已知情境。憑藉過往經驗,我們能運用已知的答案、知識或規則來應對。因此,當前人工智慧模型具備推理能力是極其強大的,智能體的推理能力為各類應用打開了大門。 我們不必再要求 AI 模型在初始階段就通曉萬物——正如人類也不可能在初始階段就掌握全部知識——關鍵在於它應具備在任何情境下,通過推理來解決問題的能力。大型語言模型如今已實現這一根本性飛躍——通過強化學習與思維鏈技術,包括突發性決策、規劃等多種方法,強化學習使我們具備了這項基礎能力,且該技術現已完全開源。但真正令人驚嘆的是另一項突破性進展——我第一次看到它是在Perplexity(AI搜尋公司)那裡,真是個創新者。當我意識到他們同時運用多個模型時,我認為這簡直是天才之舉。當然,我們也會這麼做。當然,人工智慧還會呼叫全球所有頂尖人工智慧來解決推理鏈中任何環節的問題。這正是人工智慧真正實現多模態的原因——它們能理解語音、圖像、文字、視訊、3D 圖形乃至蛋白質結構。這種多模態特性也意味著它們具備多模型能力,能夠靈活選用最適合任務的模型。從定義上講,它必然是多雲架構——因為這些 AI 模型分佈在不同位置。同時它也是混合雲架構,因為企業公司或機器人等裝置有時位於邊緣端,有時可能在無線基站,有時在企業內部,有時則在需要即時資料支援的場所(如醫院),具體取決於應用場景。我們現在知道,這就是未來人工智慧應用的模樣——或者換個角度理解,因為未來的應用都將基於智能代理系統(AIS)建構。這是未來應用的基礎框架。這種基礎架構,這種能夠實現我所描述的多模態智能的智能代理系統基礎結構,如今正為各類人工智慧初創企業注入強勁動力。如今借助我們提供的所有開源模型和工具,您還能定製專屬 AI 技能——這些技能無人傳授,也無人能讓其 AI 真正變得智能。這種智慧可由您自主實現。這正是我們通過 Nematon、Nemo 及所有開源模型項目所致力於實現的目標。在系統前端部署智能路由器,它實質上是決策管理者——根據你給出的指令意圖,判斷那個模型最適合特定應用場景,最能解決該問題。Agentic系統開啟的AI藍圖:人指揮Agent、多模態互動、融合物理AI好的,那麼現在當你思考這種架構時,你擁有什麼?當你思考這種架構時,突然間你擁有了一種人工智慧:它一方面完全可由你定製,能夠被訓練來執行你公司特有的技能;它能守護領域機密,承載你深厚的專業知識,或許你已擁有訓練 AI 模型的全部資料。另一方面,你的 AI 始終處於技術前沿——從定義上講,它既永葆定製化特性,又始終處於創新前沿,更應實現無縫運行。因此我們決定打造最簡潔的示例,讓它觸手可及。我們稱整個框架為藍圖,這些藍圖已整合到全球各地的企業 SaaS 平台中。我們對進展感到非常滿意。但我們想展示一個簡短示例——這是任何人都能實現的功能。“讓我們打造一個個人助理。我希望它能協助管理我的日程、郵件、待辦事項,甚至監控家中狀況。我使用 Brev 將 DGX Spark 轉化為個人云端,這樣無論使用雲端 GPU 還是 DGX Spark,都能通過統一介面操作。借助前沿模型 API,我輕鬆完成了初始配置。為實現郵件管理功能,我建立了專供智能助手呼叫的郵件工具。為保障郵件隱私,我將本地部署的開源模型運行在 Spark 上。現在,任何任務都需要智能助手選擇正確的模型處理,因此我採用了基於意圖的模型路由器。這樣,涉及郵件的提示語將留在本地 Spark 處理,其餘任務則呼叫前沿模型。我想讓我的助手融入我的生活。因此我將它與 HuggingFace 的 Richie Mini 機器人連接起來。我的代理通過工具呼叫控制 Richie 的頭部、耳朵和攝影機。我想賦予 Richie 聲音,而我非常喜歡 11 laps。所以我會接入他們的 API。'你好,我是Richie,正在DGX上跑步。嘿,Richie,我今天的待辦事項清單上有什麼?你今天的待辦事項?買些雜貨,雞蛋、牛奶、黃油,再把新劇本發給Jensen。好的,把這個更新發給Jensen。告訴他我們會在今天結束前建立一個論壇。我們來做。Richie,還有個草圖。你能把它變成建築效果圖嗎?當然。不錯。現在拍個視訊,帶我看看房間。給你。太棒了。有了 Brev,我就能共享我的 Spark 和 Richie 的存取權。所以我要和 Anna 共享。嘿,Richie,土豆最近怎麼樣?他在沙發上。我記得你不喜歡這樣。我會叫他起來。土豆,快從沙發上下來。隨著技術進步和開源浪潮,人們創造出的成果令人驚嘆。我真想看看你們能做出什麼。”這難道不神奇嗎?更神奇的是,如今這些都變得輕而易舉。然而就在幾年前,這一切還完全不可能實現,簡直難以想像。這種建構應用程式的基礎框架和方法,如今已變得如此基礎。使用預訓練的專有語言模型,它們代表著前沿技術。將其與定製化語言模型結合,建構為智能體框架——一個推理框架,使您能夠訪問工具和檔案,甚至可能連接其他智能體。這基本構成了現代人工智慧應用的架構。我們建構這類應用的能力正以驚人速度提升。關鍵在於:即便面對從未接觸過的應用資訊,或結構與預期不符的資料,它仍能通過推理機制全力解析資訊,試圖理解並解決問題。這個基礎框架正在整合中,我剛才描述的所有內容都受益於我們與全球頂尖企業平台公司的合作。例如 Palantir,他們的整個 AI 和資料處理平台正通過 Nvidia Today 服務實現整合與加速——該服務現已成為全球領先的客戶服務與員工服務平台;還有 Snowflake,全球頂尖的雲端資料平台。 這些公司正在開展令人驚嘆的工作。在輝達內部,我們全面採用 Code Rabbit 技術;Crowdstrike 正開發人工智慧系統來檢測和定義 AI 威脅;Netapp 的資料平台現已搭載輝達語義 AI 技術,並建構了代理系統以實現客戶服務功能。但關鍵在於:這不僅是當前應用程式的開發方式,更將成為平台的使用者介面。無論是 Palantir、ServiceNow、Snowflake 還是我們合作的眾多企業,代理系統就是介面本身。它不再是 Excel 表格里那些需要手動輸入資訊的方格。它甚至突破了命令列的侷限——所有多模態資訊互動如今皆可實現。你與平台的互動方式變得更像與人交流般自然流暢。這就是Agentic系統如何徹底革新企業人工智慧的圖景。物理AI的ChatGPT時刻即將到來,推出Alphamayo——全球首款具備思考與推理能力的自動駕駛汽車物理AI的ChatGPT時刻即將到來Cosmos模型已下載數百萬次,應用遍及全球接下來是物理人工智慧。這是我多年來反覆強調的領域。事實上,我們已在此領域深耕八年。關鍵問題在於:如何將電腦內部通過螢幕和揚聲器與人互動的智能系統,轉化為能與現實世界互動的智能體——這意味著它必須理解世界運作的常識性規律:物體恆存性(我移開視線再回來,物體還在那裡)、因果關係(我推它,它會倒下);它理解摩擦力和重力,理解慣性:一輛重型卡車在公路上滾動時需要更長時間才能啟動,而球體則會持續滾動。這些概念對幼兒而言都是常識,但對人工智慧而言卻是完全陌生的領域。因此我們必須建構一套系統,讓人工智慧既能學習物理世界的常識與規律,又能從稀缺資料中獲取知識,同時通過環境模擬來評估其運作狀態。若缺乏模擬物理世界反饋的能力,AI 如何確認自身行為符合預期?行為反饋的模擬至關重要——否則將無法評估系統表現,因為每次運行結果都可能截然不同。因此這個基礎系統需要三台電腦。其中一台電腦,我們都知道是輝達為訓練 AI 模型而打造的。另一台電腦用於模型推理——推理模型本質上是運行在汽車、機器人或工廠等邊緣場景中的機器人電腦。但必須另有一台專為模擬設計的電腦,而模擬正是輝達幾乎所有業務的核心。這是我們最擅長的領域,模擬技術實為我們所有物理人工智慧應用的基石。因此我們擁有三台電腦及運行於其上的多重技術堆疊——這些庫使電腦真正發揮價值。Omniverse 是我們的數字孿生平台,建構基於物理原理的模擬世界。Cosmos 如前所述,是我們的基礎模型,並非語言基礎模型,而是世界基礎模型,同時兼具語言理解能力。例如當你詢問"球體狀態"時,它能描述"球體正沿街道滾動"。這就是世界基礎模型。此外我們還擁有兩款機器人模型:其一是 Groot,另一款即我即將介紹的 Alphamayo。在物理人工智慧領域,我們首要且至關重要的任務是建立用於訓練 AI 的資料。這些資料從何而來?與語言資料不同,我們需要建立大量文字作為基準資料,供 AI 學習參考。如何向 AI 傳授物理學中的真實資料?雖然有海量視訊資料,但遠不足以涵蓋所需的多樣性與互動類型。正因如此,眾多傑出頭腦匯聚一堂,將傳統計算轉化為資料生成。如今借助基於物理定律和真實資料的合成資料生成技術,我們能夠有選擇性地智能生成訓練 AI 所需的資料。例如,輸入左側 Cosmos AI 世界模型的資料來源自交通模擬器。但僅憑模擬器輸出,AI 難以有效學習。我們將資料匯入 Cosmos 基礎模型,即可生成符合物理原理且具有可信度的環景視訊,供 AI 學習。此類應用案例不勝列舉,接下來我將展示 Cosmos 的實際能力。“物理 AI 的 ChatGPT 時刻即將到來,但挑戰顯而易見。物理世界千變萬化且難以預測。收集真實世界訓練資料既耗時又昂貴,且永遠供不應求。解決方案在於合成資料。其起點是 Nvidia Cosmos——一款基於網際網路規模視訊、真實駕駛&機器人資料及 3D 模擬預訓練的物理 AI 開放前沿世界基礎模型。Cosmos 掌握了統一的世界表徵能力,能夠整合語言、圖像、3D 資料與動作。它能從單張圖像中執行物理 AI 技能,包括生成、推理和軌跡預測。Cosmos 可根據 3D 場景描述生成逼真視訊,從駕駛遙測資料和感測器日誌中生成物理一致的運動軌跡,並能從規劃模擬器、多攝影機環境或場景提示中生成環繞視訊。它讓邊緣案例栩栩如生。開發者可運行互動式閉環模擬與 Cosmos 系統。當操作發生時,世界隨之響應。Cosmos 通過推理分析邊緣場景,將其分解為熟悉的物理互動,並推演後續可能發生的情況。該系統將計算轉化為資料,為自動駕駛車輛訓練長尾場景能力,同時指導機器人適應各類情境。”我知道這難以置信。Cosmos 是全球領先的基礎模型,世界級基礎模型。它已被下載數百萬次,應用遍及全球。它正在讓世界為物理 AI 的新時代做好準備。推出Alphamayo——全球首款具備思考與推理能力的自動駕駛汽車我們自身也在使用它。我們用它開發自動駕駛汽車,用於場景生成和評估。它能讓我們在電腦內部實現數十億乃至數兆英里的有效行駛。我們已取得巨大進展。今天,我們宣佈推出 Alphamayo——全球首款具備思考與推理能力的自動駕駛汽車。Alphamayo 是端到端訓練的系統,真正實現了從攝影機輸入到執行器輸出的全鏈路訓練。攝影機輸入端,我們通過人類駕駛示範,讓系統在大量自主駕駛里程中學習。此外,還有大量由 Cosmos 生成的駕駛資料。更重要的是,我們精心標註了數十萬個示例資料,以此教會車輛如何駕駛。Alphamayo 具備一項真正獨特的能力。它不僅能接收感測器輸入並控制方向盤制動與加速,還能推斷即將採取的行動。它會告知你即將執行的操作、形成該決策的依據,以及相應的行駛軌跡。所有這些能力都通過大量人類訓練資料與宇宙生成資料的深度融合直接耦合,並經過高度精準的訓練。其成果令人歎為觀止。車輛不僅能如你所願自然駕駛——因其直接學習自人類示範者——更能在每個場景中預判行動:它會告知你即將採取的措施,並推演你可能的操作意圖。這項技術之所以至關重要,在於駕駛場景存在長尾效應——我們根本無法收集全球所有國家、所有可能發生的情境下所有駕駛者的全部潛在場景。但若將每個複雜場景分解為若干常規子場景,這些子場景往往具有普遍性,駕駛者通常能夠理解。這些長尾情境將被分解為車輛已掌握處理能力的常規場景,只需進行推理即可應對。現在請看演示——您即將目睹的全程均為單次拍攝,全程無人工干預。八年前,我們便開始研發自動駕駛汽車。之所以如此,是因為我們很早就意識到,深度學習和人工智慧將徹底重塑整個計算架構。若想真正掌握自主導航之道,引領行業邁向這個嶄新的未來,就必須精通整個技術堆疊的建構。正如我之前所說,人工智慧如同五層蛋糕。底層是土地、電力和外殼。在機器人領域,底層對應的是汽車。其上是晶片層,包含 GPU、網路晶片、CPU 等元件。再上一層是基礎設施——正如我提到的物理人工智慧案例中,具體指 Omniverse 和 Cosmos 平台。而頂層則是模型。至於頂層模型,我剛才展示的這款名為 Alphamayo。如今 Alphamayo 已開源。這項非凡成果凝聚了數千人的心血——僅我們的自動駕駛團隊就達數千人規模。輝達首款自動駕駛汽車Q1上路,推進自動駕駛垂直整合技術堆疊,十年內多數汽車將實現高度自動駕駛合作夥伴 Ola(我猜 Ola 代表可能就在觀眾席中)於五年前攜手梅賽德斯共同推動了這一切。我們設想未來道路上將有 10 億輛自動駕駛汽車。它們可以是您調度租用的無人計程車,可以是為您自動駕駛的私家車,亦或是您親自駕駛的座駕。但每輛車都將具備自動駕駛能力。每輛汽車都將由人工智慧驅動。在此架構中,底層模型層是 Alphamayo,而其上層應用層則是梅賽德斯-奔馳。這是我們與梅賽德斯首次合作的完整系統項目,我們一直都在為此努力。我非常高興 NVidia 的首款自動駕駛汽車將在第一季度上路,隨後第二季度登陸歐洲和美國市場。我認為第三季度將覆蓋亞洲市場,第四季度則全面推進。更重要的是,我們將持續通過 Alphamayo 等後續版本進行系統升級。我此刻確信,這必將成為規模最大的機器人產業之一。我們參與其中並從中獲益匪淺,這讓我們深刻理解了如何協助全球建構機器人系統。這種深層認知不僅體現在自主研發能力上——我們親手搭建了完整的基礎設施,更精通機器人系統所需的晶片類型。在這個特定案例中,是雙 Orin 晶片,以及下一代的雙 Thor 晶片,專為機器人系統設計,具備最高安全等級認證。這款汽車剛獲得載荷評級,現已投入量產。梅賽德斯-奔馳 CLA 車型剛剛被 End Cap 評為全球最安全汽車。這是我所知唯一實現全系統安全認證的系統——每行程式碼、每顆晶片、每個系統模組都經過安全認證。整個模型系統基於多樣化冗餘感測器建構,軟體駕駛棧亦是如此。Alphamayo 棧經過端到端訓練,具備卓越能力。但除非持續駕駛至永恆,否則無人能斷言其絕對安全。為此我們設定了防護機制:在自動駕駛系統底層建構了另一套軟體架構,確保整個系統具備完全可追溯性。這套輔助架構耗時五年打造,實際開發周期長達六至七年。兩套軟體架構相互鏡像運行。此外我們設有安全策略評估機制:當系統能確保絕對安全駕駛時,便由阿爾法-馬約系統接管;若存在不確定因素,安全策略評估器將啟動更簡潔可靠的防護系統。然後它又回到了經典的自動駕駛技術堆疊,全球唯一同時運行這兩套技術堆疊且具備所有安全系統的汽車,應當實現多樣性和冗餘性。我們的願景是,終有一日每輛汽車、每輛卡車都將實現自動駕駛。為此我們正全力推進這一未來。整個技術堆疊實現了垂直整合。當然,以梅賽德斯-奔馳為例,我們共同建構了完整的技術堆疊。我們將部署該系統,營運該技術堆疊,並終生維護它。然而,正如我們公司所做的所有事情一樣,雖然我們建構了完整的技術堆疊,但整個技術堆疊對生態系統開放。與我們共同開發 L4 自動駕駛和無人駕駛計程車的生態系統正在不斷擴展,並遍佈全球。我完全有理由相信,這已經成為我們的一項巨額業務。之所以如此,是因為客戶將它用於訓練——我們的訓練資料、資料處理以及模型訓練。某些汽車製造商和公司還會用它生成合成資料,他們基本上就是生產汽車內部的電腦和晶片。有些公司與我們開展全端合作,有些則只合作部分環節。無論你們決定採用多少方案,我的唯一要求是:請儘可能多地使用視訊素材。而且,現在整個領域都已開放。這將成為首個大規模、主流的物理人工智慧市場。我認為我們都能完全認同,從非自動駕駛汽車到自動駕駛汽車的轉折點,很可能就在未來十年中的這個時刻發生——我對此相當確信。全球絕大多數汽車都將實現自動駕駛或高度自動駕駛。邁向工業新紀元:將物理AI應用於整個工業生命周期——從設計與模擬,到生產與營運但剛才描述的這種基礎技術——利用三台電腦進行合成資料生成與模擬——適用於所有形式的機器人系統。無論是關節式機械臂、移動機器人,還是類人機器人皆可適用。因此機器人系統的下一個發展階段,下一個時代,將屬於機器人。這些機器人將呈現出各種不同的尺寸。 我邀請了幾位朋友。他們來了嗎?現在,有一件事真的很棒——你們有Jetsons 的機器人。它們體內裝有微型電腦,在綜合訓練系統中接受訓練。讓我們給大家展示你們學習機器人技能的模擬器。你們想看看那個吧?好的,請看那個跑者。這是不是很神奇?這就是你學會當機器人的方式。所有知識都在 Omniverse 裡。機器人模擬器叫Isaac Lab。任何想造機器人的人——沒人能造出像你這麼可愛的機器人。但現在我們擁有了這麼多朋友都在造機器人。我們正在製造大型機器人。我們有很多建造機器人的朋友,包括New Robot、AG Bot。這邊還有 LG,他們剛發佈了新款機器人——卡特彼勒,他們擁有史上最大的機器人。那個能把食物送到你家門口的,是和優步外賣合作的;還有那個衝浪機器人。我超愛這些傢伙。敏捷機器人,波士頓動力公司,還有外科手術機器人。,法蘭克公司研發的機械臂機器人,Universal Robotics 的機器人,種類繁多得令人驚嘆。而這正是新篇章的開端。未來我們將深入探討機器人技術,但歸根結底,這不僅僅關乎機器人本身。我深知一切都圍繞著你們展開——關鍵在於實現目標。物理領域作為全球最重要的產業之一,即將因物理 AI 與人工智慧迎來革命性變革。正是物理技術催生了我們 NVIDIA 的誕生。若沒有接下來要介紹的這些企業,這一切都無從談起。我由衷欣喜地看到,從 Cadence 開始的所有夥伴都將加速推動這項變革。Cadence 能夠將其技術整合到所有模擬和求解器中。他們擁有 Nvidia 物理 AI 技術,將用於不同物理工廠和工廠模擬。人工智慧物理技術正融入這些系統。無論是 EDA 還是 STA,乃至未來的機器人系統,我們即將擁有與當前使你們成為可能的核心技術——它將徹底革新整個設計體系。Synopsys 與 Cadence 在晶片設計領域不可或缺,Synopsys 在邏輯設計和 IP 領域佔據領導地位。在 Cadence 領域,他們主導著物理設計、佈局布線以及模擬與驗證工作。Cadence 在模擬與驗證方面表現卓越。兩家公司都正向系統設計與系統模擬領域拓展。因此未來,我們將通過 Cadence 和 Synopsys 工具來設計晶片,在這些平台內完成系統設計、整體模擬及全面模擬。這就是你們的未來。我們將實現這樣的願景——是的,你們將誕生於這些平台之中。相當了不起,對吧?因此我們非常高興能與這些行業夥伴合作。正如我們已將輝達整合到 Palantir 及其服務中,現在我們正將輝達融入計算密集型模擬行業——Synopsys 和 Cadence。今天,我們宣佈西門子也將採取同樣舉措。我們將把CUDA-X、物理AI、智能體AI、NeMo、Nemotron深度整合到西門子的世界中。原因如下:首先,我們設計晶片,未來所有晶片都將實現加速運算。我們將與智能體專家、晶片設計師及系統設計師攜手合作,共同推進設計工作——正如如今智能體軟體工程師協助我們的軟體工程師編寫程式碼那樣。因此我們將擁有智能體晶片設計師和系統設計師。我們將在這其中創造,但隨後必須建造。我們需要建造工廠——那些製造工廠,我們必須設計裝配生產線。而這些製造工廠本質上將成為巨型機器人。難以置信。不是嗎?所以機器人將在電腦裡被設計出來,在電腦裡被製造出來,在電腦裡被測試和評估——這一切都發生在機器人真正接觸重力之前(面世之前)。現在我們創造的技術已經達到了如此精妙和強大的水平,能夠幫助他們革新自己的行業。來看看我們和西門子要合作的事項吧。“物理人工智慧領域的突破正推動人工智慧從螢幕走向現實世界。這一處理程序恰逢其時——當全球各地紛紛興建晶片、電腦、救命藥物及人工智慧工廠之際,面對日益嚴峻的全球勞動力短缺問題,我們比以往任何時候都更需要物理人工智慧與機器人技術驅動的自動化解決方案。人工智慧與全球最大實體工業的交匯點,正是輝達與西門子近兩百年來合作的基礎。西門子締造了全球工業體系,如今正為人工智慧時代重塑工業格局。西門子正將輝達 CUDA X 庫深度整合至其系統。輝達將物理 AI 融入其電子設計自動化(EDA)、C 語言、A 語言及數字孿生工具與平台的組合中。我們正攜手將物理 AI 應用於整個工業生命周期——從設計與模擬到生產與營運。我們正站在新一輪工業革命的起點,這個由輝達與西門子共同建構的物理 AI 時代,將引領工業邁向全新紀元。”迎接計算量指數級增長,重新發明AI——突破運算新邊界的Vera Rubin時代,全端整合的高效“AI工廠”迎接計算量指數級增長,輝達繼續突破運算新邊界,Vera Rubin時代正式開啟所以縱觀全球模型,OpenAI 無疑是頭號 token 生成器。如今它生成的 token 數量遠超其他任何模型。第二大陣營——很可能是開源模型。我預測隨著時間推移,由於眾多公司、研究者以及不同領域和模態的參與,開源模型終將佔據絕對主導地位。讓我們聊聊一位真正特別的人物。你們想聊聊嗎?來談談維拉·魯賓吧。她是美國天文學家,首次觀測到星系尾部的運動速度竟與星系中心相當。這聽起來很荒謬。牛頓物理學認為,就像太陽系一樣,離太陽越遠的行星繞太陽公轉的速度就越慢。因此,除非存在看不見的物體,否則這種現象就無法解釋。我們稱之為暗物質——她發現的暗物質佔據著空間,儘管我們看不見它。因此,維拉·魯賓就是我們下一台電腦的命名來源。Vera Rubin 的設計正是為解決我們面臨的這個根本性挑戰。人工智慧所需的計算量正在呈指數級增長,對輝達 GPU 的需求也在激增。這種激增源於模型規模每年以十倍的速率增長——整整一個數量級。更不用說,正如我提到的,o1 的推出標誌著人工智慧的轉折點:推理不再是一次性解答,而是成為了一個思考過程。為教會 AI 思考,強化學習及其海量計算需求被引入訓練後階段。這已不再是監督式微調(亦稱模仿學習或監督訓練),而是強化學習——電腦通過反覆迭代嘗試,自主學習任務執行方式。預訓練、後訓練及測試階段的計算量因此呈指數級增長。如今我們每次推理時,不再僅限於單次嘗試,而是能觀察到 AI 系統持續思考的過程——這種特性令人欣喜。思考時間越長,往往能得出更優解。測試時 Scaling(Test-Time Scaling)導致每年生成的 token 數量激增 5 倍。更不用說,人工智慧領域的競賽早已全面展開。人人都在衝刺新高度,爭相開拓新疆域。每當抵達新前沿,上一代 AI token 的成本便以每年 10 倍的速度遞減。這種逐年十倍的降幅實則傳遞著另一層訊號:競爭如此激烈,人人都在衝刺新高度,而總有人率先抵達。因此本質上這是場計算能力競賽——運算速度越快,越能率先突破新邊界。所有這些變革都在同一時刻同步發生。因此我們決定必須年年推進計算技術的進步,絕不讓任何一年落後。如今我們已量產 GB200 系列整整一年半,目前正全面投產 GB300 系列。若 Vera Rubin 要趕上今年進度,此刻必須已投入生產。今天我可以告訴各位,Vera Rubin 已全面投產。 各位想看看嗎?開始播放吧。“Vera Rubin 恰逢其時,迎來了人工智慧的新紀元。這是我們打造它的故事。其架構由六顆晶片構成,經精心設計可協同運作。源於極致的程式碼設計,它始於 Vera——一款定製設計的 CPU,性能較上一代提升一倍。以及Rubin GPU。Vera 與 Rubin 自始便協同設計,實現雙向、一致的資料共享,速度更快,延遲更低。隨後,17,000 個元件匯聚於 Vera Rubin 計算主機板。高速機器人以微米級精度完成元件安裝,待Vera CPU 與兩枚 Rubin GPU 就位後,整機即刻啟動——其人工智慧運算能力達 100 兆次浮點運算,較前代提升五倍。人工智慧需要高速資料傳輸。Connect X9 為每個 GPU 藍域提供每秒 1.6TB 的橫向擴展頻寬,配備 4 個 DPU 解除安裝儲存與安全模組,確保計算資源完全專注於 AI 任務。全新設計的 Vera Rubin 計算托盤摒棄了所有線纜、軟管和風扇,採用藍域設計,整合四組 DPU、八個 Connect X9 網路卡、兩顆 Vera CPU 及四塊 Rubin GPU。Vera Rubin 是人工智慧超級電腦的計算基元。其核心是第六代 NVLink 交換機,其資料傳輸量超越全球網際網路,連接 18 個計算節點,可擴展至 72 個 Rubin GPU 協同運作。配合 Spectrum X 乙太網路光子學技術——全球首款配備 512 通道、支援 200 千兆位速率的整合封裝光模組乙太網路交換機。數千機架匯聚成 AI 工廠。自設計啟動以來歷經 15,000 人年的研發,首台 Vera Rubin NVL72 機架正式上線。六款突破性晶片、18 個計算托盤、9 個 NV 鏈路交換托盤、220 兆個電晶體,整機重達近兩噸。這是邁向 AI 新邊疆的偉大飛躍。Rubin 時代已然來臨。”詳解Vera Rubin架構:極端協同設計、Vera CPU與Rubin GPU耦合、黑科技NVFP4你們覺得怎麼樣?這是個 Rubin 叢集。1152 個 GPU 和 16 個機架。每個機架,你們知道的,裝有 72 個 Vera Rubin 或 72 個 Rubin。每個 Rubin 實際上是由兩個 GPU 晶片組成的。我這就給你們展示。不過有幾件事,我稍後再告訴你們。 我不能立刻告訴你們所有細節。我們設計了六種不同的晶片。首先,我們公司內部有一個原則:每代產品中,晶片變更數量不應超過一到兩種。但問題在於——正如您所見,我們描述的是每款晶片中電晶體的總數。我們深知摩爾定律已大幅放緩,因此每年能實現的電晶體數量根本無法跟上十倍規模的晶片模型。它無法應對每年五倍增長的 tokens 生成量,更無法應對 token 成本將急劇下降的現實。要維持這種增長速度根本不可能。除非我們採取激進的極端協同設計策略——即在所有晶片層級、整個技術堆疊中同步創新——否則行業將難以持續進步。這正是我們決定在本代產品中重構所有晶片設計的根本原因。我們剛才描述的每款晶片,本身都足以成為一場新聞發佈會的主角。在過去,可能會有整家公司專門負責這件事。每款晶片都堪稱革命性突破,是同類產品中的佼佼者。Vera 處理器。我為它感到無比自豪。在一個受功率約束的世界裡,它的性能是上一代的兩倍,每瓦性能是世界上其他最先進 CPU 的兩倍;其資料傳輸速率令人驚嘆,它專為處理超級電腦而設計。Grace 曾是卓越的 GPU。如今維 Vera 大幅提升了單線程性能,擴展了記憶體容量,全面實現了突破性增長。這真是個了不起的突破。這是 Vera 中央處理器。這是一顆 CPU,它連接到 Rubin 圖形處理器。瞧瞧這大傢伙,簡直像艘巨型戰艦。現在要介紹真正特別的部分——我得用三隻手,不,四隻手才能展示清楚。這些 CPU 擁有 88 個處理器核心,每個核心都採用多線程設計。但 Vera 的多線程特性經過特殊設計,確保 176 條線程均能發揮完整性能。本質上相當於擁有 176 個線程,卻僅需 88 個物理核心。這些核心採用空間多線程技術建構,其 I/O 性能令人驚嘆。這是 Rubin GPU,其浮點運算性能達到 5 倍於 Blackwell 的水平。但重要的是,歸根結底,它只有 Blackwall 電晶體數量的 1.6 倍。這多少能說明當今半導體物理的水平。如果我們不做協同設計,如果我們不在系統中幾乎每一顆晶片上做極端的協同設計。我們怎麼可能每年最多交付 1.6 倍的性能?因為那是你擁有的電晶體總數。即使你每個電晶體的性能稍微高一點,比如 25%,你也很難從你獲得的躍遷次數中達到 100% 的良率。所以 1.6 倍的比例在每年性能的提升上設了上限,除非你採取極端措施,我們稱之為極端的協同設計。我們做過的一項很棒的發明叫做 NVFP4 Tensor Core。我們晶片內的變壓器引擎不僅僅是一個4位浮點數,我們以某種方式將其放入資料路徑。它是一個完整的處理器,一個處理單元,能夠動態自適應地調整其精度和結構,以應對變壓器的不同層級,從而在可能丟失精度的地方實現更高的吞吐量,並在需要的地方恢復到最高精度。這種動態實現的能力,在軟體中是做不到的,因為顯然運行速度太快了。所以你必須能夠在處理器內部自適應地實現。這就是 NVFP4 的定義。當有人說 FP4 或FPA ,對我們來說幾乎毫無意義。原因在於張量核心結構和所有演算法使它得以運作。NVFP4,我們已經發表過相關論文。吞吐量和精度能夠保持的精確度,令人難以置信。這是開創性的成果。我不會驚訝業界希望我們未來將這種格式、結構和行業標準制定。這完全是革命性的。這也是我們能夠實現如此巨大的性能提升的原因,儘管我們只有電晶體數量的 1.6 倍。高效的“AI工廠”系統:“液冷底盤+銅纜背板+矽光子乙太網路”的全端整合我們徹底革新了整個 NGX 底盤。這個節點,43 根電纜,零電纜,6 根管子。以前組裝這個如果幸運的話,花兩個小時。當然,你很可能會組裝錯。你得反覆測試、測試、重新組裝。組裝過程非常複雜。這也是可以理解的,因為我們最早的超級電腦之一就是這樣分解的,從兩小時到五分鐘,80%液態煤,100%液冷。是的,真的是一次突破。這就是新的電腦箱,將這些連接到頂層機架交換機、處理東西向流量的,叫做Spectrum-X網路卡。這毫無疑問是世界上最好的網路卡。收購的Melanox很久以前加入我們,他們用於高性能計算的網路技術是世界上無可挑剔的。演算法、晶片設計、所有互連、運行在其上的軟體棧、RDMA,都是世界上最好的。現在它具備了可程式設計的 RDMA 和資料路徑加速器的能力,讓我們的合作夥伴像 AI Labs 這樣可以建立自己的演算法,來處理系統中的資料,但這完全是世界級的。Connect X9 和 Vera CPU 是共同設計的,我們從未公開過,也從未發佈過,直到Connect X9 出現,因為我們共同設計了新的處理器類型。眾所周知,我們的 CX8 和 Spectrum X 徹底革新了人工智慧乙太網路的應用方式。AI的乙太網路流量強度更大,延遲也更低。流量瞬間激增,是乙太網路從未見過的。於是我們建立了Spectrum X,也就是AI乙太網路。兩年前,我們宣佈了 Spectrum X。如今,輝達是世界上最大的網路公司。所以它非常成功,被用於許多不同的裝置中,簡直是大範圍的。人工智慧領域的性能令人難以置信,尤其是當你擁有 200 兆瓦的資料中心或千兆瓦資料中心時。這些資料中心價值數十億美元,比如千兆瓦的資料中心,價值 500 億美元。如果網路性能允許你額外提供 10%。以 Spectrum X 為例,吞吐量提升 25% 並不罕見。如果我們只交付 10%,那就價值 50 億美元,網路完全免費,這也是為什麼大家都用 Spectrum X。這真是一件令人難以置信的事情。現在我們將發明一種新的資料處理方式。因此,東西向流量的頻譜接入,我們現在有了一種叫 Bluefield 4 的新處理器,它讓我們能夠將一個非常非常非常大的資料中心隔離出不同的部分,讓不同的使用者可以使用不同的部分,確保如果他們決定虛擬化,一切都可以實現虛擬化。這樣,你就能解除安裝很多虛擬化軟體、安全軟體以及南北向流量的網路軟體。因此, Bluefield 4 在所有這些計算節點上都是標配的。Bluefield 4還有第二個應用,我馬上會介紹。這是一台革命性的處理器,我對它感到非常興奮。這是 NVLink-6 開關,就在這裡。這個交換晶片,在 NVLink 交換機內部有四個。這些交換晶片中的每一個都是歷史上最快的30秒(性能)。全世界的速率才勉強達到 200 吉位元。這是一個 400 吉位元每秒的交換機。這之所以如此重要,是因為這樣我們就能讓每一塊 GPU 同時與其他 GPU 通訊。這個機架背板上的交換機使我們能夠以兩倍的速度傳輸相當於全球網際網路資料兩倍的總量。把整個地球網際網路的橫截面頻寬當作大約 100 TB 每秒,這是每秒 240 TB。所以這讓我有了更清晰的視角。這樣每塊 GPU 就能同時與其他所有 GPU 協同工作。後面是 NVLink 脊柱,基本上是兩英里長的銅纜。銅導體是我們所知最好的導體。這些都是遮蔽銅纜,結構銅纜,是世界上有史以來電腦系統中使用最多的銅纜。我們的 30MHz 則以 400 吉位元每秒的速度將銅纜從機架頂部一直驅動到機架底部。因此,這裡有 2 英里的銅纜,5000 根銅纜,這使得 NVLink 脊柱成為可能。這才是真正開啟 NGX 系統的革命。現在我們決定建立一個行業標準系統,讓整個生態系統、整個供應鏈都能對這些元件進行標準化。這些 NGX 系統由大約 8萬個不同的部件組成。而且每年都改變它完全是浪費精力,從富士康到廣達、威創,名單還在不斷,惠普、戴爾和聯想。每個人都知道如何建構這些系統。所以我們能把 Vera Rubin 整合其中,而且非常重要的是,功耗也高了一倍。Vera Rubin 的功耗是Grace Blackwell 的兩倍。然而,奇蹟是,進入它的空氣流量差不多。非常重要的是,進入水中的水溫度相同,45攝氏度。在45攝氏度的情況下,資料中心無需使用水冷機。我們基本上用熱水給超級電腦降溫,效率極高。這就是新的機架,電晶體數量是 1.7 倍,但峰值推理性能是它的 5 倍,峰值訓練性能是它的 3.5 倍。它們是用Spectrum X連接的。這是全球首款採用台積電新工藝 Coupe 的製造晶片,我們共同創新了 Coupe,這是一種矽光子學整合矽光子學工藝技術。這使得我們可以直接將矽光子學帶到晶片上。這是 512 個連接埠,速度為 200 吉位元每秒。這就是新的乙太網路 AI 交換機,Spectrum X 乙太網路交換機。看看這艘巨大的飛船。但真正令人驚訝的是,矽光子學直接連接到了它。雷射也進來了。雷射從這裡進來,光學裝置也在這裡,並連接到資料中心的其他部分。這就是新的Spectrum X 矽光子開關。正如我幾年前提到的,我們推出 Spectrum X 是為了重新定義網路建設的方式。乙太網路管理非常簡單,每個人都有乙太網路堆疊,世界上每個資料中心都知道如何處理乙太網路。當時我們唯一用的是所謂的InfiniBand,這用於超級電腦。InfiniBand 延遲非常低,但軟體棧,也就是 InfiniBand 的整體管理性,對使用乙太網路的人來說非常陌生。因此,我們決定首次進入乙太網路交換機市場。Spectrum-X一經推出就大獲成功,讓我們成為全球最大的網路公司。正如我提到的,下一代 Spectrum X 將延續這一傳統。AI時代的儲存革命:BlueField-4驅動的分佈式KV儲存,具備驚人的記憶體擴展能力但正如我之前說的,人工智慧已經重新定義了整個計算堆疊,每一層計算。可以推測,當人工智慧開始在全球企業中應用時,儲存的運作方式也將被重新定義。其實,人工智慧並不使用 SQL。AI 使用語義資訊。當人工智慧被使用時,它會創造一種臨時知識,即臨時記憶,稱為 KV 快取,基本上是 AI 的工作記憶。而 AI 的工作記憶儲存在HBM記憶體中。對於每一個 token,GPU都會讀入整個模型、整個工作記憶體,產生一個token,然後將這個token存回KV快取。下一次這樣做時,它會讀取整個記憶體,然後通過我們的 GPU 流式傳輸,然後生成另一個 token。它反覆這樣做,一個又一個 token。顯然,如果你和 AI 進行長時間的對話,上下文記憶會大幅增長。更不用說模型也在不斷增長。我們使用的回合數,AI 數量也在增加。我們希望這個人工智慧能陪伴我們一生,記住我們與它的所有對話,對吧?當然,隨著共享超級電腦的人數增加,要求的每一個研究連結都會持續增長。因此,這個最初能放進 HBM 的上下文記憶體,現在已經不夠大了。去年,我們建立了 Grace Blackwell 的快速上下文記憶體,這就是為什麼我們將Grace 直接連接到 Hopper,直接連接到 Blackwell,以擴展上下文記憶體。但即便如此,這還不夠。所以,下一個解決方案當然是走網路。但是,如果有大量 AI 同時在運行,網路將不再足夠快。所以答案很明確:需要一種不同的方法。因此,我們引入了 BlueField-4,,這樣我們就能在機架中儲存一個非常快速的 KV 快取上下文儲存。我馬上給你演示,但還有一整類全新的儲存系統。業界非常興奮,因為這幾乎是所有現在大量 tokens 生成者的痛點——AI實驗室、雲服務提供商,他們真的受困於KV快取移動所導致的網路流量。因此,我們創造了一個新平台,一個新的處理器來運行整個 Dynamo KV 快取,上下文記憶體管理系統,並將其放在非常靠近機架其他部分的地方,這完全是革命性的。每個這樣的機架後面有四個 BlueField-4。每個 BlueField-4 後面有 150 TB的上下文記憶體。分攤到每個GPU上,每個GPU將獲得額外的 16 TB 記憶體。現在,在這個節點內部,每個 GPU 原本大約有 1 TB 記憶體。現在有了這個位於同一條東西向流量上、資料速率完全相同(每秒200Gb)的支撐儲存,橫跨整個計算節點的網路結構,你將獲得額外的 16 TB記憶體。Vera Rubin的終極表現:節省6%整體電力、端到端機密計算、功率平滑的電力最佳化、通往前沿模型的速度和性能飛躍這是管理平面。這些是連接所有裝置之間的Spectrum X交換機。在另一邊,這些交換機在末端連接它們和資料中心的其他部分。這就是 Vera Rubin。這裡有幾件事真的很令人難以置信。我首先提到的是,整個系統的能效是溫度性能的兩倍,也就是說即使功率是兩倍,消耗的能量也翻倍,計算量也遠遠超過這個數值。但進入它的液體溫度仍然是45攝氏度。這使我們能夠節省約6%的資料中心電力。所以這非常重要。第二個非常重要的點是,整個系統現在實現了機密計算安全,意味著所有內容在靜止和計算過程中都被編碼,每一條匯流排都被加密了。每個PCIe、每個NVLink、每個HBM……CPU與記憶體、CPU與GPU之間、GPU與GPU之間,一切現在都是加密的;所以它是保密的,計算安全。這讓企業可以放心,因為他們的模型被別人部署了,但這些模型永遠不會被別人看到。所以這個系統不僅極其節能,還有一件非常重要的事情。由於人工智慧的工作負荷特性,它會瞬間激增,這個叫做“全歸約”的計算層所使用的電流量、能量同時飆升,常常會突然激增 25%。現在,我們在整個系統中實現了功率平滑,這樣你就不需要過度配置 25% 的容量,或者如果你過度配置了,你也不必讓那 25% 的能源被浪費或閒置。現在,你可以用滿整個功率預算,而不需要過度配置。最後當然是性能。那麼我們來看看它的性能。這些圖表只有那些製造人工智慧超級電腦的人會喜歡。它需要精確完成,每一塊晶片都完成了。重新設計每一個系統,並重寫整個技術堆疊,使這成為可能。基本上,這就是訓練 AI 模型,第一列,你訓練得越快,就能越快將下一個前沿推向世界。現在是你推銷市場的好時機。這就是技術領導力。這就是你的定價權。比如綠色部分代表一個 10 兆參數模型(我們稱之為DeepSeek++),需要基於100 兆 token 進行訓練。這就是我們對建構下一個前沿模型所需條件的模擬預測。下一個前沿模型(埃隆已經提到,我認為 Grok 5 的下一版本是7兆參數),綠線是 Blackwell。而在 Rubin 的情況下,在我們給出的時間——一個月內訓練模型所需的時間僅為四分之一。時間對每個人來說都是一樣的。現在,你能訓練模型的速度和速度,以及能訓練多大的模型,就是你能先到達前沿的方法。第二部分是工廠的吞吐量。綠線仍是 Blackwell。工廠吞吐量很重要,因為以千兆瓦為例,工廠價值是 500 億美元。一個價值 500 億美元的資料中心只能消耗 1 吉瓦的電力。所以,如果你的性能、每瓦吞吐量非常好或很差,這直接對應到資料中心的收入,這與第二列直接相關。而 Blackwell 的案例則是 Hopper 的十倍。Rubin 在此基礎上再提升 10 倍。而生成 token 的成本,Rubin 降到 1/10。這就是我們如何讓大家邁向下一個前沿,推動人工智慧邁向新高度,建設這些資料中心時既能效又省成本。輝達正在建構整個系統:從晶片到基礎設施、從模型再到應用,建立整個技術堆疊,重新發明AI這就是今天的 Nvidia。我們製造晶片,但正如你所知,輝達現在建構整個系統,完整的全端 AI 系統——我們正在從晶片到基礎設施、從模型再到應用的各個方面重新發明人工智慧。我們的工作是建立整個技術堆疊,讓你們都能為全世界創造出令人難以置信的應用。感謝大家的到來。祝你CES愉快!在讓你們走之前,有一大堆幻燈片我們得剪輯,必須留在剪輯區。所以我們這裡有一些未播花絮。我想你會覺得很有趣。祝大家好運! (王錚Silvia)