#主題演講
【CES 2026】NVIDIA CES 2026 主題演講:AI 與加速計算的工業革命 (完整演講稿)
你好,拉斯維加斯!新年快樂,歡迎來到 CES。這裡的觀眾大概有 3000 人,外面的庭院裡還有 2000 人在觀看,據我在四樓原本應該是 NVIDIA 展區的地方還有 1000 人在觀看這場主題演講。當然,全世界還有數百萬人正在觀看這場直播,共同開啟新的一年。嗯,我們大概有 15 公斤重的乾貨要在這裡塞給大家。非常高興見到大家。每隔 10 到 15 年,電腦行業就會發生一次重設。新的平台轉移會出現:從大型機到 PC,從 PC 到網際網路,從網際網路到雲,從雲到移動端。每一次,應用程式的世界都會瞄準一個新的平台,這就是為什麼它被稱為“平台轉移”。你為新的電腦編寫新的應用程式。但這一次,實際上有兩個平台轉移同時發生。當我們轉向 AI 時,應用程式將建立在 AI 之上。起初,人們認為 AI 本身就是應用程式。事實上,AI 確實是應用程式,但你們將會在 AI 之上建構應用程式。除此之外,軟體的運行方式、軟體的開發方式也發生了根本性的變化。電腦行業的整個製造堆疊(Foundry stack)正在被重新發明。你不再編寫軟體,而是訓練軟體。你不再在 CPU 上運行它,而是在 GPU 上運行它。過去的應用程式是預先錄製、預先編譯並在你的裝置上運行的,而現在的應用程式能夠理解上下文,並且每一次都完全從零開始生成每一個像素、每一個 Token(詞元)。計算因此被從根本上重塑了,這歸功於加速計算,歸功於人工智慧。這五層蛋糕的每一層現在都在被重新發明。這意味著過去十年中大約10兆美元的計算基礎設施現在正在向這種新的計算方式現代化。這意味著每年有數千億美元的風險投資正在投入到現代化和發明這個新世界的過程中。這也意味著 100兆美元的產業,其中一部分研發預算正在轉向人工智慧。人們問錢從那裡來?這就是錢的來源。從傳統方法到 AI 的現代化,研發預算從經典方法向人工智慧方法的轉移。巨大的投資正在湧入這個行業,這也解釋了為什麼我們如此忙碌,去年也不例外。去年是不可思議的一年。(PPT 翻頁卡頓)這裡有一張幻燈片要出來。這就是不做綵排的後果。這是今年的第一場主題演講。我希望這也是你們今年的第一場主題演講,否則你們就已經夠忙的了。我們要把蜘蛛網清掃一下。2025 年是不可思議的一年。似乎所有事情都在同一時間發生,事實上可能確實如此。首先當然是縮放定律(Scaling Laws)。2015 年,第一個我認為真正產生影響的語言模型 BERT 出現了,它帶來了巨大的變化。2017年Transformer 問世。直到五年後的 2022 年,ChatGPT 時刻發生了,它喚醒了世界對人工智慧可能性的認識。那之後的一年發生了一件非常重要的事情。來自 ChatGPT 的第一個o1模型,即第一個推理模型,完全革命性地發明了這個叫做測試時縮放(Test Time Scaling)的概念,這是一個非常符合常識的事情。我們不僅預訓練一個模型讓它學習,我們還用強化學習對它進行後訓練(Post-train),使它能夠學習技能。現在我們還有了測試時縮放,換句話說就是“思考”。你在即時地思考。人工智慧的每一個階段都需要巨大的計算量,而計算定律在繼續擴展。大型語言模型(LLM)繼續變得更好。與此同時,另一個突破發生了,這一突破發生在 2024 年。代理系統(Agentic Systems)在 2025 年開始湧現。它開始普及到幾乎所有地方。代理模型擁有推理、尋找資訊、做研究、使用工具、規劃未來、模擬結果的能力。突然之間,它們開始解決非常非常重要的問題。我最喜歡的代理模型之一叫做 Cursor,它徹底改變了我們在NVIDIA 進行軟體程式設計的方式。代理系統將從這裡真正起飛。當然,還有其他類型的 AI。我們知道大型語言模型並不是唯一的資訊類型。只要宇宙有資訊,只要宇宙有結構,我們就可以教一個大型語言模型、一種形式的語言模型去理解這些資訊,理解它的表徵,並將其轉化為 AI。其中最重要、最大的一個就是物理AI(Physical AI)。即理解自然法則的 AI。物理 AI 是關於 AI 與世界互動的,但世界本身有編碼的資訊,這叫做AI物理學(AI Physics)。也就是說,物理 AI 是與物理世界互動的 AI,而 AI 物理學是理解物理定律的 AI。最後,去年發生的最重要的事情之一是開放模型(Open Models)的進步。我們現在知道,當開源、當開放創新、當全世界每個公司和每個行業的創新被啟動時,AI 將會無處不在。實際上,去年我們看到了DeepSeek R1 的進步,這是第一個開放的推理系統模型。它讓世界大吃一驚,它真正啟動了整個運動。非常非常令人興奮的工作。我們對它非常滿意。現在我們在全世界有各種各樣的開放模型系統,我們現在知道開放模型也已經達到了前沿。雖然穩固地落後於前沿模型六個月,但每六個月都有一個新模型出現,這些模型因為這個原因變得越來越聰明。你可以看到下載量爆炸式增長。下載量增長如此之快,是因為初創公司想參與 AI 革命,大公司想要參與,研究人員想要參與,學生想要參與,幾乎每個國家都想要參與。數字形式的智能怎麼可能拋下任何人呢?所以開放模型去年真正徹底改變了人工智慧。整個行業將因此被重塑。其實我們很久以前就有這種預感。你們可能聽說過幾年前,我們開始建立和營運我們自己的 AI 超級電腦。我們稱之為DGX Cloud。很多人問,你們是要進入雲業務嗎?答案是不。我們建立這些 DGX 超級電腦是為了自己使用。事實證明,我們營運著數十億美元的超級電腦,以便我們可以開發我們的開放模型。我對我們正在做的工作感到非常高興。它開始吸引全世界和各行各業的關注,因為我們在許多不同的領域做著前沿的 AI 模型工作。我們在蛋白質和數字生物學方面的工作:Llama-Protina 用於合成和生成蛋白質。OpenFold 3 用於理解蛋白質結構。Evo 2 用於理解和生成多種蛋白質,也就是細胞表徵的開端。Earth-2:理解物理定律的 AI。我們在 ForecastNet 和 CorrDiff 方面的工作真正徹底改變了人們進行天氣預測的方式。Nemotron:我們在那裡做了開創性的工作。第一個混合 Transformer SSM 模型,速度極快,因此可以思考很長時間,或者非常快地思考不需要很長時間就能產生非常聰明的智能答案。Nemotron-3 是開創性的工作,你可以期待我們在不久的將來發佈 Nemotron-3 的其他版本。Cosmos:一個前沿的開放世界基礎模型,一個理解世界如何運作的模型。Groot:一個人形機器人系統,涉及關節、移動性、運動。這些模型、這些技術現在正在被整合,並且在每一個案例中都向世界開放。前沿的人形機器人模型向世界開放。今天我們要稍微談談Alpamayo,我們在自動駕駛汽車方面所做的工作。我們不僅開源模型,我們還開源了用於訓練這些模型的資料,因為只有那樣你才能真正信任模型是如何產生的。我們開源所有模型。我們幫助你們從中通過衍生產品。我們有一整套庫,我們稱之為 NeMo 庫、物理 NeMo 庫和 Clara NeMo 庫(BioNeMo)。這些庫中的每一個都是 AI 的生命周期管理系統,以便你可以處理資料、生成資料、訓練模型、建立模型、評估模型、為模型設定護欄,一直到部署模型。每一個庫都極其複雜,所有這些都是開放原始碼的。因此,在這個平台之上,NVIDIA 是一個前沿的 AI 模型建構者,我們以一種非常特殊的方式建構它。我們完全在公開環境中建構它,以便我們可以賦能每個公司、每個行業、每個國家成為這場 AI 革命的一部分。我對自己在那裡的工作感到無比自豪。事實上,如果你注意圖表,圖表顯示我們對這個行業的貢獻是首屈一指的,你會看到我們實際上會繼續這樣做,甚至加速。這些模型也是世界級的。(突然螢幕黑屏/技術故障)所有系統都癱瘓了。這種事在聖克拉拉(NVIDIA總部)從來不會發生。是因為拉斯維加斯嗎?是不是有人在外面的老虎機中大獎了?所有系統都癱瘓了。好吧,我想我的系統還是癱瘓的,但這沒關係。我會即興發揮。所以,不僅這些模型具有前沿能力,不僅它們是開放的,它們還在排行榜上名列前茅。這是我們非常自豪的一個領域。它們在智能方面名列前茅。我們有重要的模型可以理解多模態文件,也就是 PDF。世界上最有價值的內容都捕捉在PDF 中。但這需要人工智慧來找出裡面的內容,解釋裡面的內容,並幫助你閱讀它。所以我們的 PDF 檢索器、我們的PDF 解析器是世界級的。我們的語音識別模型絕對是世界級的。我們的檢索模型,基本上就是搜尋、語義搜尋、AI 搜尋——現代 AI 時代的資料庫引擎,也是世界級的。所以,我們經常佔據排行榜榜首。這是我們非常自豪的領域。所有這一切都是為了服務於你們建構AI智能體(AI Agents)的能力。這確實是一個開創性的發展領域。你知道,起初當 ChatGPT 出來時,人們說,天那,它產生了非常有趣的結果,但它產生了嚴重的幻覺(胡言亂語)。它產生幻覺的原因,當然是因為它可以記住過去的一切,但它無法記住未來和現在的一切。所以它需要以研究為基礎(Grounding)。在回答問題之前,它必須做基礎研究。推理的能力——關於我是否需要做研究?我是否需要使用工具?我如何將一個問題分解成步驟?每一個步驟都是 AI 模型知道如何做的,並將它們組合成一系列步驟來執行它從未做過、從未被訓練過的事情。這就是推理的奇妙能力。我們可以遇到以前從未見過的情況,並將其分解為我們知道如何做的情況、知識或規則,因為我們在過去經歷過。現在,大型語言模型已經實現了這一根本性的飛躍。使用強化學習和思維鏈(Chain of Thought)、搜尋和規劃以及強化學習中的所有這些不同技術的能力,使我們擁有這種基本能力成為可能,並且現在也完全開源了。但真正棒的事情是另一個突破,我第一次看到它是在 Aravind 的Perplexity 上。Perplexity 這家 AI 搜尋公司,真的是一家非常有創意的公司。當我第一次意識到他們同時使用多個模型時,我認為這完全是天才。當然,我們會這樣做。當然,AI 也會呼叫世界上所有偉大的 AI 來解決它想在推理鏈的任何部分解決的問題。這就是為什麼 AI 真正是多模態(Multi-modal)的。意味著它們理解語音、圖像、文字、視訊、3D 圖形和蛋白質。它是多模態的。它也是多模型(Multi-model)的。意味著它應該能夠使用最適合該任務的任何模型。根據定義,它是多雲(Multi-cloud)的。因為這些 AI 模型位於所有這些不同的地方。它也是混合雲(Hybrid cloud)的。因為如果你是一家企業公司,或者你製造了一個機器人或任何裝置,有時它在邊緣,有時在無線電訊號塔,也許有時在企業內部,或者也許在醫院這樣你需要資料即時就在你身邊的地方。無論那些應用程式是什麼,我們現在知道這就是未來 AI 應用程式的樣子。或者換一種方式思考,因為未來的應用程式是建立在 AI 之上的。這就是未來應用程式的基本框架。這個基本框架,這種能夠做我所說的那些事情的代理 AI 的基本結構——即多模型的結構,現在已經為各種各樣的 AI 初創公司注入了強勁動力。現在你也可以,因為有了所有的開放模型和我們提供給你們的所有工具,你可以定製你的 AI 來教你的 AI 別人沒有教過的技能。沒有別人讓他們的 AI 以那種方式變得智能或聰明。你可以為自己做這件事。這就是我們在 Nemotron、NeMo 以及我們在開放模型方面所做的所有事情旨在做的。你在它前面放一個智能路由器(Smart Router)。那個路由器本質上是一個管理者,根據你給出的提示的意圖,決定那一個模型最適合那個應用程式來解決那個問題。好的。所以現在當你思考這個架構時,你擁有了什麼?當你思考這個架構時,突然之間你有了一個 AI:一方面完全由你定製。你可以教它為你公司的特定技能。它是商業機密,你有深厚的領域專業知識。也許你擁有訓練該 AI 模型所需的所有資料。另一方面,你的 AI 根據定義總是處於前沿。你總是擁有一方面的前沿技術。另一方面,你總是定製化的。而且它應該能直接運行。所以我們想我們會做一個最簡單的例子來讓你們可以使用。整個框架我們稱之為Blueprint(藍圖),我們的藍圖已經整合到世界各地的企業 SaaS 平台中,我們對進展感到非常高興。但我們要做的是向你們展示一個簡短的例子,說明任何人都可以做什麼。(演示視訊開始)(畫外音:讓我們建構一個個人助理。我想讓它幫我處理日曆、郵件、待辦事項列表,甚至幫我照看家裡。我使用 Brev 將我的 DGX Spark 變成個人云。所以我可以使用相同的介面,無論我是使用雲 GPU 還是 DGX Spark。我使用前沿模型 API 來輕鬆開始。)(音樂)(畫外音:我想讓它幫我處理郵件,所以我為我的代理建立了一個郵件工具來呼叫。我希望我的郵件保持私密,所以我將加入一個在 Spark 上本地運行的開放模型。現在,對於任何工作,我都希望代理為正確的任務使用正確的模型。所以我將使用一個基於意圖的模型路由器。這樣,需要郵件的提示將留在我的 Spark 上,其他所有內容都可以呼叫前沿模型。)(畫外音:我想讓我的助手與我的世界互動,所以我將它連接到 Hugging Face 的 Reachi 迷你機器人。我的代理通過工具呼叫控制Reachi 的頭、耳朵和攝影機。我想給 Reachi 一個聲音,我真的很喜歡 ElevenLabs,所以我將連接他們的API。)Reachi (機器人聲音): 嗨,我是運行在DGX Spark 上的 Reachi。使用者: 嘿 Reachi,今天我的待辦事項列表上有什麼?Reachi: 你今天的待辦事項列表:買雜貨、雞蛋、牛奶、黃油,還要把新指令碼發給 Jensen。使用者: 好的,給Jensen 發個更新。告訴他我們在今天結束前會給他。Reachi: 好的,會做的。使用者: Reachi,這兒還有個草圖。你能把它變成建築渲染圖嗎?Reachi: 當然。(音樂,生成渲染圖)使用者: 不錯。現在做一個視訊,帶我參觀一下這個房間。Reachi: 給你。使用者: 太棒了。通過Brev,我可以分享對我的 Spark 和 Reachi 的存取權。所以我要把它分享給Anna。Anna: 嘿,Reachi。Potato(寵物名)在幹什麼?Reachi: 他在沙發上。我記得你不喜歡這樣。我會叫他下去。Potato,下沙發!(畫外音:隨著開放原始碼的所有進展,看到你能建構什麼是令人難以置信的。我很想看看你會創造什麼。)(演示視訊結束)(音樂)這難道不令人難以置信嗎?現在,令人驚奇的是,這現在是完全微不足道的事情。這現在完全是微不足道的。然而,就在幾年前,所有這些都是不可能的。絕對無法想像。這種使用語言模型建構應用程式的基本框架——使用那些預訓練的、專有的、前沿的語言模型,並將其與定製的語言模型結合到一個代理框架、一個推理框架中,使你可以訪問工具和檔案,甚至連接到其他代理。這基本上就是現代 AI 應用程式或應用程式的架構。我們建立這些應用程式的能力非常快。注意,如果你給它以前從未見過的應用程式資訊,或者以一種並不完全像你想的那樣表示的結構,它仍然可以推理並盡最大努力通過資料和資訊來推理,試圖理解如何解決問題。這就是人工智慧。好的,所以這個基本框架現在正在被整合。正如我剛才描述的一切,我們有幸與世界上一些領先的企業平台公司合作。例如 Palantir,他們整個 AI 和資料處理平台正在由NVIDIA 加速。ServiceNow,世界領先的客戶服務和員工服務平台。Snowflake,雲端頂級資料平台。那裡正在做令人難以置信的工作。CodeRabbit,我們在 NVIDIA 各處都在使用CodeRabbit。CrowdStrike,建立 AI 來檢測和發現 AI威脅。NetApp,他們的資料平台現在上面有 NVIDIA 的語義 AI 和代理系統,用於做客戶服務。但重要的是這一點。這不僅是現在開發應用程式的方式,這將是你平台的使用者介面。所以無論是 Palantir、ServiceNow、Snowflake 還是我們要合作的許多其他公司,代理系統就是介面。不再是 Excel 和一堆你需要輸入資訊的方塊。也許不再僅僅是命令列。所有這些多模態資訊現在都成為可能,你與平台互動的方式更像是……如果你願意的話,就像你與人互動一樣簡單。這就是被代理系統徹底革命化的企業 AI。接下來的事情是物理AI(Physical AI)。這是你們聽我談論了幾年的領域。事實上,我們在這方面已經工作了八年。問題是,如何將那種在電腦內部很智能、通過螢幕和揚聲器與你互動的東西,變成可以與世界互動的東西?也就是說,它可以理解世界如何運作的常識。物體恆存性(Object permanence):如果我把視線移開再看回來,那個物體還在那裡。因果關係(Causality):如果我推它,它會倒下。它理解摩擦力和重力。理解慣性:一輛重型卡車沿路行駛需要更多的時間停下來,一個球會繼續滾動。這些概念對一個小孩子來說都是常識,但對 AI 來說完全是未知的。所以我們必須建立一個系統,允許 AI 學習物理世界的常識,學習它的定律,當然也要能夠從資料中學習,而資料是非常稀缺的。並且要能夠評估那個 AI 是否在工作,這意味著它必須在一個環境中進行模擬。AI 如何知道它正在執行的動作是否符合它應該做的,如果它沒有能力模擬物理世界對其動作的反應?模擬其動作的反應對於評估它非常重要。否則,就沒有辦法評估它。每次都不一樣。所以這個基本系統需要三台電腦。1.第一台電腦,當然是我們知道的 NVIDIA 製造的用於訓練AI模型的電腦。2.另一台電腦,我們知道是用於推理的電腦。推理模型本質上是運行在汽車裡、機器人裡、工廠裡或邊緣任何地方的機器人電腦。3.但必須有第三台電腦,它是為模擬而設計的。模擬幾乎是 NVIDIA 所做一切的核心。這是我們最舒適的地方,模擬確實是我們用物理 AI 所做幾乎所有事情的基礎。所以我們有三台電腦和運行在這些電腦上的多個堆疊、這些庫使其變得有用。Omniverse 是我們的數字孿生、基於物理的模擬世界。Cosmos,正如我之前提到的,是我們的基礎模型。不是語言的基礎模型,而是世界的基礎模型。並且也與語言對齊。你可以說像“球發生了什麼?”這樣的話,它們會告訴你球正滾下街道。所以是一個世界基礎模型。然後當然是機器人模型。我們有兩個。一個叫 Groot。另一個叫Alpamayo,我將要告訴你們。現在,對於物理 AI,我們必須做的最重要的事情之一是首先建立用於訓練 AI 的資料。資料從那裡來?與其像語言那樣,因為我們建立了一堆文字,那是我們認為 AI 可以從中學習的基準事實(Ground Truth)。我們如何教 AI 物理的基準事實?有非常多的視訊,非常多的視訊,但這幾乎不足以捕捉我們需要的多樣性和互動類型。這就是偉大的頭腦聚集在一起,將曾經的計算轉化為資料的地方。現在使用以物理定律為基礎和條件的合成資料生成(Synthetic Data Generation),以基準事實為基礎和條件,我們可以有選擇地、巧妙地生成資料,然後我們可以用這些資料來訓練 AI。例如,輸入到這個 AI、這個Cosmos 世界模型(左邊的)的是交通模擬器的輸出。這個交通模擬器對於 AI 學習來說幾乎不夠。我們可以把這個放入Cosmos 基礎模型中,生成環繞視訊,它是基於物理的、物理上合理的,AI 現在可以從中學習。這有太多例子了。讓我向你們展示 Cosmos 能做什麼。(Cosmos 演示視訊開始)(畫外音:物理 AI 的 ChatGPT時刻即將到來,但挑戰是顯而易見的。物理世界是多樣且不可預測的。收集真實世界的訓練資料緩慢且昂貴,而且永遠不夠。)(畫外音:答案是合成資料。它始於 NVIDIA Cosmos,一個用於物理AI 的開放前沿世界基礎模型。它在網際網路規模的視訊、真實駕駛和機器人資料以及 3D 模擬上進行了預訓練。Cosmos學習了世界的統一表徵,能夠對齊語言、圖像、 3D 和動作。)(畫外音:它執行物理 AI 技能,如從單張圖像進行生成、推理和軌跡預測。Cosmos從3D 場景描述中生成逼真的視訊。從駕駛遙測和感測器日誌中生成物理上連貫的運動。)(畫外音:來自規劃模擬器、多攝影機環境或場景提示的環繞視訊。它將邊緣情況(Edge Cases)帶入生活。開發者可以在Cosmos 中運行互動式閉環模擬。當動作產生時,世界會做出反應。)(畫外音:Cosmos 進行推理。它分析邊緣場景,將它們分解為熟悉的物理互動,並推理接下來可能發生的事情。Cosmos 將計算轉化為資料,為長尾情況訓練自動駕駛汽車(AV),並訓練機器人如何適應每一種場景。)(演示視訊結束)(音樂)我知道這令人難以置信。Cosmos 是世界領先的基礎模型。世界基礎模型。它已經被下載了數百萬次,在世界各地使用,讓世界為這個物理 AI 的新時代做好準備。我們也自己使用它。我們自己使用它來建立我們的自動駕駛汽車。用於場景生成和用於評估。我們可以擁有讓我們有效地行駛數十億、數兆英里的東西,但在電腦內部完成。我們取得了巨大的進步。今天,我們宣佈Alpamayo,世界上第一個會思考、會推理的自動駕駛汽車AI。Alpamayo 是端到端(End-to-End)訓練的。從字面上看,從攝影機輸入到執行輸出。攝影機輸入:大量由其自身駕駛或人類演示駕駛的里程,並且我們有大量由 Cosmos 生成的里程。除此之外,成千上萬的例子被非常非常仔細地標記,以便我們可以教汽車如何駕駛。Alpamayo 做了一些非常特別的事情。它不僅接收感測器輸入並啟動方向盤、剎車和加速,它還推理它即將採取的行動。它告訴你它將採取什麼行動,它得出該行動的理由,當然還有軌跡。所有這些都直接耦合,並由大量人類訓練資料以及 Cosmos 生成的資料組合進行非常具體的訓練。結果簡直令人難以置信。你的車不僅像你期望的那樣駕駛,而且它駕駛得如此自然,因為它直接從人類演示者那裡學習,而且在每一個場景中,當它遇到場景時,它會推理它要做什麼,並推理它即將要做什麼。這之所以如此重要,是因為駕駛的長尾效應(Long Tail)。我們不可能簡單地為每一個國家、每一個可能發生的情況、所有人口收集每一個可能的場景。然而,很有可能如果將每個場景分解成一堆其他的更小的場景,對於你要理解來說是很正常的。所以這些長尾將被分解為相當正常的情況,這輛車知道如何處理。它只需要對其進行推理。所以讓我們來看一看。你們即將看到的一切都是一次通過(One shot)。無手操作。(自動駕駛演示視訊開始)(音樂)聲音:導航至目的地。系好安全帶。(音樂)AI 聲音/提示:Heat. Heat. Heat.(註:此處為 AI 思考過程的聲音化或介面提示音,可能指熱力圖關注點或特定指令)(音樂)AI 聲音/提示:Heat.(音樂,車輛在複雜路況行駛,包括避讓、轉彎)AI 聲音/提示:Heat. Heat.AI 聲音/提示:Heat. Heat.(音樂)AI 聲音/提示:Heat. Heat.(掌聲)(音樂)AI 聲音/提示:Heat.(音樂)(掌聲)AI 聲音/提示:Heat.(音樂)(音樂)聲音:你已到達。(演示視訊結束)我們八年前開始研究自動駕駛汽車。原因是因為我們在早期推理出深度學習和人工智慧將重新發明整個計算堆疊。如果我們想要瞭解如何導航並將行業引向這個新的未來,我們必須擅長建構整個堆疊。就像我之前提到的,AI 是一個五層蛋糕。最底層是土地、電力和外殼。在機器人技術的情況下,最底層是汽車。上面一層是晶片,GPU,網路晶片,CPU,所有這類東西。再上面一層是基礎設施。在這種特定情況下,正如我提到的物理 AI,那個基礎設施是Omniverse 和 Cosmos。再上面是模型。在我剛才展示的模型層中,這裡的模型叫做Alpamayo。今天,Alpamayo 已經開源。這項令人難以置信的工作。這花了數千人。我們的 AV(自動駕駛)團隊有數千人。作為參考,我們的合作夥伴 Ola,我想 Ola 就在觀眾席的某個地方。梅賽德斯(Mercedes)五年前同意與我們合作,使這一切成為可能。我們想像有一天,道路上的十億輛汽車都將是自動駕駛的。你可以擁有一輛你正在編排並從某人那裡租用的 Robo Taxi(自動駕駛計程車),或者你可以擁有它並且它自己駕駛,或者你可以決定自己駕駛。但是每一輛車都將擁有自動駕駛汽車的能力。每一輛車都將由 AI 驅動。所以在這種情況下,模型層是Alpamayo,而上面的應用程式是梅賽德斯-奔馳。好的。所以這整個堆疊是我們的第一個NVIDIA First 全堆疊努力,我們一直致力於此,我很高興來自 NVIDIA 的第一輛 AV 汽車將在第一季度上路,然後在第二季度去歐洲,這裡是美國第一季度,然後歐洲第二季度,我想亞洲是第三季度和第四季度。而且強有力的事情是,我們將繼續用下一版本的Alpamayo和之後的版本更新它。我現在毫無疑問,這將是最大的機器人行業之一,我很高興我們致力於此,它教會了我們大量關於如何幫助世界其他地方建構機器人系統的知識。那種深刻的理解,知道如何自己建構它,自己建構整個基礎設施,並知道機器人系統需要什麼樣的晶片。在這個特定案例中,雙 Orin,下一代雙 Thor。這些處理器是為機器人系統設計的,並且是為了最高等級的安全能力而設計的。這輛車剛剛獲得評級。它剛剛投入生產。梅賽德斯-奔馳 CLA 剛剛被NCAP 評為世界上最安全的汽車。這是我所知道的唯一一個每一行程式碼、晶片、系統、每一行程式碼都經過安全認證的系統。整個模型系統基於感測器是多樣化和冗餘的,自動駕駛汽車堆疊也是如此。Alpamayo 堆疊是端到端訓練的,擁有令人難以置信的技能。然而,直到你永遠駕駛它,沒有人知道它是否會絕對安全。所以我們用另一個軟體堆疊來作為護欄(Guardrail),下面是一個完整的AV 堆疊。那個完整的 AV 堆疊是建構為完全可追溯的,我們花了大約五年時間來建構它。實際上大概六七年來建構第二個堆疊。這兩個軟體堆疊相互鏡像,然後我們有一個策略和安全評估器(Policy and Safety Evaluator)來決定:這是我有信心並可以推理出安全駕駛的事情嗎?如果是這樣,我會讓Alpamayo來做。如果這是一種我不太自信的情況,並且安全策略評估器決定我們要回到一個非常更簡單、更安全的護欄系統,那麼它就會回到經典的 AV 堆疊。這是世界上唯一同時運行這兩個 AV 堆疊的汽車,所有安全系統都應該具有多樣性和冗餘性。我們的願景是有一天每一輛車、每一輛卡車都將是自動駕駛的,我們一直在朝著那個未來努力。這整個堆疊是垂直整合的。當然,在梅賽德斯-奔馳的案例中,我們一起建構了整個堆疊。我們將部署這輛車。我們將營運這個堆疊。我們將維護這個堆疊,只要我們還活著。然而,就像我們作為一家公司所做的一切一樣。我們建構整個堆疊,但整個堆疊對生態系統是開放的。與我們合作建構 L4 和 Robo Taxi 的生態系統正在擴大,並走向各地。我完全預計這將會是——這對於我們來說已經是一個巨大的業務。這對我們來說是一個巨大的業務,因為他們用它來訓練我們的訓練資料、處理資料和訓練他們的模型。在某些情況下,他們用它來生成合成資料;在一些汽車公司,他們幾乎只建構汽車內部的電腦晶片;有些公司與我們進行全端合作;有些公司與我們進行部分合作。好的。所以不管你決定使用多少都沒有關係。我唯一的請求是儘可能多地使用一點視訊,整個東西都是開放的。這將是第一個大規模主流 AI 物理 AI 市場。現在我認為我們都可以完全同意,從非自動駕駛汽車到自動駕駛汽車的這個拐點可能就在這個時候發生。在接下來的 10 年裡,我相當確定世界上很大一部分汽車將是自動駕駛或高度自動駕駛的。但我剛才描述的這個基本技術——使用三台電腦、使用合成資料生成和模擬——適用於每一種形式的機器人系統。它可能是一個只是關節、機械手的機器人,也許是一個移動機器人,也許是一個完全人形的機器人。所以下一個旅程,機器人系統的下一個時代將是,你知道,機器人。這些機器人將會有各種不同的大小和……我邀請了一些朋友。他們來了嗎?嘿夥計們,快點。我有很多東西要講。快點,快點。你們告訴R2-D2 你們要來這裡嗎?你們告訴了嗎?還有 C-3PO。好的。好吧。過來。在此之前,現在,真正的一件事是……你們有Jetson。它們裡面有小小的 Jetson 電腦。它們是在 Omniverse 內部訓練的。這個怎麼樣?讓我們向大家展示一下你們這幫傢伙是在那個模擬器裡學會如何成為機器人的。你們想看看那個嗎?好的,讓我們看看那個。請播放。真的嗎?(機器人模擬視訊開始)(音樂)C-3PO/R2-D2 在 Omniverse 模擬環境中跌跌撞撞、學習行走的畫面(C-3PO 看著 R2-D2)聲音:看,什麼都沒有。(視訊結束)這難道不令人驚奇嗎?這就是你們學會成為機器人的方式。你們完全是在 Omniverse 內部完成的。機器人模擬器叫做Isaac Sim 和 Isaac Lab。任何想製造機器人的人,你知道,沒有人會像你們這麼可愛。但現在我們有所有這些……看看所有這些我們正在製造機器人的朋友。我們在製造大的。不,就像我說的,沒有人像你們這麼可愛。但我們有 Neura Robotics,我們有 Agility Robotics。那邊的 Agility。我們有 LG 在這邊。他們剛剛宣佈了一個新機器人。Caterpillar(卡特彼勒),他們有最大的機器人。那個是送到你家的食物配送機器人,連接到 Uber Eats。那是 Serve Robotics。我愛那些傢伙。Agility, Boston Dynamics(波士頓動力),不可思議。你有手術機器人,你有來自 Franka 的機械臂機器人,你有 Universal Robotics 的機器人,數量驚人的不同機器人。所以這是下一章。我們將來會更多地談論機器人技術。但這最終不僅僅是關於機器人。我知道一切都是關於你們這幫傢伙的。它是關於到達那裡。世界上最重要的行業之一將被物理 AI 和 AI 物理學徹底改變,那就是開啟了我們 NVIDIA 所有人的行業。如果不是我要談到的這些公司,這就不可能實現。我很高興所有這些公司,從Cadence 開始,將加速一切。Cadence CUDA-X 整合到他們所有的模擬和求解器中。他們有 NVIDIA 物理 AI,他們將用於不同的工廠和工廠模擬。你有 AI 物理學被整合到這些系統中。所以無論是 EDA 還是 SDA,在未來的機器人系統中,我們將擁有基本上相同的技術,讓你們這幫傢伙成為可能的技術現在完全徹底改變這些設計堆疊。Synopsys(新思科技)。沒有 Synopsys,你知道 Synopsys 和 Cadence 在晶片設計領域是完全不可或缺的。Synopsys 在邏輯設計和 IP 方面處於領先地位。而在 Cadence 的情況下,他們領導物理設計、佈局布線、模擬和驗證。Cadence 在模擬和驗證方面令人難以置信。他們倆都在進入系統設計和系統模擬的世界。所以在未來,我們將在 Cadence 和 Synopsys 內部設計你們的晶片。我們將設計你們的系統,並在這些工具內部模擬整個事物和模擬一切。那就是你們的未來。我們會給……是的。你們將會在這些平台內部誕生。相當驚人,對吧?所以我們很高興我們正在與這些行業合作,就像我們將 NVIDIA 整合到 Palantir 和 ServiceNow 一樣,我們將 NVIDIA 整合到計算最密集的模擬行業 Synopsys 和 Cadence 中。今天我們宣佈Siemens(西門子)也在做同樣的事情。我們將整合 CUDA-X、物理 AI、代理 AI、NeMo、Nemotron 深度整合到 Siemens 的世界中。原因是這樣的。首先,我們設計晶片,未來所有的晶片都將由 NVIDIA 加速。你們會對此感到非常高興。我們將擁有代理晶片設計師(Agentic Chip Designers)和系統設計師與我們一起工作,幫助我們做設計,就像我們今天有代理軟體工程師幫助我們的軟體工程師編碼一樣。所以,我們將擁有代理晶片設計師和系統設計師。我們將在其中創造你們。但之後我們要建造你們。我們必須建造工廠,製造你們的工廠。我們必須設計組裝你們所有人的生產線。而這些製造工廠本質上將是巨大的機器人。不可思議,對吧?我知道。我知道。所以你們將在電腦中被設計。你們將在電腦中被製造。你們將在電腦中被測試和評估,早在你們必須花時間應對重力之前。我知道。你們知道怎麼應對重力嗎?你們能跳嗎?能跳嗎?(機器人做動作)好的。行了。別顯擺了。好的。所以這……所以現在,使 NVIDIA 成為可能的行業,我只是很高興我們正在創造的技術現在處於如此複雜的水平和能力,我們可以回去幫助他們徹底改變他們的行業。所以從他們開始的事情,我們現在有機會回去幫助他們徹底改變他們的行業。讓我們看看我們要和 Siemens 做的事情。來吧。(西門子合作視訊開始)(畫外音:物理 AI 的突破正讓 AI 從螢幕走向我們的物理世界。正是時候,因為世界正在為晶片、電腦、救命藥物和 AI 建造各種各樣的工廠。隨著全球勞動力短缺的惡化,我們比以往任何時候都更需要由物理 AI 和機器人驅動的自動化。)(畫外音:這就是 AI 與世界上最大的物理行業相遇的地方,是NVIDIA 和 Siemens 合作的基礎。近兩個世紀以來,Siemens 建立了世界的工業,現在它正在為AI 時代重新發明它。)(畫外音:Siemens 正在將NVIDIA CUDA-X 庫、AI 模型和 Omniverse 整合到其 EDA、CAE 和數字孿生工具及產品組合中。)(畫外音:我們要一起將物理 AI 帶入完整的工業生命周期。從設計和模擬到生產和營運。)(音樂)(畫外音:我們要站在新工業革命的開端,這是由 NVIDIA 和 Siemens為下一個工業時代建立的物理 AI 時代。)(視訊結束)不可思議,對吧,夥計們?你們覺得怎麼樣?好的,抓緊了。抓緊了。所以這是,你知道,如果你看看世界的模型,毫無疑問 OpenAI 是今天領先的 Token 生成者。OpenAI 生成的 Token 比其他任何東西都多。第二大群體,第二大可能是開放模型。我的猜測是隨著時間的推移,因為有這麼多公司、這麼多研究人員、這麼多不同類型的領域和模態,開源模型將是迄今為止最大的。讓我們談談一個真正特別的人。你們想這樣做嗎?讓我們談談Vera Rubin。Vera Rubin。是的,繼續。她是一位美國天文學家。她是第一個觀察到……她注意到星系的尾部移動的速度與星系的中心差不多快。嗯,我知道這說不通。這說不通。牛頓物理學會說,就像太陽系一樣,離太陽較遠的行星繞太陽公轉的速度比離太陽較近的行星慢。因此,除非有不可見的物體,我們稱之為——她發現了——暗物質(Dark Matter),儘管我們看不到它,但它佔據空間,否則這發生是沒有道理的。所以 Vera Rubin 是我們以此命名我們下一台電腦的人。這難道不是個好主意嗎?我知道。(掌聲)好的。嘿,Vera Rubin是為瞭解決我們面臨的這個根本挑戰而設計的。AI 所需的計算量正在飆升。對 NVIDIA GPU 的需求正在飆升。它飆升是因為模型每年增加 10 倍,一個數量級。更不用說,正如我提到的,o1 的引入是 AI 的一個拐點。不再是一次性回答(One-shot),推理現在是一個思考過程。為了教 AI 如何思考,強化學習和非常顯著的計算被引入到後訓練中。不再僅僅是監督微調或稱為模仿學習或監督訓練。你們現在有了強化學習,本質上是電腦自己嘗試不同的迭代,學習如何執行任務。因此,預訓練、後訓練、測試時縮放的計算量因此爆炸式增長。現在我們做的每一個推理,不再僅僅是一次性,你可以看到 AI 在思考,這是我們所讚賞的。它思考的時間越長,通常產生的答案就越好。所以測試時縮放導致要生成的 Token 數量每年增加5倍。更不用說,與此同時,AI 的競賽正在進行。每個人都試圖達到下一個水平。每個人都試圖達到下一個前沿。每當他們達到下一個前沿時,上一代 AI Token 的成本就開始每年下降大約10倍。每年 10 倍的下降實際上告訴你在發生一些不同的事情。它在說競爭如此激烈。每個人都試圖達到下一個水平,有人正在達到下一個水平。因此,所有這一切都是一個計算問題。你計算得越快,你就能越快達到下一個前沿的下一個水平。所有這些事情都在同一時間發生。所以我們決定我們必須每年推進最先進的計算技術。一年都不能落下。我們一年半前開始發貨 GB200。現在我們正在全面量產GB300。如果 Vera Rubin 要趕上今年,它現在必須已經投產了。所以今天我可以告訴你們,Vera Rubin 已經全面投產。你們想看看 Vera Rubin 嗎?好的,來吧。請播放。(Vera Rubin 介紹視訊開始)(畫外音:Vera Rubin 恰好趕上了 AI 的下一個前沿。這就是我們如何建構它的故事。架構,一個由六個晶片組成的系統,工程設計為一體工作,源於極致的協同設計(Extreme Co-design)。)(畫外音:它始於 Vera,一個定製設計的CPU,性能是上一代的兩倍。以及 Rubin GPU。Vera 和 Rubin 從一開始就協同設計,以便更快、更低延遲地雙向一致地共享資料。)(畫外音:然後 17,000 個元件聚集在一個Vera Rubin 計算板上。高速機器人以微米級精度放置元件,然後 Vera CPU 和兩個 Rubin GPU 完成組裝。能夠提供 100 Petaflops 的 AI 算力,是其前身的五倍。)(畫外音:AI 需要快速的資料。ConnectX-9為每個GPU 提供每秒 1.6 Terabits 的橫向擴展頻寬。BlueField-4 DPU 解除安裝儲存和安全性,以便計算完全專注於AI。)(畫外音:Vera Rubin 計算托盤(Compute Tray)完全重新設計,沒有電纜、軟管或風扇。具有一個 BlueField-4 DPU、八個ConnectX-9 網路卡、兩個 Vera CPU 和四個 Rubin GPU,這是 Vera Rubin AI 超級電腦的計算建構塊。)(畫外音:接下來是第六代 NVLink Switch,移動的資料比全球網際網路還多,連接18 個計算節點,擴展到 72 個 Rubin GPU,作為一個整體運行。)(畫外音:然後是 Spectrum-X Ethernet Photonics(乙太網路光子學),世界上第一個具有 512 個通道和 200 Gbit 能力的共封裝光學(Co-packaged Optics)乙太網路交換機,將成千上萬的機架擴展為 AI 工廠。)(畫外音:自設計開始以來的 15,000 個工程師年。第一個Vera Rubin NVL72 機架上線。六個突破性晶片,18 個計算托盤,9 個 NVLink 交換機托盤,220兆個電晶體,重近兩噸。向 AI 下一個前沿的巨大飛躍。Rubin 來了。)(視訊結束)你們覺得怎麼樣?這是一個Rubin Pod。16 個機架中有 1152 個 GPU。正如你們所知,每一個機架有 72 個 Vera Rubin 或 72 個 Rubin。每一個 Rubin 是兩個實際的 GPU 晶片連接在一起。我要把它展示給你們看,但這有幾件事……好吧,我待會兒再告訴你們。我不能一下子告訴你們所有事情。好吧,我們設計了六種不同的晶片。首先,我們要公司內部有一條規則,這是一條好規則。任何新一代都不應該更改超過一兩個晶片。但問題是這樣的。正如你們所看到的,我們在描述每一個被描述的晶片中的電晶體總數。我們知道摩爾定律在很大程度上已經放緩。所以我們年復一年能得到的電晶體數量不可能跟上 10 倍大的模型。它不可能跟上每年生成更多 Token 的 5 倍。它不可能跟上 Token 成本下降將如此激進的事實。如果行業要繼續進步,就不可能跟上這種速度,除非我們部署激進的極致協同設計(Extreme Co-design)。基本上同時在整個堆疊的所有晶片上進行創新。這就是為什麼我們決定這一代我們別無選擇,只能重新設計每一個晶片。現在,剛才描述的每一個晶片本身都可以是一個新聞發佈會,而在過去的日子裡,可能有一整個公司專門做這個。每一個都是完全革命性的,同類中最好的。Vera CPU,我為它感到非常自豪。在一個受電力限制的世界裡,Gray CPU(註:口誤,應指Grace 的繼任者 Vera)性能是兩倍。在一個受電力限制的世界裡。它是世界上最先進 CPU 每瓦性能的兩倍。它的資料速率是瘋狂的。它是為處理超級電腦而設計的。Vera 是一個不可思議的 GPU(註:口誤,應指CPU)。Grace是一個不可思議的 GPU(註:口誤,應指 CPU)。現在 Vera增加了單線程性能,增加了記憶體容量,僅僅是急劇增加了一切。這是一個巨大的晶片。這是 Vera CPU。這是一個 CPU。這連接到 Rubin GPU。看看那個東西。這是一個巨大的晶片。現在,真正特別的事情是,我會過一遍這些。我想這需要三隻手,四隻手來做這個。好的。所以,這是 Vera CPU。它有 88 個 CPU 核心。CPU 核心被設計為多線程的。但Vera 的多線程特性被設計為每一個 176 個線程都可以獲得其全部性能。所以本質上好像有 176 個核心,但只有88 個物理核心。這些核心是使用一種叫做空間多線程的技術設計的。但 IO 性能令人難以置信。這是Rubin GPU。浮點性能是 Blackwell 的 5倍。但重要的事情是看底線。底線是它的電晶體數量僅為 Blackwell 的 1.6倍。這某種程度上告訴了你今天半導體物理的水平。如果我們不做協同設計,如果我們不在整個系統的每一個晶片層面上做極端的協同設計,我們怎麼可能提供那怕是最好每年 1.6 倍的性能水平呢?因為那就是你擁有的電晶體總數。即使你的每個電晶體性能多一點,比如說 25%,你也不可能從你得到的電晶體數量中獲得 100% 的良率。所以 1.6 倍某種程度上為你每年性能能走多遠設定了上限,除非你做一些極端的事情。我們稱之為極致協同設計。好吧,我們做的一件事,這是一個偉大的發明。它叫做NVFP4 Tensor Core。我們晶片內部的 Transformer 引擎不僅僅是我們放入資料路徑的某種 4 位浮點數。它是一個完整的處理器,一個處理單元,瞭解如何動態地、自適應地調整其精度和結構以處理 Transformer 的不同層級,以便你可以在可能損失精度的地方實現更高的吞吐量,並在你需要的地方回到儘可能高的精度。那種動態執行此操作的能力。你不能在軟體中這樣做,因為顯然它運行得太快了。所以你必須能夠在處理器內部自適應地做到這一點。這就是 NVFP4。當有人說 FP4 或 FP8 時,這對我們來說幾乎沒有任何意義。原因是讓它工作的是 Tensor Core 結構和所有的演算法。NVFP4,我們已經為此發表了論文。它能夠保持的吞吐量和精度水平是完全不可思議的。這是開創性的工作。如果是未來行業希望我們將這種格式和這種結構作為行業標準,我也不會感到驚訝。這是完全革命性的。這就是為什麼即使我們只有 1.6 倍的電晶體數量,我們也能提供如此巨大的性能提升。好的。所以這是……現在一旦你有了一個偉大的處理節點,這就是處理器節點,在這裡……例如這裡,讓我做這個……這就是……哇,它超級重。你必須是一個身材非常好的CEO 才能做這份工作。好的。所以這東西是……我猜這大概……我不知道,幾百磅。(有人笑)我也覺得這很有趣。來吧。(看向後台) 可能是這樣的。大家都走了。不,我不這麼認為。好的。所以看看這個。這是最後一個。我們徹底改變了整個 MGX 機箱。這個節點。43 根電纜,零電纜。六根管子,這兒只有兩根。組裝這個需要兩個小時。如果你幸運的話,需要兩個小時。當然,你可能會組裝錯。你得重新測試,測試,重新組裝。所以組裝過程極其複雜。作為我們第一批以這種方式解構的超級電腦之一,這是可以理解的。這個從兩小時變成了 5 分鐘。80% 液冷。100% 液冷。是的。真的,真正的突破。好的。所以,這是新的計算底盤。連接所有這些到機架頂部交換機、東西向流量的是Spectrum-X網路卡(NIC)。這是世界上最好的網路卡。毫無疑問,NVIDIA 的 Mellanox,很久以前加入我們的收購 Mellanox。他們在高性能計算方面的網路技術是世界上最好的,毋庸置疑。演算法、晶片設計、所有的互連、運行在上面的所有軟體堆疊、他們的 RDMA,絕對絕對首屈一指,世界上最好的。現在它有能力做可程式設計 RDMA 和資料路徑加速器,以便像 AI 實驗室這樣的合作夥伴可以為他們想要如何在系統中移動資料建立自己的演算法。但這完全是世界級的 ConnectX-9,Vera CPU 是協同設計的,我們從未透露過。直到 CX9 出現我們才從未發佈過,因為我們為一種新型處理器協同設計了它。你知道,ConnectX-9 或 CX8 和 Spectrum-X 徹底改變了乙太網路為人工智慧所做的方式。AI 的乙太網路流量要密集得多,需要更低的延遲。瞬時的流量激增不同於乙太網路所見的任何東西。所以我們建立了 Spectrum-X,即AI乙太網路。兩年前我們宣佈了 Spectrum-X。NVIDIA 今天是世界上最大的網路公司。所以它非常成功,被用於許多不同的安裝中。它正在席捲 AI 領域。性能令人難以置信,特別是當你有一個 200 兆瓦的資料中心,或者如果你有一個吉瓦的資料中心。這些是數十億美元。假設一個吉瓦的資料中心是 500 億美元。如果網路性能允許你多提供 10%——在 Spectrum-X 的情況下,提供 25% 更高的吞吐量並不罕見。即使我們只提供 10%,那也值50億美元。網路完全是免費的,這就是為什麼——嗯,每個人都使用 Spectrum-X。這真是一件不可思議的事情。現在我們將發明一種新型的……一種新型的資料處理。所以 Spectrum 是用於東西向流量的。我們現在有一個名為BlueField-4 的新處理器。BlueField-4 允許我們採取一個非常大的資料中心,隔離不同的部分,以便不同的使用者可以使用不同的部分。確保一切都可以虛擬化,如果他們決定虛擬化的話。所以你解除安裝了很多用於南北向流量的虛擬化軟體、安全軟體、網路軟體。所以 BlueField-4 標配在每一個這些計算節點上。BlueField-4 有第二個應用,我馬上就會講到。這是一個革命性的處理器,我對此感到非常興奮。這是 NVLink 6 Switch。就在這裡。這個交換機晶片。在這個 NVLink 交換機裡有四個。這每一個交換機晶片都有歷史上最快的 SerDes。世界勉強達到200 Gbits。這是 400 Gbits 每秒的交換機。這之所以如此重要,是為了讓我們可以讓每一個 GPU 在完全相同的時間與每一個其他GPU 對話。這個交換機,在這個機架背板上的這個交換機使我們要移動相當於兩倍全球網際網路資料量的資料,速度是兩倍。如果你拿整個地球網際網路的橫截面頻寬,大約是每秒 100 TB。這是每秒 240 TB。所以這某種程度上把它放在了透視中。這是為了讓每一個 GPU 都可以與每一個其他 GPU 在完全相同的時間工作。好的。然後在那之上……在那之上,好的,這是一個機架。這是一個機架。正如你們所看到的,這個機架中的電晶體數量是 1.7 倍。是的。你能幫我做這個嗎?所以,這通常大約是兩噸,但今天它是兩噸半,因為當他們運送它時,他們忘了把水排干。所以,我們從加利福尼亞運了很多水過來。你能聽到它尖叫嗎?你知道,當你旋轉兩噸半重的東西時,你得尖叫一下。哦,你可以做到。哇。好的,我們不會讓你做兩次。好的。所以,在這背後是NVLink Spines(脊柱)。基本上是兩英里的銅纜。銅是我們知道的最好的導體。這些都是遮蔽銅纜,結構化銅纜,世界上在計算系統中使用的最多的。我們的 SerDes 以每秒 400 gigabits 的速度驅動從機架頂部一直到底部的銅纜。這令人難以置信。所以這總共有 2 英里的銅纜,5000 根銅纜。這使得 NVLink Spine 成為可能。這是真正開啟 MGX 系統的革命。現在我們決定我們將建立一個行業標準系統,以便整個生態系統、我們所有的供應鏈都可以標準化這些元件。有大約 80,000 個不同的元件組成了這些 MGX 系統,如果我們每年都改變它,那就是徹底的浪費。每一個主要的電腦公司,從富士康到廣達再到緯創,你知道,名單還在繼續,到惠普、戴爾和聯想,每個人都知道如何建構這些系統。所以儘管性能如此之高,更重要的是功耗是兩倍,我們仍然可以將 Vera Rubin 擠進這個系統,這就是奇蹟:進入它的空氣,氣流大約是相同的。非常重要的是,進入它的水是相同的溫度,45°C。用 45°C,資料中心不需要冷水機組(Chillers)。我們基本上是用熱水冷卻這台超級電腦。它是如此令人難以置信的高效。所以這是……這是新的機架。電晶體多 1.7 倍,但峰值推理性能多5倍,峰值訓練性能多 3.5倍。好的,它們在頂部使用 Spectrum-X 連接。哦,謝謝。(掌聲)這是世界上第一個使用台積電(TSMC)新工藝製造的晶片,我們共同創新的工藝叫做COUPE。這是一種矽光子整合矽光子工藝技術。這允許我們將矽光子直接帶到晶片上。這是 512個連接埠,每秒200 Gbits。這是新的乙太網路 AI 交換機,Spectrum-X 乙太網路交換機。看看這個巨大的晶片。但真正令人驚奇的是,它有直接連接到它的矽光子。雷射從這裡進來。雷射從這裡進來。光學器件在這裡,它們連接到資料中心的其餘部分。我稍後會展示給你們看,但這在機架頂部。這是新的 Spectrum-X 矽光子交換機。好的。我們有一些新東西想告訴你們。正如我幾年前提到的,我們推出了 Spectrum-X,以便我們可以重新發明網路的方式。乙太網路真的很容易管理,每個人都有乙太網路堆疊,世界上的每個資料中心都知道如何處理乙太網路。當時我們唯一使用的是 InfiniBand,用於超級電腦。InfiniBand 延遲非常低。但當然,軟體堆疊、InfiniBand 的整個可管理性對於使用乙太網路的人來說非常陌生。所以我們決定第一次進入乙太網路交換機市場。Spectrum-X 就這樣起飛了,使我們成為了世界上最大的網路公司。正如我提到的,下一代 Spectrum-X 將繼承這一傳統。但正如我剛才所說,AI 已經重新發明了整個計算堆疊,計算堆疊的每一層。理所當然地,當 AI 開始部署在世界各地的企業中時,它也將重新發明儲存的方式。嗯,AI 不使用 SQL。AI 使用語義資訊。當使用 AI 時,它會建立這種臨時知識,臨時記憶,稱為KV Cache(KV快取)。鍵值組合,但它是一個 KV 快取。基本上是 AI 的快取,AI 的工作記憶。AI 的工作記憶儲存在 HBM 記憶體中。對於每一個 Token,對於每一個 Token,GPU 讀入模型,整個模型。它讀入整個工作記憶,它產生一個 Token,並將那個 Token 儲存回 KV 快取,然後在下一次它這樣做時,它讀入整個記憶,讀取它,並通過我們的 GPU 流式傳輸,然後生成另一個 Token。嗯,它一個 Token 接一個 Token 地重複這樣做,顯然如果你在那段時間與那個 AI 進行長時間的對話,那個記憶、那個上下文記憶將會極大地增長。更不用說模型正在增長。我們使用的輪次(Turns)正在增加。我們希望這個 AI 伴隨我們一生。記住我們曾經與它進行的每一次對話,對吧?我向它請求的每一丁點研究。當然,共享超級電腦的人數將繼續增長。因此,最初適合放在 HBM 內部的這個上下文記憶不再足夠大了。去年我們建立了 Grace Blackwell 的非常快的記憶體,我們稱之為快速上下文記憶體。這就是為什麼我們將 Grace 直接連接到 Hopper,這就是為什麼我們將 Grace 直接連接到 Blackwell,以便我們可以擴展上下文記憶。但即使那樣也是不夠的。所以下一個解決方案當然是去網路上,南北向網路,去公司的儲存。但如果你有很多 AI 同時運行,那個網路就不再足夠快了。所以答案非常清楚,要做得不同。所以我們建立了 BlueField-4,以便我們基本上可以在機架中擁有一個非常快的 KV 快取上下文記憶體儲存。所以我馬上就會向你們展示。但這是一個全新的儲存系統類別。行業非常興奮,因為這對於幾乎所有今天做大量 Token 生成的人來說都是一個痛點。AI 實驗室,雲服務提供商,他們真的因為 KV 快取移動造成的大量網路流量而受苦。所以我們將建立一個新平台、一個新處理器的想法,來運行整個 Dynamo KV 快取上下文記憶體管理系統,並將其放在離機架其餘部分非常近的地方,這是完全革命性的。所以就是這個。它就在這裡。所以這就是所有的計算節點。每一個都是 NVLink 72。所以這是 Vera Rubin NVLink 72,144 個 Rubin GPU。這是儲存在這裡的上下文記憶體。在每一個這些背後是四個 BlueField。在每一個 BlueField 背後是 150 TB……150 TB 的記憶體,上下文記憶體。對於每一個 GPU,一旦你在每一個 GPU 上分配它,將獲得額外的 16 TB。現在在這個節點內部,每個 GPU 本質上有一 TB。現在有了這裡的這個後備儲存(Backing Store),直接在同一個東西向流量上,以完全相同的資料速率,每秒 200 gigabits,實際上跨越這個計算節點的整個結構。你將獲得額外的 16 TB 記憶體。好的。這就是管理平面。這些是連接所有它們的 Spectrum-X 交換機,在這裡,末端的這些交換機將它們連接到資料中心的其餘部分。好的。所以這是 Vera Rubin。現在有幾件事真的令人難以置信。所以我提到的第一件事是,這整個系統的能源效率是兩倍。本質上,即使功耗是兩倍,使用的能量是兩倍,計算量是其許多倍,但進入它的液體仍然是 45 攝氏度。這使我們能夠節省大約 6% 的世界資料中心電力。所以這是一件非常大的事情。第二件非常大的事情是,這整個系統現在是機密計算安全(Confidential Computing Safe)的。意味著一切都在傳輸中、靜止時和計算期間被編碼。每一條匯流排現在都被加密了。每一個 PCI Express,每一個 NVLink,你知道對於 CPU 和 GPU 之間的 NVLink,GPU 到 GPU 之間,一切現在都被加密了,所以它是機密計算安全的。這允許公司感到安全,即他們的模型是由其他人部署的,但永遠不會被其他人看到。好的。這特定的系統不僅非常節能,而且還有一件事是令人難以置信的。由於 AI 工作負載的性質,它會瞬間飆升。通過這個稱為 All-Reduce 的計算層,電流的大小、使用的能量雖然是瞬間的,但確實超出了圖表。通常它會飆升 25%。我們現在在整個系統中擁有功率平滑(Power Smoothing),這樣你就不必過度配置 25 倍,或者如果你過度配置 25 倍,你不必留下 25%……不是 25 倍,是 25% 的能量被浪費或未使用。所以現在你可以填滿整個功率預算,你不必在此之外進行配置。最後一件事當然是性能。所以讓我們來看看這個的性能。這些只是建構 AI 超級電腦的人會喜歡的圖表。我們需要對每一個晶片進行完全重新設計,並在整個系統上重寫整個堆疊,才能使這成為可能。基本上這是訓練 AI 模型。第一列。你訓練AI 模型越快,你就能越快將下一個前沿帶給世界。這是你的上市時間。這是技術領導力。這是你的定價能力。所以在綠色的情況下,這本質上是一個 10 兆參數的模型。我們從DeepSeek 擴大了它,DeepSeek。這就是為什麼我們稱之為 DeepSeek++。在一個 100 兆 Token 上訓練一個 10 兆參數的模型。好的。這是我們對建構下一個前沿模型所需的模擬預測。Elon 已經提到 Grok 的下一個版本,Grok 3 我想是,不,Grok 5 還是什麼,是 7 兆參數(註:可能指Grok 3,此處為演講者口語推測)。這是 10 兆。綠色是 Blackwell。而在 Rubin的情況下,注意吞吐量是如此之高,因此只需要 1/4 的這些系統就可以在我們給出的時間(一個月)內訓練模型。好的。所以時間對每個人來說都是一樣的。現在你能多快訓練那個模型,以及你能訓練多大的模型,是你如何首先到達前沿的關鍵。第二部分是你的工廠吞吐量(Factory Throughput)。Blackwell 再次是綠色的。工廠吞吐量很重要,因為你的工廠在吉瓦的情況下是 500 億美元。一個 500 億美元的資料中心只能消耗一吉瓦的電力。所以如果你的性能、你的每瓦吞吐量非常好對比非常差,那直接轉化為你的收入。你的資料中心的收入與第二列直接相關。在 Blackwell 的情況下,它比 Hopper 高大約 10 倍。在 Rubin 的情況下,它將再高大約 10倍。好的。在現在的情況下……Token的成本,生成 Token 的成本效益如何。這是 Rubin,大約是 1/10,就像在……是的。所以這就是我們要如何讓每個人都到達下一個前沿,將 AI 推向下一個水平,當然還有能源高效和成本高效地建構這些資料中心。所以就是這樣。這就是今天的 NVIDIA。你知道,我們提到我們製造晶片,但正如你們所知,NVIDIA 現在製造整個系統。AI是一個全端。我們正在重新發明 AI,從晶片到基礎設施,到模型,到應用程式的一切。我們的工作是建立整個堆疊,以便你們所有人都可以為世界其他地方建立令人難以置信的應用程式。感謝大家的到來。祝大家有一個愉快的 CES。現在,在我……在我讓你們離開之前,有一大堆幻燈片我們不得不剪掉,我們不得不留在剪輯室的地板上。所以,我們這裡有一些花絮(Outtakes)。我想這會讓你們覺得很有趣。祝大家有一個愉快的 CES,夥計們。 (The AI Frontier)
徐直軍在華為全聯接大會2025上的主題演講
以開創的超節點互聯技術,引領AI基礎設施新範式徐直軍在華為全聯接大會2025上的主題演講女士們、先生們,各位老朋友、新朋友,大家上午好!歡迎來參加2025年華為全聯接大會,時隔一年,很高興再次與大家相聚在上海。我想大家都能感受到,過去的一年對所有AI從業者、關注者來講是記憶深刻的一年,DeepSeek橫空出世,讓全國人民過了一個快樂的AI年,也讓所有大模型訓練者開啟了不知多少個不眠之夜,調整訓練方式,復現DeepSeek結果,當然也給我們帶來了巨大衝擊。從春節開始,到今年4月30日,經過多團隊的協同作戰,終於使Ascend910B/910C的推理能力達成了客戶的基本需求。在進入今天的具體分享之前,請允許我回顧一下去年的HC,我講到了如下幾點:第一、智能化的可持續,首先是算力的可持續;第二、中國半導體製造工藝將在相當長時間處於落後狀態;第三、可持續的算力只能基於實際可獲得的晶片製造工藝;第四、人工智慧成為主導性算力需求,促使計算系統正在發生結構性變化;第五、開創計算架構,打造“超節點+叢集”算力解決方案持續滿足算力需求。但第五點沒有展開講,本來想講,但我的團隊不同意。今天,我想利用此機會,來把我去年HC沒有完成的任務完成,也算是答卷。我今天分享的主題是:“以開創的超節點互聯技術,引領AI基礎設施新範式”,也是回答去年HC提到的第五點:如何開創計算架構,打造“超節點+叢集”算力解決方案來持續滿足算力需求。在展開今天主題前,回到DeepSeek對產業界、對華為的衝擊,DeepSeek開源後,我們的客戶對華為的昇騰發展指出了很多問題,也充滿了期待,並一直在給我們不斷地提建議。為此,經過內部的充分討論並達成共識,我們於2025年8月5日在北京專門舉辦了昇騰產業峰會,我代表華為給出了回應,在座的有的參加了,有的可能沒有參加。今天,我也利用此機會就主要的決定給大家匯報一下。主要有四點:一、華為堅持昇騰硬體變現;二、CANN 編譯器和虛擬指令集介面開放,其它軟體全開源,CANN基於Ascend 910B/C的開源開放將於2025年12月31日前完成,未來開源開放與產品上市同步;三、Mind系列應用使能套件及工具鏈全面開源,並於2025年12月31日前完成;四、openPangu基礎大模型全面開源。接下來回到今天的主題。儘管DeepSeek開創的模式可以大幅減少算力需求,但要走向AGI、要走向物理AI,我們認為,算力,過去是,未來也將繼續是人工智慧的關鍵,更是中國人工智慧的關鍵。算力的基礎是晶片,昇騰晶片是華為AI算力戰略的基礎。自2018年發佈Ascend310晶片,2019年發佈Ascend910晶片,到2025年,Ascend910C晶片隨著Atlas900超節點規模部署,為大家所熟悉。在過去幾年,客戶和夥伴們對昇騰晶片有很多訴求,對昇騰晶片也有很多期待。面向未來,華為的晶片路標是如何規劃的?想必是大家普遍關心的話題,可能也是最關心的內容。因此,今天,我就直入主題來介紹昇騰晶片及其路標。我很確定地告訴大家,昇騰晶片將持續演進,為中國乃至世界的AI算力構築堅固根基。未來3年,至2028年,我們在開發和規劃了三個系列,分別是Ascend 950系列,包括兩顆晶片:Ascend950PR和Ascend950DT,以及Ascend960、Ascend970系列,更多具體晶片還在規劃中。下面我分別介紹快要推出的和已規劃的4顆昇騰晶片。我們正在開發、且即將推出的晶片叫Ascend950系列。我首先介紹一下Ascend 950系列的晶片架構,Ascend 950PR和Ascend 950DT共用了Ascend950 Die。與前一代昇騰晶片相比,Ascend950 在以下幾個方面實現了根本性提升。第一,新增支援業界標準FP8/MXFP8/MXFP4等低數值精度資料格式,算力分別達到1P和2P,提升訓練效率和推理吞吐。並特別支援華為自研的HiF8,在保持FP8的高效的同時,精度非常接近FP16。第二,大幅度提升了向量算力。這主要通過三個方面實現:其一,提升向量算力佔比;其二,採用創新的新同構設計,即支援 SIMD/SIMT 雙程式設計模型,SIMD能夠像流水線一樣處理“大塊”向量,而SIMT便於靈活處理“碎片化”資料;其三,把記憶體訪問顆粒度從512字節減少到128字節,記憶體訪問更精細,從而更好地支援了離散且不連續的記憶體訪問。第三,互聯頻寬相比Ascend910C提升了2.5倍,達到2TB/s。第四,結合推理不同階段對於算力、記憶體、訪存頻寬及推薦、訓練的需求不同,我們自研了兩種HBM,分別是:HiBL 1.0和HiZQ 2.0。不同的自研HBM與Ascend950Die合封,分別構成晶片Ascend950PR:面向Prefill和推薦場景,以及Ascend950DT:面向Decode和訓練場景。下面分別介紹。首先是我們的第一顆晶片,Ascend 950PR,主要面向推理Prefill階段和推薦業務場景。首先,我們發現,隨著Agent的快速發展,輸入上下文越來越長,首Token輸出階段佔用計算資源越來越多。其次是在電子商務、內容平台、社交媒體等業務應用中,要求推薦演算法具有更高的精準度和更低的時延,對計算能力的需求也越來越大。推理Prefill階段和推薦演算法都是計算密集型,對計算平行的能力要求高,但對記憶體訪問頻寬的需求相對低。通過分級記憶體解決方案,推理Prefill階段和推薦演算法對本地記憶體容量的需求相對也不高。Ascend 950PR 採用了華為自研的低成本HBM,HiBL 1.0,相比高性能、高價格的HBM3e/4e,能夠大大降低推理Prefill階段和推薦業務的投資。這顆晶片將在2026年一季度推出,首先支援的產品形態是標卡和超節點伺服器。接下來這一顆是Ascend 950DT,相比Ascend950PR,它更注重推理Decode階段和訓練場景。由於推理Decode階段和訓練對互聯頻寬和訪存頻寬要求高,我們開發了HiZQ 2.0,使記憶體容量達到144GB,記憶體訪問頻寬達到4TB/s。同時把互聯頻寬提升到了2TB/s。其次,支援了FP8/MXFP8/MXFP4/HiF8資料格式。Ascend 950DT 將在2026年Q4推出。第三顆是在規劃中的晶片Ascend 960。它在算力、記憶體訪問頻寬、記憶體容量、互聯連接埠數等各種規格上相比Ascend 950翻倍,大幅度提升訓練、推理等場景的性能;同時還支援華為自研的HiF4資料格式。它是目前業界最優的4bit精度實現,能進一步提升推理吞吐,並且比業界FP4方案的推理精度更優。Ascend 960將在2027年四季度推出。最後一顆是在規劃中的Ascend 970,這顆晶片的一些規格還在討論中。總體方向是,在各項指標上大幅度升級,全面升級訓練和推理性能。目前的初步考慮是,相比Ascend 960,Ascend 970的FP4算力、FP8算力、互聯頻寬要全面翻倍,記憶體訪問頻寬至少增加1.5倍。Ascend 970計畫在2028年四季度推出。大家屆時可以期待它的驚人表現。這是剛才介紹的昇騰晶片的主要具體規格和路標,總體上,我們將以幾乎一年一代算力翻倍的速度,同時圍繞更易用,更多資料格式、更高頻寬等方向持續演進,持續滿足AI算力不斷增長的需求。可以看到,相比Ascend 910B/910C,從Ascend 950開始的主要變化包括:引入SIMD/SIMT新同構,提升程式設計易用性;支援更加豐富的資料格式,包括FP32 /HF32 /FP16/BF16/FP8/MXFP8/HiF8/MXFP4/HiF4等;支援更大的互聯頻寬,其中950系列為2TB/s,970系列提升到4TB/s;支援更大的算力,FP8算力從950系列的1PFLOPS提升到960的2PFLOPS、970的4PFLOPS;FP4算力從950的2PFLOPS提升到960的4PFLOPS、970的8PFLOPS;記憶體容量逐漸加倍,而記憶體訪問頻寬將翻兩番。有了昇騰晶片為基礎,我們就能夠打造滿足客戶需求的算力解決方案。從大型AI算力基礎設施建設的技術方向看,超節點已經成為主導性產品形態,並正在成為AI基礎設施建設的新常態。超節點事實上就是一台能學習、思考、推理的電腦,物理上由多台機器組成,但邏輯上以一台機器學習、思考、推理。隨著算力需求的持續增長,超節點的規模也在持續、快速增大。今年3月份,華為正式推出了Atlas 900超節點,滿配支援384卡。因為是超節點,這384顆Ascend910C晶片,能夠像一台電腦一樣工作,最大算力可達300PFLOPS。到目前為止,Atlas 900依然是全球算力最大的超節點。大家經常聽到的CloudMatrix384超節點,是華為雲基於Atlas 900超節點建構的雲服務實例。Atlas 900超節點自上市以來,已經累計部署超過300套,服務20多個客戶,涵蓋網際網路、電信、製造等多個行業。可以說,Atlas900於2025年,開啟了華為AI超節點的征程。今天,結合我們已經推出或正在研發中的昇騰晶片,我將為大家帶來更多超節點和叢集產品。現在進入今天最激動人心的時刻,就是新產品發佈環節。今天我要發佈的第一款產品,Atlas 950超節點,基於Ascend950DT打造。Atlas 950超節點支援8192張基於Ascend950DT的昇騰卡,是Atlas 900超節點的20多倍,我們習慣稱呼的昇騰卡,每張卡對應一顆Ascend950DT晶片,8192張昇騰卡等同於8192顆Ascend950DT晶片。Atlas950超節點滿配包括由128個計算櫃、32個互聯櫃,共計160個機櫃組成,佔地面積1000平方米左右,櫃間採用全光互聯。總算力大幅度提升,其中,FP8算力達到8E FLOPS,FP4算力達到16E FLOPS。互聯頻寬達到16PB/s,這個數字意味著,Atlas 950一個產品的總互聯頻寬,已經超過今天全球網際網路峰值頻寬的10倍有餘。Atlas 950超節點的上市時間是:2026年四季度。我們很自豪的看到,Atlas 950超節點,至少在未來多年都將保持是全球最強算力的超節點,並且在各項主要能力上都遠超業界主要產品。其中,相比輝達同樣將在明年下半年上市的NVL144,Atlas 950超節點卡的規模是其56.8倍,總算力是其6.7倍,記憶體容量是其15倍,達到1152TB;互聯頻寬是其62倍,達到16.3PB/s。即使是與輝達計畫2027年上市的 NVL576相比,Atlas 950超節點在各方面依然是領先的。算力、記憶體容量、記憶體訪問速度、互聯頻寬等能力的大幅度增強,為大模型訓練性能和推理吞吐帶來顯著提升。相比華為已經推出的Atlas900超節點,Atlas 950超節點的訓練性能提升17倍,達到4.91M TPS。通過支援FP4資料格式,Atlas 950超節點的推理性能提升達26.5倍,達到19.6M TPS。8192卡超節點並不是我們的終點,我們還在繼續努力。我今天發佈的第二款超節點產品,Atlas960超節點。基於Ascend960,Atlas 960超節點最大可支援15488卡。Atlas960超節點由176個計算櫃,44個互聯櫃,共220個機櫃,佔地面積約2200平方米。Atlas960超節點的上市時間是:2027年四季度。伴隨卡的規模的再次升級,Atlas 960超節點讓我們在AI超節點的優勢再度增強。基於Ascend960,其總算力、記憶體容量、互聯頻寬在Atlas950基礎上再翻倍。其中,FP8總算力將達到30E FLOPS,而FP4總算力將達到60 EFLOPS;記憶體容量達到4460TB,互聯頻寬達到34PB/s。大模型訓練和推理的性能相比Atlas950超節點,將分別提升3倍和4倍以上,達到15.9M TPS 和80.5M TPS。通過Atlas 950和Atlas 960,我們對於為人工智慧的長期快速發展提供可持續且充裕算力,充滿信心。超節點已經重新定義AI基礎設施的範式,但不僅僅侷限於AI。在通用計算領域,我們同樣認為,超節點技術能夠帶來很大的價值。從需求角度考慮,金融核心業務等目前仍然有部分承載在大型機和小型機之上,相比普通伺服器叢集,它們對伺服器的性能和可靠性有更高的訴求,通用計算超節點在這兩點上正好切合需求。從技術角度考慮,超節點同樣可以為通算領域注入全新活力。因此,鯤鵬處理器主要圍繞支援超節點,更多核、更高性能等方向持續演進。同時,通過自研的雙執行緒靈犀核,使鯤鵬處理器能方便支援更多執行緒。2026年Q1,我們將推出Kunpeng950處理器,包括兩個版本,分別是:96核/192執行緒和192核/384執行緒;支援通用計算超節點;安全方面新增四層隔離,成為鯤鵬首顆實現機密計算的資料中心處理器。2028年Q1,鯤鵬處理器將在晶片微架構、先進封裝技術等領域持續突破關鍵技術,將再次推出兩個版本,分別是高性能版本,96核/192執行緒,單核性能提升50%+,主要面向AI host、資料庫等場景。以及高密版本,不少於256核/512執行緒,主要面向虛擬化、容器、巨量資料、數倉等場景。接下來是今天我發佈的第三款產品:TaiShan 950超節點,基於Kunpeng950打造,全球首個通用計算超節點,其最大支援16節點,32個處理器,最大記憶體48TB,同時支援記憶體、SSD、DPU池化。這款產品不只是通用計算領域的一次技術升級,除了大幅提升通用計算場景下的業務性能,還能幫助金融系統破解核心難題。當前大型機、小型機替換的核心挑戰是資料庫分佈式改造,而基於TaiShan 950超節點打造的GaussDB多寫架構,無需改造,但性能提升2.9 倍,最終可平滑替代大型機、小型機上的傳統資料庫。TaiShan950加上分佈式GaussDB將成為各類大型機、小型機的終結者,徹底取代各種應用場景的大型機和小型機以及Oracle的Exadata資料庫伺服器。除了核心資料庫場景,TaiShan 950超節點在更廣泛的場景裡,表現也很亮眼:比如虛擬化環境的記憶體利用率提升20%,在Spark巨量資料場景,即時資料處理時間縮短30%。TaiShan 950超節點上市時間是:2026年一季度,敬請期待。超節點的價值,不僅僅體現在智算和通算傳統業務領域。網際網路產業廣泛應用的推薦系統,正在從傳統推薦演算法向生成式推薦系統演進。我們可以基於TaiShan950和Atlas950打造成混合超節點,為下一代生成式推薦系統打開全新架構方向。一方面,通過超大頻寬、超低時延互聯以及超大記憶體,混合超節點構成超大共用記憶體池,支援PB級推薦系統嵌入表,從而支撐超高維度使用者特徵;另一方面,混合超節點的超大AI算力,能夠支援超低時延推理和特徵檢索。因此,混合超節點是面向下一代生成式推薦系統的解決方案的全新選擇。大規模超節點把智算和通算的能力都推向新的高度,同時也對互聯技術提出了重大挑戰。華為作為聯接領域的領導者,當然不懼挑戰。在定義和設計Atlas950、Atlas960兩個超節點的技術規格時,我們遭遇到了互聯技術的巨大挑戰,主要在兩個方面:第一是如何做到長距離而且高可靠。大規模超節點機櫃多,櫃間聯接距離長,當前電互聯和光互聯技術都不能滿足需求。其中,當前的電互聯技術在高速時聯接距離短,最多隻能支援兩櫃互聯,而當前的光互聯技術雖然可以把長距離的多機櫃聯接在一起,但無法滿足可靠性需求。第二是如何做到大頻寬而且低時延。當前跨櫃卡間互聯頻寬低,和超節點的需求差距達5倍;跨櫃的卡間時延大,當前互聯技術最好只能做到3微秒左右,和Atlas950/960設計需求仍然有24%的差距,當時延已經低至2~3個微秒時,已經逼近物理極限,那怕0.1微秒的提升,挑戰都很大。華為基於三十多年構築的技術能力,通過系統性創新,徹底解決了當前技術存在的問題,超標達成Atlas950/960超節點的設計需求,使萬卡超節點成為可能。首先,為瞭解決長距離且高可靠問題,我們在互聯協議的物理層、資料鏈路層、網路層、傳輸層等每一層都引入了高可靠機制;同時在光路引入了百納秒級故障檢測和保護切換,當出現光模組閃斷或故障時,讓應用無感;並且,我們重新定義和設計了光器件、光模組和互聯晶片。這些創新和設計讓光互聯的可靠性提升100倍,且互聯距離超過200米,實現了電的可靠和光的距離。其次,為瞭解決大頻寬且低時延問題,我們突破了多連接埠聚合與高密封裝技術,以及平等架構和統一協議,實現了TB級的超大頻寬,2.1微秒的超低時延。正是因為一系列系統性、原創性的技術創新,我們才攻克了超節點互聯技術,滿足了高可靠、全光互聯、高頻寬、低時延的互聯要求,讓大規模超節點成為了可能。為了達成Atlas950/960超節點對互聯的技術要求,為了實現萬卡超節點還能是一台電腦,華為開創了超節點架構並開創了新型的互聯協議,能夠支撐萬卡級超節點架構。基於這個互聯協議的超節點架構的核心價值主張是:萬卡超節點,一台電腦,也就是說,通過該互聯協議,把數萬規模的計算卡,聯接成一個超節點,能夠像一台電腦一樣工作、學習、思考、推理。在技術上,我們總結認為,萬卡級超節點架構應該具備6大特徵,分別是匯流排級互聯、平等協同、全量池化、協議歸一、大規模組網、高可用性。我們為這個面向超節點的新型互聯協議取名“靈衢”,英文名稱:UB,UnifiedBus今天,我們正式發佈靈衢、UnifiedBus,一個面向超節點的互聯協議。同時,我宣佈,華為將開放靈衢2.0技術規範。為什麼從靈衢2.0開始開放?事實上,靈衢的研究是從2019年開始的,因為眾所周知的原因,先進工藝不可獲得,我們需要從多晶片上突破,希望把更多的計算資源聯接在一起。我們取了一個名字叫UnifiedBus,簡稱UB,中文名字“靈衢”,意味著類似九省通衢,實現大規模算力的聯通。基於靈衢 1.0 的Atlas 900超節點自2025年3月開始交付,至今已商用部署300多套,靈衢1.0技術得到充分驗證。在靈衢1.0的基礎上,我們繼續豐富功能,最佳化性能,提升規模,進一步完善了協議,形成了靈衢2.0,前面發佈的Atlas 950超節點就是基於靈衢2.0。我們認為靈衢2.0具備了開放的條件,為了更廣泛地促進互聯技術發展和產業進步,今天華為決定開放靈衢2.0技術規範,歡迎產業界夥伴基於靈衢研發相關產品和部件,共建靈衢開放生態。我在去年HC會上強調過,基於中國可獲得的晶片製造工藝,我們努力打造“超節點+叢集”算力解決方案,來持續滿足算力需求。今天已經介紹了三個超節點產品。靈衢既為超節點而生,是面向超節點的互聯協議,也是建構算力集群產品最優的互聯技術。接下來為大家帶來兩個叢集產品:首先是,Atlas 950 SuperCluster 50萬卡叢集!Atlas 950 SuperCluster叢集由64個Atlas 950超節點互聯組成,把1萬多機櫃中的52萬多片昇騰950DT組成為一個整體,FP8總算力可達524 EFLOPS。上市時間與Atlas 950超節點同步,即2026年Q4。在叢集組網上,我們同時支援UBoE與RoCE兩種協議,UBoE是把UB協議承載在乙太網路上,讓客戶能夠利用現有以太交換機。相比傳統RoCE,UBoE組網的靜態時延更低、可靠性更高,交換機和光模組數量都更節省,所以,我們推薦UBoE。這就是我們的Atlas 950 SuperCluster叢集。相比當前世界上最大的叢集xAI Colossus,規模是其2.5倍,算力是其1.3倍,是當之無愧的全世界最強算力集群!無論是當下主流的千億稠密、稀疏大模型訓練任務,還是未來的兆、十兆大模型訓練,超節點叢集都可以成為性能強悍的算力底座,高效穩定地支援人工智慧持續創新。相應的,在2027年Q4,我們還將基於Atlas 960超節點,同步推出Atlas 960 SuperCluster,叢集規模進一步提升到百萬卡級,FP8總算力達到2 ZFLOPS!FP4總算力達到4 ZFLOPS。並且,它同樣也支援UBoE與RoCE兩種協議,在UBoE協議加持下,性能與可靠性同樣更優,並且,靜態時延和網路無故障時間優勢進一步擴大,因此繼續推薦UBoE組網。通過Atlas 960 SuperCluster,我們將持續加速客戶應用創新,探索智能水平新高。很高興今天給大家帶來一系列新產品,我們希望和產業界一起,以開創的靈衢超節點互聯技術,引領AI基礎設施新範式;以基於靈衢的超節點和叢集持續滿足算力快速增長的需求,推動人工智慧持續發展,創造更大的價值! (中國青年網)
剛剛!吳清,最新發聲!中國證監會再推新政!
6月18日上午,為期兩天的2025陸家嘴論壇正式開幕,本屆論壇的主題為“全球經濟變局中的金融開放合作與高品質發展”。中國人民銀行行長潘功勝、金融監管總局局長李雲澤、中國證監會主席吳清、中國國家外匯局局長朱鶴新出席會議並行表主題演講。吳清:推出進一步深化科創板改革的“1+6”政策措施吳清在2025陸家嘴論壇上表示,將聚焦提升制度的包容性和適應性,以深化科創板、創業板改革為抓手,更好發揮科創板“試驗田”作用,加力推出進一步深化改革的“1+6”政策措施,統籌推進投融資綜合改革和投資者權益保護,加快建構更有利於支援全面創新的資本市場生態。具體來看,“1”在科創板設定科創成長層,並且重啟未盈利企業適用於科創板第五套標準上市,更加精準服務技術有較大突破、持續研發投入大、商業前景廣闊的優質科創企業,在強化資訊披露、加強投資者適當性管理方面作出安排。“6”即在科創板創新推出6項改革措施,包括對於適用科創板第五套標準的企業,試點引入資深專業機構投資者制度;面向優質科技企業試點IPO預先審閱機制;擴大第五套標準適用範圍,支援人工智慧、商業航天、低空經濟等更多前沿科技領域企業適用;支援在審未盈利科技企業面向老股東開展增資擴股等活動;完善科創板公司再融資制度和戰略投資者認定標準;增加科創板投資產品和風險管理工具等。同時,證監會也將在創業板正式啟用第三套標準,支援優質未盈利創新企業上市。吳清:引導更多中長期資金參與科技企業投資吳清表示,支援編制更多科技創新指數、開發更多科創主題公募基金產品,引導更多中長期資金參與科技企業投資。吳清:上市是起點不是終點,融資是工具不是目的吳清表示,上市是起點不是終點,融資是工具不是目的,證監會將堅持目標導向、問題導向,不斷完善上市公司全鏈條的監管制度安排。吳清:將批覆全國首批2隻資料中心REITs註冊吳清表示,進一步強化股債聯動服務科技創新的優勢。大力發展科創債,最佳化發行、交易制度安排,推動完善貼息、擔保等配套機制,加快推出科創債ETF,積極發展可交換債、可轉債等股債結合產品。今天,證監會將批覆全國首批2隻資料中心REITs註冊,下一步將繼續支援科技企業利用智慧財產權、資料資產等新型資產開展資產證券化、REITs等融資,進一步盤活科技創新領域存量資產。吳清:推動基金份額轉讓業務試點轉常規吳清表示,推動基金份額轉讓業務試點轉常規,最佳化實物分配股票試點和“反向掛鉤”等機制,暢通多元化退出管道。吳清:全球科技創新進入密集活躍期,諸多領域都迎來了Deepseek吳清表示,當前新一輪科技革命和產業變革加速引進,全球科技創新進入密集活躍期,科技創新正在從點狀突破到系統整合推進,技術突破到市場應用轉化,諸多領域都迎來了Deepseek。吳清:推動股份對價分期支付機制、重組簡易稽核程序等新舉措落實吳清表示,證監會將抓好“併購六條”和重大資產重組管理辦法落地,推動股份對價分期支付機制、重組簡易稽核程序等新舉措落實,研究完善上市公司股權激勵實施程序,提升便利性和靈活度,推動上市公司持續提升核心競爭力和經營業績,在高品質發展中更好回報投資者。吳清:更大力度培育壯大耐心資本、長期資本吳清表示, 更大力度培育壯大耐心資本、長期資本,聚焦私募基金“募投管退”各環節卡點堵點,精準發力、暢通循環。積極推動社保基金、保險資金、產業資本參與私募股權投資,拓寬資金來源。吳清:中國資本市場有力促進了科技、資本、產業良性循環吳清表示,創新發展需要科學家、企業家和投資家,更需要投資家、科學家和企業家的牽手。中國資本市場發生深刻結構性變化,有力促進了科技、資本、產業良性循環。近年來,中國證監會認真落實創新驅動發展戰略,深化發行、併購重組等適配性改革,最佳化制度和產品供應,為支援科技創新和產業轉型升級提供重要支撐。吳清:無論是大而強的科技巨頭還是小而美的科創新秀,都離不開資本市場的支援吳清表示,當前,適應創新規律的資金形成機制還不完善,長期資本和耐心資本遠遠不夠,對創新的激勵約束機制不夠完善,資本市場大有可為。資本市場具有獨特的風險共擔、利益共享的激勵約束機制,同時,資本市場可以對關鍵要素進行資產定價,可以激發企業家精神和人才創新的活力,無論是大而強的科技巨頭,還是小而美的科創新秀 ,都離不開資本市場的支援。 (券商中國)
輝達CEO黃仁勳在巴黎VivaTech 2025 上的主題演講: 從智能體到AI工廠 | 全文2萬字
【城主說】輝達CEO黃仁勳今天在巴黎的VivaTech2025發表了主題演講。如老黃所說,這是GTC演講的巴黎VivaTech版,基本可以看做是GTC演講Plus更新版:)。這次演講核心發佈了專為推理和思考設計的 Blackwell 架構,並闡述了“AI 工廠”作為新型國家基礎設施的理念。老黃詳細介紹了輝達在智能體 AI、工業數字孿生、自動駕駛和人形機器人領域的全端式解決方案,並強調了與歐洲在建構主權 AI 生態系統方面的深度合作。核心觀點Blackwell 架構: 發佈專為大規模推理和思考設計的“思考機器”Blackwell,相較於前代實現性能巨大飛躍。AI 工廠理念: 將 AI 資料中心重新定義為生產智能的“AI 工廠”,是推動經濟增長的新型國家基礎設施。智能體 AI (Agent AI): AI 進入新浪潮,能夠進行推理、規劃和使用工具的智能體將成為主流,輝達提供從模型到部署的全套開發平台。工業數字孿生: Omniverse 平台通過建構物理精確的數字孿生,賦能從工廠設計到機器人訓練的整個工業流程。具身智能與機器人: AI 的終極形態是物理機器人,輝達正通過 Thor 晶片和 Omniverse 模擬平台,加速自動駕駛和人形機器人的發展。歐洲主權 AI: 宣佈與歐洲各國及 Mistral AI 等公司深度合作,建設區域性 AI 雲和技術中心,支援歐洲 AI 生態發展。序幕視訊解說: 這就是智能的誕生方式。一種新型工廠。資訊基元的生成器。人工智慧的基石。資訊基元開啟了新的疆域。邁入一個超凡世界的第一步。在那裡,無限可能孕育而生。資訊基元將圖像轉化為科學資料。測繪外星大氣層。並指引未來的探索者。他們深入探測地球深處,探尋隱藏的危險。他們將潛力轉化為豐饒。並幫助我們收穫豐碩成果。Tokens 在疾病發作之前就能發現它們。精準治癒。並瞭解我們的運作機制。Tokens 關聯各項資訊。以便我們能保護我們最珍貴的生物。Tokens 解讀物理定律。以此驅動我們更快發展。讓我們的生活更高效。令牌不僅教會機器人如何移動。更能帶來喜悅。以及舒適。令牌幫助我們向前邁進。這是個人的一小步,卻是人類的一大步。這樣我們就能大膽前行,抵達前人未至之境。而這一切都始於此。歡迎輝達創始人兼首席執行官黃仁勳上台。黃仁勳: 巴黎,你好!大家好!這是輝達首次在巴黎舉辦GTC大會。這真是太棒了。感謝所有蒞臨現場的合作夥伴。多年來,我們與許多人攜手合作。事實上,我們已經在歐洲深耕多年,儘管這是我首次在巴黎參加GTC大會。我有很多事情要告訴大家。加速計算:從科學到人工智慧的基石黃仁勳: 曾幾何時,輝達旨在打造一個全新的計算平台。做普通電腦無法做到的事情。我們加速了CPU,創造了一種新型計算,稱為加速計算。我們最早的應用之一就是分子動力學。自那時起,我們已經取得了長足的進步。湧現出如此多不同的庫。事實上,加速計算的特別之處在於,它不僅僅是一個你可以編譯軟體的新型處理器。你必須重新構想你的計算方式。你必須重新設計你的演算法。而事實證明,人們要重新設計軟體和演算法以實現高度平行化,是極其困難的。因此,我們建立了各種庫,以幫助每個市場、每個應用領域實現加速。這些庫中的每一個都為開發者開啟了新的機遇。並且它也為我們以及我們的生態系統合作夥伴開啟了新的增長機遇。計算光刻,可能是當今半導體設計中最重要的應用,在台積電的工廠中運行。三星,大型半導體晶圓廠。在晶片製造之前,它會運行通過一種名為cuLitho的逆向物理演算法,即計算光刻。直接稀疏求解器,代數多重網格求解器。CuOpt,我們剛剛開源了它,這是一個極其令人振奮的應用庫。這個庫能夠加速決策制定,以最佳化包含數百萬變數和數百萬約束條件的問題,例如旅行商問題。Warp,一個用於表達幾何和物理求解器的Pythonic框架,非常重要。cuDF,cuML,結構化資料庫,資料幀,經典的機器學習演算法。cuDF 加速 Spark,零行程式碼更改。cuML 加速 scikit-learn,零行程式碼更改。Dynamo 和 cuDNN。cuDNN 可能是 NVIDIA 迄今為止建立過的最重要的庫。它加速了深度神經網路的原語。而 Dynamo 是我們全新的庫,它使得在整個 AI 工廠中調度、編排和分發極其複雜的推理工作負載成為可能。cuEquivariance 和 cuTensor,張量收縮演算法。等變性適用於遵守幾何定律的神經網路,例如蛋白質、分子。Arial 和 Shiona,一個非常重要的框架,旨在賦能 AI 運行 6G。IRF2,我們用於氣象和氣候模型的基礎模型的模擬環境。平方公里,極高的解析度。MONI,我們用於醫學影像的框架,廣受歡迎。Parabrix,我們用於基因組學分析的求解器,取得了巨大成功。cuQuantum,cu2q,我稍後就會談到,用於量子計算。還有cuPiNumeric,對NumPy和SciPy的加速。正如您所見,這些只是眾多庫中的幾個例子。還有400個其他的。它們每一個都加速了一個應用領域。它們每一個都開啟了新的機遇。量子飛躍:CUDA-Q 與未來計算黃仁勳: 那麼,其中最令人興奮的,莫過於cu2q。cu2x 是這套庫。一個基於 cu2 的庫套件,用於加速應用程式和演算法。我們現在有了 cu2q。cu2q 用於量子計算,以及基於 GPU 的經典-量子混合計算。我們在 cu2q 上已經投入開發好幾年了。而今天,我可以告訴大家,量子計算領域正在迎來一個轉折點。眾所周知,第一個物理量子位元大約在近30年前得到了演示。一個糾錯演算法在1995年被發明。而在2023年,差不多30年後,世界上第一個邏輯量子位元由Google成功演示。從那時起,幾年之後,邏輯量子位元的數量,即那些由大量帶有糾錯功能的物理量子位元所代表的邏輯量子位元的數量,正在開始增長。就像摩爾定律一樣,我完全可以預期每五年邏輯量子位元數量增加10倍,每十年增加100倍。這些邏輯量子位元將變得糾錯能力更強、更魯棒、性能更高、更具韌性,而且,當然,將繼續保持可擴展性。量子計算正處於一個轉折點。我們一直在以多種不同方式與全球各地的量子計算公司合作。但在歐洲,存在一個大型社群。我昨晚見到了帕斯卡。我昨晚見到了巴塞隆納超級計算中心。現在很清楚,我們已近在咫尺,能夠在未來幾年內將量子計算、量子經典混合計算應用於能夠解決一些有趣問題的領域。這是一個真正令人興奮的時刻。因此我們一直在與所有的超級計算中心合作。如今非常清楚,在未來幾年內,或者至少在下一代超級電腦中,每一台都將配備一個QPU,並且QPU將連接到GPU。QPU當然將用於量子計算,而GPU將用於預處理、控制、糾錯(這將是高度計算密集型的)、後處理等。在這兩種架構之間,正如我們加速了CPU一樣,現在QPU與GPU協同工作,以實現下一代計算。那麼,今天我們宣佈,我們的整個量子演算法堆疊現已在Grace Blackwell 200上得到加速。並且加速效果簡直令人難以置信。我們通過多種不同方式與量子計算行業合作。一種方式是使用QuQuantum來模擬量子位元或模擬運行在這些量子電腦上的演算法。本質上,就是使用經典電腦來模擬或模擬量子電腦。另一方面,極其重要的是CUDA-Q。基本上,就是發明了一種新的CUDA,將CUDA擴展到量子經典領域,這樣,在CUDA-Q上開發的應用可以在量子電腦問世之前以模擬方式運行,或者在量子電腦問世之後以協作方式運行。量子經典加速計算方法。因此,今天我們宣佈 CUDA-Q 可用於 Grace Blackwell。這裡的生態系統極其豐富。當然,歐洲在科學、超級計算專業知識以及該領域的傳承方面底蘊深厚。在這裡看到量子計算取得進展不足為奇。在未來幾年,我們將看到一個真正非凡的拐點。那麼,對於所有為此努力了三十年的量子電腦行業,我祝賀你們今天取得的這些令人難以置信的成就和里程碑。謝謝。人工智慧的新浪潮:從生成式到智能體黃仁勳: 讓我們來談談人工智慧。你們可能會驚訝於我會和你們談論人工智慧。同一塊運行並支援我所提及的所有應用的GPU,正是同一塊GPU使得人工智慧得以問世。我們於2012年首次接觸人工智慧,就在那之前,我們已與開發者合作,共同開發一種名為深度學習的新型演算法。它促成了2012年AlexNet引發的人工智慧大爆發。在過去的約15年裡,人工智慧取得了驚人的迅猛發展。人工智慧的第一波浪潮是感知能力,旨在使電腦能夠識別並理解資訊。第二波浪潮,即我們在過去大約五年間普遍談論的,是生成式人工智慧。它具備多模態特性,這意味著人工智慧能夠同時學習圖像和語言。因此,你可以通過語言對其進行提示,而它則能夠生成圖像。人工智慧所具備的多模態能力,以及翻譯和生成內容的能力,共同促成了生成式人工智慧的革命。生成式人工智慧,即生成內容的能力,對於我們提高生產力具有根本性的重要意義。嗯,我們正在開啟新一波的人工智慧浪潮。在過去的幾年裡,我們看到人工智慧的能力取得了巨大的進步。從根本上說,智能關乎理解、感知、推理、規劃任務、解決問題,然後執行任務。感知、推理、規劃。智能的核心循環。它使我們能夠應用一些預先學到的規則來解決我們從未見過的問題。這就是為什麼聰明的人之所以聰明。能夠處理一個複雜的問題,並將其一步步分解,推理如何解決,或許進行研究,或許學習新知識,尋求幫助,使用工具,然後一步步地解決問題。嗯,我剛才描述的這些能力,通過所謂的智能體人工智慧,在今天已經從根本上成為可能。我馬上就會向您展示更多。在其實際的物理實現中,即那種具身化的人工智慧的體現,以及在動作方面,現在其生成能力正在生成運動。這種人工智慧不再是生成視訊、圖像或文字,而是生成移動能力,例如走路,或者伸手抓取物體、使用工具的能力。人工智慧能夠以物理形式具身化的能力,基本上就是機器人技術。這些能力,即實現智能體(它們本質上是資訊機器人)和具身化人工智慧(即物理機器人)的基礎技術,這兩項核心能力如今已然擺在我們面前。對人工智慧而言,這真是激動人心的時代。Blackwell:為思考而生的工程奇蹟黃仁勳: 但這一切都始於GeForce。GeForce帶來了電腦圖形技術。這是我們所開發過的第一個加速計算應用。電腦圖形技術發展到如今的程度,真是令人難以置信。GeForce將CUDA帶給了世界,這使得機器學習研究人員和人工智慧研究人員能夠推進深度學習的發展。然後,深度學習徹底改變了電腦圖形學,使我們能夠將其提升到一個全新的高度。今天我將向大家展示的一切,今天我將向大家展示的一切,我將先給大家一個預告,但今天我將向大家展示的所有內容都是電腦模擬,而非動畫。它是光子模擬、物理模擬、粒子模擬,一切從根本上說都是模擬,而非動畫,並非藝術。它看起來美得令人難以置信,因為結果發現世界是美麗的,結果發現數學是美麗的。那麼,我們來看看吧。你們覺得怎麼樣?運作中的數字。運作中的數字。這本質上就是模擬的意義,而且看起來簡直美不勝收。但是,鑑於我們現在模擬幾乎所有事物的規模和速度,我們可以將一切都轉化為數字孿生。既然一切皆可成為數字孿生,我們就能將一切都轉化為數字孿生。在我們將其投入物理世界之前,它可以被完全以數字方式進行設計、規劃、最佳化和營運。將一切都建構在軟體中的理念,如今已然來臨。所有的物理實體都將以數字方式建構。所有精妙建構的事物都將以數字方式建構。所有在龐大規模下營運的事物都將首先以數字方式建構,並將有數字孿生來營運它們。因此,今天我們將大量討論數字孿生。那麼,最初作為一塊GeForce顯示卡出現的事物……這裡有人知道GeForce是什麼嗎?好的。好的。好的,最初的GeForce如今已是這般模樣。這就是新的GeForce。它重達兩噸,甚至兩噸半,由120萬個零件組成。價值約300萬美元。120千瓦。由150家工廠生產。200家技術合作夥伴與我們攜手完成這項工作。為打造GB200(並已向GB300演進),研發預算可能高達400億美元。它已全面投入生產。而這台機器,其設計初衷就是一台思考機器。思考機器,就其能夠推理、規劃,並花費大量時間進行自我對話而言。就像你一樣。在我們實際輸出之前,我們大部分時間都在為自己的思維生成詞語,為自己的思維生成圖像。因此,從架構上講,這種思考機器正是 Grace Blackwell 的設計初衷。它被設計成一個巨型 GPU。我將它與 GeForce 相比是有充分理由的。GeForce 是一個 GPU。GB200 也是如此。它是一個巨大的虛擬 GPU。現在,我們必須將其拆分為眾多元件,建立大量新的網路技術和 SerDes 技術,以及極低功耗、高能效的互連技術,以便將所有這些晶片和系統連接成一個虛擬 GPU。這是Hopper版本。這是世界聞名的Hopper系統。八個GPU通過NVLink互聯。這裡未展示的是一個CPU托盤。一個配備雙CPU和系統記憶體的CPU托盤,位於頂部。這共同構成了一台AI超級電腦的一個節點。約50萬美元。這就是Hopper系統。正是這個系統,真正使我們在AI版圖上佔據了一席之地。而且由於市場需求激增,它長期處於配給狀態。但是,這就是著名的Hopper系統。整個系統,包括中央處理器,都被這個卓越的Blackwell節點所取代。這是一個計算托盤。僅此一塊就能取代那個完整的系統。它採用全液體冷卻,並且中央處理器(CPU)與圖形處理器(GPU)直接整合連接。所以你可以在這裡看到,兩顆中央處理器,四顆圖形處理器。它的性能優於那個完整的系統。但令人驚奇的是這一點。我們想將一大批這樣的系統連接起來。如何將所有這些連接起來,對我們來說確實很難想像。於是我們將其拆解。我們所做的,就是將整個主機板拆解成這和這。這是革命性的NVLink系統。計算的橫向擴展並非那麼困難。只需用乙太網路連接更多CPU,橫向擴展並不困難。縱向擴展則極其困難。你所能建構的電腦規模,受限於你實際能夠實現的程度。要將如此大量的技術和電子元件整合進一個記憶體模型中,是極其難以實現的。所以我們決定建立一個名為NVLink的新型互連技術。NVLink是一種記憶體語義互連技術。這是一個計算互聯結構,而非網路。它直接連接到所有這些不同NVLink系統(即計算節點)的中央處理器。這是交換機。九個這樣的,這九個矗立在頂部。其中九個位於底部。中間是NVLink交換機。將它們連接在一起的是這個奇蹟。這是NVLink主幹。這是百分之百的銅。銅同軸電纜。它將所有NVLink晶片直接連接到所有GPU,通過整個骨幹網路直接互聯。這樣,每一顆144個Blackwell裸晶片(或72個不同封裝中的晶片)都能同時互相通訊,且不會產生阻塞。遍佈於整個NVLink骨幹網路。它的頻寬大約是每秒130太字節。130... 我知道。不,等等,等著瞧。等著瞧。每秒130太字節。如果以位元為單位... 每秒130太字節。這個背板上的資料速率,超過了全球整個網際網路峰值流量的總和。這就是我們如何將網際網路濃縮到 60 磅的秘訣。NVLink。於是我們完成了所有這些。我們之所以做這些,是因為未來人們對電腦的理解和思考方式將發生根本性改變,對此我將花更多時間探討,但它旨在讓 Blackwell 在 Hopper 基礎上實現一次巨大的飛躍。請記住,摩爾定律和半導體物理學,每三到五年才能帶來大約兩倍的性能提升。我們又如何才能在僅僅一代之內實現 30 到 40 倍的性能提升呢?我們需要 30 到 40 倍的性能提升,因為推理模型正在進行內部對話。它不再是像 ChatGPT 那樣的單次(輸出),現在它是一個推理模型,當你進行內部思考時,它會生成大量更多的 token。你正在一步步地分解問題,進行推理,嘗試各種不同的路徑,也許是思維鏈(chain of thoughts),也許是思維樹(tree of thoughts),或者是 n 選一最佳(best of n)。它正在反思自己的答案。你可能見過這些研究模型在反思答案時會說:“這是一個好答案嗎?”“你能做得更好嗎?”而它們會說:“哦,是的,我能做得更好”,然後回去再思考一下。因此,這些思考模型、推理模型取得了令人難以置信的性能,但這需要更多的計算能力。最終結果是,MV Link 72、Blackwell 架構帶來了性能的巨大飛躍。這種解讀方式是:x軸代表它的思考速度。y軸代表工廠能輸出多少,同時支援大量使用者。因此,你希望工廠的吞吐量儘可能高,這樣你就能支援儘可能多的人,從而使你的工廠收入儘可能高。你希望這個軸儘可能大,因為人工智慧很智能,它在這裡比在那裡更智能。思考得越多,速度越快,就能在提供答覆前進行更充分的思考。因此,這與Token的平均銷售價格(ASP)有關,也與工廠的吞吐量有關。這兩者的結合就是工廠的收入。這家基於 Blackwell 的工廠,得益於其架構,能夠產生巨額收入。我們所建造的成果真是令人難以置信。我們為您製作了一段視訊,只是為了讓您感受一下建構 Grace Blackwell 所投入的工程量的浩瀚。請看。Blackwell 是一項工程奇蹟。它始於一塊空白的矽晶圓。數百道晶片處理和紫外線光刻工序,在一塊 12 英吋的晶圓上,逐層建構起 2000 億個電晶體。晶圓被劃分為單個的 Blackwell 裸晶,經過測試和分揀,分離出合格的裸晶以進入下一階段。通過基板上晶片的晶圓級工藝,32 個 Blackwell 裸晶和 128 個 HBM 堆疊被連接固定到定製的矽中介層晶圓上。金屬互連線直接刻蝕其上,將 Blackwell GPU 和 HBM 堆疊連接起來,形成每個系統和封裝單元,並將所有元件固定就位。隨後,整個元件經過烘烤、塑封和固化,從而製成 Blackwell B200 超級晶片。每個 Blackwell 晶片都在 125 攝氏度的烤箱中進行壓力測試,並被推向其性能極限,持續數小時。機器人晝夜不停地工作,將超過 10,000 個元件拾取並放置到 Grace Blackwell PCB 上。與此同時,定製的液冷銅塊也已準備就緒,以保持晶片處於最佳溫度。在另一個工廠,ConnectX 7 SuperNICs 正在製造,以實現橫向擴展通訊,同時 BlueField 3 DPU 也在製造,以解除安裝並加速網路、儲存和安全任務。所有這些部件匯聚在一起,被精心整合到 GB200 計算托盤中。NVLink 是 NVIDIA 發明的一種突破性高速互連技術,用於連接多個 GPU 並擴展成為一個巨大的虛擬 GPU。NVLink 交換托盤由 NVLink 交換晶片構成,提供每秒 14.4 太字節的全互聯頻寬。NVLink 主幹形成定製的盲插式背板,通過 5,000 根銅纜將全部 72 個 Blackwell,即 144 個 GPU 裸片,連接成一個巨大的 GPU,提供每秒 130 太字節的全互聯頻寬,這超過了全球網際網路的峰值流量。零部件從世界各地運抵,由熟練的技術人員組裝成機架規模的 AI 超級電腦。總計 120 萬個元件、兩英里長的銅纜、130 兆個電晶體,總重量近兩噸。Blackwell 不僅僅是技術奇蹟。它是全球協作與創新力量的明證,正在推動將塑造我們未來方方面面的發現和解決方案。我們致力於賦能我們這個時代的天才們,讓他們完成畢生事業。我們迫不及待地期待著您們帶來的突破。Grace Blackwell 系統,全部投入生產。這真是一個奇蹟。從技術角度來看,這是一個奇蹟,但集結起來建構這些 GB200 系統(每套重兩噸)的供應鏈更是奇蹟,我們現在每周能生產一千套系統。之前從未有人以如此規模批次生產過超級電腦。這些機架中的每一個,本質上都是一台完整的超級電腦。僅在2018年,最大的Volta系統——Sierra超級電腦,其性能甚至不如這些機架中的一個。而那個系統功耗為10兆瓦。而這僅為100千瓦。2018年至今,代際更迭帶來的巨大差異在於,我們已真正將超級計算,特別是AI超級計算,提升到了一個全新的水平。而我們現在正以巨大規模生產這些機器裝置。而這僅僅是個開始。事實上,你所看到的僅僅是一個系統,即Grace Blackwell。全世界都在談論這一個系統,爭相要求將其部署到全球資料中心,用於訓練、推理和生成式AI。然而,並非所有人以及並非所有資料中心都能處理這些液冷系統。某些資料中心需要企業級堆疊,需要運行 Linux Red Hat、Nutanix 或 VMware 的能力,以及來自 Dell EMC、Hitachi、NetApp、Vast、Weka 等諸多不同的儲存系統,如此之多不同的 IT 系統。而這些系統的管理必須以與傳統 IT 系統一致的方式進行。我們有如此多的新電腦正準備投入量產。我非常高興地告訴大家,其中的每一個都已投入量產。你們還沒有看到它們。它們正從生產線上加速出貨,供不應求,而這一切都始於此地。DGX Spark 讓您能夠基本上在您的桌面電腦上擁有 Grace Blackwell 系統。就 Spark 而言,是桌面電腦。就 DGX Station 而言,是辦公桌旁。這樣,在開發軟體和AI時,您就不必一直佔用超級電腦了。但您希望架構完全相同。從架構角度來看,這些系統是完全一致的。從軟體開發人員的角度來看,它看上去是完全一樣的。唯一的區別是規模和速度。而在這一側,是所有的x86系統。全球IT組織仍然青睞x86並認可x86。只要能充分利用最先進的AI原生系統,他們就會去利用;當他們無法這樣做,又希望將其整合到企業IT系統時,我們現在為他們提供了這樣做的能力。最重要的系統之一,也是我們耗時最久才建構完成的系統,因為它軟體和架構都極其複雜,那就是如何將AI原生架構引入並融入到傳統的企業IT系統中。這就是我們全新的RTX Pro伺服器。這是一個非凡的系統。主機板經過了完全重新設計。女士們,先生們,珍妮·保羅。這塊主機板看起來如此簡潔。然而,在這塊主機板上,有八個 SuperNIC 交換機,通過一個每秒200吉位元的尖端網路晶片連接八個 GPU,該晶片隨後連接這八個 GPU 以及這些 Blackwell RTX Pro 6000 GPU。全新產品,剛剛投入生產。其中八個安裝到一台伺服器中。那麼,它有何特別之處?這台伺服器是世界上唯一一台能夠運行世界上所有已編寫內容以及輝達開發過的所有內容的伺服器。它運行人工智慧、Omniverse、用於視訊遊戲的 RTX,它運行 Windows、它運行 Linux,運行 Kubernetes,它運行 Kubernetes 和 VMware。它基本上運行一切。如果您想將Windows桌面從一台電腦流式傳輸到您的遠端裝置,毫無問題。如果您想流式傳輸Omniverse,毫無問題。如果您想運行您的機器人技術堆疊,毫無問題。僅是這台特定機器的質量保證就令人難以置信。它所運行的應用程式,基本上是普遍適用的。迄今為止世界上開發的所有一切都應該能在這裡運行。其中,如果您是一名視訊遊戲玩家,也包括《孤島危機》。因此,如果您能運行《孤島危機》,您就能運行任何程序。好的,這就是RTX Pro伺服器,一個全新的企業級系統。AI 工廠:新工業革命的核心黃仁勳: 那麼,某種變化正在發生。我們知道人工智慧是一項極其重要的技術。我們現在確切地知道,人工智慧是一種能夠徹底改變並顛覆每一個行業的軟體。它能夠實現這些令人驚嘆的成就。這一點我們是清楚的。我們也知道,處理人工智慧的方式與我們過去處理人工編寫軟體的方式有著根本性的不同。機器學習軟體的開發方式不同,其運行方式也不同。系統的架構、軟體的架構,完全不同。網路運行的方式,完全不同。其作為儲存的方式,完全不同。那麼,我們知道這項技術能夠做各種各樣的事情,令人難以置信的事情。它具有智能。我們也知道它的發展方式與以往截然不同。它需要新型電腦。真正有趣的問題是,這一切對國家、對公司、對社會而言意味著什麼?而這是一個我們早在近十年前就做出的觀察,如今每個人都已醒悟過來。事實上,這些人工智慧資料中心根本不是資料中心。它們並非傳統意義上的資料中心。儲存您所檢索的檔案的。這些資料中心並未儲存我們的檔案。它只有一個職責,而且僅此一個。生產智能標記。人工智慧的生成。這些人工智慧工廠從其內部有大量電腦這一點來看,看起來像資料中心,但這就是所有不同之處。它的設計方式,它被製造、擴展、設計和建造的規模,它的使用方式,它的編排、配置和營運方式,以及人們如何看待它——例如,沒有人真正把他們的資料中心看作一個創收設施。我說了一件事,每個人都會說:“嗯,我想你是對的。”從來沒有人把資料中心看作一個創收設施。但他們會把他們的工廠,他們的汽車工廠,看作創收設施。他們迫不及待地想再建一個工廠。因為每當你建造一個工廠,收入很快就會隨之增長。你可以為更多人建造更多事物。那些想法與這些人工智慧工廠中的想法完全相同。它們是創收設施。它們旨在生產令牌。這些令牌可以被重構為眾多行業的生產性智能,以至於人工智慧工廠現已成為一個國家基礎設施的一部分,這就是為什麼你看到我在世界各地奔波與各國元首對話的原因,因為他們都想擁有人工智慧工廠。他們都希望人工智慧成為他們基礎設施的一部分。他們希望人工智慧對他們而言是一個增長型的製造業。這確實意義深遠。我認為,由於所有這一切,我們正在談論一場新的工業革命,因為每一個行業都受到影響,以及一個新興產業的誕生,正如電力成為一個新興產業一樣。起初,當它被描述為一項技術並作為一項技術被展示時,它被理解為一項技術,但後來我們明白它也是一個龐大的產業。接著是資訊產業,我們現在稱之為網際網路,二者都因其影響了如此多的行業,而成為了基礎設施的一部分。我們現在擁有一個新興產業,即人工智慧產業,它現在是被稱為“智能基礎設施”的新型基礎設施的一部分。每個國家、每個社會、每個公司都將依賴它。你可以看到它已經實現了規模化。這是一個備受關注的案例。這是 Stargate。這看起來不像一個資料中心。它看起來像一個工廠。這是一吉瓦(的設施)。它將容納大約五十萬個 GPU 核心。並產生可供所有人使用的海量智能。歐洲的 AI 雄心:建構主權基礎設施黃仁勳: 歐洲現在已經意識到這些人工智慧工廠的重要性,以及人工智慧基礎設施的重要性,我很高興看到這裡有如此多的活動。這是歐洲電信公司正在與輝達合作建設人工智慧基礎設施。這是歐洲雲服務提供商正在與輝達合作建設人工智慧基礎設施。這是歐洲超級計算中心正在與輝達合作建設下一代人工智慧超級電腦和基礎設施。而這僅僅是個開始。這還不包括公有雲中即將出現的內容。這還不包括公有雲。因此,這是由歐洲公司為歐洲市場在歐洲本地建構的人工智慧基礎設施。還有20個正在規劃中。20個新增的人工智慧工廠,其中有幾個是超級工廠。總計,僅在兩年內,我們將把歐洲的人工智慧算力增加10倍。因此,研究人員、初創公司,以及你們的AI短缺、GPU短缺問題都將很快得到解決。它即將到來。現在我們正在與各個國家合作,以發展各自的生態系統。因此,我們正在七個不同的國家建設人工智慧技術中心。這些人工智慧技術中心的目標是,一是進行合作研究,二是與初創公司合作,並建設生態系統。讓我向你們展示一個生態系統是什麼樣子。在英國,我昨天剛去過那裡,這些生態系統是建立在輝達技術堆疊之上的。舉例來說,每一個輝達,眾所周知,輝達是唯一可在所有雲平台使用的AI架構。它是除了x86之外,唯一一種普遍可用的計算架構。我們與每一家雲服務提供商都有合作。我們加速來自世界上最重要的軟體開發商的應用程式,例如歐洲的西門子、Cadence、Red Hat、ServiceNow。我們已經徹底改造了計算堆疊。眾所周知,計算不僅僅是一台電腦,它還包括計算、網路和儲存。每一層,每一個堆疊都已被徹底改造。我們與思科有著良好的合作關係,他們昨天在會議上發佈了一款基於輝達的全新模型。戴爾,也有著良好的合作關係。NetApp、Nutanix,以及一大批良好的合作關係。正如我之前提到的,軟體的開發方式已經發生了根本性變化。不再僅僅是編寫 C 程序、編譯 C 程序、交付 C 程序。現在是 DevOps、ML Ops、AI Ops。所以,整個生態系統正在被重塑,我們的生態系統合作夥伴遍佈各地。當然,還有解決方案整合商和提供商,他們可以幫助每家公司整合這些能力。嗯,在英國,我們有合作的特殊公司。確實有非常棒的公司,從研究人員到開發人員再到合作夥伴,幫助我們提升當地經濟和當地人才的技能水平。那些使用技術的企業,當然還有雲服務提供商。我們在英國有很棒的合作夥伴。我們在德國有很棒的合作夥伴。在德國,我們有著難以置信的、非常棒的夥伴關係。我們在義大利擁有良好的合作關係。當然,我們在法國也擁有卓越的合作關係。沒錯,法國加油!馬克宏總統稍後會來到這裡。我們將談及一些新的公告。所以,我們必須對人工智慧表現出一些熱情,好嗎?這樣就對了。向他展示一些熱情。所以,我們在法國擁有卓越的合作關係。我想特別強調一個:我們與施耐德的合作關係。甚至建造這些AI工廠,我們現在也以數字方式建造它們。我們以數字方式設計它們,以數字方式建造它們,以數字方式營運或最佳化它們,並且最終我們甚至會在數字孿生中以完全數位化的方式最佳化和營運它們。這些AI工廠非常昂貴,有時高達500億美元,未來甚至會達到1000億美元。如果這些工廠的利用率未能達到最高,那麼工廠所有者將承擔難以置信的成本。因此,我們需要在所有可能的地方進行數位化並使用AI,將一切都放入Omniverse中,以便我們擁有直接和持續的遙測資料。我們在這裡有一個重要的合作夥伴關係,今天將對外公佈。這是一家年輕的公司,有一位我非常欣賞的CEO,他正在努力建立一家歐洲AI公司。這家公司的名字是Mistral。今天我們正在宣佈我們將在歐洲共同建設一個AI雲平台,以交付他們的模型,以及為其他AI初創公司的生態系統提供AI應用,這樣他們就可以使用Mistral模型或他們喜歡的任何模型。因此,Mistral 和我們,將合作在這裡建設一個非常大規模的人工智慧雲,今天晚些時候我們將與馬克宏總統討論更多細節。Nemotron 與智能體:讓人工智慧無處不在黃仁勳: 人工智慧技術正以光速發展。我在這裡向大家展示的是,左側的專有模型正以光速發展。然而,開源模型也正以光速發展。僅僅落後幾個月。無論是 Mistral、Llama、DeepSeek R1、即將推出的 R2,還是 Qwen,這些模型都非常出色。它們每一個都非常出色。因此,在過去幾年中,我們一直致力於動用一些世界上最頂尖的人工智慧研究人員,來使這些人工智慧模型變得更好。我們稱之為 Nemotron。基本上,我們所做的是,我們獲取那些開放原始碼的模型——當然,它們無論如何都是基於 NVIDIA 建構的——因此我們獲取這些開源模型,然後進行後訓練。我們可能會進行神經網路架構搜尋。我們可能會進行神經網路架構搜尋,為其提供更優質的資料,使用強化學習技術,增強這些模型,賦予它推理能力,並擴展上下文,以便它在與您互動之前能學習和閱讀更多內容。這些模型大多數的上下文都相對較短,而我們希望它們擁有巨大的上下文處理能力,因為我們想將其用於企業應用中,而我們希望與之進行的對話在網際網路上是不可獲取的。它存在於我們公司內部。因此我們必須為其載入海量的上下文資訊。所有這些能力隨後都被打包成一個可下載的NIM。您可以訪問輝達的網站,直接下載一個API,一個最先進的AI模型,將其部署到任何您喜歡的地方,我們會對其進行大幅改進。這是Nemotron 相對於 LLAMA 的改進示例。所以LLAMA 8B、70B、405B,通過我們的後期訓練能力、推理能力的擴展以及我們提供的所有資料,得到了大幅增強。我們將不斷地進行迭代。因此,所有將使用此 Nemotron 的使用者都將知道,未來還有大量其他模型,而且它們無論如何都是開放的。因此,如果您想從開放模型開始,那太棒了。如果您喜歡從 Nemotron 模型開始,那太棒了。而 Nemotron 模型的性能非常出色。在一次又一次的基準測試中,Nemotron 的性能在各項榜單上都名列前茅。因此現在您知道,您可以使用一個增強的、仍然開放且在排行榜上名列前茅的模型。您也知道輝達致力於此,因此只要我還活著,我就會一直這樣做,好嗎?這項策略太棒了。這項策略如此出色,以至於歐洲各地的區域模型製造商和開發者現在已經認識到這項策略有多麼出色,我們正在合作,為區域語言調整併增強這些模型。您的資料歸您所有。你的資料屬於你。它是你民族的歷史、你民族的知識、你民族的文化。它屬於你。對於許多公司,以輝達為例,我們的資料大部分是內部資料。33年的資料。我今天早上查了一下,西門子,180年的資料。其中一些寫在紙莎草紙上。羅蘭·布什就在這裡。我想拿我的好朋友羅蘭·布什開開玩笑。所以,在人工智慧能夠學習之前,你們必須將這些資料數位化。因此,資料歸您所有。您應該使用這些資料,使用像Lemotron這樣的開放模型以及我們提供的所有工具套件,以便您能夠根據自己的用途對其進行增強。我們還宣佈,我們與Perplexity建立了良好的合作關係。Perplexity是一個推理搜尋引擎。沒錯。我使用的三個模型是ChatGPT、Gemini Pro和Perplexity。這三個模型我交替使用。Perplexity非常出色。我們今天宣佈,Perplexity將整合這些區域模型並將其直接連接到Perplexity中,這樣您現在就可以以您國家的語言、文化和符合當地文化習慣的方式提問並獲取答案。好的,所以是Perplexity和區域模型。智能體AI。智能體意義重大。正如您所知,最初,對於預訓練模型,人們會說,但它會產生幻覺。它會胡編亂造。您說的完全正確。它無法獲取最新的新聞和資料資訊。完全正確。它在沒有對問題進行充分推理的情況下就放棄了。彷彿每一個答案都必須從過往資料中記憶而來。完全正確。所有這些事情,你知道的,它為什麼試圖弄清楚如何計數並加數?它為什麼不用計算器呢?你說得一點沒錯。因此,所有這些與智能相關的能力,儘管每個人都能提出批評,但他們說得完全正確,因為大家大體上都明白智能是如何運作的。但這些技術正在世界各地被建構,並正在融合匯聚,從資訊檢索、增強生成,到網路搜尋,再到多模態理解,以便你能夠閱讀PDF、存取網站、查看圖像和文字、收聽視訊、觀看視訊,然後將所有這些理解融入到你的語境中。當然,你現在也能理解來自幾乎任何事物的提示。你甚至可以說:“我要問你一個問題,但請從這張圖片開始。”我可以說,請在你回答問題或執行我要求你做的事情之前,先從這段文字開始。它隨後就會進行推理、規劃並自我評估。所有這些能力現已整合,你也可以看到它們正在各地湧入市場。智能體AI是真實存在的。智能體AI相較於一次性AI,是巨大的階躍式發展。一次性AI是奠定基礎所必需的,以便我們能夠教導這些智能體如何成為智能體。你需要對知識和推理有基本的理解,才能具備可教性。因此,預訓練關乎AI的可教性。後訓練、強化學習、監督學習、人類演示、上下文提供、生成式AI,所有這些正匯聚一堂,共同構成了現在的智能體AI。讓我們來看一個例子。讓我向你展示一些東西。它基於Perplexity建構,而且非常酷。AI智能體是數字助手。基於提示,它們進行推理並將問題分解為多步驟計畫。它們使用適當的工具,與其他代理協作,並利用記憶中的上下文在NVIDIA加速系統上正確執行任務。它始於一個簡單的提示。讓我們請Perplexity協助在巴黎啟動一家餐車業務。首先,Perplexity代理對提示進行推理並制定計畫,然後呼叫其他代理,使用多種工具協助處理每個步驟。市場研究員閱讀評論和報告,以發現趨勢並分析競爭市場。基於這項研究,一位概念設計師探索當地食材並提出菜單,包括準備時間估算,並研究口味偏好並生成品牌標識。接著,財務規劃師使用蒙特卡洛模擬來預測盈利能力和增長軌跡。營運規劃師建立啟動時間表,包含所有細節,從購買裝置到獲取所需許可證。行銷專員制定啟動計畫,包含社交媒體行銷活動,甚至編寫一個互動網站,包括地圖、菜單和線上訂購功能。每個代理的工作匯聚成一份最終的打包提案,而這一切都始於一個單一的提示。一個提示,像原始聊天機器人中的那種一個提示,會生成幾百個令牌。但是現在,僅僅一個提示輸入到一個代理來解決問題,它一定生成了10,000倍多的令牌。這就是為什麼Grace Blackwell是必要的。這就是為什麼我們需要性能,並且系統在代際上要表現出如此高得多的性能。嗯,這就是Perplexity建構他們代理的方式。每家公司都將不得不建構自己的代理。這太棒了。你將要僱傭來自OpenAI、Gemini、Microsoft Copilot、Perplexity和Mistral的代理,並且會有為你建構的代理。它們可能會幫助你規劃一次假期,或者,你知道,去做一些研究,等等。然而,如果你想建立一家公司,你將需要使用專業工具並具備專業技能的專業代理。那麼問題是,你如何建構這些代理?因此,我們為你建立了一個平台。我們建立了一個框架、一套你可以使用的工具,以及一大批合作夥伴來幫助你實現它。它始於最底層,即具備我之前談到的推理模型的能力。輝達的Nemo、Nemotron推理大語言模型都是世界一流的。我們擁有Nemo Retriever,它是一個多模態、語義搜尋引擎。表現卓越。我們建構了一個可操作的演示藍圖,它本質上是一個通用代理。我們稱之為IQ、AI、AIQ。此外,我們擁有一套工具,可讓您引入一個通用代理,精心整理資料來訓練它、評估它、設定安全保障、監督、訓練它、使用強化學習,直至部署,並確保其安全無虞。這套工具包,以及這些庫,都已整合到AIOps生態系統中。您也可以自行從我們的網站下載,但它主要還是整合在AIOps生態系統中。基於此,您可以建立自己的特殊代理。許多公司正在這樣做。這是思科。他們昨天宣佈了此事。我們正在共同建構用於安全的人工智慧平台。現在,請看這個。AI代理並非一個模型就能包攬所有這些了不起的事情。這是一個模型集合,一個模型系統。這是一個人工智慧大型語言模型系統。其中一些針對特定類型的任務進行了最佳化。正如我提到的,例如檢索、執行技能,以及使用電腦。你不會想把所有這些東西都打包成一個龐大無比的單一人工智慧,而是會把它分解成小的部分,然後你可以隨著時間的推移對其進行持續整合/持續部署。這是思科的一個例子。那麼現在的問題是,你該如何部署它呢?因為正如我之前提到的,輝達的計算資源位於公有雲中。還有區域雲。我們稱它們為NCP。例如,這裡有 Mistral。您可能擁有私有雲解決方案,因為這符合您的安全和資料隱私要求。您甚至可能決定在本地(您的桌面上)運行某些系統。那麼,問題是,您如何運行所有這些呢?而有時它們在不同的地方運行,因為這些都是微服務。這些是能夠相互通訊的人工智慧。它們顯然可以通過網路相互通訊。那麼,您如何部署所有這些微服務呢?那麼,我們現在有一個出色的系統。我非常高興能向大家宣佈這一點。這就是我們稱之為DGX Lepton的產品。您在此處看到的DGX Lepton,實際上是眾多不同的雲。這裡有Lambda雲、AWS雲,等等。這裡還有您自己的開發人員機器,您自己的系統。它可以是DGX工作站、Nibias、Yoda、Nscale。它可以是AWS。它可以是GCP。NVIDIA的架構無處不在。因此,您可以決定在何處運行您的模型。您可以使用一個超級雲來部署它。所以,它是一個雲之雲。一旦你讓它運行起來,一旦你將這個NIMS部署到Lepton中,它就會在你所選擇的各種雲端進行託管和運行。一種模型架構,一次部署,你就可以在任何地方運行它。你甚至可以在這台小巧的機器上運行它。你們看,這台DGX Spark,它...這是一個咖啡時間嗎?看看這個。它擁有2000馬力。這是我最喜歡的小機器,DGX Spark。首款人工智慧超級電腦,我們在2016年建造了一台人工智慧超級電腦。它被稱為DGX-1。它是我一直以來所談論的一切的第一個版本。八塊 Volta GPU 通過 NVLink 連接。我們投入了數十億美元來建造它。而在我們宣佈 DGX-1 的那一天,沒有客戶,沒有興趣,沒有掌聲,只有百分之百的困惑。為什麼會有人建造一台那樣的電腦?它能運行 Windows 嗎?不能。所以我們還是建造了它。幸好,舊金山的一家年輕的公司,一家初創公司,一家非營利性初創公司,看到這台電腦時非常高興,他們說:“我們能得到一台嗎?”我心想,天那,我們賣出了一台。但後來我發現它是一家非營利組織。但我把一台電腦,把一台DGX-1放進我的車裡,然後我把它開到了舊金山。而那家公司的名字是OpenAI。我不知道那裡面有什麼人生教訓。有很多非營利組織。你知道,所以下次,但也許教訓是這樣的。如果有開發者聯絡你,需要GPU,答案是肯定的。沒錯,就是這樣。所以想像一下你擁有Lepton。它在你的瀏覽器裡。而你擁有這個Helm Chart,一個你開發的人工智慧代理。您想讓它在這裡運行。其中一部分您想在AWS中運行。另外一部分您想在某個區域雲中運行。您使用Lepton,部署您的Helm Chart,它便會神奇地顯示在這裡。明白嗎?因此,如果您想先在這裡運行它,直到完成並準備好部署,然後再將其部署到雲端,那真是太棒了。但美妙之處在於,這種架構是基於Grace Blackwell的。GB10、GB200、GB300,以及所有這些不同的版本,但這種架構正是Grace Blackwell。這真是太棒了。所以我們正在為Lepton做這件事,但接下來,輝達(NVIDIA)已將 Lepton 與 Hugging Face 連接起來了。因此,無論何時你在 Hugging Face 上訓練模型,如果你想將其部署到 Lepton 並直接接入 Spark,都沒問題。只需點選一下即可。因此,無論你是進行訓練還是推理,我們現在已連接到 Hugging Face,Lepton 將幫助你決定部署位置。讓我們來看看。開發者需要便捷可靠的計算資源,以滿足他們的工作需求,無論他們身在何處,無論他們在建構什麼。DGX Cloud Lepton 提供對全球 GPU 網路的按需訪問,這些網路分佈在不同的雲、區域以及 Yoda 和 Nebius 等合作夥伴之間。多雲 GPU 叢集通過單一統一的介面進行管理。資源調配速度快。開發者可以快速擴展節點數量,無需複雜的設定,即可立即開始訓練,這得益於預整合的工具和訓練就緒的基礎設施。進度可即時監控。GPU性能、收斂性及吞吐量盡在您的掌握之中。您可以直接在控制台內測試您的微調模型。DGX Cloud Lepton 可以在多個雲或區域中部署 NIM 端點或您的模型,以實現快速分佈式推理。正如共享出行應用將乘客與司機連接起來一樣,DGX Cloud Lepton 將開發者與 GPU 計算連接起來,驅動著一個虛擬的全球 AI 工廠。DGX Cloud Lepton。好的,那麼那是思科。這就是 SAP 在輝達建構 AI 平台的方式。Sana 正在基於輝達建構 AI 商業應用自動化。DeepL 正在基於輝達 AI 建構他們的語言框架和平台。Photoroom,一個視訊編輯和 AI 編輯平台,正在基於輝達建構他們的平台。這是 Codo,以前我認為是 Codium,一個基於輝達建構的卓越編碼智能體。這是 Iola,一個基於輝達建構的語音平台。而這個是臨床試驗平台,是全球最大的、基於輝達建構的臨床試驗自動化平台。因此,所有這些基本上都建立在相同的理念之上。NIMS,它將 Nemotron 大語言模型或其他大語言模型(如 Mistral 等)封裝並打包在一個虛擬容器中,可以部署到任何地方。然後,我們整合了一些庫,這些庫基本上涵蓋了一個人工智慧、一個人工智慧智能體的整個生命周期。你對待人工智慧智能體的方式,有點像對待數字員工。所以你的 IT 部門需要讓它們入職、精細調整、訓練、評估、確保它們遵守規定、保持安全,並持續改進它們。而整個框架平台就叫做 Nemo。所有這些目前正在全球各地被整合到一個個應用程式框架中。這只是其中少數幾個例子。接下來,我們讓您可以在任何地方部署它們。如果您想在雲端部署,雲端有 DGX,也有 GB200。如果您想在本地部署,因為您擁有 VMware、Red Hat Linux 或 Nutanix,並且想在本地虛擬機器中部署,您也可以實現。如果您想將其部署為私有雲,您也可以做到。您甚至可以直接部署在您的 DGX Spark 或 DGX Station 上,毫無問題。因此,Lepton 將幫助您實現這一切。工業 AI:數字孿生重塑製造業黃仁勳: 讓我們來談談工業人工智慧。這是我最喜歡的時刻之一。這是羅蘭·布什。這是一個令人開心的時刻。他想提醒我,神經電腦,也就是神經網路電腦,是在歐洲發明的。這就是這整個幻燈片(要表達的)。那真是個美妙的時刻。這就是 Synapse 1。各位,這簡直不可思議。Synapse 1。這是 Synapse 1,1992年。它運行神經網路的速度比當時的中央處理器快8000倍。這難道不令人難以置信嗎?那麼這就是世界的AI電腦。羅蘭只是想……永遠不要忘記那一點,黃仁勳。永遠,永遠不要忘記那一點。我說,好的,好吧。我會告訴……甚至我會告訴大家。西門子,1992年。西門子,1992年。我們與西門子有著出色的合作關係。西門子和首席執行官羅蘭·佈施正在為公司注入強大動力,使其能夠跨越、徹底跨越上一次IT工業革命,並將歐洲的工業能力、西門子的工業能力和雄厚實力與人工智慧融合,從而開創所謂的工業AI革命。我們正在與西門子在諸多不同領域展開合作。從設計到模擬,到工廠的數字孿生,再到工廠中人工智慧的營運,所有環節都端到端地涵蓋其中。這也讓我們/我再次意識到歐洲工業實力的非凡之處。這對你們而言是多麼非凡的機遇。這是一個非凡的機遇,因為人工智慧不同於普通軟體,它是一種真正、真正智能的軟體。而這種智能軟體最終能夠做一些事情,徹底變革你們所服務的產業。所以,我們製作了一段“情書”視訊,不妨這麼說。讓我們播放這段視訊。它始於此。第一次工業革命。瓦特蒸汽機和機械織布機帶來了自動化,並促成了工廠的興起。工業由此誕生。電氣時代。安培闡明了電磁學。法拉第發明了第一台發電機。而麥克斯韋則為現代電氣工程奠定了基礎。西門子和惠特斯通的發電機。電力之源。讓機器、火車、工廠和城市煥發生機。使地球電氣化。點燃現代製造業。而今,誕生於計算與資訊時代,第四次工業革命。人工智慧時代。重塑工業的每一個環節。遍佈大陸,工業人工智慧正日益普及。從設計到工程,你們正在開創新的路徑,邁向更深刻的理解與革新。你們將物理世界帶入虛擬世界。用於規劃和最佳化全球的現代化工廠。你們正在建構新的前沿。在這裡,所有移動的事物都已實現機器人化。每一輛汽車。一個智能自主體。以及一支新型協作型勞動力隊伍,以幫助我們向前發展。幫助彌合全球勞動力缺口。遍佈整個大陸的開發者們正在建構各種類型的機器人。教會它們新技能。在數字孿生世界和機器人訓練場中。準備讓它們與我們並肩工作。在我們的工廠裡。倉庫裡。手術室。甚至在家中。第四次工業革命已經到來。就在第一次工業革命開始的地方。你覺得呢?我很喜歡那個視訊。你做的。真棒。你做的。嗯,我們正在與一家又一家公司就工業人工智慧開展合作。這是寶馬。正在Omniverse中建造他們的下一代工廠。這是……我不知道該怎麼說。有人能教教我嗎?聽起來不錯。沒錯。完全正確。幹得好。幹得好。這完全正確。他們當然正在建造他們的工廠。Omniverse 中的數字孿生。這是 Keyon。他們用於倉儲物流的數字孿生。這是梅賽德斯-奔馳及其在 Omniverse 中建構的工廠數字孿生。這是舍弗勒及其在 Omniverse 中建構的倉庫數字孿生。這是您在法國的火車站。在 Omniverse 中建構其火車站的數字孿生。這是豐田在 Omniverse 中建構其倉庫的數字孿生。當你在Omniverse中建造這些倉庫和工廠時,你就可以設計它、規劃它、改變它。在新建項目中,這是非常棒的。在改造項目中,它也是非常棒的。你可以在實際進行物理搬運和移動物品之前,模擬其有效性,從而避免在事後才發現其並非最優。因此,在數字孿生中以數字方式完成一切的能力是令人驚嘆的。但問題是,為什麼數字孿生必須達到照片級逼真?為什麼它必須遵守物理定律?其原因是,我們最終希望它是一個數字孿生,讓機器人可以在其中學習如何像機器人一樣進行操作。機器人依賴光子來建構它們的感知系統。而這些光子是通過Omniverse生成的。機器人需要與物理世界進行互動。這樣它就能知道自己是否做得對,並學會如何正確地去做。因此,這些數字孿生必須看起來真實,並且行為舉止也符合現實。好的,這就是Omniverse被建立的原因。這真是太棒了。這是一個核聚變反應堆的數字孿生。如您所知,這是一個極其複雜的儀器。而沒有人工智慧,下一代核聚變反應堆將不可能實現。好的,我們今天宣佈,我們將在歐洲建立世界上第一個工業人工智慧雲。這些工業人工智慧雲,是的,就是雲中大量的電腦。然而,它的要求、它的性能、它的安全要求根本上是不同的。所以,我會在周五告訴你更多關於它的資訊。我今天只是向你透露故事的一部分。但是,這個工業雲將被用於設計和模擬。您只需步入其中的虛擬風洞。您只需將車輛移入其中,便可觀察其運行表現的虛擬風洞。打開車門,打開車窗,改變設計。所有這些都完全即時進行。即時設計。在一個數字工廠的生產車間中建造它。即時數字孿生。所有這一切都是為了讓機器人學習如何成為卓越的機器人。並建造我們未來的機器人。自動駕駛汽車等等。我們在這裡已經擁有龐大的生態系統。如您所知,我們在這裡已經很久了。輝達已經成立33年了。我們首次來到歐洲是在工作站、產品數位化以及CAD(電腦輔助設計)革命剛剛興起之時。我們曾身處CAE革命之中,而現在又經歷了數字孿生革命。歐洲這裡有一個價值約2兆美元的生態系統,我們與之合作,並有幸為其提供支援。具身智能:自動駕駛與人形機器人的未來黃仁勳: 由此誕生的是一場正在發生的新革命。眾所周知,所有會移動的事物都將由機器人技術驅動。所有會移動的事物都將由人工智慧驅動。汽車就是下一個最顯而易見的例子。輝達建構人工智慧超級電腦來訓練模型。用於Omniverse數字孿生的人工智慧超級電腦。我們也建構用於機器人本身的人工智慧超級電腦。無論是在雲端、用於Omniverse,還是在汽車領域,我們都提供完整的堆疊解決方案。電腦本身,以及運行在這台電腦之上的作業系統——每個實例都不同,這台電腦必須是高速的、感測器豐富的、功能完善的、安全的,在任何情況下都絕不能完全失效。因此,其安全要求極高。而現在,我們擁有一個運行在其之上的、令人驚嘆的模型。這個運行在其之上的模型是一個Transformer模型。它是一個推理模型。它接收感測器輸入,你告訴它你想要它做什麼,它就會把你送到那裡。它接收像素輸入,並生成路徑規劃輸出。所以它是一個基於Transformer的生成式AI模型。令人驚嘆的技術。輝達的AI團隊,自動駕駛(AV)團隊,令人驚嘆。這是我所知的唯一一支連續兩年贏得CVPR端到端自動駕駛挑戰賽的團隊。因此,他們今年再次獲勝。讓我們看看這段視訊。好的,謝謝。就像任何司機一樣,自動駕駛汽車在一個充滿不可預測且可能存在安全關鍵風險的場景中運行。輝達Drive,基於Halo安全系統建構,使開發者能夠利用多樣化的軟體棧、感測器和冗餘電腦來建構安全的自動駕駛汽車。這始於訓練。安全的自動駕駛汽車需要海量的多樣化資料,才能應對各種極端情況。但真實世界的資料是有限的。開發者使用輝達 Omniverse 和 Cosmos 來重建真實世界,並生成逼真的合成訓練資料,從而為自動駕駛模型帶來多樣性。該模型能夠感知並推理其環境,預測未來結果,並生成運動規劃。為了決策多樣性,一個獨立的經典堆疊平行運行。安全防護機制監測安全性能,並在出現異常情況時,呼叫仲裁器執行緊急停車。感測器和計算架構中也內建了進一步的多樣性和冗餘。每個感測器都連接到冗餘電腦。因此,即使某個感測器或電腦發生故障,車輛仍能保持安全運行。在發生嚴重故障時,系統可以執行最小風險操作,例如靠邊停車。安全是自動駕駛的基石。NVIDIA Drive 讓全球開發者能夠將 Halos 整合到他們的產品中,以打造下一代安全的自動駕駛汽車。道路上行駛著十億輛汽車,平均每年行駛 10,000 英里,總計 10 兆英里。自動駕駛的未來顯然是極其廣闊的。而它將由人工智慧驅動,並獲得人工智慧的賦能。這是下一個巨大的機遇。我們正與全球各地的大型企業和卓越公司合作,以實現這一目標。在我們自動駕駛(AV)領域所做一切的核心,是安全。我們對我們的Halo系統感到非常、非常自豪。它始於晶片的架構,繼而是晶片設計、系統設計、作業系統、人工智慧模型、軟體開發方法以及我們的測試方式。從我們訓練模型的方式,為模型提供的資料,一直到我們評估模型的方式,涵蓋一切。輝達的Halo系統以及我們的自動駕駛(AV)安全團隊和能力,都絕對享譽全球。這台電腦是首個實現軟體定義的。世界上第一個軟體定義的、完全100%軟體定義的、AI驅動的軟體,以及用於自動駕駛汽車的AI驅動堆疊。我們從事這項工作已經接近10年了。因此,這項能力舉世聞名,我為此感到非常自豪。汽車行業正在發生的事情,也正在一個新的行業中發生。正如我之前提到的,如果能夠根據提示生成視訊,如果AI能夠感知、推理,並且能夠生成視訊、文字和圖像。就像現在對於汽車而言,它可以生成路徑,方向盤的路徑,為什麼它就不能生成運動能力和關節活動能力呢?因此,AI徹底改變最困難的機器人學問題之一的這種基本能力,即將到來。類人機器人將成為現實。我們現在知道如何建構、訓練和操作這些東西了。類人機器人技術有可能成為有史以來最大的產業之一。這需要懂得製造、並能製造出具備非凡能力物品的公司。這指的是歐洲國家。世界上如此多的產業都設在這裡。我認為這將是一個巨大的機遇。嗯,假設全世界有十億個機器人。全球有十億個機器人的設想是非常合理的。那麼,為什麼它還沒有實現呢?嗯,原因很簡單。現今的機器人程式設計過於困難。只有最大的公司才能負擔得起安裝機器人,對其進行示教,程式設計讓它做完全正確的事情,並確保其周邊環境安全。這就是為什麼全球最大的汽車公司都擁有機器人的原因。它們的規模足夠大,工作也足夠重複。行業規模足夠大,足以讓你能夠將機器人部署到那些工廠中。對於幾乎所有的中型企業、中小型公司,或者夫妻店、餐廳、商店或倉庫而言,都不可能擁有那樣的程式設計能力。直到現在。我們將提供給你一種本質上可以由你進行教導的機器人。它們會向你學習。正如我們之前談到的具身智能,我們現在擁有了人形AI,它們可以使用與我之前談到的Nemo工具包高度一致的工具包,從你的教導中進行學習。輝達在這裡也建構了三層堆疊。我們建構了這台電腦,即雷神電腦。開髮套件看起來有點像這樣。這是一台機器人電腦,完全獨立。開髮套件就放在你的桌上。這些都是感測器。裡面是一個小型的超級電腦Thor晶片。確實非常非常不可思議。還有這些,嗯,我能想像其中一個像那樣被植入。好的,謝謝你,Janine。所以那就是Thor處理器。上面是一個專為機器人設計的作業系統。除此之外,Transformer模型接收感測器資料和指令,將其轉換並生成飛行或路徑,以及用於臂部、手指和腿部關節的運動控制。然而,人形機器人技術面臨的一大挑戰是,訓練它所需的資料量非常非常難以獲取。那麼問題是,你如何做到這一點?解決這個問題的辦法是,利用Omniverse——一個遵循物理定律的數字孿生世界。這是我們正在進行的一項了不起的工作。別這麼做。哦,我的錯。好的,這些是機器人。我們開發用於模擬和訓練它們的電腦,以及安裝在它們內部的電腦。世界上正在建立許多人形機器人公司。它們都看到了徹底改變這種新裝置的巨大機會。進展速度快得驚人。它們學習的方式都是在一個虛擬世界中進行。而這個虛擬世界必須遵守物理定律。最近,我們宣佈與迪士尼研究院和DeepMind建立一項重大的合作關係。我們將合作創造世界上最精密的物理模擬。此時此刻,我只是想弄明白如何切換到那張幻燈片。教教我。誰能幫幫我?這就是只排練一次會發生的情況。好的,所以這個,這個不可思議的系統,就是人工智慧學習如何成為人工智慧的地方。讓我展示給你看。我們有一位特邀嘉賓。你的名字叫格雷克。你是小男孩還是小女孩?好的,他,格雷克是個小女孩。現在,請看。格雷克在Omniverse中學會了走路,同時遵守了物理定律。然而,在Omniverse內部,我們建立了數十萬個場景。最終,當Grek學會了如何在那些環境中進行操作、行走和操控時,比如在沙地、礫石地、濕滑的地面、水泥地和地毯上。那麼當Grek進入物理世界時,物理世界僅僅是這個世界的第100,001個版本。因此,你學會在虛擬世界中行走,看看你現在。你能,你能跳嗎?哇。你能跳舞嗎?嗯,我想,我想,我只是想讓你知道,我是主旨演講者。所以我需要你,我需要你表現得規矩些。我需要你規矩幾秒鐘。我需要你乖幾秒鐘。你能坐下嗎?坐下。嘿,你知道我們該做什麼嗎?讓我們給所有人拍張照吧。對。咔嚓,咔嚓。你願意跟我回家嗎?你願意跟我回家嗎?我明白了,是的,我知道。嗯,我有寵物。它們會想把你當成寵物。不是嗎?不。你真聰明。你真聰明。嗯,真是不可思議,對吧?你是世界上最好的機器人。總有一天,我們都會擁有一個像你一樣的,它們會跟隨我們左右。但是,如果我需要,如果我需要一杯威士忌,你就得去讓別人給我拿一杯威士忌,因為你沒有手臂。是啊,你真可愛。好的,小女孩,你在這裡等一下。終章:一個新時代的開啟黃仁勳: 讓我們做個總結吧。好的。非常清楚,非常清楚一場工業革命已經開始了。下一波,下一波人工智慧浪潮已經開始了。格雷格是如今機器人技術所能實現的完美範例。教會機器人進行操作、模擬所需的技術。當然,一個不可思議的機器人現在就呈現在我們眼前。我們有實體機器人,也有資訊機器人。我們稱之為智能體。因此,新一輪人工智慧浪潮已經開啟。這將導致推理工作負載呈爆炸式增長。這基本上將呈指數級增長。使用推理技術的人數已從800萬人增至8億人,短短幾年內增長了一百倍。正如我之前提到的,提示所包含的令牌數量已從數百個令牌增至數千個令牌。當然,如今我們比以往任何時候都更廣泛地使用人工智慧。因此,我們需要一種專為思考和推理而設計的專用電腦。這就是Blackwell,一台思考機器。這些Blackwell系統將部署到新型資料中心中,它們本質上是人工智慧工廠,專為單一目的而設計。而這些人工智慧工廠將生成Token。而這些Toekn將成為你的食物,小格雷格。是的,我知道。我知道。真正、真正令人難以置信的是,我非常高興看到歐洲正在全力投入人工智慧。在接下來的幾年裡,這裡正在建設的人工智慧基礎設施數量將增加一個數量級。我想感謝各位的合作。祝Viva Tech大會圓滿成功。謝謝。 (Web3天空之城)
深度|槍口同時對準上三常,馬克宏還威脅東大,我們有了新對手?
今年的香格里拉對話會,中方只派出國防大學的一個代表團;美方高度重視,派出了防長海格賽斯,另一個重量級嘉賓是法國總統馬克宏,而他明顯來者不善。戎評註意到,馬克宏在香會上的主題演講,有這麼三點值得警惕:首先一點,他將俄烏局勢與亞太安全環境聯絡起來,警告亞太國家“在烏克蘭發生的事情,未來也將發生在亞洲,東大台灣、菲律賓都有可能發生”;其次,他威脅東大,如果東大不能阻止朝鮮干預歐洲安全,那就準備應對“北約在亞太擴大存在”;最後他同時批評了中美,將世界帶入“大國博弈”的環境,並且呼籲歐亞國家不要選邊站,而是“結成新的聯盟”。這三點都很惡劣,在戎評看來,這標誌著馬克宏的對外政策發生了重大轉變,他要效仿英國的“全球英國”戰略,以及東大當年“三個世界”論斷,確保法國乃至歐盟成為“多極世界的一極”。戎評就給大家挨個解讀一下:第一點和第二點,其實不是什麼新鮮的說法,關於“今日烏克蘭、明日台灣島或者菲律賓”的提法,這是西方一貫的臭毛病,就是瞎聯想;烏克蘭的問題,和台海、南海沒有任何相同之處,三者根本不是一個層面上的問題。台海問題是東大的內政問題,是合法的中央政府,與非法的地方叛亂政權之間的矛盾,是東大的統一問題;南海問題是主權爭端而非地緣衝突,東大和東盟不存在地緣矛盾,各方的利益是一致的,都是為了自身的發展,東盟早就從一個冷戰性質的地緣組織,轉變為一個促成區域一體化的多邊合作組織。事實上,東盟國家很反感西方炒作他們與東大的矛盾,多次強調域外勢力介入南海的危害性,這次香會發佈的備忘錄裡,就明確點出了菲律賓引入美國的行為,破壞了地區的和平穩定,損害了東盟的獨立性。東道主都把話說到這份上了,馬克宏還揪著這個問題嘮叨,眼力見也就這樣了。至於馬克宏要挾東大“管管朝鮮”的說法,也是不值得一駁,歐洲特別喜歡給別人找“爹”,大概是因為自己就有一個“美爹”,所以別人也應該如此。但東大和朝鮮的關係雖然特殊,但是我們確實不能左右朝鮮的政策,朝鮮軍人參加庫爾斯克戰鬥,那是俄朝之間的事,跟東大沒關係。這種論調是西方一貫的話術,目的是將東大拖下俄烏衝突,迫使東大按照西方的立場來做事,但是在香會這種場合提這件事,意義不大,其他國家不傻,知道其中的孰是孰非。戎評就跟大家重點說說第三點,因為這是馬克宏這次亞太之行,提出的一個比較新的說法。他呼籲歐洲和亞洲國家“不要選邊站”,要結成新的“歐亞聯盟”,是跟前幾天他在越南提出“第三種力量”的說法遙相呼應;他這個提法具有一定的迷惑性,因為我們也是主張“歐亞合作”,提出的“歐亞大陸橋”計畫、“一帶一路”倡議、“陸上/海上絲綢之路”戰略,都包含了歐亞合作的內容。但是,馬克宏提到的“歐亞聯盟”是不包含東大的。他的這番話,其實就是當年我們“三個世界”論斷的翻版:當年是美蘇爭霸,一些國家被裹挾了進去,但也有一些不願意成為美蘇地緣工具的國家,成為“第三世界”;馬克宏的話,如出一轍,只是將美蘇爭霸換成了所謂的“中美爭霸”,“第三世界”變成“第三種力量”——如果從這個角度來理解,馬克宏的野心是一目瞭然,他不僅要做歐洲的領袖,還想做世界的領袖,戴高樂一定會覺得,你小子有出息了哈!馬克宏怎麼就有了“歐羅巴正白旗話事人”一下子跳到“新不結盟運動領袖”這樣的想法?這很大機率是被懂王給刺激了。話說懂王上台後,直接拋下歐盟,單獨和俄羅斯討論俄烏衝突,在教皇方濟各的葬禮期間,懂王要和澤倫斯基談事,直接把馬克宏轟走,當時懂王說的是,“你現在應該走開”,這話很不客氣,換誰都嚥不下這口氣,更何況“我是五常的總統耶,說攆就攆,我不要面子啊”。這件事是打碎馬克宏“大國領導人”幻想的最後一根稻草。去年非洲薩赫勒地區頻繁發生政變,馬里、布吉納法索、尼日爾相繼趕走了法國駐軍,法國在非洲的影響力一落千丈,在加上今年懂王上台後,在各種場合都將歐盟視若無物,不少歐洲國家都陷入了精神內耗,“我不會是戰五渣吧?”馬克宏也意識到了這樣一個問題,歐盟雖然有19.4兆美元的經濟總量、4.5億的人口,但是在地緣政治環境裡,缺乏獨立自主,依舊處於被邊緣化的風險。在國際上,被邊緣化是一件很危險的事情,簡單來說,就是隨時可能被端上餐桌;這也是很多國家想盡辦法增加存在感的原因,你看隔壁的小日子,隔三差五就整個活,讓世界記住還有自己這麼一個國家。馬克宏提出應對邊緣化危機的方法是什麼?就是所謂“第三種力量”的說法。戎評覺得,他這個構思,底層邏輯是“戴高樂主義”,屬於全球化的Plus版,具體的靈感來自於英國的“全球英國”和東大的“三個世界”論斷,所以馬克宏打的是什麼主意,我們是一清二楚。可能有小夥伴想問了,馬克宏能撐起這麼高的調子嗎?其實在戎評看來,馬克宏這是犯了“東大行,我也行”的錯;東大能走出“第三世界”的路子,並且成為全球公認的“南方國家領袖”,是因為我們有足夠的實力作為底氣,法國有什麼呢?其實什麼都沒有。法軍除了“傳統藝能”之外,最值得稱道的,只有“陣風”戰鬥機和“戴高樂”號航母,但是“陣風”剛被咱們得殲-10狠狠修理了一頓,至於“戴高樂”,其實是一個半吊子的核動力航母,4萬噸級的排水量,戰鬥力相當有限;至於法國陸軍,如今進步到可以和輕裝步兵游擊隊打得你來我往,拿破崙、讓·拉納的棺材板都要摁不住了!這樣的實力根本撐不起馬克宏的亞太野心,他假裝自己有能力“和中美掰手腕”,試圖重塑法國的全球地緣形象,只能是給別人看一個大大的笑話。不是戎評瞧不起法國,而是事實如此,英國皇家海軍派航母來亞太,還要跟挪威、美國借軍艦和艦載機,最後還跑得狼狽不堪,實力不如英國的法國海軍,拿什麼來證明自己有能力“遠征亞太”?就算“戴高樂”號航母來過,但在東大海軍面前,根本談不上“可信的威懾力”。而且戎評覺得,虧得是咱們東大做事一直比較含蓄,如果換成一個“暴躁”一點的國家,要是有咱們這樣的實力,一堆055護送著航母,第二天就去歐洲“友好”訪問了!馬克宏這番話,估計在亞太地區引發不了多少共鳴。曾在亞洲殖民過的法國,離開這個地方已經太久了,雖然因為太平洋上的領地,法國可以自稱“亞太國家”,但它在這裡是陌生人、外來人,在這裡是多餘的。在戎評看來,馬克宏的這番話,最好只是一場政治表演、一場脫口秀,如果他真想按照自己說的來做,對法國乃至歐洲,不會有一個的結果!(戎評)