當地時間10月28日,輝達在華盛頓特區舉辦GTC(GPU Technology Conference)大會,CEO黃仁勳發表主題演講。黃仁勳指出,輝達在過去30年推動的“加速計算”模式,已經成為繼馮·諾依曼體系之後60年來計算領域的全新範式。隨著摩爾定律逼近物理極限,傳統CPU性能增長受限,輝達通過GPU與CUDA生態重新定義了計算架構。目前全球數億台GPU裝置通過CUDA實現代際相容,支撐了人工智慧、自動駕駛、醫療影像、量子模擬等關鍵行業的算力基礎。頭圖|視覺中國在新一輪產業合作中,輝達宣佈推出全新產品線 NVIDIA ARC(Air Radio Compute),並與諾基亞建立戰略夥伴關係,共同推進基於AI和加速計算的6G基礎設施。黃仁勳強調,這標誌著美國有望重新奪回電信技術創新的主導權。ARC平台整合了輝達最新的Blackwell GPU、灰色CPU和ConnectX網路晶片,支援AI for RAN(無線接入網人工智慧),可通過強化學習演算法提升頻譜效率和能耗表現,助力全球數百萬個基站實現智能升級。在量子計算領域,輝達推出全新互聯架構 NVQLink 與計算平台 CUDAQ,實現量子處理單元(QPU)與GPU超級電腦的協同。通過AI驅動的量子糾錯與混合模擬,輝達計畫與美國能源部(DOE)合作建設七台新一代AI超級電腦,以推動基礎科學研究。包括伯克利、費米實驗室、洛斯阿拉莫斯等八大國家實驗室已加入該計畫。黃仁勳認為,AI不僅是聊天機器人或生成模型,而是“重新定義整個計算堆疊的力量”。他強調,AI的核心是資料驅動的學習型程式設計,需要巨大的能源、GPU算力和全新演算法棧的支撐。他特別提到能源政策對AI產業發展的關鍵作用,並肯定美國能源體系的開放為算力革命提供了土壤。最後,黃仁勳表示,核心兩點是從通用計算向加速計算的兩次平台轉變。NVIDIA CUDA及其名為CUDA-X的一系列庫使我們能夠應對幾乎所有行業,現在它正如虛擬循環所示地增長。第二個拐點現在已經到來,從傳統手寫軟體到AI的轉變。兩個平台同時發生轉變,這就是我們感受到如此驚人增長的原因。演講後,輝達股價創紀錄高點,市值達4.89兆美元。分析師看好政府合同和多元化收入,包括電信、政府和GPU的銷售。黃仁勳預計,2026年底GPU銷售將達5000億美元。以下為演講實錄:歡迎來到GTC,我不得不說,很難不對美國產生身後的感情和自豪感。GTC是我們討論工業、科學、計算、現在和未來的地方。所以,今天我有很多事情要和大家分享,在開始之前,我想感謝所有幫助這次盛會的合作夥伴。如果沒有我們所有的生態系統合作夥伴,我們就無法完成我們的工作。人們說,這是人工智慧的超級碗,因此每一屆超級碗都有精彩的賽前表演。你們對於我們的賽前表演以及我們的全明星運動員和全明星演員陣容有什麼看法?看看這些人。不知怎麼的,我的身材反而最健壯。你們覺得怎麼樣?輝達60年來首次發明了全新的計算模型,正如您在視訊中看到的,新的計算模型很少出現,這需要大量的時間和條件。我們觀察到我們發明了這種計算模型,因為我們想要解決通用電腦、普通電腦無法解決的問題。我們也觀察到,總有一天電晶體的數量會繼續增長,但電晶體的性能和功耗會放緩,摩爾定律不會超越物理定律的限制,而這一刻現在已經到來,迪納爾縮放已經停止,這被稱為迪納爾縮放。迪納爾縮放在近十年前就停止了,事實上,電晶體的性能及其相關功耗已經大幅放緩,但電晶體的數量仍在繼續增長。我們很久以前就觀察到了這一點,30年來,我們一直在推進這種我們稱之為加速計算的計算形式。我們發明了 GPU。我們發明了一種名為 CUDA 的程式設計模型。我們觀察到,如果我們可以加入一個利用越來越多電晶體的處理器,應用平行計算將其加入到順序處理 CPU 中,我們就可以大大擴展計算能力。而那一刻真的到來了。我們現在已經看到了這個轉折點。加速計算的時代已經到來,然而,加速計算是一種本質上不同的程式設計模型。 你不能只是把手工編寫的、按順序執行的 CPU 軟體放到 GPU 上並讓其正常運行。 事實上,如果你那樣做,它運行速度反而會更慢。因此,你必須重新發明新的演算法。您必須建立新的庫。事實上,你必須重寫該應用程式,這就是為什麼花費這麼長時間的原因。我們花了近30年的時間才到達這裡。但我們是逐個領域進行的。這是我們公司的寶貝。大多數人都在談論 GPU。GPU 很重要,但如果沒有一個基於它的程式設計模型,並且沒有專注於該程式設計模型,保持其代際相容,我們現在從 CUDA 13 到CUDA 14,每台電腦中運行著數億個 GPU,完美相容。如果我們不這樣做,那麼開發人員就不會瞄準這個計算平台。如果我們不建立這些庫,那麼開發人員就不知道如何使用該演算法並充分利用該架構一個又一個的申請。 我的意思是這些真的是我們公司的財富。 CU litho 計算光刻。我們花了近七年時間才研發出KU Litho 技術,現在台積電、三星、ASML都在使用它。這是一個令人難以置信的計算光刻庫。製作晶片的第一步用於 CAE 應用的稀疏求解器。 合作社數值最佳化幾乎打破了每一項記錄。 旅行商問題如何將數百萬種產品與供應鏈中的數百萬客戶聯絡起來。Warp Python 是一款用於 CUDA 模擬的求解器。 QDF 是一種資料框架方法,基本上可以加速 SQL 資料框架和資料框架資料庫。嗯,這個庫是人工智慧的起源,加上它上面的庫,稱為 megatron core,使我們能夠模擬和訓練極大的語言模型。這樣的例子不勝列舉。呃Monai,真的非常重要,世界上排名第一的醫學成像 AI 框架。 呃,順便說一下,我們今天不會談論太多有關醫療保健的話題,但一定要看看金伯利的主題演講。她將詳細談談我們在醫療保健領域所做的工作。這樣的例子不勝列舉呃,基因組處理。今天我們在這裡要做一件非常重要的事情,量子計算的妙招。這只是我們公司350個不同圖書館中的一個代表,並且每個庫都重新設計了加速計算所需的演算法。每一個庫都使所有生態系統合作夥伴能夠利用加速計算。這些圖書館中的每一個都為我們開闢了新的市場讓我們看看 CUDAX 可以做什麼。這很神奇嗎? 你所看到的一切都是模擬的。沒有藝術,沒有動畫。這就是數學之美,這是深奧的電腦科學。深奧的數學。它真是美得令人難以置信。從醫療保健和生命科學到製造業、機器人、自動駕駛汽車、電腦圖形甚至視訊遊戲,各個行業都得到了涵蓋。你看到的第一個鏡頭,是輝達運行的第一個應用程式。這就是我們在 1993 年起步的地方。我們始終堅信我們要做的事情。很難想像,當初你能夠親眼目睹第一個虛擬格鬥場景栩栩如生地呈現在你眼前時,那家公司竟然相信我們今天會站在這裡。這真是一段非常非常不可思議的旅程。我要感謝所有 NVIDIA 員工所做的一切。 真是太不可思議了。今天我們要報導的行業很多。我將介紹人工智慧、6G、量子、模型、企業計算、機器人和工廠。讓我們開始吧。主我們有很多事情要報導,有很多重大公告要發佈,還有很多新合作夥伴會讓你大吃一驚。 電信是我們經濟、工業和國家安全的支柱和命脈。然而,自從無線技術誕生以來,我們就定義了技術,定義了全球標準,我們將美國技術出口到世界各地,以便世界能夠在美國技術和標準的基礎上進行建設,這件事已經很久沒有發生過了。目前世界各地的無線技術大多部署在國外技術之上。我們的基本通訊結建構立在外國技術之上。這種現象必須停止,我們有機會做到這一點,特別是在這個根本性的平台轉變期間。眾所周知,電腦技術是幾乎所有行業的基礎。它是科學中最重要的儀器。它是工業領域最重要的工具。我剛才說過,我們正在經歷平台轉變。這種平台轉變應該是我們千載難逢的機會,讓我們重新回到遊戲中,開始利用美國技術進行創新。今天,我們宣佈我們將這樣做。我們與諾基亞有著重要的合作關係。諾基亞是全球第二大電信裝置製造商。這是一個價值三兆美元的產業。基礎設施投資達數千億美元。全世界有數百萬個基站。如果我們能夠合作,我們就可以在這項基於加速計算和人工智慧的令人難以置信的新技術的基礎上進行開發。對美國來說,美國將成為下一次 6G 革命的中心。所以今天我們宣佈 Nvidia 推出了一條新的產品線。它叫做NVIDIA Arc。空中無線電網路電腦、空中 RAM 電腦:ARC。Arc 由三項基本新技術建構而成灰色 CPU、Blackwell GPU以及我們為此應用設計的 ConnectX Melanox Connectx網路。所有這些使得我們能夠運行這個庫,即我之前提到的 CUDAX庫,稱為 Aerial。 Ariel本質上是一個在CUDAX上運行的無線通訊系統。我們將首次建立一個軟體定義的可程式設計電腦,它能夠同時進行無線通訊和 AI處理。 這完全是革命性的。我們稱之為 Nvidia Arc。諾基亞將與我們合作,整合我們的技術,重寫他們的技術堆疊。這是一家擁有7000項5G基礎必要專利的公司,很難想像電信行業還有比他更偉大的領導者因此,我們將與諾基亞合作。他們將把 Nvidia Arc 作為他們未來的基站。 Nvidia Arc 也相容 Airscale,即諾基亞目前的基站。這意味著我們將採用這項新技術,並能夠使用 6G 和 AI升級全球數百萬個基站。現在,6G 和 AI確實非常重要因為我們將首次能夠使用 AI技術(AI for RAN):來提高無線電通訊的頻譜效率,使用人工智慧強化學習,根據周圍環境交通、移動性和天氣即時調整波束成形。所有這些都可以考慮在內,以便我們能夠提高頻譜效率。 頻譜效率提升消耗了全球約 1.5%至 2%的電力。因此,提高頻譜效率不僅可以提高,我們能夠在不增加所需能量的情況下通過無線網路傳輸的資料量。我們還可以利用 AI for RAN 來實現RAM 上的 AI。這是一個全新的機會。還記得網際網路帶來的通訊便利嗎?令人驚嘆的是,AWS 等聰明的公司在網際網路之上建構了一個雲端運算系統。我們現在將在無線電信網路上做同樣的事情,這個新的雲將是一個邊緣工業機器人云。這就是 AIon RAN 的由來,首先是 AIfor RAN,旨在提高無線電頻譜效率第二點是無線接入網(RAN)上的人工智慧,本質上是用於無線通訊的雲端運算。雲端運算能夠延伸到資料中心尚未覆蓋的邊緣地帶,因為我們在世界各地都設有基站。這個公告確實令人興奮。我認為首席執行官賈斯汀·霍達(Justin Hodar) 就在房間的某個地方。感謝您的合作。感謝您幫助美國將電信技術帶回美國。這真是一次非常棒的合作。非常感謝。讓我們來談談量子計算。 1981年粒子物理學家量子物理學家理查德·費曼設想了一種新型電腦,可以以直接模擬自然,因為自然是量子的。他稱之為量子電腦。40年後,該行業取得了根本性的突破。 40年後:就在去年,取得了一項根本性的突破。現在可以製作一個邏輯肘。邏輯肘尺。一個邏輯肘尺,連貫穩定,並且過去曾被糾正過錯誤。現在,一個邏輯上的肘尺有時可能由幾十個、有時由幾百個物理上的肘尺組成,它們共同協作。如你所知,立方體,這些粒子非常脆弱。它們很容易變得不穩定。任何觀察、任何採樣、任何環境條件都會導致它變得不相干。因此,它需要一個極其良好控制的環境。現在還有很多不同的物理肘尺,它們可以協同工作,我們可以對這些所謂的輔助肘尺或綜合徵肘尺進行糾錯,以便我們糾正它們並推斷出邏輯肘尺狀態。量子電腦有各種不同的類型。超導、光子、囚禁離子、穩定原子,各種不同的方法來建立量子電腦。好吧,我們現在意識到將量子電腦直接連接到GPU 超級電腦對我們來說至關重要,這樣我們就可以進行錯誤校正,以便我們能夠對量子電腦進行人工智慧校準和控制以便我們能夠共同進行模擬。正確的演算法在 GPU 上運行,正確的演算法在 QPU 上運行兩個處理器、兩台電腦平行工作。這就是量子計算的未來。我們來看一下。建構量子電腦的方法有很多種它們都以量子位元(cubit)為核心建構模組。但無論採用何種方法,所有立方體,無論是超導立方體、囚禁離子、中性原子還是光子,都面臨著同樣的挑戰。它們很脆弱,而且對噪音極其敏感。今天的 Qbits 僅在幾百次操作中保持穩定。但解決有意義的問題需要數兆次運算答案是量子糾錯。測量會擾亂肘尺,從而破壞其中的資訊。訣竅是在纏結中加入額外的肘尺以便測量它們可以為我們提供足夠的資訊來計算錯誤發生的位置,而不會損壞我們關心的肘尺。它非常出色,但需要超越目前最先進的傳統計算能力。這就是我們建構 NVQLink 的原因,它是一種將量子處理器與 NVIDIA GPU 直接連接起來的新型互連架構。量子糾錯需要從量子資訊處理系統(QIDS)中讀取資訊,計算錯誤發生的位置,並將資料傳送回去以糾正錯誤。MVQLink 能夠將數 TB 的資料移入和移出量子硬體。每秒可進行數千次量子糾錯。其核心是 CUDAQ,這是我們用於量子 GPU 計算的開放平台。 使用MVQL連結和 CUDAQ,研究人員將能夠做的不僅僅是糾錯。他們還將能夠協調量子裝置和人工智慧超級電腦來運行量子GPU應用程式:量子計算不會取代經典系統。它們將共同融合成一個加速量子超級計算平台。哇,這個階段真長。你知道,首席執行官們,我們不會只是坐在辦公桌前打字。這是一項體力活。體力工作。所以,今天我們宣佈 MVMVQL連結,它MVQ 連結。通過兩件事成為可能。當然,這種互連可以進行量子電腦控制和校準、量子糾錯,還可以連接兩台電腦(QPU和我們的 GPU 超級電腦)以進行混合模擬。它也是完全可擴展的。它不只是對今天的幾肘尺數字進行糾錯。它為未來進行糾錯屆時我們將把這些量子電腦的規模從今天的幾百立方位元擴展到未來的幾萬立方位元,甚至幾十萬立方位元。所以我們現在有一個可以進行控制、協同模擬、量子糾錯和未來擴展的架構。自CUDAQ發明以來,業界給予了極大的支援請記住,CUDA 是為 GPU CPU 加速計算而設計的。基本上就是同時使用這兩個處理器用合適的工具做合適的工作。現在CUDAQ 已經超越了 CUDA,因此我們可以支援 QPU,讓 QPU 和 GPU 兩個處理器一起工作,並且計算可以在短短幾微秒內來回移動。與量子電腦合作所必需的延遲所以現在 CUDAQ 是一項了不起的突破,被眾多不同的開發人員改採用。我們今天宣佈有 17 家不同的量子電腦行業公司支援MVQ 連結,我對這8個不同的 DOE 實驗室感到非常興奮。 伯克利、布魯克海文芝加哥的費爾米實驗室、林肯實驗室、洛斯阿拉莫斯、奧克里奇、太平洋西北地區、聖地亞哥蘭喬實驗室,幾乎每一個能源部實驗室都與我們合作,與我們的量子電腦公司生態系統和這些量子控製器合作,以便我們可以將量子計算融入未來的科學。好吧,我還有一個補充消息要宣佈。今天,我們宣佈能源部將與 NVIDIA 合作建造七台新的 AI超級電腦,以推動我們國家的科學發展,我必須特別提一下克里斯賴特部長。他為美國能源部注入了巨大的活力,一股澎湃的熱情,確保美國在科學領域保持領先地位。再次,正如我所提到的,平台轉變。一方面,我們要加速計算。這就是為什麼未來的每台超級電腦都將是基於 GPU 的超級電腦。我們要發展人工智慧,這樣人工智慧和基於原理的求解器、基於原理的模擬、基於原理的物理模擬就不會消失。但它可以被增強、改進、擴展,還可以使用代理模型和人工智慧模型協同工作。我們還知道,經典計算的主要求解器可以通過量子計算得到增強,從而更好地理解自然狀態。我們還知道,在未來,我們將有如此多的訊號,如此多的資料需要從世界採樣遙感比以往任何時候都更加重要。除非這些實驗室是機器人工廠、機器人實驗室,否則它們不可能以我們需要的規模和速度進行實驗。因此,所有這些不同的技術都同時進入科學領域賴特部長明白這一點,他希望能源部借此機會增強自身實力,確保美國始終處於科學前沿。我要為此感謝你們所有人。謝謝讓我們來談談人工智慧。什麼是人工智慧?大多數人會說人工智慧就是聊天機器人,這話沒錯。毫無疑問,ChatGPT 處於人們所認為的 AI 的前沿。然而,正如你現在看到的這些科學超級電腦不會運行聊天機器人。他們將進行基礎科學研究。科學、人工智慧、人工智慧的世界遠遠不止聊天機器人那麼簡單。當然,聊天機器人極其重要,而通用人工智慧(AGI)從根本上來說至關重要。深厚的電腦科學、令人難以置信的計算能力和重大突破對於 AGI來說仍然至關重要。但除此之外,人工智慧還有更多用途。事實上,人工智慧就是..….我將用幾種不同的方式來描述人工智慧。第一種方法,或者說你對人工智慧的第一種理解,是它徹底重塑了計算堆疊。我們過去開發軟體的方式是手工編寫程式碼運行在CPU上的手工編寫軟體。如今的人工智慧如果你願意的話,就是機器學習,一種訓練資料密集型的程式設計,由運行在GPU上的人工智慧進行訓練和學習。為了實現這一目標,整個計算堆疊都發生了改變。請注意,您在這裡看不到Windows。這裡看不到CPU。您會看到一個完全不同的、根本上完全不同的堆疊。從能源需求開始。而在這方面,我們的政府,川普總統,理應獲得巨大的讚譽。他倡導能源,並認識到這個行業需要能源才能發展。它需要能量才能前進。我們需要能量才能贏得勝利。他認識到了這一點,並舉全國之力支援能源增長,徹底改變了局面。如果這件事沒有發生,我們可能會陷入糟糕的境地我要為此感謝川普總統。能源之上是這些 GPU,這些 GPU連接到內建基礎設施,我稍後會向您展示。除此之外,還有由巨型資料中心組成的基礎設施,其規模很容易是這個房間的數倍,這些資料中心會產生大量的能量,然後通過這種被稱為GPU 超級電腦的新機器將能量進行轉換,從而生成數字。這些數字被稱為令牌。如果你願意的話,語言就是人工智慧的計算單位和詞彙。您幾乎可以將任何東西標記化。當然,你可以將英文單詞標記化。你可以對圖像進行分詞。這就是您能夠識別圖像或生成圖像、標記視訊、標記3D 結構的原因。你可以將化學物質、蛋白質和基因進行標記化。你可以對儲存格進行標記化幾乎可以對任何具有結構的內容進行標記化,對任何具有資訊內容的內容進行標記化。一旦你能將其標記化人工智慧就可以學習該語言及其含義。一旦它學會了那種語言的含義:它就能翻譯了。它可以像您與聊天 GPT 互動一樣做出響應。它可以像 GPT可以生成的聊天一樣生成。所以,您看到ChatGPT 所做的所有基本事情,您所要做的就是想像一下,如果它是一種蛋白質,如果它是一種化學物質如果它是一個像工廠一樣的 3D 結構。如果它是一個機器人,並且令牌是理解行為並將運動和動作標記化。這些概念本質上都是相同的,這也是人工智慧取得如此非凡進步的原因。在這些模型之上,還有應用轉換器。變形金剛不是通用模型。這是一個非常有效的模型。但並不存在一種通用的模式。 問題在於人工智慧具有普遍影響模型種類繁多,在過去的幾年裡,我們享受了多模態的發明並經歷了創新突破。 有很多不同類型的模型。有 CNN 模型競爭神經網路模型、它們的狀態空間模型、它們的圖神經網路模型多模態模型,當然還有我剛才描述的所有不同的分詞和標記方法。您可以擁有空間模型,並且其理解針對空間感知進行了最佳化。您可以擁有針對長序列識別長期細微資訊而最佳化的模型。模型種類繁多。在這些模型架構之上,在這些模型架構之上是應用程式,是過去的軟體。這是對人工智慧的一個深刻的理解,一個深刻的觀察。過去的軟體行業就是創造工具。Excel是一個工具。文字是一種工具。網路瀏覽器是一種工具。我之所以知道這些是工具,是因為你使用它們。工具行業就像螺絲刀和錘子一樣,規模就那麼大。就IT工具而言,它們可能是資料庫工具。這些IT工具的總價值大約為一兆美元。但人工智慧並不是工具。人工智慧就是工作。這就是深刻的區別。人工智慧實際上是能夠實際使用工具的工人。讓我真正興奮的事情之一是lrvin 在 Perplexity 所做的工作。 Perplexity使用網路瀏覽器預訂假期或購物,本質上是一個使用工具的人工智慧。Cursor 是我們在 NVIDIA 使用的 AI系統。Nvidia 的每一位軟體工程師都使用游標,這極大地提高了我們的工作效率。它使用的工具稱為 VS 程式碼。所以 Cursor 是一個使用 VS Code 的 AI智能體系統。 好吧,所有這些不同的行業,這些不同的行業,無論是聊天機器人還是數字生物學,我們都有人工智慧助理研究人員,或者機器人計程車裡面的機器人。計程車是什麼?當然,它是看不見的,但顯然有一個人工智慧司機。那位司機正在工作,而他用來完成這項工作的工具就是汽車。所以,我們迄今為止所創造的一切,整個世界,我們迄今為止所創造的一切都是工具。供我們使用的工具。科技首次能夠幫助我們工作,提高生產力。機遇數不勝數,這也是人工智慧能夠觸及此前從未涉足的經濟領域的原因。這幾兆美元隱藏在數百兆美元的全球經濟工具之下。現在人工智慧將首次參與到這個價值千億美元的經濟體中,使其更具生產力,增長更快,規模更大。我們面臨嚴重的勞動力短缺。擁有增強勞動力的人工智慧將幫助我們成長。從科技行業的角度來看,有趣的是,除了人工智慧是一項針對經濟新領域的新技術之外,人工智慧本身也是一個新的產業。正如我之前解釋的那樣,當你將所有這些不同模式的資訊標記化之後,就需要一個工廠來生產這些數字,這與過去的電腦行業和晶片行業不同。如果你回顧過去的晶片產業,你會發現晶片產業在數兆美元的IT產業中只佔大約5%到10%,甚至可能不到5%。原因在於,使用 Excel不需要進行太多計算。使用瀏覽器並不需要太多的計算能力。使用 Word 並不需要太多的計算。我們進行計算。但在這個新世界中需要有一台能夠隨時理解上下文的電腦。它無法預先計算這一點,因為每次你使用電腦進行人工智慧時每次你要求人工智慧做某事時背景都是不同的。所以,它必須處理所有這些資訊。以環境為例,對於自動駕駛汽車來說,它必須處理汽車的環境。上下文處理。你要求人工智慧執行什麼指令?然後,它必須一步一步地分解問題,思考此事,制定計畫並付諸實施。該步驟中的每個操作都需要生成大量tokens。這就是為什麼我們需要一種新型系統的原因,我稱之為AI工廠。這絕對是個AI工廠。它與過去的資料中心截然不同。這是一座AI工廠,因為這座工廠只生產一種東西。不同於過去包攬一切的資料中心——為我們所有人儲存檔案,運行各種不同的應用程式,你可以像使用電腦一樣使用該資料中心,運行各種應用程式,你某天可以用它來玩遊戲,可以用它來瀏覽網頁,可以用它來做帳。因此,那是一台屬於過去的電腦,一台通用電腦。我在此所說的電腦是一座工廠,它基本上只運行一件事。它運行AI,其目的在於生成價值最大化的tokens。這意味著他們必須聰明。而你希望以驚人的速度生成這些tokens,因為當你向AI提出請求時,你希望它做出回應。請注意,在高峰時段,這些AI的響應速度正變得越來越慢,因為它要為很多人做很多工作。因此你希望它能以驚人的速度生成有價值的tokens,而你希望它能以經濟高效的方式實現。我使用的每個詞都符合AI工廠的特徵,與汽車廠或任何工廠一樣。這絕對是工廠,而且這些工廠以前從未存在過。而這些工廠裡堆積著成山的晶片。這便引出了今天。過去幾年發生了什麼?事實上,去年發生了什麼?其實今年確實發生了一件相當深刻的事情。若你回顧年初,每個人對AI都有自己的看法。這種態度通常是:這會是個大事件,那將是未來。而幾個月前,不知怎麼的,它啟動了渦輪增壓。原因有以下幾點。第一點是,在過去的幾年裡,我們已經摸清了如何讓AI變得聰明得多。與其說只是預訓練,不如說預訓練本質上表明:讓我們把人類創造過的所有資訊都拿出來,讓我們把它交給AI來學習吧,本質上就是記憶和概括。這就像我們小時候上學一樣,學習的第一階段。預訓練從來就不是終點,正如學前教育也從來不是教育的終點。學前教育,本質上就是培養你掌握智力發展的基礎技能,讓你懂得如何學習其他一切知識。沒有詞彙量,不理解語言及其表達方式,如何思考,這是無法學到其他一切的。接下來是培訓後階段。培訓之後,在培訓之前,是傳授你解決問題的技能,分解問題,思考它,如何解決數學問題,如何編寫程式碼,如何逐步思考這些問題,運用第一性原理推理。而之後才是計算真正發揮作用的階段。眾所周知,對我們許多人來說,我們去上學了,就我而言,那是幾十年前的事了。但自那以後,我學到了更多,思考得也更深了。而原因在於我們始終在不斷汲取新知識來充實自己。我們不斷進行研究,也持續思考。思考才是智力的真正本質。因此,我們現在擁有三項基礎技術能力。我們擁有這三項技術:預訓練,仍需投入巨大資源,海量的計算量。我們現在有後訓練,它使用了更多的計算資源。而如今,思考給基礎設施帶來了難以置信的計算負荷,因為它在為我們每個人代勞思考。因此,AI進行思考所需的計算量,這種推論,實在相當非凡。以前我常聽人說推理很容易,輝達應該進行培訓。NVIDIA要搞的,你知道的,他們在這方面真的很厲害,所以他們要進行培訓,這個推論很簡單。但思考怎麼可能容易?背誦記憶的內容很容易,背誦乘法表很容易。思考是艱難的,這正是這三把尺子的緣由。這三條新的標度律,即全部內容都在其中全速運轉,給計算量帶來了巨大壓力。現在又發生了另一件事。從這三條標度律中,我們獲得了更智能的模型。而這些更智能的模型需要更強的計算能力。但當你獲得更智能的模型時,你便獲得了更高的智能水平,人們使用它。你的模型越聰明,使用的人越多。現在它更親民了,它能夠進行推理。它能夠解決以前從未學過如何解決的問題,因為它能做研究,去瞭解它,回來拆解它,思考如何解決你的問題,如何回答你的問題,然後去解決它。思考的深度正使模型變得更智能。它越智能,使用的人就越多。它越智能,就需要進行越多的計算。但事情是這樣的。過去一年,AI行業迎來了轉折點。這意味著AI模型如今已足夠智能,他們正在創造價值,他們值得為此付費。NVIDIA為每份Cursor許可證付費,我們樂意如此。我們樂意為之,因為Cursor正助力身價數十萬美元的軟體工程師或AI研究員實現多重價值,效率高出許多倍。當然,我們非常樂意為您效勞。這些AI模型已經足夠優秀,值得為此付費。Cursor、ElevenLabs、Synthesia、Abridge、OpenEvidence,名單還在繼續。當然,OpenAI,當然,Claude。這些模型如今如此出色,人們為此付費。而且因為人們正在為此付費並使用得更多,每次他們使用更多時,你需要更多計算能力。我們現在有兩個指數函數。這兩個指數,其中一個是三階縮放定律中的指數計算需求。第二個指數函數是,模型越聰明,使用的人越多,使用的人越多,它需要的計算量就越大。兩個指數級增長的趨勢正對全球計算資源施加壓力,而就在不久前我才告訴過你們,摩爾定律已基本終結。那麼問題來了,我們該怎麼辦?如果我們有這兩項指數級增長的需求,如果我們找不到降低成本的方法,那麼這個正反饋系統,這個本質上稱為良性循環的循環反饋系統——對幾乎所有行業都至關重要,對任何平台型行業都至關重要——就可能無法持續。這對輝達至關重要。我們現已進入CUDA的虛擬周期。應用程式越多,人們建立的應用程式越多,CUDA就越有價值。CUDA越有價值,購買的CUDA電腦就越多。購買的CUDA平行計算機越多,越來越多的開發者希望為其建立應用程式。經過三十年的發展,輝達終於實現了這一虛擬循環。十五年後,我們終於在AI領域實現了這一目標。AI現已進入虛擬循環階段。因此你用得越多,因為AI很聰明,而我們為此付費,產生的利潤就越多。產生的利潤越多,投入的計算資源就越多。在電網中,投入到AI工廠的計算資源越多,計算能力越強,AI變得越來越聰明。越聰明,使用它的人越多,使用它的應用程式就越多,我們能解決的問題就越多。這個虛擬循環正在運轉。我們需要做的是大幅降低成本。因此,其一,使用者體驗得以提升,當你向AI發出指令時,它會更快地作出響應。其二,通過降低其成本來維持這個虛擬循環的運轉,以便它能變得更智能,以便更多人會使用它,諸如此類。那個虛擬循環正在運轉。但當摩爾定律真的達到極限時,我們該如何突破呢?答案就是極致協同設計。你不能僅僅設計晶片,就指望在晶片上運行的東西會變得更快。在晶片設計中,你所能做的最好就是加入——我不知道,每隔幾年電晶體數量就會增加50%。如果你再增加更多電晶體的話……你知道嗎,我們可以擁有更多的電晶體,台積電是一家了不起的公司,我們只會繼續增加更多電晶體。然而,這些都是百分比,而非指數增長。我們需要復合指數增長來維持這個虛擬循環的運轉。我們稱之為極致協同設計。輝達是當今世界上唯一一家能夠真正從一張白紙開始,構思全新基礎架構的公司,包括電腦架構、新型晶片、新型系統、新型軟體、新型架構、新型應用程式,同時兼顧。在座的許多人之所以在此,是因為你們都是那層結構的不同組成部分,在與NVIDIA合作時,是該堆疊的不同部分。我們從根本上重新建構了所有架構。然後,由於AI是一個如此龐大的問題,我們擴大規模。我們打造了一台完整的電腦,這是首台能夠擴展至整機架規模的電腦。這台電腦配備單張GPU,隨後我們通過發明名為Spectrum-X的新型AI乙太網路技術實現橫向擴展。人人都說乙太網路就是乙太網路。但乙太網路根本算不上乙太網路。Spectrum-X乙太網路專為AI性能而設計,這正是它如此成功的原因。即便如此,那也不夠大。我們將用AI超級電腦和GPU 填滿整個房間。這仍然不夠大,因為AI的應用數量和使用者數量正在持續呈指數級增長。我們將多個這樣的資料中心相互連接起來,我們稱之為Spectrum-XGS的規模——Giga Scale X-Spectrum。通過這樣做,我們在如此巨大的層面上進行協同設計,達到如此極致的程度,其性能提升令人震驚,並非每代提升50%或25%,但遠不止於此。這是我們迄今為止打造的最極致的協同設計電腦,坦率地說,是現代製造的。自IBM System/360 以來,我認為還沒有那台電腦像這樣被徹底重新設計過。這個系統的建立過程極其艱難。我馬上讓你見識它的妙處。但本質上我們所做的,好吧,這有點像美國隊長的盾牌。所以NVLink72,如果我們要製造一枚巨型晶片,一塊巨型 GPU,它看起來會是這樣。這就是我們必須進行的晶圓級加工的程度,太不可思議了。所有這些晶片現在都被裝入一個巨大的機架中。是我幹的還是別人幹的?放入那個巨大的架子…… 你知道嗎,有時候我覺得自己並不孤單。僅憑這組巨型支架,便使所有晶片協同運作,渾然一體。這簡直令人難以置信,我這就向你展示其中的好處。情況是這樣的。所以…… 謝謝,珍妮。我——我喜歡這個。嗯。好的。女士們、先生們,賈妮娜·保羅。哇!明白了。在未來……接下來,我就像雷神那樣去幹。就像你在家裡,卻夠不到遙控器,你只要這樣做,就會有人把它送給你。就是這樣。嗯。如果你看一下列表。這種事從不會發生在我身上,我只是在做夢罷了。看起來你實際能基準測試的GPU 列表大約有 90% 是 NVIDIA。好吧,所以不管怎樣,我們基本上…… 但是。這是 NVLink 8。如今,這些模型如此龐大,我們的解決方式是將模型將這個龐然大物拆解成眾多專家。這有點像一個團隊。因此,這些專家擅長處理特定類型的問題。我們召集了一大批專家。因此,這個價值數兆美元的巨型AI 模型匯聚了眾多不同領域的專家。我們將所有這些不同領域的專家都集中到一個 GPU 上。現在,這是 NVLink 72。我們可以把所有晶片都整合到一塊巨型晶圓上,每位專家都能相互交流。因此,這位首席專家能夠與所有在崗的專家進行交流,以及所有必要的上下文、提示和我們必須處理的大量資料,一堆tokens,我們必鬚髮送給所有專家。專家們會…… 無論那位專家被選中解答問題,都會隨即嘗試作出回應。然後它就會開始逐層逐層地執行這個操作,有時八人,有時十六人,有時這些專家有時是64,有時是 256。但關鍵在於,專家的數量正越來越多。嗯,這裡,NVLink 72,我們擁有 72 個 GPU。正因如此,我們才能將四位專家整合到單個 GPU 中。你需要為每塊GPU 做的最重要的事就是生成tokens,即您在HBM 記憶體中擁有的頻寬數量。我們擁有一台 H 系列 GPU,為四位專家提供計算支援。與這裡不同,因為每台電腦最多隻能安裝八個 GPU,我們必須將 32 位專家整合到單個 GPU 中。因此這塊 GPU 需要為 32 位專家進行思考,相比之下,該系統中每塊 GPU 只需處理四項任務。正因如此,速度差異才如此驚人。這剛發佈。這是由SemiAnalysis 完成的基準測試。他們幹得非常、非常徹底。他們對所有可進行基準測試的 GPU 進行了基準測試。全球各地的供應鏈都在製造它,因此我們現在可以向所有這些地區交付這種新架構,從而使資本支出投資於這些裝置,這些電腦能夠提供最佳的總體擁有成本。現在在這之下,有兩件事正在發生。所以當你看這個時,實際上是相當非同尋常的。無論如何,這相當非同尋常。現在同時發生著兩次平台轉變。記住,如我之前跟你提到的,加速計算用於資料處理、圖像處理、電腦圖形學。它確實執行各種計算。它運行SQL,運行 Spark,它運行…… 你知道,你讓它,你告訴我們你需要運行什麼,這可是件大事。它說我們現在可以更快地做出回應,但這才是更重大的事。因此在下面層面,不管是否有AI,世界正從通用計算轉向加速計算。不管是否有 AI。事實上,許多 CSP 早已提供在 AI 出現之前就存在的服務。記住,它們是在機器學習時代被發明的,像 XGBoost 這樣的經典機器學習演算法,像用於推薦系統的資料框,協同過濾,內容過濾。所有這些技術都誕生於通用計算的早期時代。即便是那些演算法,即便是那些架構,如今在加速計算的加持下也變得更加強大。因此,即使沒有AI,全球雲服務提供商也將投資於加速技術。NVIDIA 的 GPU 是唯一能同時實現上述所有功能並支援 AI 的 GPU。專用積體電路或許能夠實現AI,但它無法完成其他任何任務。NVIDIA完全能夠做到這一切,這也解釋了為什麼完全採用 NVIDIA 架構是如此穩妥的選擇。我們現已進入良性循環,抵達了轉折點,這實在非同尋常。我在這間會議室裡有許多合作夥伴,而你們所有人都是我們供應鏈的重要組成部分。我知道你們大家工作多麼努力。我想感謝你們所有人,你們工作多麼努力。非常感謝。現在我將向你展示原因。這就是我們公司業務的現狀。正如我剛才提到的所有原因,我們看到Grace Blackwell正呈現出非凡的增長態勢。它由兩個指數函數驅動。我們現在已掌握情況。我認為,在Blackwell以及Rubin早期增長態勢上,2026年我們很可能是歷史上首家能夠看到5000億美元業務規模的公司。正如你所知,2025 年尚未結束,2026 年也尚未開始。這就是帳面上的業務量,迄今為止已達半兆美元。在這些產品中,我們已在前幾個季度售出了六百萬台Blackwell 裝置。我猜生產的前四個季度,四分之三的產量。2025 年還有一個季度要走。然後我們有四個季度。因此未來五個季度,將有 5000 億美元。這相當於Hopper增長率的五倍,這多少說明了些什麼。這就是Hopper的全部人生。這不包括中國和亞洲。所以這只是西方市場。Hopper,在其全部生命周期中,四百萬塊 GPU。Blackwell,每個 Blackwell 在一個大封裝中包含兩塊 GPU。在 Rubin 的早期階段有 2000 萬塊 Blackwell GPU。令人難以置信的增長。因此,我要感謝我們所有的供應鏈合作夥伴。大家。我知道你們工作多麼辛苦。我製作了一段視訊來慶祝你的工作。我們來玩吧。極致版Blackwell GB200Nv 與Grace Blackwell NVLink 72 的協同設計,使我們實現了十倍代際性能提升。簡直難以置信。現在,真正令人難以置信的部分是這個。這是我們製造的第一台AI超級電腦。這是2016 年,我將其交付給舊金山的一家初創公司,結果發現是 OpenAI。這就是那台電腦。為了製造那台電腦,我們設計了一枚晶片。我們設計了一款新晶片。為了我們現在能夠進行協同設計,看看我們得處理的這麼多晶片。這就是需要的。你不可能拿一塊晶片就讓電腦速度提升十倍,那不可能發生。使電腦速度提升十倍的方法在於我們能夠持續實現性能的指數級增長。我們能夠以指數級持續壓低成本的方法,是極端協同設計以及同時在所有這些不同晶片上平行工作。我們現在把Rubin 接回家了。這是 Rubin。這是我們的第三代NVLink 72 機架級電腦。第三代。GB200 是第一代。遍佈全球的所有合作夥伴們,我知道你們付出了多麼艱辛的努力。這真的是極其艱難。第二代,順滑得多。而這一代,看這個,完全無線纜。完全無線纜。而這一切現在又回到了實驗室。這是下一代,Rubin。在我們發貨GB300 的同時,我們正在準備讓 Rubin 進入量產。你知道的,就在明年的這個時候,也許會稍微早一點。因此,每一年,我們都會提出最激進的協同設計系統,以便不斷提高性能並持續降低tokens生成成本。看看這個。這是一台令人難以置信的漂亮電腦。這是100 PetaFLOPS。我知道這沒有任何意義。100 PetaFLOPS。但與我十年前交付給 OpenAI 的 DGX-1 相比,性能提升了 100 倍。就在這裡。與那台超級電腦相比是 100 倍。一百台那種的,來算算看,一百台那種大概相當於 25 個這樣的機架,都被這一樣東西替代了。一個維拉·魯賓。所以,這是計算托盤。所以這是Vera Rubin 超級晶片。可以嗎?這是計算托盤。就在這裡,上方。安裝起來非常容易。只需把這些東西掀開,塞進去。就連我也能做到。這是 Vera Rubin 計算托盤。如果你決定要加入一個特殊處理器,我們加入了另一個處理器,稱為上下文處理器,因為我們提供給AI 的上下文量越來越大。我們希望它在回答問題之前先讀取大量 PDF,希望它能讀取大量歸檔論文,觀看大量視訊,在回答我的問題之前先去學習所有這些內容。所有這些上下文處理都可以被加入進去。因此您可以看到底部有八個ConnectX-9 新型 SuperNIC 網路卡。你有八個。您擁有 BlueField-4,這款新型資料處理器,兩個 Vera 處理器,以及四個 Rubin 軟體包,或八個 Rubin GPU。這一切都集中在這個節點上。完全無線,100% 液冷。至於這款新處理器,今天我就不多說了。我時間不夠,但這完全是革命性的。而原因在於,你們的AI 需要越來越多的記憶體。你與它的互動更頻繁了,你希望它能記住我們上次的對話。你為我所學的一切,等我下次回來時,請千萬別忘記。因此,所有這些記憶將共同構築出名為KV 快取的東西。而 KV 快取,檢索它時,你可能已經注意到,每次你進入你的會話,你們現在的 AI 刷新和檢索所有歷史對話的時間越來越長了。而且原因在於我們需要一款革命性的新處理器。這被稱為 BlueField-4。接下來是NVLink交換機。這正是使我們能夠將所有電腦連接在一起的關鍵所在。而這個交換機的頻寬現已達到全球網際網路峰值流量的數倍。因此,該主幹將同時向所有 GPU 傳遞並傳輸所有資料。除此之外,這是Spectrum-X 開關。這款乙太網路交換機的設計使得所有處理器能夠同時相互通訊,而不會造成網路擁塞。堵塞網路,這很技術性。可以嗎?所以這三者結合起來。然後這就是量子開關。這是 InfiniBand,這是乙太網路。我們不在乎你想用什麼語言,無論您採用何種標準,我們都為您準備了卓越的橫向擴展架構。無論是InfiniBand、Quantum 還是 Spectrum 乙太網路,這款採用矽光子技術,並提供完全共封裝的選項。基本上,雷射會直接接觸矽片,並將它與我們的晶片連接起來。可以嗎?這就是 Spectrum-X 乙太網路。哦,這就是它的樣子。這是一個機架。這是兩噸。150萬個部件和這根脊柱,這根脊柱在一秒鐘內承載著整個網際網路的流量。相同的速度,能在所有這些不同的處理器之間遷移。100%液冷。所有這一切,都是為了世界上最快的tokens生成速度。可以嗎?所以那就是機架的樣子。現在,那是一個機架。一個千兆瓦級的資料中心會有,來算算,16個機架大約是姑且叫它 9,000,8,000 個這樣的將是一個一千兆瓦的資料中心。所以那將是未來的 AI 工廠。如你所見,NVIDIA起初是設計晶片,隨後我們開始設計系統,並且我們設計 AI 超級電腦。現在我們正在設計完整的 AI 工廠。每次我們將更多問題整合進來進行解決時,我們都會想出更好的解決方案。我們現在建構完整的AI工廠。這個AI工廠將會是…… 我們為 Vera Rubin 建構的東西。我們創造了一項技術,使我們所有的合作夥伴都能夠以數位化方式整合到這個工廠中。讓我向你展示。完全、完全是數位化的。在Vera Rubin 作為真實電腦出現之前很久很久,我們已經把它作為數字孿生電腦來使用。很久在這些 AI 工廠出現之前,我們就會使用它,我們會設計它,我們會規劃它、最佳化它,並以數字孿生的方式來運行它。因此,所有與我們合作的合作夥伴,我非常高興你們所有支援我們的人。Gio在這裡,G Ver... Vernova在這裡,Schneider。我想,Olivier在這裡,Olivier Blum在這裡。西門子,令人難以置信的合作夥伴。好的。羅蘭·布什,我想他在看。嗨,羅蘭。總之,真的,非常非常棒的合作夥伴與我們一起工作。起初,我們有CUDA,以及各種不同的軟體合作夥伴生態系統。現在,我們有Omniverse DSX,並且正在建構AI工廠。同樣地,我們也有這些與我們合作的令人驚嘆的合作夥伴生態系統。讓我們來談談模型,特別是開源模型。在過去幾年裡,發生了幾件事。一是開源模型因為具備推理能力而變得非常強大;它們之所以非常強大,是因為它們是多模態的,並且由於蒸餾技術,它們的效率非常高。因此,所有這些不同的功能已經使開源模型首次對開發人員極其有用。它們現在是初創公司的命脈。顯然,這些初創公司的生存命脈在不同的行業中各不相同,正如我之前提到的,每個行業都有其自身的用例、其自身的資料、自己的已用資料,自己的飛輪。所有這些能力,那些領域專長需要能夠嵌入到模型中,開源使這成為可能。研究人員需要開源,開發者需要開源,世界各地的公司,我們需要開源。開源模型真的非常非常重要。美國也必須在開源方面處於領先地位。我們擁有極其出色的專有模型,我們擁有令人驚豔的專有模型,我們同樣需要令人驚豔的開源模型。我們的國家依賴它,我們的初創公司依賴它,因此NVIDIA致力於去實現這一目標。我們現在是最大的,我們在開源貢獻方面處於領先地位。我們在排行榜上有23個模型。我們擁有來自不同領域的這些語言模型,我將要討論的物理AI模型、機器人模型到生物學模型。每一個這些模型都有龐大的團隊,這也是我們為自己建構超級電腦以支援所有這些模型建立的原因之一。我們擁有第一的語音模型、第一的推理模型、第一的物理AI模型,下載量非常非常可觀。我們致力於此,原因在於科學需要它,研究人員需要它,初創公司需要它,企業也需要它。我很高興AI初創公司以NVIDIA為基礎建構。他們這樣做有好幾種原因。首先,當然我們的生態系統很豐富,我們的工具運行得非常好。我們所有的工具都能在我們所有的GPU上運行,我們的GPU無處不在。它實際上存在於每一個雲中,它可以在本地部署,你可以自己建構。你可以自己搭建一個發燒友等級的遊戲電腦,裡面裝多塊GPU,然後你可以下載我們的軟體棧,它就是能用。我們有大量開發者在不斷豐富生態系統,使其越來越強大。所以我對我們合作的所有初創公司感到非常滿意,我對此心存感激。同樣,許多這些初創公司現在也開始創造更多方式來利用我們的GPU,例如CoreWeave、Nscale、Nebius、Lambda、Crusoe等。這些公司正在建立這些新的GPU雲來為初創公司服務,我非常感激這一點。這一切之所以成為可能,是因為NVIDIA無處不在。我們將我們的庫整合在一起,所有我剛才跟你提到的CUDA X庫、我提到的所有開源AI模型、我提到的所有模型,例如,我們已經整合到AWS中。真的很喜歡和Matt共事。例如,我們已與Google Cloud整合。真的很喜歡和Thomas共事。每一個雲都整合了NVIDIA GPUs和我們的計算、我們的庫,以及我們的模型。很喜歡與微軟Azure的Satya一起合作,很喜歡與Oracle的Clay一起合作。每一個這些雲都整合了NVIDIA堆疊。因此,不論你去那裡,無論你使用那個雲端,它的工作效果令人難以置信。我們還將NVIDIA的庫整合到全球的SaaS中,以便這些SaaS最終都能成為具代理能力的SaaS。我喜歡Bill McDermott對ServiceNow的願景。那裡有人,對,就這樣。我想那可能是Bill。嗨,Bill。那麼ServiceNow是什麼?全球85%的企業級工作負載、工作流。SAP,全球80%的商業交易。Christian Klein和我正在合作將NVIDIA庫整合起來,將CUDA X、NeMo和NeMotron,以及我們所有的AI系統整合到SAP中。與Synopsys的Sassine合作,加速全球的CAE,使CAD、EDA工具更快且可擴展,幫助他們建立AI代理。有朝一日,我很想僱傭一個AI代理ASIC設計師來與我們的ASIC設計師合作,從本質上來說,就是Synopsys的AI代理。我們正在與Anirudh一起合作,Anirudh,是的,我今天早些時候見過他,他參與了賽前節目。Cadence做著令人難以置信的工作,加速他們的技術堆疊,建立AI代理,使得Cadence的AI ASIC設計師和系統設計師能夠與我們協同工作。今天,我們宣佈一個新的項目。AI將大幅提升生產力,AI將徹底改變每一個行業。但AI也會極大地增強網路安全挑戰,那些惡意的AI。因此我們需要一個強大的防禦者,我無法想像有比CrowdStrike更好的防禦者。我們與CrowdStrike合作,將網路安全的速度提升到光速,以建立一個在雲端擁有網路安全AI代理的系統,同時在本地或邊緣也擁有表現極為出色的AI代理。這樣一來,每當出現威脅時,你就能在瞬間檢測到它。我們需要速度,我們需要一個快速的自主智能、超智能的AI。我有第二個聲明。這是世界上發展最快的企業公司,可能是當今世界上最重要的企業級堆疊,Palantir Ontology。這裡有來自Palantir的人嗎?我剛才還在和Alex聊天。這是Palantir Ontology,他們獲取資訊、獲取資料、獲取人為判斷,並將其轉化為商業洞察。我們與Palantir合作,加速Palantir的所有工作,以便我們能夠進行資料處理,以更大規模和更高速度進行資料處理,更大規模、更多速度。無論是過去的結構化資料,當然也包括我們將擁有結構化資料、人為記錄的資料、非結構化資料,並為我們的政府處理這些資料,用於國家安全,以及為全球的企業服務,以光速處理這些資料並從中發現洞見。這就是未來的樣子。Palantir將與NVIDIA整合,以便我們能夠以光速和極大規模進行處理。讓我們來談談物理AI。物理AI需要三台電腦。正如訓練一個語言模型需要兩台電腦一樣,一台用於訓練它、評估它,然後用於推理它。所以你看到的是大型的GB200。為了用於物理AI,你需要三台電腦。你需要這台電腦來訓練它,這是GB,即Grace Blackwell NVLink-72。我們需要一台能夠運行我之前用Omniverse DSX展示的所有模擬的電腦。它基本上是一個數字孿生,讓機器人學習如何成為一個優秀的機器人,並使工廠實質上成為一個數字孿生。那台電腦是第二台電腦,即Omniverse電腦。這台電腦必須在生成式AI方面表現卓越,並且必須在電腦圖形學方面表現出色,感測器模擬、光線追蹤、訊號處理。這台電腦被稱為Omniverse電腦。一旦我們訓練好模型,就在數字孿生中模擬該AI,而該數字孿生可以是一個工廠的數字孿生,以及大量機器人的數字孿生體。然後,你需要操作那台機器人,這就是機器人電腦。這個可以裝進一輛自動駕駛汽車裡,其中一半可以裝進一台機器人裡。可以嗎?或者你實際上可以擁有,比如說,機器人在操作中非常靈活且非常快速,可能需要兩台這樣的電腦。這就是Thor,Jetson Thor機器人電腦。這三台電腦都運行CUDA,這使我們能夠推進物理AI,能夠理解物理世界、理解物理定律的AI,因果關係、持久性,物理AI。我們有令人難以置信的合作夥伴與我們一起打造工廠的物理AI。我們自己也在使用它來打造我們在德克薩斯的工廠。現在,一旦我們建成了機器人工廠,我們裡面有一堆機器人,這些機器人也需要物理AI,將物理AI應用於數字孿生內部,並在其中運行。讓我們看看它。這就是製造業的未來,未來的工廠。我要感謝我們的合作夥伴富士康。在這裡。但所有這些生態系統合作夥伴使我們能夠創造未來的機器人工廠。這個工廠本質上是一個機器人,它正在協調機器人去製造出具有機器人性質的東西。要做到這一點所需的軟體量非常龐大,除非你能夠在數字孿生中去規劃它、去設計它、在數字孿生中去營運它,否則讓這個方案奏效的希望幾乎不可能。我也很高興看到Caterpillar,我的朋友Joe Creed,以及他那家有著百年歷史的公司也在將數字孿生技術融入他們的製造方式。這些工廠將配備未來的機器人系統,其中最先進的之一是Figure。Brett Adcock今天在這裡。他三年半前創辦了一家公司,他們現在市值接近400億美元。我們正在共同訓練這個AI,訓練機器人、模擬機器人,當然還有裝入Figure的機器人電腦。真的非常驚人。我有幸見證了這一點,這真的相當非凡。很可能類人機器人會出現,而且,我的朋友Elon也在做這方面的工作,這很可能會成為最大的消費類產品之一,新的消費電子市場,當然還有最大的一類工業裝置市場之一。Peggy Johnson和Agility的團隊正在與我們合作開發用於倉庫自動化的機器人。Johnson & Johnson的團隊再次與我們合作,訓練機器人,在數字孿生中進行模擬,並且還要操作機器人。這些Johnson & Johnson外科手術機器人甚至將進行完全非侵入性的手術,達到世界前所未有的精確度。當然,史上最可愛的機器人,迪士尼的機器人。這是與我們息息相關的某件事。我們正在與Disney Research合作開發一個全新的框架和模擬平台,基於一種名為Newton的革命性技術。而那款Newton模擬器使得機器人在具備物理感知的環境中學習如何成為一名優秀的機器人。讓我們看看它。現在,人形機器人仍在開發中,但與此同時,有一款機器人明顯處於拐點上,它基本上就在這裡,那是一個帶輪子的機器人。這是一個無人駕駛計程車。無人駕駛計程車本質上就是一個AI司機。現在,我們今天正在做的事情之一,我們宣佈推出NVIDIA DRIVE Hyperion。這是一件大事。我們建立了這個架構,以便世界上每一家汽車公司都能製造車輛,可以是商用的,也可以是乘用的,可以是專用於無人計程車,製造出具備無人計程車準備能力的車輛。配備環視攝影機、雷達和雷射雷達的感測套件使我們能夠實現最高等級的全方位感知套件與冗餘,這是實現最高安全等級所必需的。Hyperion DRIVE,DRIVE Hyperion現在已被設計進Lucid、梅賽德斯-奔馳、我的朋友Ola Källenius,Stellantis的團隊,還有許多其他車型即將到來。一旦你有了一個基本的標準平台,那麼自動駕駛系統的開發者們,他們中有很多非常有才華的團隊,例如 Wayve、 Waabi、 Aurora、 Momenta、 Nuro、 WeRide等,有這麼多公司可以把他們的AV系統移植到標準底盤上運行。基本上,標準底盤現在已經變成了一個移動的計算平台。並且因為它是標準化的,且感測器套件非常全面,他們都可以將他們的AI部署到上面。我們來快速看一下。好的。那就是美麗的舊金山,正如你所見,自動駕駛計程車的拐點即將到來。未來,每年將有兆英里被駕駛,每年製造1億輛汽車,全球大約有5000萬輛計程車將會被大量無人駕駛計程車所增強。所以這將是一個非常龐大的市場。為了將其連接並在全球部署,今天我們宣佈與Uber建立合作夥伴關係。Uber的Dara,Dara要走了。我們正在合作,將這些NVIDIA DRIVE Hyperion汽車連接成一個全球網路。而在未來,你將能夠召喚到這些汽車中的一輛,生態系統將非常豐富,我們會在全世界看到Hyperion或無人駕駛計程車出現。這將成為我們的一個新的計算平台,我預計它會非常成功。好的。這就是我們今天所討論的內容。我們討論了很多很多事情。請記住,其核心是兩點,是從通用計算向加速計算的兩次平台轉變。NVIDIA CUDA及其名為CUDA-X的一系列庫使我們能夠應對幾乎所有行業,我們正處於拐點,現在它正如虛擬循環所示地增長。第二個拐點現在已經到來,從傳統手寫軟體到AI的轉變。兩個平台同時發生轉變,這就是我們感受到如此驚人增長的原因。量子計算,我們已經提到過。我們談到了開源模型。我們談到了與CrowdStrike的企業應用,以及Palantir,加速他們的平台。我們談到了機器人技術,一個新的可能成為最大規模的消費電子和工業製造行業之一。當然,我們還談到了6G,NVIDIA有了用於6G的新平台,我們稱之為Aria。我們有一個用於機器人汽車的新平台,我們把它稱為Hyperion。我們有新的平台,即便是面向工廠,也是兩類工廠,我們把那個AI工廠稱為DSX,然後把工廠與AI結合,我們稱之為MEGA。女士們、先生們,感謝你們今天的到來,並且感謝你們讓我——謝謝——感謝你們讓我們能夠把GTC帶到華盛頓特區。我們希望每年都舉辦一次。感謝你們! (虎嗅APP)