【Computex】黃仁勳2萬字完整演講實錄:輝達的“奇蹟工程”

5月19日上午,輝達CEO黃仁勳在 COMPUTEX 2025 發表主題演講。黃仁勳指出,輝達已從一家晶片公司成長為一家AI基礎設施公司,其發佈的路線圖對於全球資料中心的規劃至關重要。他預言,AI將無處不在,AI基礎設施將如同電力和網際網路一樣成為必需品,而今天的資料中心正在演變成“AI工廠”。

活動現場,黃仁勳還發佈了一系列重磅產品、技術更新及戰略合作。黃仁勳宣佈了對Blackwell架構的重大升級,為滿足AI“極速思考”和推理時間擴展的需求,NVIDIA推出了Grace Blackwell系統,現已全面投產。預告了性能更強的GB300晶片將於第三季度推出,其推理性能和高頻寬記憶體均提升1.5倍。

針對不同使用者群體,NVIDIA發佈了全新的AI電腦:面向企業級的RTX Pro企業伺服器,以及面向開發者和個人的DGX Spark和DGX工作站。RTX Pro企業伺服器專為企業級AI Agent打造,其性能在Llama 70B模型上是H100 HGX的1.7倍,在DeepSeek R1模型上更是達到4倍,可成為AI工廠的核心動力。

機器人方面,黃仁勳不僅宣佈了Newton物理引擎的開源,還推出了包含Jetson Thor處理器和Isaac作業系統的Isaac Groot機器人平台,並將Isaac Groot N-1.5模型開源。黃仁勳表示,人形機器人因其通用性和規模效應,極可能成為下一個兆美元產業。

活動現場,黃仁勳宣佈輝達與台灣產業鏈繼續深度合作,包括Blackwell晶片的製造(TSMC、富士康等關鍵夥伴)、NVLink Fusion技術支援聯發科等企業開發半定製AI晶片、與富士康 TSMC等共建台灣首台AI超級電腦、以及台灣眾多企業(如台達、廣達、和碩等)利用Omniverse平台建構數字孿生最佳化生產。最後黃仁勳還宣佈在台北建立全新的NVIDIA Constellation大型辦公室。

以下是本次主題演講實錄 經數字開物團隊編譯整理

女士們先生們,歡迎NVIDIA創始人兼首席執行官黃仁勳。

黃仁勳:台灣的朋友們,大家好!你們好嗎?非常高興來到這裡。我的父母也在觀眾席。

NVIDIA來到台灣已經超過30年了。這裡是我們眾多珍視的合作夥伴和摯友的家園。這些年來,你們見證了NVIDIA的成長,目睹我們完成了許多激動人心的大事,並一直是我一路走來的夥伴。

今天,我們將探討我們目前在行業中的定位、未來的發展方向,並宣佈一些激動人心的新產品,以及能夠為我們開闢新市場、創造新機遇、實現新增長的驚喜產品。我們將討論重要的合作夥伴,以及如何共同建構這個生態系統。眾所周知,我們身處電腦生態系統的核心,這是全球最重要的產業之一。因此,順理成章地,當需要開拓新市場時,我們必須從電腦生態系統的核心出發。我為大家準備了一些驚喜,一些你們可能意想不到的內容。當然,我保證我會談到AI,我們也會討論機器人技術。

01. NVIDIA的重塑之路:從晶片到AI基礎設施

黃仁勳: NVIDIA的故事,是電腦產業的重塑史。事實上,NVIDIA的故事也是我們公司的重塑史。正如我所說,我來這裡已有30年。在座的許多朋友都聽過我多次主題演講,有些人甚至一場不落。當你們回想起我們之間的交流,回想過去30年我們所探討的內容,就會明白我們經歷了多麼巨大的變革。我們最初是一家晶片公司,目標是建立一個全新的計算平台。2006年,我們推出了CUDA,它徹底改變了計算的實現方式。

十年後的2016年,我們意識到一種全新的計算方法已經出現。這種新方法要求對技術堆疊的每一層都進行徹底重塑。處理器是新的,軟體棧是新的,系統理應也是新的。因此,我們發明了一種全新的系統。這個新系統,當我在2016年的GTC 上宣佈它時,沒有人理解我在講什麼,也沒有人給我下採購訂單。這個系統就是DGX-1。我將第一台DGX-1捐贈給了名為OpenAI的非營利組織,由此開啟了AI革命。

多年後我們認識到,事實上,這種如今被稱為AI的全新軟體開發與運行方式,與傳統的軟體運行模式截然不同。傳統模式下,許多應用程式在大型資料中心的少數處理器上運行,我們稱之為超大規模計算。而這種新型應用則需要眾多處理器協同工作,為數百萬人提供查詢服務。因此,這種資料中心的架構也必須從根本上改變。我們意識到存在兩種類型的網路:一種是南北向網路,因為你仍需控制儲存、仍需控制平面、仍需連接外部世界;但更重要的網路將是東西向網路,即電腦之間為了協同解決問題而進行的通訊。我們發現,在東西向流量、高性能計算以及大規模分佈式處理領域,有一家最頂尖的網路公司,它對我們公司至關重要,與我們心意相通——這家公司就是Mellanox。我們在五年前,也就是2019年,收購了Mellanox。我們將整個資料中心轉變為一個單一的計算單元。大家之前聽我說過:現代電腦就是整個資料中心。資料中心即計算單元,不再僅僅是一台個人電腦,也不再僅僅是一台伺服器,整個資料中心都在運行同一個任務。作業系統也隨之改變。NVIDIA的資料中心發展之路如今已是眾所周知。

過去三年,你們已經見證了我們正在逐步成形的一些理念,以及我們如何開始以全新的視角審視我們的公司。歷史上,沒有任何一家公司,當然,也沒有任何一家科技公司會一次性公開長達五年的發展路線圖。沒人會告訴你接下來會推出什麼,這通常是高度機密的商業秘密。然而,我們意識到NVIDIA不再僅僅是一家技術公司,事實上,我們是一家不可或缺的基礎設施公司。倘若你不瞭解我未來要打造什麼,你又如何能規劃你的基礎設施——你的土地、你的廠房、你的電力供應以及全球範圍內所有必要的融資呢?因此,我們相當詳盡地闡述了我們公司的路線圖,其詳細程度足以讓全球各地的人們都能據此著手建設資料中心。

我們現在認識到,我們是一家AI基礎設施公司,一家對全世界而言都至關重要的基礎設施公司。每個區域、每個行業、每家公司都將建構這樣的基礎設施。這種新型基礎設施,如同電力或網際網路基礎設施一樣,是一種智能基礎設施。我知道,現在當我們說“智能基礎設施”時,聽起來可能有些費解。但我向你們保證,十年之後再回首,你們會發現AI已經融入萬事萬物。事實上,我們處處都需要AI。每個區域、每個行業、每家公司,都需要AI。AI如今已成為基礎設施的一部分。而這種基礎設施,就像網際網路、像電力一樣,需要“工廠”來生產。這些工廠,本質上就是我們今天正在建造的東西。它們不再是過去那種耗資兆美元,為我們所有ERP系統和員工提供資訊與儲存的資料中心——那是舊時代的資料中心。

現在的AI資料中心,雖然與過去的資料中心同出一源,都來自我們這個行業,但它將演變成一種截然不同、與傳統資料中心完全分離的存在。這些所謂的AI資料中心,更準確地說,其實是“AI工廠”。你向其中輸入能源,它就能產出極具價值的東西——這些東西就是Token。如今,許多公司已經開始討論他們上一季度、上個月生產了多少Token。很快,我們將會討論每小時能生產多少Token,就像任何一座實體工廠一樣。世界因此發生了根本性的改變。我們公司剛成立的1993年,我曾試圖估算我們的市場機會有多大,當時的結論是NVIDIA的商機非常可觀——3億美元!我們當時覺得要發財了。從一個3億美元的晶片產業,發展到一個約兆美元的資料中心市場機遇,再到如今一個以數兆美元計的AI工廠和AI基礎設施產業。這就是我們正在開創的激動人心的未來。

02. 輝達的核心競爭力在於演算法和CUDA-X函數庫的融合

黃仁勳: 我們所做的一切,其核心都根植於幾項關鍵技術。當然,我經常談論加速計算,也經常談論AI。但NVIDIA的真正獨特之處,在於這些能力的融合。尤其重要的是演算法和庫——我們稱之為CUDA-X庫。我們總是在談論庫。事實上,我們是全球唯一一家持續不斷談論庫的科技公司。原因很簡單,因為庫是我們一切工作的核心,是一切的起點。今天,我將向大家展示一些新的庫。但在那之前,請允許我先預告一下今天要分享的內容。你們接下來將看到的一切,全都是關於模擬、科學和AI。這裡沒有藝術創作,全都是模擬——只是它們恰巧非常精美。讓我們一起來看。

(視訊播放高級模擬、機器人技術、城市規劃、醫學成像等視覺內容)

黃仁勳:我現在站在即時電腦圖形面前。這不是一段視訊,這是電腦圖形,由 GeForce 生成。這是一塊全新的GeForce 5060,RTX 5060。這塊顯示卡來自華碩,而這塊,來自MSI。我們把這款性能卓絕的GPU成功地縮小並置入了這裡。你們能想像嗎?看,這簡直不可思議!所以,這台就是MSI的新款筆記型電腦,搭載了5060顯示卡。

GeForce將CUDA帶給了全世界。現在,你們所看到的畫面,每一個像素都經過了光線追蹤。我們是如何能夠模擬光子,並以如此高的解析度實現這樣的影格率的呢?答案就是AI。我們實際上只渲染了十分之一的像素。也就是說,你們看到的每一個像素,只有十分之一是真實計算生成的,其餘十分之九,都是AI“猜”出來的。是不是很神奇?而且效果堪稱完美,完全看不出破綻,AI猜得非常準。當然,這項技術就是DLSS (深度學習超級採樣),一種神經渲染技術。我們為此投入了多年的研發時間。從我們開始涉足AI領域的那一刻起,我們就著手開發DLSS,這趟旅程已經持續了十年。AI徹底革新了CG的進展。GeForce將AI帶給了世界,而今,AI又反過來革新了GeForce。女士們先生們,這就是GeForce!

你們知道,作為CEO,你會擁有很多“孩子”。GeForce就是引領我們走到今天的那個“孩子”。如今,我們主題演講的內容90%都不是關於GeForce的了。但這並非因為我們不再珍愛GeForce。恰恰相反,GeForce RTX 50系列剛剛完成了有史以來最為成功的發佈,也是我們歷史上銷售速度最快的一次發佈。PC遊戲產業如今已有30年歷史,這足以說明GeForce是多麼的不可思議。

我們來討論一下函數庫。核心在於,一切都始於CUDA。通過使CUDA儘可能高性能、儘可能普及,以確保其安裝基礎遍佈全球,應用程式就能輕易找到CUDA圖形處理器。安裝基礎越龐大,就有越多的開發者願意建立函數庫。函數庫越多,就能完成越令人讚嘆的任務,應用程式就越出色,使用者獲得的益處就越多,他們就會購買更多的電腦。電腦越多,CUDA的應用就越廣。這種反饋路徑至關重要。

然而,加速計算並非通用計算。通用計算,指的是編寫軟體,大家使用Python、C或C++等語言編寫,然後進行編譯。通用計算的方法論是貫穿始終的:編寫應用程式,編譯應用程式,然後在中央處理器上運行。然而,這套方法在加速計算中從根本上是行不通的,因為如果行得通,那它就會被稱為中央處理器了。若中央處理器無需改變,就能滿足編寫軟體、編譯軟體並在其上運行的需求,那麼加速計算的意義何在呢?因此,必須採取不同的方法,這實際上是合乎情理的。

原因在於,無數的科研人員和工程師投入到通用計算領域,帶來了數兆美元的創新。僅僅依靠晶片內部的幾個小型元件,怎麼可能突然讓電腦速度提升50倍、100倍呢?這不合邏輯。因此,我們所應用的邏輯是:更深入地理解應用程式的特性,就能對其進行加速。如果能建立一個更適合加速的架構,使其99%的執行階段都以接近光速運行——即便這部分只佔程式碼量的5% (這本身就非常令人驚訝),就能有效加速應用程式。在大多數應用程式中,程式碼中極小的一部分卻消耗了絕大部分的執行階段。我們觀察到了這一點,因此我們開始逐個攻克不同的領域。

例如前面展示的電腦圖形學。我們還有數值計算領域的庫,例如cuNumeric。cuNumeric是目前最普及的數值計算庫。接下來是Ariel和Shona。Ariel是全球首個用於5G和6G的GPU加速無線電訊號處理庫。一旦我們將其實現軟體定義,就可以在其之上疊加AI。這樣,我們就能將AI技術引入5G和6G網路。Parabricks用於基因組學分析,MONAI用於醫學成像,Earth-2用於天氣預測,cuQuantum用於量子經典混合電腦架構和電腦系統。cuEquivariance和cuTensor用於張量數學中的張量收縮運算。

Megatron,以及這裡展示的完整系列,包含了我們所有的深度學習庫以及進行深度學習訓練和推理所必需的全部函數庫。這徹底改變了計算領域,而這一切都源於這些函數庫的積累。不僅僅是CUDA,還有cuDNN,在cuDNN之上是Megatron,接著是TensorRT-LLM,以及近期發佈的,專為大型AI工廠設計的全新作業系統Dynamo。cuDF用於處理資料幀,類似於Spark和SQL,它同樣可以加速結構化資料的處理。cuML用於經典機器學習。Warp是一個用於描述CUDA核心的Python風格框架,取得了巨大的成功。

cuOpt用於數學運算和最佳化,例如解決旅行商問題,以及最佳化諸如供應鏈最佳化這類具有高度約束和大量變數的複雜問題。cuOpt取得了令人矚目的成就,我對此感到非常興奮。cuDSS和cuSparse用於稀疏結構模擬器,這些模擬器廣泛應用於CAE (電腦輔助工程) 和CAD (電腦輔助設計)、流體動力學以及EDA (電子設計自動化) 和CAE行業。當然,還有cuLitho,這是計算光刻領域最重要的函數庫之一。掩模製造過程通常耗時良久,可能輕易就需要一個月的時間,並且其計算量極為龐大。現在有了cuLitho,我們可以將計算速度提升50到70倍。這將為未來AI在光刻技術中的應用奠定堅實基礎,開闢廣闊前景。

我們擁有眾多出色的合作夥伴。台積電正在廣泛應用cuLitho。ASML和Synopsys也是我們在cuLitho項目上的重要合作夥伴。因此,正是這些函數庫本身,使得我們能夠在一個又一個應用領域、一個又一個科學領域、一個又一個物理領域中加速相關的應用程式。同時,這也為我們開拓了新的市場。

03. 電信行業的AI轉型與合作夥伴

黃仁勳: 我們關注特定的區域和市場,並認為這些領域對於向新型計算方式的轉型至關重要。如果通用計算在經歷了這麼多年之後已經發展到了其瓶頸,為什麼它沒有在每一個行業都走到這一步呢?其中最重要的行業之一無疑是電信行業。正如全球的雲資料中心現已實現軟體定義一樣,電信業也理應實現軟體定義。這就是我們花費了大約六年時間來完善和最佳化一個完全加速的無線接入網路堆疊的原因。該堆疊在每兆瓦資料速率或每瓦資料速率方面展現出卓越的性能,目前已達到與最先進的專用積體電路相媲美的水平。一旦我們能夠實現這一點,一旦我們能夠達到這樣的性能和功能水平,我們就可以在其之上疊加AI技術。

我們在這方面擁有強大的合作夥伴。可以看到,SoftBank和T-Mobile、Indosat以及Vodafone正在進行相關試驗。Nokia、Samsung、Kyocera正與我們合作開發完整的技術堆疊。Fujitsu和Cisco則致力於系統層面的工作。因此,我們現在有能力將AI on 5G或AI on 6G的理念,與計算中的AI的理念一同推廣。

04. AI的演進:從感知到物理AI與機器人

黃仁勳: AI。十二年前,我們的起點是感知。當時的AI模型能夠理解模式、識別語音、識別圖像。這僅僅是開端。在過去的五年裡,我們一直在探討生成式AI。這指的是AI不僅具備理解能力,還具備生成內容的能力。因此,它可以實現從文字到文字的轉換,我們在ChatGPT中就經常使用這項功能。它還能進行文字到圖像、文字到視訊、視訊到文字、圖像到文字的轉換。幾乎可以實現任何事物到任何事物的轉換,這正是AI令人驚嘆之處:我們發現了一種通用函數逼近器和一種通用翻譯器。只要我們能夠對其進行Token化處理,將資訊表示為位元流,它就能夠將任何事物翻譯成其他任何事物。

目前,我們已經達到了一個至關重要的AI發展階段。生成式AI為我們帶來了單樣本AI的能力。你給它一段文字,它就能返回相應的文字。這是兩年前我們初次接觸ChatGPT時所體驗到的巨大突破。你輸入文字,它就返回文字。它能預測下一個詞,預測下一個段落。然而,智能的內涵遠不止於從大量研習過的資料中學習到的知識。智能包含推理的能力,即解決前所未見問題的能力,逐步分解問題的能力,甚至可能應用某些規則和定理來解決從未遇到的問題,以及模擬多種選項並權衡其利弊的能力。

大家可能聽說過一些相關的技術,例如思維鏈,它指的是逐步分解問題;還有思維樹,它指的是探索多種可能的解決路徑。所有這些技術都在增強AI的推理能力。現在,令人讚嘆的是,一旦AI具備了推理能力和感知能力——例如,多模態感知能力,能夠閱讀PDF文件,能夠執行搜尋,能夠使用工具——那麼你就擁有了Agentic AI 

這種Agentic AI 所做的,正是我剛才描述的我們人類的普遍行為:我們接受一個目標,然後逐步分解它,我們推理該做什麼、最佳方案是什麼,我們考量其後果,然後開始執行計畫。該計畫可能包括進行研究,可能包括執行某些工作、使用某些工具,也可能包括聯絡另一個AI Agent進行協作。Agentic AI 的核心在於:理解、思考和行動。而理解、思考和行動,正是機器人學中的控制回路。Agentic AI 本質上是數字形態的機器人。這些技術在未來幾年將變得極為重要。我們正在這一領域見證巨大的進展。

在此之後的下一波浪潮是物理AI,即能夠理解物理世界的AI。它們理解諸如慣性、摩擦力、因果關係等概念。例如,如果我滾動一個球,球滾到汽車底下,根據球的速度,它很可能滾到了汽車的另一邊,但球並沒有消失——這就是對象持久性。你或許能夠推理出,如果面前有一張桌子,而你必須到另一邊去,最佳方法不是直接穿過它,而是選擇繞過去或從下面通過。對這些物理現象進行推理的能力,對於AI的下一個時代至關重要。我們稱之為物理AI。

因此,在這個特定的案例中,大家可以看到我們僅僅通過提示AI,它就能生成視訊,用於在不同場景下訓練自動駕駛汽車——稍後我會展示更多相關內容。例如,最初的指令是“生成一隻狗”,然後是“生成一隻帶鳥的狗”,再之後是“生成包含人的狗的圖像”。系統從左邊的圖像開始生成。

接下來,在這一階段之後,我們將推理系統、生成式系統和物理AI的能力相結合。這種綜合能力將被賦予物理實體,我們稱之為機器人。如果你能想像可以通過提示AI來生成一個機器人伸手拿起瓶子的視訊,那麼你自然也能想像直接指令一個機器人伸出手去拿起那個瓶子。當今的AI技術已經具備實現這些複雜操作的能力。

05. Blackwell升級與GB300第三季度推出

黃仁勳: 我們近期發展的方向,就是我們即將推出的這種電腦。我們為了實現AI的極速思考這一目標而正在建構的電腦,其特性與以往的產品截然不同。大約三年前,一款名為Hopper的革命性電腦問世,它徹底改變了我們所熟知的AI,並可能成為了世界上最受歡迎、也最廣為人知的電腦。

在過去幾年中,我們一直致力於研發一款新型電腦,以使我們能夠實現推理時間擴展,或者通俗地說,就是實現極快速的思考。因為當你在思考時,你的頭腦中會生成大量的tokens,可以說,你會產生大量的想法,並在你的大腦中進行迭代,然後才能得出答案。因此,過去的“一次性”AI現在將轉變為思考型AI、推理型AI、具備推理時間擴展能力的AI。這將需要更多的算力。

為此,我們創造了一個名為Grace Blackwell的新系統。Grace Blackwell實現了幾個關鍵功能。它具備向上擴展的能力。向上擴展意味著將一台電腦變成一台巨型電腦。向外擴展則是指將多台電腦連接起來,讓工作在許多不同的電腦上協同完成。向外擴展相對容易,而向上擴展則極其困難。建構超越半導體物理極限的更大型電腦,是一項極具挑戰性的任務。Grace Blackwell正是為此而生,它突破了幾乎所有的限制。

在座的各位中,有許多合作夥伴正與我們共同建構Grace Blackwell系統。我非常高興地宣佈,我們正在全面投入生產,但同時,我們也可以說,這個過程充滿了巨大的挑戰。儘管基於HGX的Blackwell系統自去年年底就已全面投產,並從今年二月開始供貨,但我們現在才開始陸續讓所有的Grace Blackwell系統上線。它們每天都在世界各地不斷上線。CoreWeave平台搭載該系統也已有數周時間,許多雲服務提供商也已開始使用。現在,你正開始看到它在各處湧現。大家都在社交媒體上宣佈Grace Blackwell已投入生產。

正如我所承諾的,在今年第三季度,我們將一如既往地逐年提升我們平台的性能,每一年都如同精準的節拍。今年第三季度,我們將升級到Grace Blackwell GB300。GB300將會提升性能,它採用相同的架構、相同的物理尺寸、相同的電氣和機械設計,但內部的晶片進行了升級。它升級到了全新的Blackwell晶片,其推理性能提升了1.5倍,高頻寬記憶體 (HBM) 增加了1.5倍,網路頻寬增加了兩倍。因此,整體系統性能得到了提升。

接下來,讓我們深入探究Grace Blackwell的內部構造。Grace Blackwell系統始於其計算節點。眼前的這個便是其中一個計算節點。這是上一代產品B200的形態,而這則是B300的形態。請注意其中心部分,現在已完全採用100%液冷設計,但其他外部介面和尺寸均保持不變,因此可以直接插入現有的相同系統和機箱中。

這就是Grace Blackwell GB300系統。其推理性能相較之前提升了1.5倍。訓練性能基本持平,但推理性能實現了1.5倍的增長。我們眼前的這個特定系統,其算力高達40 petaflops,這大致相當於2018年Sierra超級電腦的整體性能——要知道,Sierra超級電腦配備了18,000個Volta GPU。而如今,僅這一個節點便足以取代那整台超級電腦。短短六年間,性能提升了驚人的4,000倍!這正是極致的摩爾定律的體現。

請記住,我先前曾提及,NVIDIA大約每十年就能將AI計算性能提升約一百萬倍。我們目前依然穩健地行進在這條發展軌跡上。

但要實現如此巨大的性能飛躍,僅靠提升單一晶片的速度是遠遠不夠的。晶片的速度和尺寸都存在其固有的物理極限。以Blackwell為例,我們甚至需要將兩塊晶片連接在一起協同工作。TSMC與我們緊密合作,共同發明了一種名為CoWoS-L的新型CoWoS工藝,這才使得製造這種巨型晶片成為現實。

然而,我們對晶片尺寸和性能的追求永無止境,因此,我們必須創造出名為NVLink的技術。這是目前世界上最快的交換機。大家看到的這個NVLink,其傳輸速率高達每秒7.2太字節 (TB/s)。在一個標準機架中,會裝配九個這樣的交換機。

而這九個交換機,則是通過一項堪稱工程奇蹟的技術——我手中這個相當有份量的部件,NVLink Spine——連接起來。它看起來輕巧,實則重達近70磅。這便是NVLink Spine。它內部整合了長達2英里的電纜,包含5000根結構化同軸電纜,均經過了精密的阻抗匹配。它將全部72個GPU與另外72個GPU通過這個稱作NVLink Switch的網路緊密相連。

NVLink Spine的總頻寬高達每秒130太字節。這是什麼概念呢?作為參考,整個網際網路的峰值流量大約是每秒900太位元。將其除以八轉換為字節,一個NVLink Spine傳輸的資料量便已超越整個網際網路的峰值流量。通過一個NVLink Spine連接這九個NVLink交換機,可以確保每一個GPU都能同時與其他任何一個GPU高效通訊。這便是GB200系統設計的奇蹟所在。

此外,由於SerDes的訊號驅動距離存在物理限制——這已是SerDes技術所能達到的最遠驅動距離——從晶片到交換機,再到Spine,乃至連接到任何其他交換機和晶片,全程均採用電氣連接。這一限制,也使得我們將所有關鍵元件都高度整合在同一個機架之內。而這樣一個機架的功耗高達120千瓦,這也是為何所有部件都必須採用液冷技術的原因。

我們現在已經成功地將GPU從傳統意義上的單個主機板中“解放”出來,使其能夠擴展至整個機架,可以說,整個機架構成了一個巨大的“主機板”。這本身就是一項奇蹟。這種完全的分解式設計,使得GPU的性能、記憶體容量以及網路頻寬都達到了前所未有的水平。基於此,我們才能夠真正實現大規模的向外擴展。一旦完成了單個節點的向上擴展,我們就能繼而將其向外擴展,建構出強大的大型系統。

大家會注意到,NVIDIA建構的幾乎所有產品都具有龐大的規模。其根本原因在於,我們並非僅僅在建構傳統的資料中心和伺服器,我們致力於打造的是AI工廠。以CoreWeave和Oracle Cloud為例,這些設施中的機架功率密度極高,以至於必須將它們間隔得更開,以便有效分散和管理巨大的能量密度。但核心理念是,我們建造的是AI工廠,而非傳統資料中心。

例如,XAI公司的Colossus工廠,以及Stargate項目——一個佔地400萬平方英呎、功率需求高達1千兆瓦 (GW) 的宏偉工程。試想一下,這樣一個1千兆瓦的AI工廠,其總投資規模可能高達600億至800億美元。在這巨額投資中,構成計算核心的電子裝置和系統本身,就可能佔據400億至500億美元。因此,這些都是名副其實的巨型工廠級投資。

人們之所以斥巨資建造工廠,是因為深諳一個樸素的商業邏輯——正如大家所熟知的:買得越多,你製造的就越多,從而你賺取的利潤也就越多。這便是工廠經濟學的核心所在。

這項技術是如此的複雜。事實上,僅僅通過肉眼觀察,大家仍然難以完全領會我們所有合作夥伴以及在座的台灣企業同仁們所完成的這項傑出工作背後蘊含的巨大努力。因此,我們特地為大家製作了一段影片。

視 訊:

Blackwell堪稱一項工程奇蹟。它的製造始於TSMC提供的一塊空白矽晶圓。經過數百道精密的晶片處理和紫外光刻工序,在12英吋的晶圓之上,逐層建構起多達2000億個電晶體。

隨後,這片晶圓被精密切割成獨立的Blackwell晶片裸片,每一個裸片都經過嚴格的測試和分選,確保只有合格品才能進入下一製造環節。接下來是晶片晶圓基板封裝 (CoWoS) 工藝,這一關鍵步驟由TSMC、SPIL和Amkor協同完成。在此過程中,32個Blackwell裸片和128個HBM堆疊被精密地貼裝到一塊定製的矽中介層晶圓之上。

金屬互連走線直接蝕刻在這塊中介層上,負責將Blackwell GPU和HBM堆疊連接到每一個系統級封裝單元之中,從而將所有核心部件牢固地整合為一體。之後,整個元件還要經過烘烤、模製和固化等一系列複雜處理,最終才能鍛造出強大的Blackwell B200超級晶片。

在KYEC公司,每一顆Blackwell晶片都必須在125攝氏度的高溫烤箱中,經受長達數小時的極限壓力測試,以確保其在嚴苛條件下的穩定性和可靠性。畫面轉到富士康,在這裡,高度自動化的機器人正夜以繼日地工作,將超過一萬個不同的元件精準無誤地拾取並貼裝到Grace Blackwell的印製電路板 (PCB) 之上。

與此同時,其他成千上萬的零部件也正在全球各地的專業工廠中緊張有序地生產和準備。例如,來自Cooler Master、AVC、Auras和Delta的定製化液冷銅塊,它們的作用是確保晶片在執行階段能始終保持在最佳溫度範圍。在富士康的另一處高度現代化廠區,ConnectX-7 SuperNICs正在被製造出來,它們為系統提供了大規模橫向擴展通訊的能力;而BlueField-3 DPU則專門用於高效解除安裝並加速網路、儲存以及安全相關的計算任務。

所有這些來自全球各地的精密部件,最終會匯聚一處,被技術嫻熟的工程師們小心翼翼地整合到GB200計算托盤之中。NVLink是NVIDIA發明的一項革命性高速互連技術,它能夠將多個GPU緊密連接起來,並將其向上擴展成為一個統一的、巨大的虛擬GPU。

NVLink交換機托盤由NVLink交換晶片構成,可提供高達每秒14.4太字節 (TB/s) 的全互聯頻寬。而NVLink Spines則構成了一個定製化的盲插背板,其內部整合了5,000根特製銅纜,總共能提供高達每秒130太字節的全互聯頻寬。正是通過這種精巧的設計,所有72個Blackwell晶片 (即144個GPU裸片) 才得以高效協同,共同構成一個性能無與倫比的巨型GPU。

來自世界各地的零部件,包括富士康、緯創、廣達、戴爾、ASUS、GIGABYTE、HPE、Supermicro以及眾多其他重要合作夥伴提供的元件,紛紛運抵指定的組裝中心。在這裡,它們將被經驗豐富的技術人員精密組裝,最終形成一台完整的機櫃級AI超級電腦。

這樣一台超級電腦,總共包含約120萬個獨立元件,內部鋪設了長達2英里的銅質線纜,整合了驚人的130兆個電晶體,其總重量更是高達1800公斤。從在晶圓上蝕刻的第一個微小電晶體,到固定Blackwell機架的最後一顆堅固螺栓,每一個環節、每一步驟,都深深凝聚了我們所有合作夥伴的無私奉獻、頂尖精度和卓越工藝。

因此,Blackwell並不僅僅是一項單純的技術奇蹟,它更是對整個台灣地區卓越技術生態系統實力的一次輝煌證明與禮讚。

我們為能共同取得如此輝煌的成就而感到無比自豪。謝謝你,台灣。

謝謝。謝謝大家。那真是太不可思議了,對吧?但這是你們的功勞。這是你們的功勞。謝謝大家。

06. 與富士康、TSMC等合作,為台灣打造首台巨型AI超級電腦

黃仁勳: 台灣不僅僅為世界建造超級電腦。今天,我非常高興地宣佈,我們也在為台灣建構AI。因此,今天我們宣佈與富士康、台灣政府、NVIDIA、TSMC攜手為台灣的AI基礎設施和AI生態系統打造第一台巨型AI超級電腦。謝謝大家。現場有誰需要AI電腦嗎?觀眾席中有沒有AI研究人員?每一位學生、每一位研究員、每一位科學家、每一家初創公司、每一家大型成熟企業,TSMC他們自身就已經在進行海量的AI和科學研究。而富士康在機器人技術領域也投入了巨大的努力。我知道觀眾席中還有許多其他公司,我稍後會逐一提到,他們也正在進行機器人研究和AI研究。因此,在台灣擁有世界一流的AI基礎設施確實至關重要。

所有這一切的努力,都是為了讓我們能夠製造出一款超大規模的晶片。而NVLink技術和這一代的Blackwell架構,使我們得以創造出這些令人難以置信的系統。這裡展示的是來自和碩 (Pegatron)、廣達電腦 (QCT)、緯創 (Wistron) 和緯穎 (Wiwynn) 的產品。這一款則來自富士康 (Foxconn)、技嘉 (Gigabyte) 和華碩 (ASUS)。大家可以看到它的正面和背面。它唯一的目標,就是將這些Blackwell晶片——大家可以看到它們有多麼巨大——整合成為一個單一的、巨型晶片。當然,實現這一目標的能力,是由NVLink技術所賦予的。但這遠不足以體現其系統架構的複雜性、將所有元件無縫連接的豐富軟體生態系統,以及由150家公司共同建構的整個生態系統。這個架構以及相關的技術、軟體和整個產業生態,是我們三年心血的結晶。這是一項巨大的產業投資。現在,我們希望讓任何人,任何想要建構資料中心的人,都能輕鬆實現這一目標。它可以是大量的NVIDIA GB200或300s,以及來自NVIDIA的加速計算系統。它也可以是其他廠商的解決方案。

07. 定製晶片加強,NVLink加入到技術組合中供第三方使用

因此,今天,我們要宣佈一項非常特別的技術:NVIDIA NVLink Fusion。NVLink Fusion的目標是讓您能夠建構半定製的AI基礎設施。這不僅僅是指半定製晶片,因為那已成為過去。您現在想要建構的是AI基礎設施,而每個人的AI基礎設施都可能有所不同。有些人可能需要更多的CPU,另一些人可能需要更多的NVIDIA GPU,還有些人可能採用某家廠商的半定製ASIC。建構這些系統的難度極高。它們都缺少一個關鍵的、令人難以置信的組成部分——NVLink。NVLink技術能夠讓您擴展這些半定製系統,並建構出真正強大的電腦。

所以今天,我們正式宣佈推出NVLink Fusion。NVLink Fusion的工作原理大致如下:這是一個純NVIDIA平台,100%採用NVIDIA元件。您擁有NVIDIA CPU、NVIDIA GPU、NVLink交換機、來自NVIDIA的網路解決方案、網路卡、網路互連裝置、交換機,以及整個系統——一個完全端到端建構的基礎設施。當然,如果您願意,也可以進行混合搭配。而今天,我們讓您甚至可以在計算層面進行混合搭配。如果您使用定製的ASIC,就會這樣做。我們擁有出色的合作夥伴 ,他們正與我們緊密合作,以整合您特有的TPU、特有的ASIC,或任何特有的加速器。它不必僅僅是一個Transformer加速器,它可以是任何您希望整合到大型可擴展系統中的加速器類型。

我們為此創造了一款NVLink小晶片。它本質上是一個緊貼在您晶片旁邊的交換機。我們將提供相應的IP,以便整合到您的半定製ASIC中。一旦完成這些,它就能完美地裝配到我之前提到的計算板卡中,並融入到我向大家展示的這個AI超級電腦的生態系統中。現在,或許您希望使用自己的CPU。您可能已經研發自己的CPU有一段時間了,也許您的CPU已經建構了一個非常龐大的生態系統,並且您希望將NVIDIA的技術整合到您的生態系統中。現在,我們使這成為可能。您可以通過建構自己的定製CPU來實現。我們為您的ASIC提供NVLink晶片到晶片介面。我們通過NVLink小晶片將其連接,然後它就能直接連接並緊密貼合到Blackwell晶片以及我們的下一代Rubin晶片上。而且,它再一次完美地融入了這個生態系統。這項令人難以置信的龐大工作成果,現在變得靈活和開放,可供所有人整合。因此,您的AI基礎設施可以包含一些NVIDIA的元件,大量您自己的元件——是的,大量您自己的元件——以及大量的CPU、大量的ASIC,或許還有大量的NVIDIA GPU。

因此,在任何情況下,您都可以從使用NVLink基礎設施和NVLink生態系統中獲益,並且它與SpectrumX網路解決方案完美連接。所有這一切,都達到了工業級強度,並且擁有一個由眾多已經實現這一切的工業合作夥伴組成的龐大生態系統的支援。所以,這就是NVLink Fusion。如果您完全從我們這裡購買所有產品,那真是太棒了。沒有什麼比您購買NVIDIA的所有產品更讓我感到高興的了。我只是想讓大家知道這一點。但如果您只從NVIDIA購買部分產品,這也會讓我非常高興。這是非常務實的。

因此,我們擁有一批優秀的合作夥伴。Elchip、Astera Labs、Marvell,以及我們的重要合作夥伴之一聯發科,他們將與我們攜手,共同服務那些希望建構此類系統的ASIC或半定製客戶、超大規模資料中心營運商,或者希望建構此類系統的CPU供應商;這些合作夥伴將成為他們的半定製ASIC提供商。

此外,富士通和高通也正在建構整合NVLink的CPU,以便融入我們的生態系統。我們還與Cadence和Synopsys合作,將我們的IP轉移給他們,以便他們能夠與在座的各位合作,並將該IP應用於你們所有的晶片。所以,這個生態系統是令人難以置信的,但這僅僅突出了NVLink Fusion生態系統的重要性。一旦您與這些夥伴合作,您就能立即整合到整個更龐大的NVIDIA生態系統中,從而使您能夠將系統擴展成為這些AI超級電腦。

08. 面向開發者與個人的AI電腦:DGX Spark與DGX工作站

黃仁勳: 現在,請允許我介紹一些新的產品類別。如大家所知,我已經向各位展示了幾種不同的電腦。然而,為了服務全球絕大多數的使用者,我們產品線中仍有一些空白。接下來我將談論這些。但在開始之前,我想向大家同步一個最新進展:事實上,我們稱之為DGX Spark的這款新電腦已經全面投入生產。DGX Spark將很快準備就緒,預計幾周內即可上市。我們有眾多傑出的合作夥伴與我們並肩作戰,包括戴爾、惠普、ASUS、MSI、GIGABYTE、聯想——這些都是與我們合作的頂尖夥伴。這就是DGX Spark。這實際上是一台量產機型。這是我們的版本。這是我們的版本。然而,我們的合作夥伴們正在打造眾多不同配置的版本。這款產品專為AI原生開發者設計。如果您是一位開發者、一名學生或研究員,不想每次都繁瑣地啟動雲實例、進行配置,用完後還要費心清理——那麼這款產品正適合您。您會希望擁有自己的,基本上就是一台專屬於您的AI雲,它就靜候在您的手邊,始終線上,隨時待命。它能讓您輕鬆進行原型設計和早期開發。這正是它的非凡之處。

它擁有1 petaflops的算力性能和128 GB的記憶體。回想2016年,當我交付第一代DGX-1時,這僅僅是它的一個前面板。我根本無法搬動整台電腦,它重達300磅。這就是DGX-1。它同樣擁有1 petaflops的算力性能和128GB的記憶體。當然,DGX-1配備的是128GB的HBM記憶體,而DGX Spark配備的是128GB的LPDDR5X記憶體。兩者的性能實際上非常接近。但最重要的是,您在這台DGX Spark上可以完成的工作,與您在DGX-1上可以完成的工作是完全相同的。這僅僅在大約十年間取得的成就,堪稱令人難以置信。好了,這就是DGX Spark,獻給每一位渴望擁有自己的AI超級電腦的人。至於價格,我會讓我們所有的合作夥伴自行公佈。但有一件事是確定的:每個人都能在聖誕節前擁有一台。

我還有另一台電腦想展示給大家。如果那台還不夠滿足您的需求,這裡還有一台。這是另一款桌面級產品。戴爾和惠普、ASUS、GIGABYTE、MSI、聯想也將提供這款產品。它還將由BOXX、Lambda這些卓越的工作站公司提供。這將是您專屬的個人DGX超級電腦。這台電腦的性能,是您能從普通牆壁插座獲得的極致。您可以把它放在廚房裡——但僅僅是勉強。如果您把它放在廚房,然後有人恰好使用了微波爐,我想這就達到供電極限了。所以,這就是極限。這就是您能從牆壁插座獲得的性能極限。這是一台DGX工作站。它的程式設計模型和我之前展示給大家的那些大型系統是完全相同的。這才是最了不起的地方:統一的架構。它擁有足夠的容量和性能,足以運行一個包含1兆參數的AI模型。請記住,Llama模型中,Llama 70B是一個擁有700億參數的模型。一個1兆參數的模型將在這台機器上完美運行。好的,這就是DGX工作站。

09. 企業IT的AI重塑:RTX Pro、AI資料平台IQ與AI Ops

黃仁勳: 那麼現在,讓我們來談談,請記住,這些系統是AI原生的。它們是AI原生電腦。它們是為這個新一代軟體而建構的電腦。它不必與x86架構相容。它不必運行傳統的IT軟體。它不必運行虛擬機器管理程序。它不必運行所有那些傳統的元件,它不必運行Windows。這些電腦專為現代AI原生應用程式而設計。當然,這些AI應用程式可以是通過API被傳統和經典應用程式呼叫的服務。但是,為了讓我們能夠將AI引入一個全新的領域——這個全新的領域就是企業IT——我們必須回歸本源,我們必須徹底重塑計算,並將AI引入傳統的企業計算之中。

現在,我們所瞭解的企業計算,實際上包含三個層面。它不僅僅是計算層。它是計算、儲存和網路。始終是這三個方面:計算、儲存和網路。正如AI已經深刻改變了一切,按理推斷,AI也必然已經改變了企業IT的計算、儲存和網路。那個底層的硬體基礎設施必須被徹底重塑,而我們正在著手這項工作。我將向大家展示一些新產品,它們將為我們開闢道路,徹底釋放企業IT的潛力。它必須與傳統的IT行業協同工作,並且必須增添一種全新的能力。而企業所亟需的這種新能力,就是所謂的Agentic AI 。這基本上是指:數位化的行銷活動經理、數位化的研究員、數位化的軟體工程師、數位化的客戶服務代表、數位化的晶片設計師、數位化的供應鏈經理——也就是我們過去所從事的各種工作的數位化版本、AI版本。正如我之前提到的,Agentic AI 擁有推理、使用工具以及與其他AI協作的能力。因此,在很多方面,這些都是數位化的工作者。它們是數位化的員工。當今世界正面臨勞動力短缺的問題。我們缺乏足夠的工人。預計到2030年,全球勞動力缺口將達到約3000萬到5000萬,這實際上限制了全球經濟的增長潛力。因此,現在我們擁有了這些可以與我們協同工作的數位化AI Agent。

NVIDIA 100%的軟體工程師現在都配備了數位化AI Agent與他們並肩工作,以幫助他們、協助他們更高效地開發出更優質的程式碼。所以在未來,你們將會看到這樣一個層面——這是我們的願景。你們將會看到一個由Agentic AI 構成的層面,AI Agent。那麼,世界將會因此發生怎樣的變化?企業又將發生怎樣的變化?過去,我們為人類員工設立人力資源部;未來,IT部門將轉變為數字員工的人力資源部。因此,我們必須為當今的IT行業、當今的IT從業者創造必要的工具,使他們能夠有效地管理、改進和評估在他們公司內部辛勤工作的整個AI Agent家族。這就是我們致力於建構的願景。但首先,我們必須重塑計算。請記住我之前所說的。企業IT系統大多運行在x86架構之上。它運行著各種傳統軟體,例如來自VMware、IBM Red Hat或Nutanix的虛擬機器管理程序。它還運行著大量的經典應用程式。我們需要的是能夠勝任同樣工作的電腦,但同時要增加這種全新的能力——也就是增加這種被稱為Agentic AI 的新能力。那麼,讓我們來具體瞭解一下。

好的,這便是全新的RTX Pro、RTX Pro企業版以及Omniverse伺服器。這款伺服器堪稱萬能。它當然配備了x86架構,能夠運行所有傳統的虛擬機器管理程序。在這些虛擬機器管理程序之上,它還能運行Kubernetes。因此,貴公司的IT部門管理網路、叢集以及編排工作負載的方式將與以往完全一致。它甚至可以將Citrix等虛擬桌面串流到您的個人電腦。可以說,當今世界運行的任何應用,都應該能在這台伺服器上運行。Omniverse在此也能完美運行。

但更重要的是,這款伺服器是專為企業級AI Agent打造的。這些AI Agent可以是純文字的,也可以是電腦圖形化的——比如,可愛的虛擬助手“小TJ”或“小玩具Jensen”來到您身邊,協助您完成工作。因此,這些AI Agent可以是文字形式、圖形形式,或是視訊形式。所有這些類型的工作負載,本系統均能支援。

無論採用何種模態,我們所知的全球每一款模型、每一款應用,都應能在這套系統上運行。事實上,就連《Crysis》這樣的高要求遊戲也能在此運行。好了,現場有GeForce遊戲玩家嗎?看來沒有。非常好。連接這八顆GPU——即基於Blackwell架構的新款Blackwell RTX GPU,具體型號為RTX Pro 6000s——的是這款全新的主機板。這款新主機板實際上是一個交換式網路。CX8是一類全新的晶片,它首先是交換機,其次才是網路晶片。它同時也是全球最先進的網路晶片。CX8目前已進入量產階段。您可以將GPU插入CX8,CX8晶片位於背板。這裡通過PCI Express連接,CX8實現GPU間的通訊。其網路頻寬高達驚人的每秒800吉位元。這就是插入此處的收發器。因此,每一顆GPU都擁有獨立的網路介面。所有GPU現在都能通過東西向流量與其他所有GPU進行通訊,性能卓越。

現在,真正令人驚嘆的部分來了,它的性能究竟有多麼不可思議。這就是RTX Pro的性能表現。在GTC大會上,我曾向各位闡述過如何理解AI工廠環境下的性能。關鍵在於吞吐量,即Y軸所示的每秒Token輸出量。您的AI工廠產出越高,生成的Token就越多。因此,吞吐量是以每秒Token數來衡量的。然而,並非所有AI模型都一樣,有些AI模型需要更強的推理能力。對於這類AI模型,您需要極高的單使用者性能,也就是說,每個使用者每秒可獲得的Token數量必須非常高。這正是傳統工廠模式面臨的難題:工廠往往要麼追求高吞吐量,要麼追求低延遲,卻難以兩者兼得。因此,我們面臨的挑戰在於如何建構一個作業系統,既能實現Y軸代表的高吞吐量,又能保證同樣由Y軸體現的極低延遲,即互動性和每個使用者每秒Token數。這張圖表揭示了該電腦的整體性能,乃至整個AI工廠中電腦叢集的綜合性能。請看這些繽紛的色彩,它們代表了為達到理想性能,您需要對我們所有GPU進行的各種不同配置方式。有時需要流水線平行,有時則需要專家平行;有時需要批處理,有時需要進行推測解碼,有時則不需要。所有這些不同類型的演算法,都必鬚根據具體的工作負載進行獨立和差異化的應用。而這條曲線的帕累托前沿,即外包絡區域,代表了您AI工廠的綜合能力。

請注意,Hopper,我們目前全球最著名的電腦Hopper H100,其HGX系統售價為225,000美元,在圖表中的位置相對靠下。而我剛才介紹的Blackwell伺服器,這款企業級伺服器的性能是Hopper的1.7倍。但接下來這個更驚人:對於Llama 70B模型,以及DeepSeek R1模型,DeepSeek R1的性能提升達到了四倍。當然,其原因在於DeepSeek R1經過了專門最佳化。DeepSeek R1的出現,確實是贈予全球AI產業的一份厚禮。它在電腦科學領域取得的突破相當重大,極大地推動了美國乃至全世界研究人員的創新研究。無論我走到那裡,都能感受到DeepSeek R1對於人們如何思考AI、如何思考推理以及如何思考推理型AI都產生了深遠影響。他們為整個行業乃至全世界做出了卓越貢獻。因此,對於DeepSeek R1,其性能達到了目前頂尖H100的四倍。這樣對比,大家就能更清楚地認識到它的強大之處了。

所以,如果您正在建構企業級AI ,我們現在為您準備了絕佳的伺服器和系統。這是一台幾乎無所不能的電腦,性能極其強大。無論是x86應用還是AI應用,它都能流暢運行。好的。我們的RTX Pro伺服器,正由我們所有的行業合作夥伴進行大規模量產。這很可能是我們有史以來最大規模的一次產品上市行動。非常感謝各位。

計算平台已然不同,儲存平台亦是如此。其原因在於,人類通常查詢的是像SQL這樣的結構化資料庫,而AI則需要查詢非結構化資料,它們追求的是語義理解和深層含義。因此,我們必須打造一種新型的儲存平台,這便是NVIDIA AI資料平台。正如您所熟悉的,在傳統的SQL伺服器、SQL軟體以及您合作的儲存供應商提供的檔案儲存軟體之上,都有一層極其複雜的配套軟體。大多數儲存公司,實際上主要是軟體公司,其軟體層的複雜性非常之高。因此,在新型儲存系統之上,必然會有一個全新的查詢系統。我們稱之為IQ,即NVIDIA AI Q,簡稱IQ。這套系統絕對是業界頂尖水準,表現非常出色。我們正在與儲存行業幾乎所有的參與者展開合作。

未來的儲存架構將不再是CPU架設在儲存陣列之上,而是GPU置於儲存陣列的核心。這是因為系統需要對原始的非結構化資料進行嵌入處理以發掘其意義,還需要執行索引、搜尋和排序操作。整個過程是高度計算密集型的。因此,未來大多數儲存伺服器的前端都將配備一個計算單元,一個GPU計算節點。

這一切都基於我們建立的AI模型。我接下來要展示的幾乎所有內容,都源於卓越的AI模型。我們投入大量精力與技術來建立AI模型,並對開放AI模型進行後訓練。我們使用對您完全透明的資料來訓練和後訓練這些AI模型。這些資料安全可靠,完全合規,可放心用於訓練。我們會提供相關資料清單供您查閱,確保整個過程的透明性。我們向您提供資料,對模型進行後訓練,而經過我們後訓練的模型,其性能表現令人難以置信。目前,可供下載的開源推理模型——LlamaNeMoTron推理模型,堪稱全球最佳,下載量極為龐大。此外,我們還為其配備了一系列其他AI模型,使您能夠實現我們稱之為IQ的功能,特別是其中的檢索部分。其速度比現有方案快15倍,查詢結果的質量提升50%。

所有這些模型都已向您開放。IQ的藍圖是開放原始碼的。我們與儲存行業緊密合作,將這些模型整合到他們的儲存堆疊和AI平台之中。以VAST為例,這就是它的大致樣貌。我不會深入細節,只是想讓您對整合到他們平台中的AI模型有一個概念性的瞭解。接下來,讓我們看看VAST所做的工作。

Agentic AI正在改變企業利用資料進行決策的方式。僅在三天內,VAST公司便利用NVIDIA IQ藍圖及其加速型AI資料平台,成功建構了一個銷售研究AI Agent。該平台採用NeMo Retriever技術,能夠持續地提取、嵌入並索引資料,以實現快速的語義搜尋。其工作流程如下:首先,AI Agent會草擬一份概要。接著,它會接入客戶關係管理系統、多模態知識庫以及企業內部工具。最後,AI Agent利用LlamaNeMoTron模型將這份概要轉化為詳盡的、步驟化的銷售計畫。以往需要耗時數日的銷售規劃工作,如今僅需一個AI提示即可啟動,並在短短幾分鐘內生成最終方案。借助VAST的加速型AI資料平台,企業有能力為每一位員工打造專屬的專業化AI Agent。

好的,以上便是VAST的案例。Dell公司也擁有出色的AI平台,它是全球領先的儲存供應商之一。Hitachi公司同樣擁有強大的AI平台和AI資料平台。IBM正在與NVIDIA NeMo攜手建構AI資料平台。NetApp也在積極打造其AI平台。如各位所見,所有這些方案都向您開放。如果您計畫建構一個前端整合了語義查詢AI的AI平台,那麼NVIDIA NeMo無疑是全球最佳的選擇。好了,至此,我們已經為您呈現了企業級的計算解決方案和企業級的儲存解決方案。

接下來是一個全新的軟體層面,我們稱之為AI Ops。正如供應鏈有其營運管理,人力資源也有其營運管理一樣,未來,IT部門也將擁有專屬的AI Ops。AI Ops將負責管理資料、微調模型、評估模型、為模型設定護欄並確保其安全。我們擁有一整套必要的庫和模型,以便無縫整合到AI Ops的生態系統之中。

我們擁有眾多優秀的合作夥伴,他們協助我們將這些能力推向市場。CrowdStrike、DataIQ、DataRobot都與我們緊密合作。您可以看到,這些都是AI營運的核心環節,旨在為企業中的Agentic AI建立、微調並部署模型。NVIDIA的庫和模型已深度整合到這些環節中。例如DataRobot,還有DataStax,以及Elastic——我聽說Elastic的下載量達到了驚人的四千億次。此外還有Nutanix、Red Hat,以及在台灣的Trend Micro——我想我早些時候還見到了Eva,嗨Eva!還有Weights & Biases。好的。基本上就是這樣。這便是我們如何為全球的企業,為全球的企業IT賦予能力,讓他們能夠將AI融入到日常工作的方方面面。我們並非要取代企業IT組織中的一切,因為企業的正常營運必須得到保障。但我們完全可以將AI無縫地加入其中。現在,我們擁有了企業級的系統,以及由眾多卓越的生態系統合作夥伴構成的強大後盾。我記得早些時候好像看到了Jeff,是的,偉大的Jeff Clark,他來台灣的年頭和我差不多一樣久,並且長期以來都是我們重要的合作夥伴。所以,有Jeff Clark以及我們其他的生態系統夥伴,如Dell等,他們會將這個平台、這些平台推廣到全球的企業IT部門。

10. 機器人新時代:Newton物理引擎、Isaac Groot與Cosmos

黃仁勳: 好了,接下來讓我們談談機器人。

所以,無論是Agentic AI,還是AI Agent——這些有許多不同稱謂的“Agents”,其本質上都是數字機器人。原因在於,一個機器人具備感知、理解和規劃的能力,這與Agents的核心功能如出一轍。

但我們的目標不止於此,我們還希望建構實體物理機器人。要實現物理機器人,首先要解決機器人學習自身行為能力的問題。然而,在物理世界中進行這種學習的效率並不高。因此,我們必須建立一個虛擬世界,機器人可以在這個虛擬環境中學習如何成為一個“優秀”的機器人。這個虛擬世界必須嚴格遵守物理定律。目前,大多數物理引擎尚不能高保真地處理複雜的剛體和柔體模擬。

鑑於此,我們與Google DeepMind以及Disney Research展開合作,共同打造了Newton——當今世界最先進的物理引擎。Newton將於今年七月開源。它的功能強大到令人難以置信:它完全由GPU加速;它是可微分的,這意味著機器人可以從經驗中學習;它具備極高的高保真度;並且實現了超即時性能。

因此,我們可以利用Newton引擎,它已成功整合到MuJoCo以及NVIDIA自家的Isaac Sim平台中。這意味著,無論您採用何種模擬環境或框架,都能從中受益。借助於Newton,我們將能真正賦予這些機器人生命。

誰不渴望擁有這樣的機器人呢?我當然想。你能想像一個或幾個這樣的小傢伙在屋裡跑來跑去,追著你的狗,讓它們不得安寧嗎?那麼,你明白剛才演示的是什麼了嗎?那並非一段動畫,而是一個模擬演示。機器人的軟體是在模擬環境中運行的。所以,它不是預先製作的動畫,而是即時模擬的。未來,我們會將訓練好的人工智慧 (AI) 模型植入到模擬環境中的機器人體內,讓它自主學習如何成為一個出色的機器人。

我們正致力於多個項目以支援機器人產業的發展。如你所知,我們投身於自主系統領域已有相當長的時間。我們的自動駕駛汽車主要包含三個系統:首先是用於建立AI模型的系統,這正是GB200、GB300的用武之地,它們被用來訓練AI模型;其次是用於模擬AI模型的Omniverse平台;最後,當你完成了AI模型的訓練,便會將這個模型部署到自動駕駛汽車中。

今年,我們將與Mercedes合作,在全球範圍內部署我們端到端的自動駕駛汽車技術堆疊。我們建構了這整套體系,並且我們推向市場的方式與我們在其他領域拓展業務的模式完全一致。我們建立完整的技術堆疊,並將其完全開放。我們的合作夥伴可以根據自身需求,自由選擇使用其中的任何部分。他們可以選擇只使用我們的電腦,而不使用我們的庫;也可以選擇同時使用我們的電腦、庫以及我們的執行階段。具體採用何種程度的方案,完全取決於合作夥伴,因為業界存在著眾多擁有不同工程風格和技術能力的工程團隊。我們致力於以一種儘可能便捷的方式提供我們的技術,以便每個人都能輕鬆地將NVIDIA的技術整合到他們的系統中。你知道,正如我常說的,我當然樂於你購買我們所有的產品,但即便只購買一部分,我也非常歡迎。這是非常務實的做法。

因此,在機器人系統領域,我們採取了與汽車領域完全相同的策略。這便是我們的Isaac Groot平台。其模擬環境與之前提到的一致,都是Omniverse。計算資源和訓練系統也是相同的。當你完成了模型的訓練,便可以將其部署到Isaac Groot平台中。Isaac Groot平台的核心是一塊名為Jetson Thor的全新電腦,它最近剛投入生產。這是一款性能卓越的處理器,堪稱專為機器人設計的處理器,可用於自動駕駛汽車和人形機器人系統。在此之上,是我們稱之為NVIDIA Isaac的作業系統。NVIDIA Isaac作業系統扮演著執行階段的角色,負責處理所有的神經網路運算、感測器處理流水線等任務,並最終輸出執行器的控制結果。再往上,則是我們卓越的研究團隊和頂尖的機器人團隊預先訓練好的模型。我們為此提供了所有必需的工具,包括模型本身。

因此,今天我們宣佈Isaac Groot N-1.5正式開源,全世界的開發者都可以免費使用。該平台已被下載超過6000次,在社區中廣受歡迎,獲得了令人難以置信的積極反響和高度評價。這便是模型的建立過程。我們同時也公開了建立模型的方法。機器人領域面臨的最大挑戰,實際上也是AI整體面臨的最大挑戰,在於你的資料策略是什麼?資料策略至關重要,需要大量的研究和技術投入。就機器人技術而言,人類演示是關鍵環節,就像我們教導孩子或教練指導運動員一樣,你可以通過遠端操作向機器人演示如何執行任務。由於AI具備泛化能力,並且我們擁有相應的泛化技術,機器人便能從一次演示中學習並推廣到其他類似技術。那麼,如果你想讓機器人掌握大量技能,需要多少名不同的遠端操作員呢?答案是:非常多。因此,我們決定利用AI來增強人類演示系統的效果。這本質上是一個“真實到真實”的過程,即利用AI輔助我們擴展和增幅通過人類演示收集到的資料量,從而訓練出更強大的AI模型。接下來,讓我們看一段演示。

通用型機器人的時代已經到來,這得益於機電一體化、物理AI和嵌入式計算領域的突破。這恰逢其時,因為勞動力短缺正在制約全球工業的增長。機器人製造商面臨的一個主要挑戰是,缺乏大規模、真實的以及合成資料來訓練模型。人類演示的規模難以擴展,因為它受到每日工作時長的限制。

開發者可以利用NVIDIA Cosmos物理AI世界基礎模型來擴增資料。Groot Dreams是一個基於Cosmos建構的藍圖,用於大規模生成合成軌跡資料,這是一個“真實到真實”的資料工作流。首先,開發者通過在單一環境中對單一任務進行遠端操作所記錄的人類演示資料,來對Cosmos進行微調。然後,他們使用圖像和新的指令來提示模型,以生成所謂的“夢想”——即預測的未來世界狀態。Cosmos是一個生成模型,因此開發者可以使用新的動作詞彙進行提示,而無需捕獲新的人類遠端運算元據。一旦生成了大量的“夢想”,Cosmos會對每一個“夢想”的質量進行推理和評估,並挑選出最優的用於訓練。但這些“夢想”最初仍僅僅是像素資訊。機器人需要從行動中學習。Groot Dreams藍圖能夠從二維的“夢想”視訊中生成三維的動作軌跡。這些軌跡隨後被用來訓練機器人模型。Groot Dreams使得機器人能夠通過最少的手動資料捕獲來學習大量多樣化的新動作。因此,一小隊人類演示員現在可以完成以往需要數千人才能完成的工作量。Groot Dreams幫助開發者在解決機器人資料挑戰的道路上又邁進了一大步。

這難道不令人振奮嗎?所以,要推動機器人技術的發展,你離不開AI;而要訓練AI,你同樣需要AI。這正是AI Agent時代的奇妙之處:我們需要海量的合成資料生成,機器人技術本身也需要海量的合成資料生成,還需要通過被稱為微調的技能學習過程——這涉及到大量的強化學習——以及與之匹配的龐大算力。因此,我們正處在一個這樣的時代:無論是這些AI的訓練、開發,還是其最終的運行,都對算力有著巨大的需求。

正如我之前提到的,全球正面臨嚴重的勞動力短缺。而人形機器人之所以如此重要,在於它是唯一一種幾乎可以部署在任何現有環境——即所謂的“棕地”環境——中的機器人形態,而無需像“綠地”項目那樣從零開始建設。它可以無縫融入我們為自己建構的世界,執行那些我們為自己設計的任務。我們為自身的需求改造了世界,現在我們可以創造出適應這個世界並為我們提供助力的機器人。

人形機器的魅力不僅在於其實用化後所展現出的高度通用性,更關鍵的是,它極有可能是唯一能夠真正成功的機器人類型。這背後的原因是技術發展需要規模效應。迄今為止,我們所擁有的大多數機器人系統,其產量和市場規模都太小。這些小批次的系統永遠無法形成足夠的技術規模,難以啟動並加速“飛輪”效應,從而也無法吸引我們投入足夠的技術去持續改進它們。但人形機器人不同,它極有可能成為下一個兆美元等級的龐大產業。其技術創新速度驚人,對計算資源和資料中心的消耗也將是巨大的。

這恰恰是那種需要三種核心計算能力支援的應用:一是用於學習的AI計算能力;二是作為模擬引擎的計算能力,AI可以在虛擬環境中學習如何成為一個機器人;最後是機器人實際部署和運行所需的計算能力。展望未來,所有動態的物體都將具備機器人化的特徵。

11. 數字孿生驅動製造業升級:Omniverse與台灣的實踐

黃仁勳: 當我們將這些機器人引入工廠時,需要認識到,工廠本身也正在經歷機器人化的變革。當今的工廠已經極其複雜。例如Delta公司的這條生產線,他們正積極為其機器人化的未來做準備。這條產線已實現了機器人化和軟體定義。未來,將會有機器人在其中工作。為了能夠創造和設計出在機器人化工廠中協同工作的機器人團隊,我們必須借助Omniverse平台,讓它們學習如何協作。談到數字孿生,你現在不僅擁有機器人的數字孿生,還擁有所有裝置的數字孿生,未來更將擁有整個工廠的數字孿生。這些層層巢狀的數字孿生正是Omniverse強大能力的一部分。

螢幕上展示的是Delta公司的數字孿生,這是Wiwynn公司的數字孿生。此刻,當你們觀看這些畫面時,如果不仔細分辨,甚至會以為它們是真實的照片。但這些全都是數字孿生,是模擬出來的場景。它們僅僅是視覺效果極其逼真,圖像非常精美,但其本質仍是數字孿生。接下來是Pegatron公司的數字孿生,這是富士康公司的數字孿生,這是GIGABYTE公司的數字孿生,這是Quanta公司的,以及Wistron公司的。

台灣的TSMC也正在為其下一代晶圓廠建構數字孿生。就在我們交流的此刻,全球範圍內有價值高達5兆美元的工廠正在規劃建設中。未來三年內,隨著世界格局的重塑和全球再工業化浪潮的推進,各地將湧現出總值5兆美元的新建工廠。這為我們提供了一個巨大的機遇,去確保這些工廠能夠高品質、高性價比且按時建成。因此,將一切納入數字孿生進行管理,無疑是邁向成功的第一步,也是為迎接機器人化未來所做的必要準備。

實際上,這5兆美元的投資還不包括我們正在建設的一種全新類型的工廠。甚至我們自己的工廠,也已經建立了數字孿生。這就是NVIDIA AI工廠的數字孿生模型。台灣的高雄市也建構了自身的數字孿生。他們成功地將高雄市進行了數字孿生化處理,其中已包含了數十萬座建築物和數百萬英里道路的資料。所以,是的,高雄市也擁有了數字孿生。接下來,讓我們一同詳細瞭解這些案例。

台灣正在開創軟體定義製造。TSMC、富士康、緯創、和碩、台達電子、廣達、緯穎和技嘉正在NVIDIA Omniverse平台上為製造過程的每一步開發數字孿生。TSMC與MedAI合作,從2D CAD生成整個晶圓廠的3D佈局,並在cuOpt上開發AI工具,能夠模擬和最佳化跨越多個樓層的複雜管道系統,從而節省數月的時間。廣達、緯創和和碩在實體建設之前,以虛擬方式規劃新的設施和生產線,通過減少停機時間節省了數百萬美元的成本。和碩模擬焊膏分配過程,以減少生產缺陷。廣達使用Siemens Teamcenter X結合Omniverse來分析和規劃多步驟流程。富士康、緯創和廣達則利用Cadence Reality Digital Twin模擬測試資料中心的功耗和散熱效率。並且,為了開發實體AI賦能的機器人,每家公司都將其數字孿生用作一個機器人訓練場,用以開發、訓練、測試和模擬各類機器人——無論是機械臂、自主移動機器人 (AMR)、人形機器人還是視覺AI Agent——看它們如何執行任務或作為一個多樣化的機器人團隊協同工作。而且,當通過物聯網連接到物理孿生體時,每一個數字孿生都會變成一個即時互動的儀表盤。工業AI的時代已經到來,它由台灣的技術領導者們引領,並由Omniverse平台提供強大支援。

我整個主題演講的內容都源於你們的傑出工作。這實在是太出色了。這合乎邏輯,台灣,作為最先進產業的中心,作為AI和機器人技術即將誕生的震中,這理應是一個非凡的機遇。這裡也是世界上最大的電子製造業聚集地。因此,AI和機器人技術必將改變我們所做的一切。所以,這確實非同凡響,在歷史上這堪稱首次,你們的工作革新了每一個行業,而現在,它又將回來革新你們自己的行業。在演講開始時,我說過GeForce將AI帶給了全世界。隨後AI又反過來改變了GeForce。是你們將AI帶給了全世界。現在,AI也將回來改變你們所做的一切。與各位的合作非常愉快。謝謝大家。

12. NVIDIA Constellation:全新辦公室落戶台北

黃仁勳: 我有一款新產品。今天我已經宣佈了幾款產品了,但我還有一款新產品要宣佈。我有一款新產品要宣佈。我們已經在SpaceDock中研發了一段時間。而且,我想現在是時候揭曉我們有史以來打造的最大的產品之一了。而且,它就停在外面,在等著我們。讓我們拭目以待。

NVIDIA Constellation。如各位所知,我們一直在發展壯大。我們與各位的所有合作關係也都在不斷深化。我們在台灣的工程師數量也在持續增長。因此,我們現有的辦公空間已經快要無法滿足我們的發展需求了。所以,我準備為他們建造一個全新的NVIDIA台灣辦公室,它的名字就叫NVIDIA Constellation。我們也一直在進行選址工作。我們一直在選址,各個城市的市長們都對我們非常友好,我想我們拿到了一些不錯的條件。我也不太確定。看起來好像相當昂貴。但黃金地段畢竟是黃金地段。所以,今天,我非常高興地宣佈,NVIDIA Constellation將落戶北投士林。我們已經,我們已經就,從目前該租約的持有者手中轉讓租約事宜進行了談判。不過,我瞭解到,市長在批准這項租約之前,想知道台北的市民們是否贊同我們在這裡建造一個宏偉、美觀的NVIDIA Constellation。你們贊同嗎?他還請大家給他打個電話。所以,我相信你們都知道他的電話號碼。請大家立刻給他打電話,告訴他你們覺得這是個非常棒的主意。所以,這將是NVIDIA Constellation。我們會建造它。我們會盡快開始動工。我們需要這個辦公空間。NVIDIA Constellation,落戶北投士林。非常令人期待。

黃仁勳: 我要感謝所有的各位。我要感謝各位多年來的鼎力合作。我們正面臨一個千載難逢的機遇。毫不誇張地說,我們眼前的機遇是空前巨大的。在我們共事的這些年裡,這是第一次,我們不僅僅是在打造下一代資訊技術——這件事我們已經做過好幾次了,從個人電腦 (PC) 到網際網路,到雲端運算,再到移動雲時代,我們已經經歷了好幾輪。但這一次,我們不僅在打造下一代IT,我們實際上是在開創一個全新的行業。這個全新的行業將為我們展現前方巨大的機遇。我期待與各位攜手,共同打造AI工廠,為企業開發AI Agent,製造機器人,也期待所有這些卓越的合作夥伴們與我們一道,圍繞著同一個架構來建構整個生態系統。因此,我要感謝大家今天的到來。祝各位在Computex一切順利。謝謝大家。感謝各位的光臨。 (數字開物)


詳盡