【GTC 2026】黃仁勳105分鐘對話實錄:兆美元這麼賺!談中國、H200、養蝦、Groq,炮轟DLSS 5批評者

到2027年,輝達有望收穫1.25兆美元訂單。

智東西3月17日聖何塞現場報導,在昨日發表GTC主題演講後,今天,輝達創始人兼CEO黃仁勳與智東西等全球媒體進行了長達近2小時的深度交流,連續回答32問,並透露面向中國市場的H200 GPU重啟生產,已收到許多訂單

黃仁勳對昨日輝達GTC演講中的重磅發佈做了許多補充解讀,包括解釋說昨天撂出的重磅預言“到2027年收穫1兆美元訂單”,僅僅包含Blackwell和Vera Rubin兩條產品線,還沒算上獨立CPU、Groq、儲存及網路裝置。

和全球媒體溝通過程中,黃仁勳也展示了自己頗有“活人感”的幾個側面。當知名汽車媒體Motor Trend在現場宣佈黃仁勳為年度人物時,他顯得十分開心,不僅揚言要“站在這裡直到再多拿幾個獎”,還幽默地向全場“懺悔”,笑稱自己其實已經兩年沒摸過方向盤,全靠自動駕駛代步,言語間難掩驕傲與笑意。

而當採訪突然被一陣突兀的手機鈴聲打斷時,他毫不客氣地中斷了回答,當場“抓包”並拋出自己的鐵律:“開會時所有手機必須靜音,不振動、不響鈴,徹底靜音,這點輝達人人都知道。”他甚至在台上靜靜等候對方處理完畢,半開玩笑半認真地說到:“我在等你呢。”將他對身邊一切的絕對掌控感與不加掩飾的真性情,展露得淋漓盡致。

以下是黃仁勳GTC採訪的核心內容:

1、200億美元收購Groq:Groq之於輝達,就如同Mellanox之於輝達。Groq的LPU並非為了替代現有產品,與Vera Rubin結合後才能應對新興的推理細分市場。

2、Vera CPU:這些CPU與傳統x86 CPU截然不同,未必適用於所有場景,其核心價值在於用10億美元的CPU,支撐500億美元的GPU跑滿性能。

3、儲存晶片:輝達目前擁有資料中心中唯一一個同時針對HBM、LPDDR、SRAM三種儲存技術進行最佳化的架構,他們還在與每一家記憶體廠商合作。

4、AI不會殺死SaaS:以EDA軟體為例,AI並非從零開始憑空生成電晶體,輝達工程師也不是像在用Nano Banana生圖一樣設計晶片,而是一層一層地精確建構。

5、AI安全:用科幻小說式的AI敘事去恐嚇所有人是一種傲慢和自大。AI智能體系統像“白細胞”一樣參與網路安全,當入侵者來襲時可以立即響應並蜂擁而至,展開反擊。

6、OpenClaw爆火:OpenClaw是後推理時代AI的轉折點,“市場對一個精心設計的開源智能體系統,存在著真正且長期被壓抑的迫切需求”。

7、H200進入中國:“輝達已獲得向中國眾多客戶銷售H200的許可證,也已經收到了來自眾多客戶的採購訂單,正處於恢復生產的過程之中。”

8、1兆美元營收:此前預測的至2027年1兆美元營收,僅僅包含了Blackwell和Vera Rubin兩條產品線。如果加上獨立CPU、Groq、儲存以及網路裝置,規模可能會達到1.25兆美元。

9、投資背後邏輯:輝達只向那些他們相信會成功的公司提供融資,瞄準的是“下一個Google”、“下一個Meta”、“下一個亞馬遜”。其本質是在投資生態,這是極佳的投資標的。

10、如何理解輝達:輝達40%的業務任何雲服務商都無法獨立覆蓋,剩下60%是雲業務,其中40%~50%的需求由輝達創造,比如沒有輝達甲骨文就沒法服務OpenAI,最後才是雲服務商自身的需求。

11、DLSS 5爭議:對DLSS 5的批評完全錯誤,開發者依然可以對生成效果進行微調。一切主動權都在開發者手中。輝達在創造的是技術,而非藝術。

12、機器人:推理能力的突破和VLA(視覺-語言-動作)模型的應用,已經給機器人的認知問題提供解決方案。剩下的主要是工程最佳化,未來三年內機器人技術將迎來重大突破。

13、自動駕駛:輝達自動駕駛業務目前約佔總營收的1%,但輝達最初做的幾乎每一件事,比如CUDA、可程式設計著色器、光追都耗費了大量資金,卻毫無回報,甚至引來不少質疑。必須堅信自己所相信的,然後決定是否值得繼續追求。

14、AI時代的職場與人類未來:AI不會導致大規模失業,人類反而會更忙。關於人類,唯一可以確定的是:我們如今允許自己打開想像力去解決的問題,比四年前多出了百萬倍。

15、黃仁勳分享“人生三訣”:別被開除,別無聊,別死。對人如此,對公司也一樣。

以下是採訪的完整實錄:

Q1:輝達花了創紀錄的200億美元收購了Groq,這是你們歷史上最大的一筆交易。因為Groq的LPU解決了你們GPU在規模化即時推理上的問題。這是否意味著業內已經認識到AI的重心已經從訓練轉向推理了?

黃仁勳:首先,你面前站著的是“推理之王”。我可以這麼說,(因為)有人曾封我為“推理之王”。2025年,我們決定將巨額資源投入到推理領域。在2024年底2025年初,我們推出了NVLink 72系統,推出了NVFP4(輝達Blackwell GPU架構引入的4位浮點格式),在此之前還推出了Dynamo(輝達的開源、低延遲、模組化推理框架)。

Dynamo幾乎提前兩年詮釋了我昨天才公佈的完整戰略。在那之前,我們就已經知道推理在NVLink 72上表現完美,這就是NVLink 72如此重要的原因。35倍的性能提升,成本只有原來的1/50。或者說每瓦性能提升了50倍,成本只有原來的1/35。

因此,我們目前是成本最低的token生產商,也是AI工廠中吞吐量最高的token生產商。這一切,都歸功於NVFP4、NVLink 72與Dynamo的協同作用。

隨著市場持續演進,我昨天提出的核心概念之一就是:並非每個token都是等價的——每個token可能由小型模型、較大模型或超大型模型生成,對應的輸入上下文長度也從極短到極長不等。

在每個細分領域,AI都在變得越來越智能。

AI發展初期,ChatGPT只有一個服務層級——免費檔,隨後推出了每月20美元的付費檔,o1和o3問世後,又新增了更高的服務層級。這些層級本質上就是產品的細分市場在不斷擴大,催生了差異化需求。現在有開發者在使用AI智能體,比如Claude Code和Codex,它們極具實用價值,由此形成了又一個新的服務層級。

這和輝達當年只有RIVA 128一款產品的起步階段並無二致。如今我們擁有RTX 5090、5080、5070、5060……各類產品一應俱全。就如同iPhone現在擁有眾多不同版本,覆蓋不同層級——因為客戶群體各異,需求不同,價格定位也不同。我們一直在沿著這一產品譜系全面拓展佈局。

就目前token的主流消耗場景而言,現有的Grace Blackwell以及即將到來的Vera Rubin,其性能都無可匹敵,Groq的加入不會改變這一格局。

然而,我們判斷一個新興細分市場正在形成——該市場要求模型同時滿足三個條件:模型體量大、上下文長度長,以及推理延遲極低,也就是響應速度極快。

Groq可以兌現上述三項承諾中的一項,但無法同時滿足全部三項。將Vera Rubin與Groq結合,我們便能同時實現這三項承諾,由此開闢出一個新的細分市場:大模型+長上下文+超快token生成速率。這正是我們所設想的市場細分方向,也是引入Groq的戰略意圖。

我依然認為,在一座算力工廠的配置中,75%仍將是純Vera Rubin部署;另有25%將是Vera Rubin與Groq的組合部署。Vera Rubin仍將是核心。它實在太強了——我們自己都不知道如何超越Vera Rubin,否則我們早就造出能勝過它的產品了。

Grace Blackwell是當下的推理之王;明日,Vera Rubin將接過這一王冠。不久的將來,Grace Blackwell終將成為歷史,而Vera Rubin,乃至未來更新的版本,將登頂推理算力之巔。

我希望Groq之於輝達,就如同Mellanox之於輝達一樣,是一次架構層面的重要補充。我們建構的不是一塊GPU,而是一座AI工廠。

Q2:輝達越來越多地被要求為客戶的資料中心建設提供融資支援。請問這類融資安排的具體形式是怎樣的?輝達又將如何管理其中的風險?

黃仁勳:我們只向那些我們相信會成功的公司提供融資。

我們投資了CoreWeave、Nscale和Nebius,我認為我們完全可以承認,這些都是全壘打等級的投資。我們之所以有把握認定這些是必勝之局,是因為我們已經看到了流向它們的業務。從很多層面來說,我們掌握著先手資訊。

我們通過幫助它們更快、更大規模地擴張來投資整個生態系統。由於我們清晰地看到了它們面前的業務與機遇,風險實際上極低。這對於流向它們的算力需求來說,也是一種極大的服務價值。如大家所知,其中一些客戶就是Meta、Azure、Anthropic等巨頭。

我們並非在為所有龐大的市場需求尋找產能,而是通過相關投資切實幫助到每一方。因此,我們以“超級助推器”的角色參與其中。

即便沒有我們,他們也能完成融資,但這對我們而言是融入整個生態系統的絕佳方式,坦率地說,迄今為止也是一項非常出色的投資。

Q3:隨著OpenClaw和NemoClaw的推出,那類問題是您個人最期待這些工具幫助大家解決的,或者是以前難以實現的任務?

黃仁勳:我最期待的是,自動駕駛汽車無需積累數十億英里的訓練里程就能實現安全行駛。如今,我們擁有具備推理能力的AI,使汽車能夠對某一特定場景進行真正意義上的推理,並將其分解為一系列相對平常的子場景。

一個複雜的駕駛場景,其實往往是你曾經經歷過的情況的變體,只是把某個球換成了別的物體,把一隻貓換成了一條狗,把一個行人換成了一位騎行者。本質上都是同類場景的分解重組。

採用同一推理技術的智能汽車,將帶動機器人技術在未來幾年內實現超高速演進。由於推理系統的突破,物理AI將迎來令人驚嘆的加速發展。

具備推理能力的蛋白質生成技術將能夠生成更多基於物理結構的蛋白質,這些蛋白質更具現實可行性、更易於合成,毒性也更低。因為AI能夠對所有這些特性進行推理。這在短短幾年前還是完全不可能實現的。

我認為,o1,即OpenAI o1,是推理系統發展史上真正的重要拐點,OpenAI在這一領域的工作理應獲得高度的認可。

OpenClaw是後推理時代AI的轉折點。如果說ChatGPT將生成式AI帶給了世界,那o1則將推理系統帶給了世界。

Claude Code長期以來主要面向企業級應用,因此大多數人尚未真正體驗過智能體系統——除了我們這些身處軟體開發行業的人。我們正在盡情享受這項技術帶來的紅利,公司所有的軟體工程師如今都有智能體協同工作。但這種體驗僅限於企業內部,侷限於科技行業,尚未向大眾開放。

突然之間,OpenClaw橫空出世。我們終於擁有了一個真正架構精良的開源智能體系統。它面臨的唯一挑戰是安全性——安全並非唯一的難題,但確實是一個極其嚴峻的問題。安全、治理、隱私,以及所有與規範化智能體系統相關的特性,都是亟待解決的關鍵議題。

我們可以與Peter(OpenClaw創始人)合作,將這些功能整合進OpenClaw。同時,我們還通過一系列執行階段和參考設計來完善OpenClaw,使其即使採用開放模型,也能幫助企業實現極致性能。我們稱之為NemoClaw。

NemoClaw本質上就是OpenClaw,外加大量深度整合的輝達技術——基本上是一份經過輝達最佳化、專為企業級場景打磨的OpenClaw藍圖。如今只需一行程式碼、一鍵安裝,每個人都能獲得一個強大的智能引擎。我認為這完全是革命性的突破。

回過頭來看,OpenClaw在短短幾周內就成為史上最受歡迎的開放原始碼專案之一,而Linux可是花了30年才達到今天的地位——這是一項非常非凡的成就。

它表明全球對此抱有極大的興趣,也揭示了對一個精心設計的開源智能體系統存在著真正潛在且長期被壓抑的迫切需求。現在,每個人都可以制定自己的智能體戰略了。這意義重大,我感到非常興奮。

Q4:昨天DLSS 5發佈了,遊戲社區中有些相當強烈的反對聲音,認為這項技術讓許多遊戲看起來更糟糕、千篇一律,或者只能在視訊中觀看。你對這種批評怎麼看?

黃仁勳:首先,他們完全錯了。原因在於,我已經詳細解釋過了,DLSS 5將幾何形狀、紋理等遊戲元素的可控性與生成式AI相結合。開發者依然可以對生成式AI進行微調,使其符合自身的藝術風格。

一切主動權都在開發者手中。我們創造的是技術,而非藝術。

DLSS 5以幾何體資訊為控制基礎,以遊戲的真實渲染結果(Ground Truth)為條件約束,在其上疊加並增強了生成式能力,但並不影響藝術家的控制權。它不是幀等級的後處理,而是幾何等級的生成控制。

生成的所有內容遊戲開發者都可以微調。我們展示這項技術,是為了讓開發者看看它能做什麼。如果開發者想讓它變成卡通風格、色調分離,或者玻璃質感,或者任何風格,都能做出來。這些都直接由遊戲開發者控制。

這與純粹的生成式AI截然不同。這是內容受控的生成式AI。這正是我們將其命名為神經渲染的原因。

Q5:您談到了Groq,並表示不會出現市場蠶食效應。但既然我們擁有了這些新產品,是否會形成不同的收入流,讓我們對那個“1兆美元+”的數字有更清晰的瞭解?第二個問題是關於股票回購的。

黃仁勳:這1兆美元,是我們目前基於2027年前的採購訂單所能看見,並對之充滿信心的數字,且僅涵蓋Blackwell和Vera Rubin兩條產品線。問題在於,為何我只納入這兩項。

儘管輝達現在還銷售獨立CPU,那將是一項數十億美元規模的業務。Groq自身業務可能翻倍,因此,對於一個1GW的資料中心,Groq可將輝達的整體收益提升約25%

因此,從理論上說,非實際數字,僅為理論推演,這1兆美元有望達到1.25兆美元

我同樣未將儲存系統納入計算。如大家所知,KV Cache的規模已極為龐大,AI使用儲存系統的速度遠超人類,因此儲存系統的性能必須大幅提升。

這正是我們推進STX儲存機架等項目的原因所在,一切都是為了徹底重構面向AI的儲存系統。戴爾展示了整合輝達全套技術的AI資料平台,整個儲存行業都將跟隨我們的方向演進。

為什麼我只使用Blackwell和Vera Rubin的營收資料?原因非常簡單:去年在GTC上,我曾預測Blackwell加Vera Rubin到2026年的規模為5000億美元。若將1兆的口徑調整為包含CPU、Groq和儲存,則無法與此前的5000億美元作橫向對比。

然而,這對外界理解這1兆美元製造了混亂——因為輝達今天已提供遠比以前更多的產品,大家不禁會問:這是否意味著Blackwell加Vera Rubin不到1兆?恰恰相反,實際數字只會更高。

1兆美元,僅僅代表Blackwell加Vera Rubin,僅統計至2027年。不含獨立CPU,不含Groq,不含儲存,不含BlueField DPU,不含Vera Rubin Ultra,不含Feynman,不含Feynman Next,一律不包含,僅限Blackwell加Vera Rubin。

而距離2027年底還有21個月,這意味著最終數字大機率將超過1兆美元

好的,第二個問題,我們顯然正在產生規模極為龐大的自由現金流。與此同時,輝達的增長也非常之快,增速本身在加快,而不僅僅是絕對數字在增長。上個季度是我們有史以來營收規模最大的季度,同時我要強調,增速也仍在加快。

因為我前面所闡述的一切業務,這種雙重增長得以實現,我們將產生大量現金流。

這些現金首先是支撐業務增長的必要資本。我們有大量供應商和合作夥伴,採購、產能保障、庫存鎖定,這一切都需要資金,這是第一優先順序的資本用途。

第二,我們投資生態系統。生態系統是極佳的投資標的,坦率說,我認為這就是計算產業的未來。我們正在投資“下一個Google”、“下一個Meta”、“下一個亞馬遜”

圍繞CUDA建構的生態系統是我們的第二項核心工作,即便如此仍能保留充裕的自由現金流。我們在上次會議中表示,計畫在本財年通過回購和分紅的方式向股東返還50%的自由現金流。也就是說,2026財年的股東回報將達到自由現金流的50%。

去年的自由現金流規模不及今年,分配比例大約是40%左右。今年,在更大的基數之上,我們將進一步提高分配比例。因此,答案是——這將會是一個非常可觀的數字。

關於具體的收入流,我認為這並不是我們的運作方式。原因在於:NVLink交換機只搭配輝達的計算產品使用,Spectrum-X也是專門針對特定場景設計的,總體而言有其內在邏輯,但我可以換一個維度來拆解。

我在主題演講中已經談到這一點。大多數人忘記了,輝達的業務遠比一家晶片公司多元化得多。原因在於我們是全端公司,能夠幫助各方在任何地點建構AI工廠。戴爾之所以表現得如此出色,是因為他們對此立場清晰、態度坦誠,輝達AI工廠正在全球各地加速落地建設,增速持續加快。

我們也在不同國家的園區建設AI工廠。除非你能交付完整的AI工廠,否則這些客戶不會購買晶片,他們沒有軟體能力,你必須是一家全端公司才能服務他們。

▲輝達在採訪現場展示全系列產品

因此,我們約40%的業務,無論是企業、工業、物理AI、自動駕駛、機器人,還是各地區的NCP部署,或者主權AI,這些場景,任何雲服務商都無法獨立覆蓋。這些客戶購買的不是晶片,而是平台。

我們40%的業務規模相當可觀,且完全不屬於雲業務。

第二部分是雲業務。其中一部分是我們直接銷售給雲服務商的,但另一部分,他們對我們來說本質上相當於戴爾的角色,也就是說,終端客戶是通過雲平台使用我們的產品。我們為他們帶來了客戶,因為這些客戶是CUDA開發者。

舉個例子,如果沒有輝達,OCI(Oracle雲基礎設施)如何能服務OpenAI?OpenAI的整個技術堆疊都建構於此。正是我們將OpenAI引入了OCI。

類似的例子還有很多,如果不是因為Anthropic今年將全面建構於輝達之上,我們又怎能將Anthropic引入Azure?這將形成一個極其龐大的生態基礎。能理解嗎?因此,我們在CSP(雲服務提供商)中的很大一部分業務,實際上是由輝達主動創造的。

所有CSP對此心知肚明。我們與他們建立了深度的行銷合作關係和業務合作關係,由輝達為他們引流客戶。我昨天展示了大量案例。

我們40%的業務,純晶片公司無法服務,雲服務商也無法獨立服務。剩餘60%的業務中,大約40%~50%實際上是輝達主動創造的業務,其餘才是雲服務商自身的內部消耗需求。

Q6:我們是不是已經迎來拐點,到達了機器人領域的ChatGPT時刻?請問在您看來,人類與能力出眾的機器人之間,最難攻克的未解難題是什麼?

黃仁勳:如果你只是列出當今機器人存在的問題,那清單會相當長,但它們都只是工程問題。事實上,你能看到它們四處走動。

(突然有手機鈴聲響起,黃仁勳回答被打斷)

黃仁勳:是誰的手機?我沒有太多忌諱,但有一條——開會時所有手機必須靜音。每一位輝達員工都清楚這一點:不振動、不響鈴,徹底靜音。我在等你呢。

(等了一會兒後繼續)

這些機器人已經開始能夠完成一些任務。一旦一項技術的可行性得到驗證,最佳化往往不超過五年。因此我非常確信,三年之內,你將看到能力極為出色的機器人。

由於我們已同步攻克了認知AI,也就是AI認知領域的OpenClaw。OpenClaw在機器人內部運行,這一設想已經相當顯而易見。

此外還有VLA(視覺-語言-動作)模型,負責控制機器人的運動與關節協調。儘管仍有諸多挑戰,但系統一與系統二的AI問題,正在被即時解決。

因此,我認為三年內,你將見證真正意義上的重大突破。

Q7:正如您所說,1兆美元是完全可能實現的,同時也對製造產能提出了巨大需求。結合台積電、三星等廠商的現狀,您如何看待未來五年全球半導體製造產能的前景?

黃仁勳:我們將需要大量的製造產能,且不會大量使用ASIC專用晶片。我們是目前資料中心中唯一一個同時針對三種儲存技術進行最佳化的架構:HBM、LPDDR、SRAM。

目前,其他資料中心CPU均採用DDR記憶體,但其頻寬能效相當低下。輝達率先在Grace CPU中引入了LPDDR4,這是一次革命性的突破。

我認為再過幾年,業界都將跟進。大家現在都意識到這是一個多麼正確的決策。Vera CPU採用LPDDR5,Rosa CPU採用LPDDR6。

我們現在擁有完善的LPDDR技術路線圖。AI運行需要大量記憶體,它必須依靠短期記憶、工作記憶和長期記憶來思考。因此,記憶體是AI體系中極其重要的組成部分。

當然,互連同樣關鍵。我們在縱向擴展(Scale-up)和橫向擴展(Scale-out)兩個維度同步推進,系統規模持續擴大,需要大量產能支撐。

世界仍在學習這樣一個概念:傳統意義上,電腦主要用於資料錄入和資料檢索。大家注意,人類通過鍵盤輸入。這是使用電腦的舊方式。

未來,電腦實際上是一台“製造機”:一個token生產系統,而當前全球專用於token生產的電腦規模極為有限。之所以如此有限,是因為迄今為止我們出貨的大多數系統仍被用於訓練。

如今,推理的拐點已經到來,OpenClaw橫空出世,智能體系統正在各處廣泛應用。用於推理的token生產規模才剛剛起步。我們究竟需要多少算力投資?我認為需要數兆美元量級的產能。

因此,我認為晶圓代工廠將會極度繁忙。我們很榮幸與台積電合作,毫無疑問,這是世界上最頂尖的代工廠。我們還與三星合作。由於我們對記憶體的消耗量極大,我們與每一家記憶體廠商合作,並將與每一家連接器廠商、每一家矽光子公司攜手共進。

Q8:AI的應用場景可以說不計其數,我們甚至還未能全部預見。但有一個話題直到最近才真正引發深入討論:我們不希望AI做什麼?我很好奇——在您看來,有那些領域是AI不應進入的,甚至是永遠不應涉足的?

黃仁勳:自主能力總會有一個範圍。我的電飯煲在某種程度上是自主的,今天的無人機在某種程度上也是自主的。面對這些事物的範圍,我們需對所追求的功能本身保持更多審慎與反思。

AI不應該違法。AI不應該承諾提供它沒有的功能。例如,如果一輛車說它能以65英里每小時的速度安全駕駛,我們希望它不會在50英里時就爆炸。這些都是人類在長期實踐中總結出的極具常識性的準則。

至於其他方面,我認為我們應當持續學習,對自己的認知邊界保持更多謙遜。

用科幻小說式的AI敘事去恐嚇所有人,在我看來是一種傲慢,過於自大了。我更傾向於在探索中前行,而非以恐懼驅動他人。

提醒人們是一回事。嚇唬人們是完全不同的事。在劇院裡有些話不能說,在飛機上也有些話不能說。人類的判斷力會告訴我們,"提醒"與"恐嚇"之間存在本質區別。

我有我自己的觀點,但最終分析下來,我們需要AI為我們做很多偉大的事情。

例如,我們需要AI智能體系統參與網路安全。我們希望企業被“白細胞”所守護,以防有入侵者。網路安全智能體可以立即響應並蜂擁而至,攻擊入侵者,就像白細胞一樣。

任何其他分析AI和網路安全的方式對我來說都不合邏輯,因為未來,網路安全威脅的演變越來越快,我需要超高速的AI智能體來保護我。

我認為這是一個完美的例子,沒有人不想要白細胞。白細胞本質上是攻擊性細胞,它們主動出擊,那是好事。讓我們保持安全。

Q9:我們正在進入一個3D模擬世界。我剛剛體驗了輝達的模擬器演示,你認為這個3D模擬世界未來幾年會如何發展?

黃仁勳:剛才那位朋友問了我一個相反的問題:DLSS 5是用生成式AI來增強3D圖形的,而你看到的另一個例子——Cosmos——則是用電腦圖形去控制生成式AI。歸根結底,一切都在於“控制”。

我們希望AI是“有根基”的。我們提出“檢索增強生成”(RAG,Retrieval Augmented Generation)的一個重要原因,就是要讓生成建立在真實基礎之上:你提供一些文字或資料,AI再基於這些真實資訊去生成內容。

昨天我也提到,在AI的世界裡,我們是否需要記錄系統?是否需要SQL?答案是:絕對需要。因為SQL所代表的,是記錄系統,是我們業務中最真實、最可靠的資料基礎。

而這些真實基礎,正是用來“約束”和“支撐”生成的。否則,生成出來的就只是幻覺。

你剛才看到的那個虛擬駕駛體驗之所以真實,是因為我們用3D條件對它進行了約束——用各種必要的條件去“錨定”它,從而實現高保真的體驗。在這種框架下,你可以生成任何內容,而且可以用文字、圖像、3D等多種方式去控制它,其餘的部分則由AI生成。

所以未來的發展方向,要麼是完全結構化的生成,要麼是由真實世界資料來控制的生成。這就是未來。

你會不會在你的眼鏡裡體驗到這樣的東西?答案當然是會的。在眼鏡已經能看到真實世界的存在。如果我再用生成式AI去增強這個基礎,就可以創造出更豐富的體驗。

Q10:您展示了Vera獨立機架的部署形態。隨著AI需求的持續增長,這些CPU的適用場景越來越清晰。您是否認為它們最終將承擔x86架構在資料中心中傳統承擔的角色?這是否是一個數十億美元等級的市場機會?

黃仁勳:這些CPU是為資料密集型工作負載而設計的。它們針對的是高單線程性能需求,同時也面向電力受限的資料中心環境。在這種場景下,它們的每瓦性能可以實現2倍提升。

目前市場上沒有其他CPU能做到這一點——除了Vera和Grace。在電力受限的資料中心中,實際上,所有採用輝達產品的資料中心基本都是電力受限的,因為一旦你擁有兆瓦級的電力,你會希望儘可能把電力用在GPU上,而不是浪費在CPU上。

原因很簡單:GPU在生成token、創造價值,而CPU並不是主要的價值生產者。因此,如果可以,你會希望把絕大部分電力預算分配給GPU。

當然,我們仍然需要CPU,但我們要讓它們極其節能。這也是為什麼我們使用LPDDR記憶體。同時,我們的CPU在單線程性能、頻寬效率方面都處於全球領先水平,頻寬甚至達其他方案的三倍。

之所以把頻寬做得這麼高,是因為我們需要處理海量資料的移動。因此,我們設計了Vera、Grace等CPU,它們是專門為AI時代打造的。

它們適用於所有場景嗎?未必。比如“每美元性能”可能不是最優,但那並不是我們要解決的問題。

舉個例子,在過去十年的超大規模資料中心中,CPU設計的核心目標是最大化每顆晶片的核心數量。因為在雲端運算模式下,使用者是按“核心數”租用資源的。所以,對於雲廠商來說,“每美元核心數最多”的CPU就是贏家。

但AI不一樣。AI關注的是“完成多少工作”,而不是“有多少核心”。

如果你有價值500億美元的GPU在那裡運行,你絕不會讓它們因為CPU處理不過來而閒置,這些CPU可能就價值10億美元。你需要的是讓CPU盡快完成任務,讓500億美元GPU持續高效運轉。

所以,我們的最佳化方向完全不同。我們打造出了一種截然不同的CPU架構。我們始終從“要完成什麼工作”出發來設計系統。一旦這一判斷最終變成顯示,我們就建構出最合適的整體系統。

無論是Vera、Rubin,還是儲存、CPU、網路、甚至整個機架,都是圍繞我昨天提到的那類工作負載來設計的,也就是智能體。

事實上,OpenClaw就是一個很好的例子。在資料中心中運行OpenClaw,配合Vera Rubin整套系統,是非常理想的組合。

所以,我想這應該回答了你的問題。

Q11:看起來Feynman將採用某種3D堆疊工藝。請問您能否介紹一下主Die、IO Die)以及先進封裝技術的規劃方向?供應鏈穩健性是否也在你們的考量之內?

黃仁勳:供應鏈的彈性、多樣性總是影響我們的業務,因為我們規模很大。然而,如果我告訴你,那明年參加GTC還有什麼意義?到時候就只剩你和我,兩個人。

Q12:你昨天介紹了LPU的整合,OpenClaw的出現似乎真的讓您眼前一亮。OpenClaw如何改變了你的日常生活?如何改變了輝達的戰略?

黃仁勳:當OpenClaw出現,我們意識到世界終於擁有了一個開源智能體——我們現在幾乎可以將其當作一個行業標準。我們希望儘可能多地向這個開放原始碼專案貢獻能力,避免世界因此分裂成太多互不相容的分支項目。


如果我們能將這個主項目打磨得足夠優秀,全球每家公司都能以此為起點,建構自己的智能體戰略。

OpenClaw之所以意義重大,關鍵就在於它是開放原始碼的。它已經非常強大,工程質量相當成熟。我們將在未來30年間持續為其注入能力,就像我們持續向Linux和Kubernetes貢獻程式碼一樣。

試想一下,全世界都有了一個可以共同貢獻的平台。想像OpenClaw未來將變得多麼強大。OpenClaw只需一行命令就能安裝。安裝完成後,你告訴它你想讓它成為什麼。

比如你說:我希望你學習這個新工具。它便去閱讀使用手冊,可能是Skill文件,然後上網搜尋它需要學習的內容,自行摸索如何使用。

你給它一個最終目標:我想設計一個廚房,我的廚房現在是這個樣子,這是我希望它未來呈現的效果。去下載相關軟體,去學習這些應用,找到使用它們的方式。

如果需要訂閱某個服務,只要不超過這個金額,你有我的授權去訂閱。然後幫我設計廚房,找到合適的家具,給我幾個家具示例和報價,幫我做平面佈局,渲染給我看。

我剛剛這通指令,就是給了它一個它能夠完成的項目,然後它便獨立出發,學習、呼叫工具,反覆嘗試。

它生成第一版廚房設計,與你給它的參考圖片進行比對,然後判斷:“差得有點遠,繼續改。”於是一遍又一遍,直到完成後返回給你。

第一次完成後,你給它一些額外指導,它再次回來。完成後,它便學會了這項技能——它學會了如何做室內設計。於是,它將自己的學習成果總結成一份技能文件,存入記憶。

下次你說“幫我設計客廳”,它便回想起:“原來設計房間是這麼回事。”它會表現得更好。你再次給它指導,它再次更新自己的技能文件。

下一次你說我要設計臥室“,你能看到,它完全是在執行同樣的過程:拆解任務,呼叫工具,運用記憶。這真的相當了不起。

輝達如今的運轉速度比以往任何時候都快,但這是因為我們越來越多地使用AI,工作完成得更快了。所有項目的推進速度都在提升,這都是好事。

說實話,我感覺自己越來越忙了。我今天與輝達的工作體驗是:它讓我比以往任何時候都更忙——比六個月前更忙。原因就在於工作成果反饋得更快了,項目數量也增長得更快了。

我認為這是所有人共同的體驗。很多人說AI來了,我們會失去工作。恰恰相反。事實是:PC讓我們更忙了,網際網路讓我們更忙了,移動裝置讓我們更忙了。

AI將以超快的速度完成任務。你寫一份規格說明、一份架構文件、一份產品定義,交給智能體,30分鐘後,它又回到你的案頭了。

過去,你寫完產品規格說明,團隊拿去工作一個月。那個月裡,你在做別的事情,生活節奏相當從容。如今,那一個月已經壓縮成了30分鐘,你隨時都在關鍵路徑上。

這位朋友的工作並沒有消失,只是感覺更忙了。我的判斷是:AI將使我們以如此之快的速度推進工作,以至於我們最終會承擔更多的工作量。

Q13:在AI算力市場中,Vera Rubin帶來的需求有多少是新增量,又有多少是超大規模雲服務商對Blackwell的升級替換?

黃仁勳:這個問題的答案,最終取決於我們所處的產品設計周期與建設周期的那個階段。

這就好比iPhone 3發佈時,iPhone 3的銷量中有多少蠶食了iPhone 1的市場,又有多少是新增銷售?

事實上,iPhone 3銷量的99.9%都是新增銷售。iPhone 4發佈時同樣如此,99.9%是新增,而非替換。直到大約十年之後,這種格局才開始發生變化。

一項技術擴散到全世界,大約需要十年左右。如今大約每四年就會迎來一輪新的資本支出周期。

我的判斷是:我們目前處於輝達推理拐點的第一年,這是十年來推理領域真正意義上的第一個拐點年。十年之後,市場可能趨於飽和。而Vera Rubin是拐點的第二年,新增需求的比例同樣會達到99%。

Q14:請問您能否更新一下輝達在中國資料中心業務的信心水平,以及這些出色的產品未來能否在中國市場重新建立有實質意義的存在?

黃仁勳:我能夠回答的是:我們已經獲得了向中國眾多客戶銷售H200的許可證,也已經收到了來自眾多客戶的採購訂單,目前正處於恢復生產的過程之中。

這對大家來說是新消息,與兩周前的情況已有所不同,這是我們當前的實際狀態,供應鏈也正在重新啟動。大家很快就會開始聽到相關消息。

其次,我認為川普總統的意圖是:美國應當在獲取輝達最先進技術方面保持領導地位,但他同時也希望我們能夠在全球範圍內參與競爭,而不是不必要地拱手相讓那些市場。

綜合我剛才說的三點——H200許可證、客戶採購訂單,以及他所表明的相當直接的意圖,我有充分理由相信他的立場始終如一。

Q15:我很想進一步瞭解您在開源模型方面的願景。我個人認為開源AI是現有體系的重要補充。請問輝達推進開放原始碼的驅動力,究竟更多來自生態系統擴張、客戶基礎延伸,還是戰略層面的考量?Nemotron的路線圖是否會長期堅持下去?

黃仁勳:我們已經發佈了GR00T 1、GR00T 2,Cosmos 1和2也已發佈,Nemotron 1、2、3均已推出,Nemotron 4我們已啟動聯合開發。之所以要對模型進行編號,是因為你有持續推進的意圖。

就像CUDA,我們現在已經到了CUDA 13。這本身就回答了這個問題——我們絕對有意願持續推進前沿附近的基礎模型研發。

我們未必要做到絕對前沿。那並非我們的使命。我們的使命有幾個層面:我們希望為世界打造可信賴的開源模型,以輝達的體量和能力,確保每年穩定迭代,讓所有人都知道,你們可以信賴我們。說到做到。

另一個原因是:我們自己在開發模型的過程中,可以針對新一代晶片和系統架構對模型架構進行深度最佳化。這是其他團隊未必能做到的。

舉個例子,如果沒有TensorRT-LLM,我們就無法探索NVLink 72的性能極限;如果沒有Dynamo,我們就無法探索解耦推理的邊界,也就不會有後來收購Groq團隊的決策。擁有自己的軟體團隊,保持工業級、前沿水準的軟體能力,使我們能夠在整個系統層面持續創新,軟體與硬體相互成就,形成正循環。

我們對開源模型生態系統的投入是堅定的。

Q16:輝達自動駕駛業務目前約佔公司總營收的1%。您認為,決定自動駕駛業務能否對輝達財務業績產生實質性影響,最關鍵的挑戰是什麼?

黃仁勳:這個問題對我來說意義特別深刻。輝達的CUDA業務曾經佔總營收的0%,卻佔據了我們90%的成本。任何理性的人都會放棄,但如果我們真的放棄了,在座各位今天就不會出現在這個房間裡。

25年前,我們首次推出可程式設計著色器時,沒有人知道如何使用,沒有人願意為此付費,沒有任何評測機構認為這是個好主意。如果我們當時放棄了,可程式設計著色就不會有今天。

8年前,我宣佈推出RTX光線追蹤時,所有人都認為這是個笑話,說光線追蹤一塌糊塗。如果我們沒有RTX,今天的全場景路徑追蹤電腦圖形學也不會有今天。

事實證明,我們最初做的幾乎每一件事,都耗費了大量資金,卻毫無回報,甚至引來不少質疑。因此,你必須堅信自己所相信的,然後決定是否值得繼續追求。

10年前,我開始投入自動駕駛。最初的團隊只有我和另外一個人。我們踏上了這段探索之旅,試圖弄清楚自動駕駛的技術難題究竟是什麼。如今,我們有數千人在從事自動駕駛相關工作。

你說它只佔1%,但請記住,輝達的自動駕駛業務實際上涵蓋三台電腦:訓練系統、合成資料生成與模擬系統,以及自動駕駛車載系統本身。只有最後一部分被我們歸類為自動駕駛業務,但因為我們深耕這個領域,整體業務規模遠比大家認為的要大。

特斯拉購買輝達系統用於訓練,Wayve以及全球每一家正在研發自動駕駛的公司,無論是卡車、面包車、乘用車還是無人計程車,都在向我們採購這三台電腦中的一台或全部。這個規模相當可觀。

但即便業務規模為零,我也會繼續推進。為什麼我如此確信自動駕駛一定會實現?因為我完全相信,自動駕駛在技術層面已經是一個被解決的問題。我們花了10年才走到這一步,但它確實已經被解決了,剩下的只是工程層面的持續打磨。

10年之後的某一天,全球每天1兆英里的行駛里程將實現100%或接近100%的自動駕駛。今天,這一數字之所以有限,唯一的約束就是司機座位上的人,也就是駕駛仍需要人的參與。

如果沒有這個約束,全球每天的行駛里程一定會大幅增長。假設每天有2兆英里,再乘以每英里若干美元,這將是一個數兆美元量級的市場。

大多數數兆美元量級的市場,在某個時間點都是從零開始的。所以我完全接受它現在還在零附近,我的信念不會改變。

Q17:在您看來,歐洲成為優質AI合作夥伴最有力的訊號是什麼?

黃仁勳:歐洲許多國家,德國、瑞典以及英國的部分地區,曾是上一次工業革命的發源地。事實上,有三個國家引領了全球機電一體化的發展,這是技術與機械工藝、工業化的深度融合。機電一體化在德國、瑞典、日本都非常強大;美國曾經也很強,但我們將製造業外包得太多了。

然後,下一場工業革命來了——IT和軟體革命,這對製造業來說非常陌生。製造業的文化是嚴格的、一步一步的,每一件產品在發貨之前必須完美,因為它可能傷害到人。而軟體的運作方式是叢集式的,你必須在它還沒有完善之前就發佈,因為如果你不發佈,它永遠不會被修復。

這不只是技術上的差異,而是深層的文化差異。正是這種文化差異,導致美國在IT革命中全面主導,而德國卻被落在了後面。

但希望來了。OpenClaw不需要你去程式設計,它只需要你告訴它該做什麼。

你可以跨越IT革命,直接跳躍到AI革命。這正是我每天對德國、日本、韓國、瑞典所說的話:這是你們的機會,讓過去成為過去。這已經不再重要了——因為正如大家所知,軟體工程師已經不需要再寫程式碼了。對德國來說,這應該是最令人振奮的消息;對日本來說,同樣如此。

直接擁抱AI,然後將AI技術與你們世界級的機電一體化工業能力深度融合。你們將一躍成為全球機器人產業的領導者。我是你們最堅定的擁躉。

Q18:隨著推理需求的興起,大量初創公司和成熟企業湧現,試圖解決速度、記憶體、功耗等各種瓶頸。其中有些公司公佈的token效率資料,與輝達產品的表現形成了直接競爭。這與GPU早期時代的競爭格局似乎大不相同,被認真對待的競爭者明顯更多。我們如何確信輝達的推理方案是最快、最優的?如果Groq加Vera Rubin成為主流推理解決方案,輝達又將如何維持這種領先優勢?

黃仁勳:我建議大家參考兩到三個基準測試,直接看客觀事實。

第一是MLPerf,這是行業內最嚴格的基準測試。大家去看看輝達在其中的位置,我們在MLPerf推理和MLPerf訓練兩個榜單上全線第一,而且大多數參與者根本無法完成全部測試項目。

第二是SemiAnalysis,這可能是目前覆蓋最全面的推理分析,涵蓋你能想到的每一個維度,結果同樣是輝達。如果允許我引用別人的話,“推理之王”,我就是喜歡這個稱號的感覺。那條冠軍腰帶也很漂亮,通常你得到的是玻璃獎盃,不知道放那裡好,但一條冠軍腰帶,這種感覺蠻好的。這就能清楚地告訴你我們在推理領域的位置。

第三是Artificial Analysis,涵蓋了所有API推理服務公司,對每一家推理服務商進行全面評測。你會發現輝達在整個榜單頂端,而且輝達是該榜單覆蓋的約20項服務中唯一一個全系列上榜的解決方案。

事實已經說明,我們在推理領域非常、非常強。我們理應獲得這份認可。我們的推理之所以如此出色,不只是因為我們的浮點運算能力強,而是因為我們進行了極致的協同設計。

推理是一個巨大的電腦科學問題,是一個巨大的電腦系統工程問題,涵蓋CPU、GPU、縱向擴展交換機、橫向擴展網路技術、記憶體技術、儲存技術——所有這一切必須協同運作才能做好推理,而我們比任何人都做得更好。

Q19:請問輝達與台積電在共封裝光學(CPO)方面的合作進展如何?另外,美國商務部長曾希望將台灣40%的晶片產能遷移至美國,這在現實中是否可行?

黃仁勳:首先,我們與台積電共同發明了CoUP,這是一種將電子器件與矽光子引擎直接整合在同一塊晶片上的技術。我們為整條供應鏈申請了約100項專利,並將我們的全部技術開放授權給整個供應鏈,以便各方能夠協同打造矽光子CPO(共封裝光學)技術——讓電子與光子在同一個封裝中融合。

目前,我們佔據了台積電COUP工藝產能的絕大多數。Spectrum-X的量產爬坡已經啟動,未來還將持續擴大規模。

關於40%這個目標——在當前及近期來看非常難以實現,因為需求仍在持續高速增長。台積電正在盡全力在美國亞利桑那州及周邊建立新產能,整條供應鏈也在美國本土佈局。然而,新晶圓廠和新工廠還在建設的同時,全球整體需求的增速之快,使得在近期內實現40%這一目標將極具挑戰。

Q20:您向Nebius投資了20億美元,同時也投資了Lumentum和Coherent。請問您在做這些投資時的思路是什麼?

黃仁勳:我們始終在思考兩個方向:上游供應鏈和下游合作夥伴。

你必須想像輝達的技術與全球解決方案的完整整合路徑,一直延伸到終端使用者側——有人在消耗token,有人在使用OpenClaw,有人在使用ChatGPT、Anthropic,有人在使用Runway、Black Forest Labs……你必須把這條鏈路想通到底。

向上看,未來2~5年,我的上游供應鏈需求是什麼,我現在應該為此做那些準備?向下看,我需要怎樣的下游產能——土地、電力、廠房,或者開發者生態——未來1~5年我需要什麼?

當你向上看,你會發現我們正在隨Spectrum-6大規模引入矽光子技術,並將在未來幾年把矽光子加入到NVLink的縱向擴展技術中。

這意味著我們所需的矽光子產能,將遠超今天全球現有水平。因此我們與供應鏈合作,提前幫助他們建立產能。有時我們提前付款,有時只是給出預測,有時如果某項技術產能極度緊缺但需求巨大,我們可能會選擇直接投資該公司,同時提供預付款、預測以及其他支援。

Coherent和Lumentum就是這樣的思路,這屬於我們上游供應鏈的戰略佈局。

而Nebius則是下游合作夥伴的投資。上游一個方向,下游另一個方向。我始終沿著整個技術與製造的生命周期進行全域掃描,持續為公司的增長做好準備。

Q21:資料對於世界模型極為重要,遊戲能產生大量資料。請問遊戲玩家資料和雲遊戲資料,對於世界模型訓練是否真正有價值,甚至能夠超越遊戲本身的應用範疇?

黃仁勳:在一定程度上是的。但需要注意,大多數遊戲並不嚴格遵守物理法則。比如在《堡壘之夜》中,角色的奔跑動作與其體型所能支撐的速度並不匹配,是一種半跑半飛的狀態。因此,在訓練希望基於物理規律的基礎模型時,必須小心過濾掉這類不符合物理規律的觀測資料。

遊戲中的角色可以從山頂跳下,遊戲與現實中樹木搖曳、海浪起伏的方式完全不同。如果條件允許,你應當回歸真實基準資料。當然,你也可以使用遙運算元據,或者使用模擬資料——這正是Newton的用武之地。

Newton和Isaac Lab運行在3D圖形環境中,但其動畫是完全基於物理模擬的,碰撞遵循物理原理,關節運動遵循逆運動學。因此,Newton和Isaac Lab中的所有屬性都嚴格遵守物理規律,可以將其與真實世界的可觀測資料結合起來,共同訓練世界模型。

一旦世界模型達到足夠的能力水平,你甚至可以反過來。用3D圖形控制世界模型來生成新的合成資料。這就形成了一個飛輪:最初我們使用真實視訊資料,然後用3D模擬資料加以增強,幫助我們建構出世界基礎模型,再用遙操作或3D模擬來控制它,進一步放大合成資料的生成規模。這個飛輪正在啟動。

這有點像:你必須先積累足夠的知識,理解事物的運作規律,然後才能想像未來的各種可能場景。我們訓練了自己的世界基礎模型,現在能夠生成各種未來的可能性。而這些對未來的合理推演,本身就成為了我們的學習素材——我們將它們轉化為訓練資料的真實基準。

就我個人而言,在思考輝達的戰略和行業走勢時,我其實生活在一個完全由腦中模擬建構的未來裡。我會定期校驗這個模擬是否與現實保持一致,持續重新評估。如果我的假設、我的模擬與現實始終保持連貫,說明我對未來的判斷正在成真,我便堅守這個願景,始終如一。

Q22:輝達在Spectrum X上採用了CPO。這項技術會擴展到整個網路產品組合中嗎?大規模生產的關鍵挑戰是什麼?另外,這會加深與台灣CPO供應鏈的合作嗎?

黃仁勳:我從後往前回答。我們與台灣CPO供應鏈合作非常緊密。當然,這個供應鏈始於台積電的晶片製程工藝,每一個環節,包括組裝和封裝,都極其複雜。

Spectrum 6取得了巨大成功。事實上,Spectrum 3也是巨大成功。Spectrum 4是我們的第一款乙太網路交換機。當時所有人都認為我們很難打入乙太網路領域,但我們完全專注於AI乙太網路,徹底重構了乙太網路技術,以支援AI特有的流量類型和計算模式。

Spectrum 4、5、6都是巨大的成功。我們現在已經是全球最大的網路公司了。這實際上是NVLink和Spectrum的完美結合,都是本壘打等級的成功。

Q23:去年底,Allen Institute的一位知名研究員曾警告,AI算力擴展的可用槓桿——包括資料、精度等——大約還有兩年就會耗盡。您之前提到Blackwell引入了MX資料格式,Vera Rubin又有所推進,請問輝達手中還有那些擴展維度尚未動用?

黃仁勳:NVFP4不只是改變了浮點數的精度,而是徹底重構了整個張量核心引擎(Tensor Core Engine)的結構。NVFP4本身就是一套張量核心引擎,而不僅僅是一個數值格式。

它的處理結構是動態的——動態上採樣、動態下採樣,從而在儘可能節省能耗、提升計算量的同時,保留最終計算結果的精度。這套動態調整機制,正是張量核心引擎之美所在。

整個行業在FP8上的普及才剛剛穩固,我們已經在推動向NVFP4的遷移了。再往後,FP1這類格式確實有些奇特,精度擴展的空間大概也快到頭了。所以你最初的判斷並非沒有道理。

但輝達有一個重要優勢:極致的協同設計。過去十年,我們的計算效率提升了約100萬倍,而摩爾定律在同期只貢獻了約100倍。摩爾定律鼎盛時期的預測是十年100倍,而我們做到了100萬倍。我們不只是靠精度的提升。

單靠精度,每年大約只有2倍的提升空間。我們的速度遠超精度擴展所能解釋的範圍,未來也將如此。我們還有很多旋鈕可以撥動。

每一年,我都會向大家展示新的旋鈕。去年,我們展示了NVLink 72,在功耗大致相當的前提下,性能提升了35倍。這就是架構的力量,這正是極致協同設計如此重要的原因。

也許可以給大家一個小提示:未來不只是關於大模型層面的最佳化,未來是關於智能體系統。智能體系統使整個問題空間再次大幅擴展。而當問題空間擴展,你就有更大的機會去尋找那個質的飛躍。

Q24:隨著智能體工作流的興起,許多人認為新思科技、Cadence這類傳統軟體平台將被取代。請問您如何看待AI與這些軟體公司之間的關係?

黃仁勳:請轉告散戶投資者,他們的判斷完全錯了。這甚至不是我需要保護的業務,但是非對錯還是要講清楚。

舉個例子,新思科技、Cadence,以及所有設計工具,它們業務規模的上限,取決於有多少工程師坐在那裡使用。工程師數量有多少,工具就能賣出多少許可證。就像管道工多了,管道工具就賣得多;木匠多了,木工工具就賣得多。

但未來,我們將擁有大量AI智能體工程師。這些智能體工程師會做什麼?憑空生成電晶體嗎?不,它們會使用和人類工程師一樣的工具,因為工作完成後,必須把結果放回人類可以理解的結構化資料中。

如果我無法理解、無法控制輸出結果,這就回到了我們反覆提到的可控性問題。SQL會因為智能體的出現而消亡嗎?不會,SQL恰恰是我們業務真實基準的存放地。當智能體完成工作,請把結果放回SQL,這樣我隨時都可以去查詢。

同理,當智能體完成晶片設計,它會使用新思科技和Cadence的工具,設計結果最終也會回歸到這些工具的檔案系統和資料結構中,這才是設計的真實基準。

如果我需要精確復現設計,不是“大概能用”,而是“必須精確可用”,AI深度學習可以生成大致可行的設計,但我不能接受“大致可行”,我需要“完全精確”,而這正需要新思科技的工具來保證一致性。正因為有了智能體,我們需要授權的新思科技工具數量很可能會爆炸式增長,而不是減少。

有些人有個奇怪的想法,認為AI可以從零開始憑空生成電晶體,他們以為輝達工程師每天就像在用Nano Banana生圖一樣設計晶片。這裡沒有貶低Nano Banana的意思,但晶片設計必須一層一層地精確建構,因為它必須是可驗證的、可理解的、可重複的、可控的——不能依賴機率。

Q25:請問你去年最大的挑戰是什麼,今年最大的風險又是什麼?

黃仁勳:我的工作可太難了。就一條嗎?我的人生哲學非常簡單:別被開除,別無聊,別死。在這三者之間,儘量保持平衡。

這對輝達同樣適用:不要被客戶開除,不要無聊到公司停止創造價值,不要倒閉,然後待在這三者的中間地帶。

這就是人生秘訣,去年如此,今年亦然——你可以說是黃仁勳的“人生三訣”。這三條聽起來簡單,但每一條都是極高風險的。

Q26:在中東戰爭和全球地緣政治動盪的背景下,輝達如何看待在台灣方面的風險?

黃仁勳:首先,我們在以色列有6000個家庭,我非常擔心他們。我知道他們自己也很擔憂,但我們公司仍在非常努力地營運,員工們依然在非常努力地工作。儘管如此,這絲毫不減輕我們對他們的牽掛。我對以色列的承諾是百分之百的——我們會長期在那裡,員工得到我們百分之百的支援。

對台灣同樣如此。我們在那裡有數千名員工,他們深耕於此已經很長時間。我們整條供應鏈都在那裡,與我們合作的數百家公司中,不乏全球最重要的企業。

我唯一的希望,是大家都能攜手合作,保持和平,著眼大局,保持冷靜,不斷提升自身韌性。我百分之百相信,我們將繼續依靠和倚重以色列的出色產業;我同樣百分之百確信,整個世界將在很長很長一段時間內繼續依賴台灣。

Q27:如果您的願景得以實現,十年後輝達會是什麼面貌?

黃仁勳:我們會非常忙碌。希望屆時輝達擁有約75000名員工,規模儘可能精簡,同時足以支撐使命。

這75000名員工將與750萬個AI智能體協同工作,智能體全天候不間斷運轉。希望我們的員工不需要跟上智能體的節奏,我很確定他們也跟不上。

這就是未來。我們將解決一些真正了不起的問題。

我們今天正在努力解決的那些事情,十年前沒有人會想像這是可解的。機器人基本上已經是一個被解決的問題;自動駕駛汽車基本上也是一個被解決的問題;藥物研發,我們正在像對待工程問題一樣對待它。延長人類壽命——這一切現在都完全處於可能性的範圍之內。

十年前,沒有人會想像這些是可實現的。而十年後,最好的思維工具之一,就是認識到不可能其實相當實際可行——任何看似需要數百萬倍能量、成本或時間的事,都可以被壓縮數十億倍。距離會縮短,一切將因機器人變得更輕盈,事情會完成得更快,能源消耗也將大幅降低。

在我剛畢業的那個年代,我們今天談論的一切,連科幻小說裡都沒有出現過。我們現在談論的這些事情,本身就已是非凡壯舉。

關於人類,我唯一可以確定的是:我們如今允許自己打開想像力去解決的問題,比四年前多出了百萬倍。那麼再過十年,當我們意識到還能解決那些問題時,會是什麼景象?

那些問題我們甚至還沒開始想像。因此,我非常確信,未來還有無數等待我們去解決的偉大問題。我甚至嫉妒那些四十年後還在世的人。

Q28:Vera Rubin整體系統,主要是為瞭解決當前的技術瓶頸,還是在重塑AI的商業模式?

黃仁勳:我們建構的每一套系統,都能讓當前的問題和工作負載得到數倍的提升,同時也總會開闢出一片新的問題空間——那些我們今天還無法解決的問題的新視野。

昨天我展示圖表時,有一個規律我每次都會呈現:我們既向上推——對於任何給定的工作負載,我們持續提升吞吐量和性能;也向右推,AI變得更聰明,能力邊界不斷擴展,出現新的可能性。

舉個例子:今天使用ChatGPT或任何AI,你大約能獲得每秒20個token的生成速度。而我展示的圖表是每秒1000個、乃至2000個token。想像一下——你按下回車,答案以快100倍的速度返回。

未來,當你還在輸入的時候,AI已經在思考了;等你按下回車,它已經完成了。不論是幫我寫一個網站程序,還是幫我設計一個廚房——按下回車,完成。

這就是未來。每一年,我們提升吞吐量,我們擴展可能性的邊界。

Q29:您說AI讓我們所有人都更忙了,但同時您又預測物理AI和機器人將承擔今天工人從事的體力勞動。這兩件事如何能同時成立?未來會不會出現大規模失業?

黃仁勳:首先,全球目前有數千萬製造業崗位的缺口。大家知道嗎?我們的卡車司機短缺數百萬。製造業工人短缺數千萬。就業率很高,但很多公司仍然招不到足夠的勞動力,大多數公司都面臨勞動力短缺的問題。機器人將填補這個缺口。這是第一層。

填補缺口的結果,是所有國家的經濟都將增長。而經濟增長時,大多數公司往往會僱用更多人,用來管理更多機器人,管理更多智能體,推動業務增長,發現新問題、解決新問題,嵌入新技術,發明新產品、新服務。這很可能就是未來的軌跡。

我之所以這樣判斷,是因為:如果我取今天這個點,再取100年前那個點,連成一條直線——就業崗位數量一直在增長,各國經濟一直在增長,我們所有人都比以往任何時候都更忙。

你上一次坐在門廊的搖椅上,喝著一杯檸檬水,看夕陽西下,是什麼時候?那個畫面是100年前的事了,不是嗎?我們比以往任何時候都更忙。這條趨勢線大機率還會延續。

我們都將有穩定的工作。當然,每一種職業都會發生變化,有些工作會消失,有些工作是全新的。就像過去人們用馬來耕地、代步,而現在一匹良馬價值500萬美元。世界在變,AI會改變這一切,但我相當確信,這將是一個更美好的世界。

Q30:昨天的公告中提到了現代、日產、比亞迪、吉利與輝達的合作。對於比亞迪和吉利而言,L4等級的自動駕駛功能落地,在中國的監管環境下究竟如何運作?

黃仁勳:這是這樣運作的:在中國,比亞迪、吉利、小鵬、理想都是我們的合作夥伴和客戶,它們發展得很好,也將繼續發展得很好。我們與它們共同基於DRIVE Hyperion實現了感測器和計算架構的標準化。

當它們的汽車進入歐洲市場,某些國家可能無法接受它們的軟體棧。這時,輝達的軟體棧就可以直接啟用。而在中國,它們使用自己的軟體棧完全沒有問題。在歐洲或亞洲的某些地區,如果當地軟體棧不適用或不被接受,我們的軟體棧就可以替代上去。

中國政府的規定適用於中國,但並不適用於德國。比如,如果比亞迪想在德國以自動駕駛模式營運、接入Uber,它完全可以使用DRIVE OS來實現。

這就是雙贏的方案。我們只是想讓所有人都滿意。

(現場,全球規模最大的汽車媒體Motor Trend宣佈授予黃仁勳“年度人物”)

黃仁勳:真的嗎?太棒了,謝謝。我要站在這裡,直到再多拿幾個獎。不過我需要懺悔一下,我已經兩年沒有自己開車了,我現在是被自動駕駛接送的。我得了“推理之王金腰帶”、“Motor Trend年度人物獎”,太棒了。

Q31:CUDA在2006年發佈,市場過了很多年才真正理解它的價值;NVLink 2014年推出,NVLink 72 去年才被廣泛認可。請問您認為輝達現有產品中,那一個是市場目前尚未充分理解、但五到十年後將被證明極為重要的?

黃仁勳:我會說Alpamayo是其中之一,Cosmos是其中之一,Omniverse絕對是其中之一,Dynamo已經被人們理解但尚未被充分重視,它對AI工廠整個生態的深遠影響,毋庸置疑。

還有一個概念:如何在AI工廠的語境下思考性能這個問題?這是一個非常新的概念,我還需要多次反覆講解。

但終有一天,全球每一位CEO都會懂它,每一個董事會都會理解它,每一家公司都會用它來估算自己未來的營收,它將成為工廠營運流程和企業戰略規劃的核心組成部分。

這個概念對未來的產業極為關鍵,但目前理解還不夠深,我需要再講上17遍,沒關係,已經有足夠多的人理解了,但還有很多工作要做。

Q32:你曾說過,希望大家經歷大量的痛苦和磨難。請問在一個相對完美的世界裡,您會推薦人們去經歷什麼樣的苦難,才能走到您今天的位置?

黃仁勳:首先,那番話是對一群大學生說的。在座各位已經是研究生以上了,應該好好享受生活了。

苦難嘛……你看,每當你學習一件新事物,都伴隨著相當程度的痛苦;每當你做超出舒適區的事情,都會如此;每當你站在台上做主題演講,知道所有人都在評判你,而你也知道自己可能不會像自己期望的那樣完美——這其中始終有一份焦慮與痛苦。

備戰任何事情都需要大量的投入,苦難無處不在,這毋庸置疑。這正是追求卓越不可或缺的一部分,是追求成為最好的自己不可或缺的一部分。只要你感到自己在全力追求成為最好的自己,竭盡所能,把一切都留在場上,那麼苦難一定已經發生了。 (智東西)