【GTC 2026】GTC後黃仁勳萬字採訪:輝達的真正底牌,從來不是晶片

剛剛完成GTC大會演講的黃仁勳,接受了《STRATECHERY》的創始人Ben Thompson(下文簡稱為Ben)的專訪,下面是本次專訪的摘要和全文實錄:

【摘要】

黃仁勳圍繞輝達 GTC 演講 “回歸本源” 的核心邏輯,闡釋了公司戰略、技術佈局、行業競爭與地緣政策等關鍵主張,明確輝達並非單純晶片廠商,而是以 CUDA 為根基的全端加速計算企業。

黃仁勳指出,此次重述 CUDA 與發展歷史,是因 AI 正進入全新行業,需加速全球各類軟體以適配 AI 工具使用需求,輝達正將軟體加速拓展至資料處理等新領域。其核心戰略是打造吉瓦級人工智慧工廠,提供從晶片到系統再到基礎設施的全端服務,通過統一協同設計突破性能瓶頸、降低成本,而非單純提供晶片。

模型技術層面,認為 Transformer 並非萬能架構,需結合狀態空間模型、幾何感知等新技術,應對超長記憶、連續資訊生成等問題;AI 已跨越實用臨界點,推理能力與事實關聯的提升推動工具使用落地,程式碼生成是標誌性突破,智能體的反思能力可覆蓋從標準化程式碼到美學設計的多元場景。

關於 CPU,黃仁勳澄清輝達從未排斥 CPU,而是遵循阿姆達爾定律,採用頂級 CPU 保障 GPU 資源不被浪費;自研 Grace、Vera 處理器聚焦極致單線程與 IO 性能,以適配 AI 智能體場景,同時通過與英特爾合作維持 x86 生態相容性。收購 Groq 則是分離式推理架構的戰略延伸,結合其低延遲優勢滿足高價值程式碼智能體需求,延續了輝達 “軟硬體深度耦合、最優位置部署計算” 的核心優勢。

資源與市場方面,當前 AI 核心瓶頸為能源、晶片等全鏈條稀缺,輝達憑藉供應鏈佈局佔據優勢;他擔憂美國相關政策損害五層 AI 架構的領導地位,且 AI 末日論正誤導政策制定者、降低民眾支援度,需警惕重蹈歐洲工業革命覆轍。

企業定位上,輝達堅持垂直整合技術、水平開放生態,不做解決方案與服務提供商,而是為全行業提供技術堆疊;開源模型研發旨在深化計算理解,而非爭奪市場。公司依託統一的 CUDA-X 平台理念與組織協同,實現多元業務的核心邏輯統一,持續堅守加速計算的核心使命。

【全文實錄】

Ben:

黃仁勳,歡迎再次做客《STRATECHERY》。

黃仁勳:

很高興能和你對話。

Ben:

你剛走下演講台,我覺得演講時長還超出了預期,而你在這次我非常欣賞的主題演講中,花了大量篇幅闡釋輝達的發展脈絡,從可程式設計著色器的歷史講起,一直說到20 年前 CUDA 的推出。我們不必花太多時間複述這些內容,你講得已經很詳盡了,而且《STRATECHERY》的讀者們肯定也很熟悉—— 抱歉,這裡算是個鋪墊 ——《STRATECHERY》的讀者們都瞭解,我也清晰記得,大概六七年前甚至更久以前,有人問我為什麼輝達能在一次GTC 大會上發佈如此多的產品,我當時解釋說,這一切都依託於 CUDA 和各類軟體庫,本質上是在重複做同一件事,只是針對不同行業落地應用。這也是你今天傳遞的核心觀點,而在過去幾屆 GTC 和消費電子展都高度聚焦人工智慧之後,這次演講有種 “回歸本源” 的意味。你為什麼覺得現在有必要講述這段歷史?重新詮釋 CUDA,以及強調它的重要性?

黃仁勳:

因為我們正在進軍大量全新的行業,而且人工智慧會使用工具,這些工具原本是為人類設計的。人工智慧會使用Excel,會使用 Photoshop,會使用邏輯綜合工具、新思科技的工具、楷登電子的工具。這些工具都需要超級加速,人工智慧使用的資料庫也需要超級加速,因為人工智慧的運行速度極快。所以我認為,在這個時代,我們需要儘可能快地完成全球所有軟體的加速,然後將其交付給人工智慧,讓人工智慧能夠自主地使用這些工具。

Ben:

所以這是不是意味著,我們已經為多個領域完成了軟體加速,現在要拓展到更多領域?

黃仁勳:

沒錯,大量全新的領域。比如資料處理領域。

Ben:

這確實有些出人意料。我沒想到你會以與IBM 的合作作為開場。

黃仁勳:

是啊,這一點很能說明問題。畢竟,他們才是這一切的開創者。

Ben:

你上周撰文指出,人工智慧是一個五層架構:算力、晶片、基礎設施、模型與應用。你是否擔心,在過去四五年裡,自己會被侷限在“晶片廠商” 的定位裡?因此,不僅要提醒外界,也要提醒自身,輝達是一家垂直整合的公司 —— 不僅是建構系統,更是深入整個軟體棧,我們絕非單純的晶片企業。

黃仁勳:

我的思考出發點從來不是“我們不是什麼”,而是 “我們需要成為什麼”。早在那時,我們就意識到加速計算是一個全端問題,必須理解應用場景才能實現加速。我們明白,需要深耕應用場景、搭建開發者生態、具備頂尖的演算法研發能力,因為為中央處理器設計的傳統演算法並不適配圖形處理器,所以我們必須重寫、重構演算法,才能讓圖形處理器實現加速效果。

而一旦做到這一點,就能實現50 倍、100 倍、10 倍的性能提升,這一切都極具價值。從一開始,我們就想清楚了:我們的目標是什麼,實現目標需要付出什麼。

如今,我們正在打造人工智慧工廠,在全球範圍內建設人工智慧基礎設施。這遠不止是研發晶片,儘管晶片顯然至關重要,是一切的基礎。

Ben:

沒錯,這涉及到完整的網路、儲存架構搭建,現在你們又涉足了中央處理器領域。

黃仁勳:

現在必須將所有元件整合為巨型系統—— 一座吉瓦級人工智慧工廠的投入大概在 500 億至 600 億美元。其中,約 150 億至 170 億美元用於基礎設施:土地、電力和廠房主體。剩餘資金則投入計算、網路、儲存等相關領域,如此大規模的投資,除非能幫助客戶建立成功落地的信心,否則沒人會冒 500 億美元的風險。

所以這就是我們的核心理念:我們不僅要為客戶提供晶片,還要幫助他們建構系統;建構系統之後,還要助力他們打造人工智慧工廠。人工智慧工廠內部整合了大量軟體,不僅有我們的軟體,還包括製冷管理、電力控制、冗餘備份等各類軟體,且很多部分都採用了過度設計,原因是各環節團隊缺乏協同。

當多個缺乏溝通的團隊進行系統整合時,必然會對各自負責的模組進行過度設計。但如果我們以統一團隊協作,就能突破性能極限,在現有電力條件下提升吞吐量,或是在既定吞吐量下節約成本。

Ben:

回到軟體層面,你提到Excel 並非為人工智慧使用而設計。如今像克勞德這類大模型已經具備使用 Excel 的新功能,你所說的投資研發這些軟體庫,是為了讓這類模型表現更出色嗎?還是說,這是為微軟或企業客戶服務 —— 你們希望自主掌控,不願受制於行業內的其他參與者?

黃仁勳:

SQL 就是一個很好的例子。SQL 原本供人類使用,是企業業務的核心資料載體,我們和其他企業一樣都在最佳化 SQL 系統。而未來,使用 SQL 資料庫的不再只是人類,還會有大量智能體。

Ben:

沒錯,智能體的操作速度會快得多。

黃仁勳:

它們的操作速度需要大幅提升。所以首先要做的就是加速SQL,這是最基礎的邏輯。

Ben:

這很合理。關於模型,你指出語言模型只是其中一個類別。你在上周的文章中寫道:“一些最具變革性的研究集中在蛋白質人工智慧、化學人工智慧、物理模擬、機器人與自主系統領域。” 你此前也曾提出過類似觀點,並在其他主題演講中用過 “萬物皆可 Token 化” 這一表述。你認為 Transformer 架構是解決所有問題的關鍵嗎?還是說,我們需要新的底層突破才能實現這些應用?

黃仁勳:

我們需要各類全新的模型。比如Transformer 架構的注意力機制計算量呈二次方增長,如何實現超長記憶?如何讓對話持續極久,同時避免鍵值快取逐漸失效?

Ben:

甚至需要整機架的固態硬碟來儲存鍵值快取。

黃仁勳:

當然,假設我們能記錄下所有對話內容,當回溯參考某段對話時,如何判斷那部分資訊最重要?這就需要全新的架構來合理處理注意力機制,並實現快速運算。

我們研發出Transformer 與狀態空間模型結合的混合架構,這也是 Nemotron 3 大模型兼具超強智能與高效性能的原因,這就是一個典型案例。

再比如,我們開發出具備幾何感知能力的模型,自然界中的很多事物都具有對稱性。因此生成這類模型時,不能只追求統計上的合理性,還必須符合物理規律,保證對稱性。cuEquivariance 技術就能實現這一目標。

我們擁有諸多此類技術—— 再比如,文字 Token 是逐塊、逐詞生成的,而動作生成則需要連續性。因此存在離散資訊與連續資訊兩種生成與理解形式,Transformer 架構並非對兩者都適配。

Ben:

沒錯,這一點很合理。

推理與程式碼生成

Ben:

再引用你文章中的一段話:“過去一年,人工智慧跨越了重要的臨界點。模型性能達到規模化實用標準,推理能力提升,幻覺現象減少,事實關聯能力顯著增強。基於人工智慧的應用首次開始創造實際經濟價值。” 這一轉變的具體體現是什麼?回顧時間節點,我認為接下來的一年無疑是智能體的時代,我今天也剛撰寫了相關內容 —— 但就去年而言,推理能力的提升是核心突破嗎?

黃仁勳:

生成式人工智慧當然是重大突破,但它存在嚴重的幻覺問題,因此需要實現事實關聯,而實現這一點的途徑就是推理、反思、檢索與搜尋,我們通過這些方式讓模型錨定現實。沒有推理能力,這一切都無從談起,正是推理讓生成式人工智慧實現了事實關聯。

一旦實現事實關聯,系統就能推理問題並拆解任務,轉化為可執行的操作,下一代發展就是工具使用。這其實也揭示了一個現象:搜尋是一項無人付費的服務,原因在於獲取資訊固然重要且實用,但並不足以讓人付費。讓使用者願意付費的門檻遠高於單純提供資訊。“那家餐廳不錯?” 這類資訊,我認為並不值得付費。當然也有人為此付費,我自己也會。

如今我們已經跨越了這個臨界點。人工智慧不僅能與我們對話、提供資訊,還能為我們執行任務。程式碼生成就是完美的例證。仔細思考就會發現,程式碼生成與語言生成並非同一模態,需要學習空格、縮排、符號規則,幾乎是一種全新的模態,無法逐Token 生成程式碼,必須對程式碼塊進行反思最佳化。程式碼塊需要合理拆分、性能最優,且必須能編譯運行,其依據不是機率上的合理性,而是實際執行效果。

Ben:

沒錯,關鍵在於能否正常運行。

黃仁勳:

程式碼必須能正常運行。所以我認為,模型學習程式碼這一模態是重大突破。如今,我們每年支付數十萬美元聘請工程師編寫程式碼,而他們現在擁有了程式碼助手。工程師可以專注於架構設計,無需耗費大量精力手寫程式碼,只需通過抽象的規格描述軟體需求,工作效率大幅提升。他們只需明確規格與架構,將時間投入問題解決與創新,現在我們的軟體工程師百分百使用程式碼智能體,很多人已經很久沒有手寫一行程式碼,卻依然高效且忙碌。

Ben:

但你是否認為,人們容易從程式碼生成這一可驗證場景過度推導?智能體不僅能生成程式碼,還能驗證效果,若運行失敗則重新最佳化,整個過程無需人類參與,因為存在明確的“成功與否” 判斷標準。

黃仁勳:

因為智能體具備反思能力。比如設計房屋,原本這是建築師、設計師的工作,現在木匠也能借助智能體完成。智能體提升了木匠的能力,讓他們可以設計房屋、廚房,打造出新穎的風格。這類智能體沒有可執行的驗證工具。

但你可以給出參考示例,比如“我想要這類風格,希望具備這樣的美學效果”。智能體能夠反思,將程式碼質量、成果效果與參考標準對比,然後判斷 “效果未達預期,需要重新最佳化”,進而迭代改進。並非所有任務都需要完全可執行,事實上,越是機率性、美學化、主觀性的任務,人工智慧的表現反而越好。

Ben:

沒錯,這就形成了兩個極端:圖像生成沒有標準答案,程式碼生成有標準答案,而人工智慧在這兩端都表現出色,問題在於如何覆蓋中間場景。

黃仁勳:

我們確信,人工智慧現在已經能勝任建築設計、廚房與客廳設計。

中央處理器在加速計算中的角色

Ben:

說到這裡,隨著智能體的普及,你一直大力倡導加速計算,甚至可以說此前對中央處理器頗有微詞,認為其終將被全面取代,所有場景都將實現加速。但如今中央處理器再度成為熱點,其作用依然重要,而你們也開始銷售中央處理器。成為中央處理器廠商,你有何感受?

黃仁勳:

毋庸置疑,摩爾定律已經失效。加速計算並非平行計算。回顧30 年前,市場上曾有數十家平行計算企業,最終只有輝達存活下來,原因在於我們始終明確核心目標:並非淘汰中央處理器,而是實現應用加速。

Ben:

所以我剛才對你的誤解,其實是其他所有企業的通病。

黃仁勳:

我們從未敵視中央處理器,也不願違背阿姆達爾定律。事實上,在我們的系統中,我們會選用最頂尖的中央處理器,採購最昂貴的型號,因為如果中央處理器性能不足,會拖累價值數百萬美元的晶片。

Ben:

過去關注分支預測,擔心浪費中央處理器時間,現在則擔心浪費圖形處理器時間。

黃仁勳:

沒錯,圖形處理器的資源絕不能被浪費,其執行階段間不能閒置。因此我們始終採用最頂尖的中央處理器,甚至自主研發Grace 處理器,以實現最高的單線程性能,更快地完成資料傳輸。加速計算從未排斥中央處理器,我的核心觀點依然成立:阿姆達爾定律主導的時代已經結束,依靠通用計算持續增加電晶體的模式已然消亡,從根本上而言,我們並不反對中央處理器。

而如今智能體能夠使用工具,這些工具分為兩類:一類是資料中心運行的工具,主要是SQL 及資料庫相關工具;另一類是個人電腦端工具。未來人工智慧將能夠學習非結構化工具使用,第一類則是結構化工具。命令列介面、應用程式介面都屬於結構化工具,指令明確、參數清晰,與應用的互動方式特定。

但還有大量應用並未設計命令列介面與應用程式介面,這類工具需要人工智慧學習多模態、非結構化操作,能夠瀏覽網頁、識別按鈕與下拉菜單,像人類一樣操作。這類工具使用需要依託個人電腦,而我們在兩端都有佈局:擁有頂尖的資料處理系統,同時輝達個人電腦也是全球性能最強的產品。

Ben:

那麼,面向智能體的中央處理器與傳統中央處理器有何區別?你們會推出純Vera 中央處理器機架嗎?

黃仁勳:

這個問題問得很好。過去十年的中央處理器設計,均面向超大規模雲服務商,而云服務商通過CPU 核心盈利。因此設計目標是儘可能增加可租賃的核心數量,性能反而居於次要地位。

Ben:

這類處理器主要應對網頁延遲問題。

黃仁勳:

完全正確。最佳化核心是CPU 實例數量,這也是市面上出現數百核中央處理器的原因。但這類處理器性能有限,而在工具使用場景中,圖形處理器會等待工具呼叫結果 ——

Ben:

且資料通過NVLink 傳輸。

黃仁勳:

沒錯,我們需要性能最強的單線程處理器。

Ben:

這僅僅是速度問題嗎?還是中央處理器需要更強的平行能力以避免快取缺失?整個處理器流水線設計都截然不同?

黃仁勳:

最核心的是單線程性能,同時輸入輸出性能必須極致。在資料中心場景中,單線程實例數量龐大,會對輸入輸出系統與記憶體控製器產生極高負載。Vera 處理器的單核心頻寬、單處理器頻寬是現有所有中央處理器的三倍,專為超大輸入輸出頻寬與記憶體頻寬設計,避免中央處理器出現性能瓶頸。一旦中央處理器受限,就會拖累大量圖形處理器。

Ben:

你提到Vera 機架與圖形處理器機架緊密耦合,那麼二者是否仍採用分離架構,讓圖形處理器為多個 Vera 核心提供服務?而非將 Vera 核心與圖形處理器整合在同一塊板卡上?

黃仁勳:

是的。

Ben:

好的,我明白了。那麼與英特爾的合作以及NVLink 技術在其中扮演什麼角色?

黃仁勳:

全球部分市場認可Arm 架構,而企業計算領域仍有大量軟體棧不願遷移,因此 x86 架構依然至關重要。

Ben:

x86 程式碼的生命力之強是否讓你感到意外?

黃仁勳:

並不意外。輝達個人電腦仍採用x86 架構,所有工作站也都是 x86 架構。

Groq

Ben:

首先要向你表示祝賀,正如你在今天主題演講中所說,你是Token 之王。你在文章中還提到,能源是人工智慧基礎設施的第一性原理,也是系統智能生成能力的核心約束。既然如此,Token 生成量受資料中心能源限制,為何還有企業試圖與 Token 之王競爭?

黃仁勳:

競爭難度極大,僅憑研發一款晶片就想實現顛覆性突破並不現實。即便Groq公司,也只有與Vera Rubin 處理器協同,才能發揮其技術價值。

Ben:

這正是我接下來要問的關於Groq的問題。

黃仁勳:

從整個推理場景來看,一方面要追求最大吞吐量,另一方面要生成更高品質的Token——Token 質量越高,商業價值越高。如何平衡這兩大目標,實現吞吐量與智能性的最大化,是極具挑戰的難題。

Ben:

不得不說,去年你展示過帕累托曲線幻燈片,推出Dynamo 技術時提到,輝達圖形處理器能夠覆蓋全場景,使用者只需採購輝達圖形處理器,Dynamo 就能兼顧兩大目標。但如今你卻表示,圖形處理器無法完全覆蓋所有場景。

黃仁勳:

我們的覆蓋能力依然優於所有現有系統。我們能進一步拓展帕累托最優邊界,尤其是在超高Token 速率與超低延遲場景,但這會犧牲部分吞吐量。然而,程式碼智能體等人工智慧應用創造了極高的經濟價值,且與人類使用者深度繫結,人類使用者的價值遠超圖形處理器。

Ben:

沒錯,人類的成本比圖形處理器更高。

黃仁勳:

因此我希望為軟體工程師提供最高Token 速率的服務。如果 Anthropic 推出Claude Code,將程式碼生成速率提升10 倍,我絕對願意為此付費。

Ben:

所以這款產品是為你們自身需求研發的?

黃仁勳:

大多數偉大的產品都源於對痛點的深刻感知,以及對市場趨勢的精準判斷。我們迫切希望程式碼智能體的運行速度提升10 倍,但高吞吐量系統難以實現這一目標,因此我們決定整合Groq的低延遲系統,實現協同處理。

Ben:

那麼這只是將解碼與預填充階段分離嗎?

黃仁勳:

我們還會處理解碼中的高算力、高浮點運算部分,也就是注意力機制相關的解碼運算。

Ben:

也就是說,甚至在解碼層面也實現了分離架構。

黃仁勳:

沒錯,這需要軟硬體的深度耦合與緊密整合。

Ben:

這筆交易幾個月前才宣佈,你們卻計畫今年晚些時候推出產品,如何實現這一進度?

黃仁勳:

我們早已開始研究分離式推理架構,Dynamo 技術已經明確了輝達的技術方向。宣佈 Dynamo 技術時,我就已經在思考如何在異構基礎設施中更精細地分離推理任務,而Groq的架構是我們技術路線的極致延伸,他們此前的研發麵臨諸多困難。

Ben:

Dynamo 技術是一年前推出的,而Groq的合作是在聖誕節前後敲定的。是否有特定事件推動了這一決策?

黃仁勳:

我一年前宣佈Dynamo 技術,而我們已經研發了兩年,分離式推理的研究已有兩三年時間。在宣佈收購交易前約六個月,我們就開始與Groq合作,提前規劃Grace Blackwell 與Groq技術的融合。

我很欣賞Groq的團隊,我們無意收購其雲服務業務。他們另有核心業務且發展良好,這並非我們的目標,因此我們決定收購其團隊並獲得技術授權,隨後基於底層架構持續迭代最佳化。

Ben:

這算是機緣巧合嗎?

黃仁勳:

是戰略層面的意外之喜。

Ben:

比如OpenAI 在今年 1 月宣佈與 Cerebras 合作。

黃仁勳:

這與我們完全無關,事實上我此前並不知情,但即便知曉也不會改變決策。我依然會選擇Groq的架構,其技術邏輯更合理。

Ben:

這是否是首次有專用積體電路方案讓你眼前一亮,意識到其底層設計的顛覆性?

黃仁勳:

並非如此,邁絡思公司就是先例。

Ben:

這個例子很恰當。

黃仁勳:

是的,邁絡思。我們將部分計算棧整合到邁絡思的技術堆疊中。沒有與邁絡思合作實現的網路內計算,就無法實現當前規模的NVLink。將軟體棧分離並部署到最優位置,是輝達的核心優勢。我們並不執著於計算的執行位置,只專注於應用加速。請記住,輝達是加速計算公司,而非單純的圖形處理器公司。

Ben:

沒錯。你提到能源是核心約束,客戶在採購時,是選擇傳統圖形處理器,還是LPU 機架?你是否確信,後者能為客戶帶來更高的營收?

黃仁勳:

這取決於客戶的業務類型。如果目前沒有企業級應用場景,那麼增加Groq裝置並無太大意義,因為大部分客戶是免費使用者,尚未轉化為付費使用者。假設免費使用者佔三分之二、付費使用者佔三分之一,增加Groq裝置會大幅提升成本,消耗電力資源,得不償失。

Ben:

還會增加系統複雜度,佔用伺服器,產生機會成本。

黃仁勳:

這些伺服器原本可以為免費使用者提供服務。但如果是Anthropic、OpenAI 這類企業,其程式碼模型創造了極高的經濟價值,只是希望提升 Token 生成量,那麼增加這類加速器就能顯著提升營收。

中國市場與人工智慧末日論者

Ben:

2026 年,我們面臨的約束究竟是能源、晶圓產能,還是其他因素?業內普遍認為供應不足,實際的核心瓶頸是什麼?

黃仁勳:

幾乎所有資源都處於緊缺狀態,任何環節都無法實現翻倍供給。

Ben:

因為總會觸發其他環節的約束。

黃仁勳:

沒錯。

Ben:

不過美國在能源調配方面的表現超出了幾年前的預期,目前晶片似乎是更核心的瓶頸。

黃仁勳:

我們的供應鏈規劃十分完善。我們為今年的高速增長做了充分準備,也在規劃明年的大規模發展。

Ben:

我們都看到了你們為供應鏈合作付出的努力。

黃仁勳:

(笑)沒錯。我們的供應鏈擁有數百合作夥伴,且建立了長期合作關係,因此我對這一環節很有信心。

我們的能源、晶片供應都無法滿足翻倍需求,所有資源都存在缺口。但從供應鏈角度來看,我們有能力支撐未來的發展,我最希望的是土地、電力、廠房基礎設施的建設速度能更快。

Ben:

那麼公平地說,在資源稀缺的背景下,輝達是否是最大的受益者?能源稀缺時,我們的晶片效率最高,能更好地利用能源;晶圓產能緊張時,如你所說,我們提前佈局保障了供應鏈,是否在這一背景下成為最大贏家?

黃仁勳:

我們是該領域規模最大的企業,且規劃工作做得十分出色。我們對供應鏈上下游都進行了周密佈局,為行業增長做好了充分準備。

Ben:

但無法進入中國市場是否構成潛在威脅?如果中國擁有充足的能源與晶片產能,即便晶片僅為7 奈米工藝,也有能力建構生態系統,長期來看與 CUDA 形成競爭,這是否是你的擔憂?

黃仁勳:

我們必須確保中國市場採用美國技術堆疊,從一開始我就始終堅持這一觀點,因為開放原始碼軟體必然會興起。沒有那個國家對開放原始碼軟體的貢獻超過中國,全球50% 的人工智慧研究人員來自中國,且極具創新能力。DeepSeek並非普通技術,其性能極為出色;Kimi、通義千問也同樣優秀,在架構與人工智慧技術堆疊方面都做出了獨特貢獻,我們必須重視這些企業。

全球科技生態都建構在美國技術堆疊之上,當中國的開源技術向外擴散時,美國技術堆疊有能力承接。我始終認為,這是美國科技行業最重要的地緣戰略問題。

Ben:

上次我們對話時,川普政府已禁止H20 晶片出口。你是否驚訝於能說服川普政府接受你的觀點?而如今又被中國市場阻攔,是否更感意外?

黃仁勳:

被中國市場阻攔並不意外,因為中國需要發展自主技術堆疊。在我們退出市場的這段時間裡,中國行業發展速度極快,華為實現了公司歷史上的最佳業績。作為一家老牌企業,華為創下了營收紀錄,還有五六家晶片企業成功上市,聚焦人工智慧領域。

我們需要更具戰略性地思考美國的科技領導地位與地緣政治優勢。人工智慧並非只有模型,這是一個深刻的誤區—— 正如我所說,也是你開篇提到的,人工智慧是五層架構,我們必須在基礎設施、晶片、平台、模型、應用每一層都保持領先。

我們當前的部分政策,正在損害國家在這五層架構中的領導能力。認為通過自上而下整合所有企業、形成統一技術堆疊就能獲勝,是極其錯誤的想法。我們必須讓每一層都自主參與市場競爭。

Ben:

是否其他領域的企業更早涉足華盛頓事務,而輝達入局較晚?

黃仁勳:

或許是這樣。

Ben:

你從華盛頓的經歷中學到了什麼?最大的收穫是什麼?

黃仁勳:

令我驚訝的是,人工智慧末日論者在華盛頓的滲透程度之深,其言論對政策制定者的心理影響之大。

Ben:

所有人都陷入恐懼,而非保持樂觀。

黃仁勳:

沒錯,這存在兩個核心問題。在這場工業革命中,如果我們不讓技術在美國國內擴散,不自身充分利用技術,就會重蹈上一次工業革命中歐洲的覆轍—— 被時代拋棄。上一次工業革命的核心技術大多由歐洲發明,卻被美國充分利用。我希望我們能具備歷史智慧與技術認知,不被科幻式的末日論裹挾,這些虛構的極端言論嚇壞了對技術缺乏瞭解的政策制定者,毫無益處。

最令我擔憂的是,美國民眾對人工智慧的支援度正在下降,這是一個嚴重的問題。這就如同上一次工業革命中,電力、電動機、內燃機的支援度下滑,網際網路也曾面臨類似情況。其他國家更快地利用了這些技術,推動技術在產業與社會中擴散,我們必須高度警惕,避免給人工智慧賦予神秘的科幻色彩,引發不必要的恐慌。

我反對末日論者製造恐慌,真正的擔憂與警示,和通過煽動性言論製造恐懼有著本質區別。

Ben:

這類人的普遍特徵是,故作高深地剖析各種細節,卻忽視大眾傳播的核心是簡潔直白的表達。無法向民眾傳遞“適度擔憂而非過度恐慌” 的資訊,最終只會傳播恐懼,而非樂觀。

黃仁勳:

沒錯,而且這會讓他們顯得更“深刻”。

Ben:

人們都喜歡顯得自己有深度。

黃仁勳:

有時我們也發現,這有助於他們融資,或是實現監管俘獲。他們這麼做有各種動機,這些人都極為聰明,但我想提醒他們,這類行為大機率會引發反噬,終有一天他們會為此感到後悔。

輝達的企業特質

Ben:

由於時間有限,我將幾個問題合併提問。在自動駕駛領域,你與多家汽車製造商合作,推出Alpamayo 模型,同時仍為特斯拉供應晶片。你今天的演講中重點介紹了 OpenClaw 技術 —— 此外,Vera 晶片的核心驅動力之一,就是Claude Code、OpenAI 程式碼模型這類智能體技術的發展。

我是否可以從中總結出一個共性邏輯:你們會為領域內的頭部企業、創新者供應晶片,同時快速跟進其技術,為面臨競爭威脅的其他所有企業提供解決方案?這樣既能擴大客戶群體,不依賴頭部企業,又能借助頭部企業的技術影響力,推動產品向其他客戶銷售,因為後者擔心被行業淘汰。

黃仁勳:

並非如此。我們在眾多領域都處於前沿位置,在很多領域本身就是領導者,但我們從不將這些技術轉化為自有產品。我們專注於技術堆疊,必須保持技術領先,成為全球頂尖的技術堆疊提供商,但我們並非解決方案製造商,也不是服務供應商。這是第一點。

Ben:

這一定位會一直保持嗎?

黃仁勳:

是的,永遠不會改變。我們沒有理由改變,也樂於保持這一定位。我們研發所有技術,並向全行業開放。

Ben:

但有趣的是,以你們的板卡產品為例,如今一個機架裡有大約3 萬個特定庫存單位,越來越多的產品規格由你們定義,“這就是產品標準”,部分原因是為了簡化組裝等流程。軟體層面是否也會出現類似趨勢,尤其是在你提到的垂直領域與開源模型方面?

黃仁勳:

我們垂直整合技術,然後水平開放,讓所有客戶按需選用。

Ben:

只要客戶使用輝達晶片即可?

黃仁勳:

客戶可以自由選用任意模組,不必全部採用輝達晶片或軟體。我們必須垂直研發、整合、最佳化,但之後會開放原始碼,讓客戶自主選擇部署方式。

Ben:

考慮到Meta 等企業似乎已掉隊,而替代方案大多是中國模型,你認為輝達能否持續研發前沿模型,佔據市場地位,或是成為該領域不可或缺的參與者?

黃仁勳:

在模型領域取勝並非我們的目標。

Ben:

沒錯,不是為了競爭勝利,而是行業需要開源前沿模型,如果不是輝達,誰來承擔這一角色?

黃仁勳:

確實需要有人研發開源模型,而輝達具備這一實力。我們在研發開源模型的過程中,也能深入理解計算邏輯。

Ben:

Blackwell 架構是否遇到了相關問題?我聽說其訓練過程比以往更具挑戰性。

黃仁勳:

Blackwell 架構的核心挑戰 100% 來自 NVLink 72 技術,其研發難度極大。這也是我唯一一次在演講中感謝客戶與合作夥伴的支援。

Ben:

我注意到你今天說這句話時,語氣非常真誠。

黃仁勳:

是的,因為我們給所有人都帶來了挑戰,但現在大家都認可其價值。

Ben:

這是我們第二次面對面交流,上次在台北會面時,我的感受是輝達依然像一家小公司。你是否擔心業務佈局過於分散?還是說,你們依然依託CUDA 形成的飛輪效應 ——“看似業務繁多,實則重複執行同一核心邏輯”?

黃仁勳:

輝達能夠快速發展的原因,是我們始終擁有統一的企業發展理念,這是我的職責:確立核心發展理念,明確關鍵方向、業務關聯邏輯,然後打造高效的組織體系,落地這一理念。

輝達的核心理念其實很簡單:一方面,我們擁有基於CUDA-X 的計算平台與軟體平台;另一方面,我們是計算系統公司,垂直最佳化產品,實現全端極致協同設計,將電腦系統整合為平台,接入所有雲服務商與原始裝置製造商,進而打造資料中心平台、人工智慧工廠平台。

一旦確立了輝達的研發與落地核心理念—— 我這次主題演講也在向內部員工傳遞這一理念。

Ben:

確實有這種感覺。演講的第一個小時,彷彿你在對員工講話,重申公司的核心使命。

黃仁勳:

我們必須時刻牢記自身的核心價值。人工智慧固然重要,但CUDA-X、各類求解器以及我們能加速的所有應用,同樣至關重要。

Ben:

非常感謝你。

黃仁勳:

謝謝你,Ben。很高興見到你,繼續保持出色的工作。

(火龍呼呼猫)