【GTC 2026】兆美金後的新霸主:黃仁勳GTC 2026全解讀,AI正式進入“Token工廠”時代
台北時間2026年3月17日凌晨2點,沒有絲毫意外,全球科技圈的目光再次聚焦於那個穿著皮衣的男人身上。
輝達GTC 2026大會如約而至。如果你還以為這只是一場關於顯示卡參數的發佈會,那你可能已經掉隊了。今年的GTC,黃仁勳不再僅僅談論晶片,而是拋出了一個震撼行業的全新定義:輝達已經從一家“晶片公司”徹底蛻變為一家“AI基礎設施和工廠公司”。
這場長達兩小時的演講,資訊密度極高。從CUDA生態的飛輪效應,到Token成本的極致壓縮;從Vera Rubin平台的量產,到Feynman架構的前瞻;再到那個讓全場沸騰的“龍蝦”NemoClaw。黃仁勳用無可辯駁的資料和路線圖,向世界展示了AI推理時代的宏大圖景。
01 20年的飛輪:CUDA的護城河比想像中更深
演講伊始,黃仁勳並沒有急於拋出新的硬體參數,而是花了近十分鐘回溯CUDA架構誕生20年的歷程。這不僅是對過去的致敬,更是對護城河的宣示。
螢幕上展示著“20 YEARS CUDA FLYWHEEL”(20年CUDA飛輪)的巨大循環圖,這不僅是技術的循環,更是商業的邏輯。
“二十年來,我們一直致力於這種革命性架構——單指令多線程(SIMT)。”黃仁勳回憶道。CUDA的真正壁壘,在於底層的安裝基數。
這是一個經典的飛輪效應:
- 安裝基數:全球數億塊運行CUDA的GPU構成了龐大的底座。
- 開發者:龐大的底座吸引開發者創造新演算法。
- 突破:新演算法帶來技術突破(如深度學習)。
- 生態:技術突破催生新市場,吸引更多公司加入,進一步擴大安裝基數。
“CUDA真正融入了每一個生態系統。”黃仁勳指著那張描述其媒體戰略的幻燈片說道。這種軟硬一體的生態壁壘,讓NVIDIA的架構應用範圍不斷擴展,計算成本持續降低。正如他所強調的,加速計算不僅帶來初期的性能躍升,還能在生命周期內持續最佳化軟體,讓算力成本不斷下降。
02 資料革命:結構化與非結構化資料的全面加速
在本次演講中,黃仁勳著重介紹了輝達為資料處理打造的核心軟體庫,並稱其為“本場演講最重要的一張圖”。
隨著AI的爆發,全球資料處理體系正面臨結構性變革。螢幕上展示了一張複雜的圖表,標題為“Structured Data is the Ground Truth of AI”(結構化資料是AI的“真相”),這是一個價值1200億美元的生態系統。
過去,企業計算建立在結構化資料之上。但未來,AI智能體將直接訪問和使用這些資料庫。與此同時,全球每年產生的資料中約90%是非結構化資料。AI的多模態能力正在將這些“死資料”轉化為可計算的資訊。
為此,NVIDIA推出了兩項關鍵技術:
- cuDF:加速資料框計算,面向結構化資料。
- cuVS:面向向量儲存和語義資料,處理非結構化資料。
黃仁勳透露,SQL的發明者IBM正在利用cuDF加速其watsonx.data平台。這標誌著AI正在重塑整個資料處理基礎設施。
03 推理拐點:Token成本全球最低
“去年我說營收將達5000億美元,你們可能沒覺得驚豔。但今天,我預見通過2027年的營收將至少達到1兆美元。”黃仁勳的這句話引爆了全場。
支撐這一驚人預測的,是AI計算需求的爆發式增長。螢幕上清晰地標示著“Inference Inflection Arrives”(推理拐點到來)
黃仁勳指出,過去兩年,計算需求增長了約10,000倍。這背後是三件大事的發生:
- ChatGPT開啟生成式AI時代:計算從“檢索”轉向“生成”。
- 推理AI(o1/o3)的出現:AI開始思考、規劃,Token使用量爆炸。
- Claude Code開啟代理時代:首個代理模型革新了軟體工程。
“推理既是最困難的環節,也是最關鍵的商業環節。”黃仁勳強調。在資料中心層面,衡量效率的關鍵指標是“每瓦特生成多少Token”。
評測結果顯示,NVIDIA在AI推理性能和效率上保持絕對領先。從Hopper H200到Grace Blackwell NVLink 72架構,每瓦特性能提升約35倍,分析師甚至認為接近50倍。
螢幕上打出了“NVIDIA Token Cost is Untouchable”(NVIDIA Token成本不可觸碰)的字樣。黃仁勳放出豪言:“即便競爭對手的架構是免費的,它也不夠便宜。” 因為建立一個1GW的工廠,即便什麼都不放,15年的攤銷成本也高達400億美元。只有運行最強的電腦系統,才能獲得最低的Token生產成本。
04 Vera Rubin:為智能體AI而生的超級電腦
演講的高潮之一,是Vera Rubin超級AI平台的亮相。這是一個由七款晶片組成的全新計算平台,涵蓋計算、網路和儲存三大功能。
螢幕上展示的“NVIDIA Vera Rubin”字樣下,赫然寫著“40,000,000X - 10 years”(10年4000萬倍性能提升),震撼人心。 該平台包含40個機架、1.2千兆個電晶體、近2萬個NVIDIA晶片、1152個Rubin GPU,擁有60 exaflops的運算能力。
這是一個完全縱向整合的計算平台,專門為智能體AI(Agentic AI)設計。隨著大模型處理更長上下文,系統需要更高頻寬的記憶體和儲存訪問能力,因此NVIDIA對整個系統架構進行了重新設計。
硬體層面,全新的NVIDIA Vera CPU開始單獨銷售,有望成為一項數十億美元級業務。系統設計方面,採用100%液冷架構,通過45°C熱水散熱,大幅降低製冷成本,整機安裝時間從兩天縮短至兩小時。
更引人注目的是,NVIDIA推出了全球首個CPO(光電共封裝)乙太網路交換機,將光模組直接整合到晶片封裝中,顯著提升頻寬與能效。針對光互聯技術,黃仁勳展示了全球首款量產的共封裝光學(CPO)交換機Spectrum X,並平息了市場對於“銅退光進”的路線之爭。黃仁勳說我們需要更多的銅纜產能,更多的光晶片產能,更多的CPO產能。
而在未來的版圖中,Rubin Ultra和Feynman架構也已提上日程。螢幕上展示的路線圖清晰地標示著從2024年Blackwell到2028年Feynman的演進路徑,每一次迭代都涉及晶片、CPU、網路交換機等關鍵元件的全面升級 Feynman架構將採用定製化HBM技術,搭載全新的Rosa CPU,標誌著計算、儲存和封裝的深度耦合。
05 “龍蝦”創造歷史:SaaS將消失
整場演講中,對軟體開發者影響最深遠的,莫過於對“龍蝦”現象的評論。
螢幕上展示了一張Star History圖,紅色的openclaw/openclaw曲線在2024-2026年間急劇飆升,遠超Linux和React,其增長速度“極其深遠” 黃仁勳宣佈,NVIDIA將正式支援這一項目。
OpenClaw被黃仁勳定義為一種智能體電腦的作業系統。它連接大模型,管理資源,調度任務,類似於Linux之於PC,Kubernetes之於雲,HTML之於網際網路。
“未來所有科技公司都會面臨一個問題——你的OpenClaw戰略是什麼?”黃仁勳的這句話擲地有聲。他認為,未來幾乎所有SaaS公司都將演變為AaaS(Agentic as a Service)——即以智能體為核心的服務平台。
針對智能體進入企業網路帶來的安全挑戰,NVIDIA推出了NVIDIA NemoClaw參考架構。螢幕上演示了簡單的安裝命令:curl -fsSL https://nvidia.com/nemoclaw.sh | bash,顯示出NVIDIA推動這一生態落地的決心。
NemoClaw在OpenClaw基礎上加入了安全元件,確保企業能安全部署智能體系統。甚至未來工程師招聘,除了薪資,公司還會提供“Token配額”,因為算力將直接決定生產效率。
06 物理AI與數字孿生:AI工廠的作業系統
AI的未來不僅在數字世界,更在物理世界。
黃仁勳介紹了面向“AI工廠”的基礎設施平台——NVIDIA DSX
在資料中心建設階段,系統通過工程模擬工具進行驗證,實現“虛擬偵錯”;投入運行後,數字孿生系統成為基礎設施的“作業系統”,AI智能體即時監控冷卻、電力和網路,動態最佳化效率。
在物理AI方面,NVIDIA的觸角已延伸至自動駕駛和機器人。
螢幕上展示的“NVIDIA Space-1 Vera Rubin Module”暗示了其向太空計算領域的拓展。
自動駕駛領域,基於NVIDIA Drive AV,車輛已具備推理能力。NVIDIA宣佈了新的Robotaxi合作夥伴,包括BYD、Hyundai、Nissan和Geely,並與Uber合作部署自動駕駛計程車網路。機器人產業方面,正與ABB、KUKA等企業合作,將物理AI模型用於工業自動化。
結語:跨越“推理鴻溝”,中國AI產業的破局之路
演講的最後,黃仁勳站在巨大的“NVIDIA Vera Rubin”標識前,背後是醒目的“40,000,000X - 10 years”。
這一刻,我們看到的不再是單一的晶片迭代,而是一場宏大的生態進化。從底層的CUDA飛輪,到算力成本的極致壓縮;從智能體作業系統NemoClaw的推出,到SaaS向AaaS的範式轉移;從資料中心向AI工廠的蛻變,到物理AI的全面覺醒。
黃仁勳用這場演講證明:AI推理的拐點已經到來。未來的競爭,不再僅僅是算力的競爭,更是Token生產效率、智能體生態和物理世界融合能力的全方位競爭。
面對輝達如此強勁的實力與深不見底的護城河,中國AI產業該如何趕上?這或許是每個從業者看完這場演講後最深刻的思考。
首先,必須正視“軟體生態”的斷層。 黃仁勳反覆強調,CUDA的安裝基數才是飛輪加速的原因,這不僅是硬體的勝利,更是二十年軟體生態的積累。中國產業界往往重硬輕軟,但在AI時代,軟體棧(如cuDF、cuVS等核心庫)才是連接應用與算力的橋樑。我們不僅需要造出“卡”,更需要打磨出能承載萬行程式碼、適配千行場景的“軟底座”。
其次,要從“單一產品”思維轉向“系統級整合”。 Vera Rubin平台的成功在於其垂直整合能力——從Vera CPU到NVLink互連,再到液冷機架,這是一個整體的“超級電腦”。中國廠商不能只盯著單點突破,而應致力於建構從晶片、網路到液冷散熱的整體系統解決方案,追求每瓦特性能的極致最佳化。
最後,要抓住“智能體”與“物理AI”的新範式窗口。 當SaaS轉向AaaS,當OpenClaw成為新的作業系統入口,這意味著軟體開發的底層邏輯正在重構。這是彎道超車的機會。中國企業應積極擁抱開源生態,在智能體安全、垂直行業大模型、以及物理AI(如機器人、自動駕駛)的落地場景中尋找差異化優勢,建構屬於自己的“主權AI”。
在這場通往未來的競賽中,輝達已經鋪好了最堅實的鐵軌,但列車駛向何方,依然取決於我們如何握緊手中的方向盤。 (算力與科技茶館)