預計Vera Rubin“超級晶片”將在明年進入量產階段。2025年10月29日清晨,輝達創始人兼首席執行官黃仁勳在華盛頓舉行的GTC華盛頓技術峰會上發表了重要演講。計算架構範式轉移演講中,黃仁勳回顧了計算行業的歷史轉折點。數十年來,CPU的性能一直遵循著可預測的縱向擴展(scale-up)增長軌跡。然而,隨著登納德縮放定律(Dennard scaling)——即通過不斷縮小電晶體尺寸來維持功率密度,從而降低功耗並提升性能——的終結,傳統的發展路徑已難以為繼。面對這些挑戰,輝達的答案是平行計算、GPU和加速計算架構。黃仁勳宣稱:“這個轉折點已經到來,而輝達已經準備就緒。我們認識到,通過引入能夠充分利用指數級增長電晶體的處理器,應用平行計算技術,並與順序處理的CPU協同工作,我們可以將計算力推向一個全新的維度——這個時代真正來臨了。”加速計算的實現,有賴於輝達精心建構的軟體基石——CUDA-X全端加速庫。這個龐大的軟體生態系統涵蓋了深度學習領域的cuDNN和TensorRT-LLM、資料科學平台RAPIDS(cuDF/cuML)、決策最佳化工具cuOpt、計算光刻解決方案cuLitho,以及量子與混合計算框架CUDA-Q和cuQuantum等關鍵領域。黃仁勳將這個完整的軟體生態系統譽為“公司最寶貴的財富”。它構成了輝達加速計算戰略的技術核心,為各行各業的計算轉型提供了底層動力。AI原生6G技術堆疊ARC-Pro演講中,黃仁勳強調,電信技術是經濟和國家安全的生命線,但目前全球大部分無線技術部署都依賴於他國的技術體系。黃仁勳表示:“這種核心通訊技術受制於人的局面必須結束,現在我們迎來了扭轉局面的歷史性機遇。”他相信,美國將“重新奪回通訊技術的主導權”。為實現這一戰略目標,輝達推出了革命性的NVIDIA ARC——一個以美國技術為核心的AI原生6G無線技術堆疊。該平台基於輝達的Aerial平台建構,整合了Grace CPU、Blackwell GPU和先進的網路元件,並通過加速計算實現了性能突破。據黃仁勳透露,輝達已與通訊裝置巨頭諾基亞(Nokia)達成深度戰略合作。諾基亞將為其未來的基站系統中整合NVIDIA ARC解決方案,該平台將賦能精確機器人控制、高精度天氣預報等關鍵應用。根據輝達官方部落格文章,該公司計畫將其商業級AI-RAN產品整合到諾基亞領先的無線接入網(RAN)產品組合中,使通訊服務提供商能夠在輝達平台上部署AI原生的5G-Advanced和6G網路。作為合作的一部分,輝達將以每股6.01歐元的價格認購1.664億股諾基亞新股,總投資額達10億美元。NVQLink:打通量子計算的“經絡”在探討計算科學前沿時,黃仁勳回憶起量子物理學家理查德·費曼四十年前的願景:創造一台能夠直接模擬自然規律的量子電腦。“現在我們能夠製備穩定、相干且可糾錯的邏輯量子位元,”黃仁勳指出。“然而,這些量子位元極其脆弱,需要強大的技術來支援量子糾錯和狀態解讀。”為實現量子計算與GPU計算的無縫融合,輝達推出了量子-GPU互連技術NVQLink。這項創新使得量子處理單元(QPU)能夠即時呼叫CUDA-Q計算框架,將通訊延遲降低到約4微秒的極致水平。NVQLink將量子處理器和控制硬體系統的多種方法直接連接到 AI 超級電腦上,能夠幫助量子從業人員克服在擴展硬體時所面臨的整合難題。作為一種開放系統架構,它可以將 GPU 計算與量子處理器進行緊密結合,從而為量子超級電腦帶來加速。在現場演示中,黃仁勳身後的大螢幕展示了一個包含17家領先量子計算公司和多家美國能源部實驗室的協同創新生態網路。“幾乎所有美國能源部下屬的實驗室都在與我們的量子計算生態系統合作夥伴緊密協作,將量子計算融入未來的科學發展藍圖。”攜手能源部共建新一代超算叢集黃仁勳宣佈,美國國家實驗室正步入由AI基礎設施驅動的科研新紀元。輝達已與美國能源部(DOE)達成戰略合作,將共同建造七台新一代超級電腦,為未來的科學研究提供強大的算力支撐。在具體佈局上,輝達將聯合美國能源部及甲骨文,在阿貢國家實驗室內建造DOE體系內規模最大的AI超級電腦叢集。該超算網路由兩大核心系統構成:Solstice系統將部署100,000顆輝達Blackwell GPU。建成後,它將成為全球最大的、面向公共研究的智能體科學平台。Equinox系統配備10,000顆Blackwell GPU,提供高達2200 EFLOPS的AI算力,專門服務於前沿科學計算、模擬模擬和開放式研究。這項重大的基礎設施投資,標誌著美國正式邁入“智能體驅動科學研究”的新時代,將極大提升其在國家安全、能源戰略、基礎科研等關鍵領域的創新能力和發展速度。本土製造戰略:在美國本土量產Blackwell晶片在產業佈局方面,黃仁勳透露了重要進展:Blackwell GPU已在美國亞利桑那州實現規模化生產,基於該晶片的整機系統也將在美國本土組裝。此舉標誌著輝達成功將其旗艦產品的製造從完全依賴台積電,轉向了美國本土的供應鏈體系。值得注意的是,本次發佈會的許多公告都帶有明確的政策導向。通過展示其在美國科技生態系統中的核心地位,輝達向政策制定者傳遞了一個關鍵資訊:限制晶片出口將直接損害美國的利益。黃仁勳在會前透露,選擇華盛頓作為會議地點是為了方便川普總統出席,但由於總統的亞洲之行未能如願。在市場表現方面,黃仁勳透露GPU需求依舊強勁:過去四個季度,輝達已出貨600萬顆Blackwell GPU,預計Blackwell及下一代Rubin晶片的總銷售額將達到5000億美元的規模。Vera Rubin超級晶片明年量產黃仁勳在會上展示了下一代Vera Rubin超級晶片,其上搭載了Vera CPU和兩顆巨大的Rubin GPU。該主機板還承載了大量的LPDDR系統記憶體,這些記憶體將與Rubin GPU上的HBM4記憶體協同工作。黃仁勳還表示,Rubin GPU已經返回實驗室,這意味著這些是由台積電生產的首批樣品。每個GPU周圍都有大量的供電電路,每個晶片將包含8個HBM4堆疊位點和兩個光罩尺寸(Reticle-sized)大小的GPU裸片。Vera CPU將配備88個定製ARM核心和176個執行緒。談到推出計畫,黃仁勳透露,他預計Rubin GPU將在明年大約同一時間或更早進入量產階段,也就是2026年第三或第四季度。與此同時,輝達的Blackwell Ultra “GB300” 超級晶片平台正在全速推出。規格方面,輝達Vera Rubin NVL144平台將採用兩款新晶片。Rubin GPU將使用兩個光罩尺寸大小的晶片,提供高達50 PFLOPS的FP4性能和288 GB的下一代HBM4記憶體。這些晶片將與一顆擁有88核定製Arm架構、176執行緒的Vera CPU以及高達1.8 TB/s的NVLINK-C2C互連技術一起配置。在性能擴展方面,輝達Vera Rubin NVL144平台將具備3.6 Exaflops的FP4推理能力和1.2 Exaflops的FP8訓練能力,比GB300 NVL72提升3.3倍;擁有13 TB/s的HBM4記憶體頻寬和75 TB的快速記憶體,比GB300提升60%;NVLINK和CX9的能力則提升2倍,分別達到最高260 TB/s和28.8 TB/s。第二個平台將於2027年下半年問世,名為Rubin Ultra。該平台將把NVL系統從144擴展到576。CPU架構保持不變,但Rubin Ultra GPU將採用四個光罩尺寸大小的晶片,提供高達100 PFLOPS的FP4性能,以及分散在16個HBM位點上、總計1 TB的HBM4e容量。在性能擴展方面,輝達Rubin Ultra NVL576平台將具備15 Exaflops的FP4推理能力和5 Exaflops的FP8訓練能力,比GB300 NVL72提升14倍;擁有4.6 PB/s的HBM4記憶體頻寬和365 TB的快速記憶體,比GB300提升8倍;NVLINK和CX9的能力則分別提升12倍和8倍,達到最高1.5 PB/s和115.2 TB/s。AI工廠革命:從工具到生產力實體“AI不是工具,而是生產力實體,”黃仁勳在演講中提出了這一革命性觀點。“歷史上第一次,技術擁有了執行勞動任務的能力,成為人類生產力的延伸。”這種從“工具”到“AI工人”的根本性轉變,正催生著全新的計算範式,進而帶來前所未有的職業形態和產業圖景。在黃仁勳的設想中,現代“AI工廠”遠非傳統資料中心所能代表。它是專為海量令牌(tokens)的生成、傳輸和服務而建構的全新綜合計算平台。這種平台級架構旨在實現前所未有的計算密度和能效比。面對AI算力需求的指數級增長,黃仁勳詳述了輝達的解決方案:“首先,我們重新定義電腦的形態,首次將單個計算系統擴展至整個機櫃的規模;其次,通過創新的AI乙太網路技術Spectrum-X,實現多個系統之間的無損橫向擴展。”隨著AI工廠的興起,機器人工程、量子科學等新興領域正在創造大量前所未有的就業機會。“創新的飛輪已經啟動,”黃仁勳強調。“接下來的關鍵是通過成本控制,大幅降低營運成本,最佳化使用者體驗,維持這個創新循環的持續運轉。”實現這一願景的關鍵在於“極致協同設計”,即同步設計全新的底層計算架構,涵蓋晶片、系統平台、軟體棧、AI模型和終端應用。為了展示這一理念的實物成果,黃仁勳在台上展示了新一代NVIDIA BlueField-4 DPU。這款整合了64核Grace CPU和ConnectX-9網路晶片的資料處理器,計算性能是其前代的六倍,將成為未來AI工廠的“作業系統核心”。這款革命性的DPU專為解除安裝和加速伺服器的網路、儲存和安全任務而設計。計畫於2026年首先部署在輝達的Vera Rubin機櫃級AI平台上,隨後向更廣泛的伺服器生態系統開放。Omniverse DSX:AI工廠的藍圖為應對大規模AI部署的挑戰,黃仁勳正式推出了Omniverse DSX——一個全面覆蓋從100兆瓦到數千兆瓦規模AI工廠設計與營運的綜合解決方案。該藍圖已在弗吉尼亞州的AI工廠研究中心得到充分驗證。為了使DSX參考設計更能適應不同的資料中心,輝達提供了兩種配置框架:DSX Boost(內部能效最佳化):通過智能電源管理和動態工作負載分配,在相同算力輸出下可降低約30%的能耗,或在相同功率預算下提升30%的GPU密度,實現令牌生成吞吐量的質的飛躍。DSX Flex(外部能源整合):將資料中心深度融入區域電網系統。通過智能調度可再生能源、平衡供需關係,可有效啟動美國電網中約100吉瓦(gigawatts)的閒置容量。Omniverse DSX旨在讓新進入者能夠快速建構AI工廠。該解決方案確保了輝達及其合作夥伴的硬體在處理器、網路和冷卻系統層面上開箱即相容。即使沒有專業經驗,也可以按照藍圖進行部署,最大限度地減少了定製化需求。值得注意的是,該架構不僅完美支援當前的Blackwell平台,還為下一代Vera Rubin等未來產品預留了相容性,為投資者提供了長期的技術保障。開放生態與產業融合演講中,黃仁勳強調了開放生態系統的核心價值:“開源模型和開放協作是全球創新的基石,為初創企業、研究機構和工業企業提供了持續的動力。”據悉,輝達今年已向開發者社區貢獻了數百個高品質的開源模型和資料集。輝達建構了一個覆蓋關鍵領域的開源模型體系:Nemotron: 專注於智能體推理與決策的AICosmos: 打破合成資料生成與物理AI的界限Isaac GR00T: 賦能機器人技能學習與跨場景泛化Clara: 重塑生物醫藥研究與臨床工作流這些模型家族將共同賦能下一代智能體系統、機器人技術和科學發現。黃仁勳強調:“我們持續投入開放生態,因為這是科研、創業和產業升級的共同需求。”現場展示的合作夥伴成果顯示了輝達技術廣泛的應用場景,涵蓋了Google雲、微軟Azure、甲骨文等雲端運算巨頭,ServiceNow、SAP等企業服務提供商,以及Synopsys、Cadence等專業領域的領導者。黃仁勳還宣佈了兩項戰略合作:與CrowdStrike合作建構新一代網路安全體系,通過Nemotron模型和NeMo工具鏈,實現從雲到邊緣的“光速”威脅檢測與響應;與Palantir達成深度技術整合,將加速計算架構、CUDA-X庫和開源模型融入Ontology資料平台,實現大規模資料處理的性能突破。為美國再工業化打造數字孿生平台物理AI正在推動美國的再工業化——通過機器人和智能系統改造工廠、物流和基礎設施。在一段視訊中,黃仁勳重點介紹了合作夥伴如何將其應用於實際工作中。“工廠本質上是一個機器人,它指揮著其他機器人製造機器人的東西,”他說。“這需要大量的軟體,除非你能在數字孿生中完成,否則幾乎不可能實現。”黃仁勳在台上特別提到了富士康的工作,該公司正在使用Omniverse工具設計和驗證位於休斯頓的新工廠,該工廠將用於製造NVIDIA AI基礎設施系統;卡特彼勒公司——該公司也在製造過程中應用數字孿生技術;佈雷特·阿德科克,他在三年半前創立了Figure AI公司,該公司為家庭和工作場所製造人形機器人,現在價值近40億美元;強生公司;以及迪士尼,該公司正在使用Omniverse訓練“有史以來最可愛的機器人”。自動駕駛:Uber和DRIVE Hyperion 10黃仁勳宣佈,Uber和NVIDIA正在合作建構自動駕駛出行的主幹網,目標是打造約10萬輛自動駕駛汽車,並從2027年開始擴展。NVIDIA DRIVE AGX Hyperion 10是4級參考架構:安全、可擴展、軟體定義,在一個網路上統一人類和機器人駕駛員。“未來,你就能叫到這樣的車了,”黃仁勳說,“這個生態系統將會非常豐富,Hyperion 或自動駕駛計程車將會遍佈世界各地。”“人工智慧時代已經開啟。Blackwell是它的引擎。美國製造,服務全球,”黃仁勳總結道。“感謝大家讓我們將GTC帶到華盛頓特區。我們希望每年都能舉辦這樣的活動,也感謝大家的貢獻,讓美國再次偉大。” (半導體產業縱橫)