每一個人都應該看一下老黃在華盛頓 GTC 大會的演講,去看看輝達,老黃眼中的“美國科技的未來”在我看來,這個發佈會的最大的“震撼”是輝達要和諾基亞合作干6G,重新構築世界的通訊系統簡單來說老黃描繪了一幅以美國為中心的 AI 世紀藍圖,從6G,大規模部署 GPU 和量子技術突破,到人工智慧工廠、機器人技術和自動駕駛汽車,每一項舉措都在建構美國的人工智慧骨幹網路,整個演講主要涉及6大核心:1.利用物理人工智慧和數字孿生技術重塑美國工業化2.利用人工智慧原生 6G 技術制定全球標準3.借助 NVIDIA NVQLink 鞏固量子領導地位4.利用安全、可部署的人工智慧基礎設施設計實現政府現代化5.構築美國開源模型的骨幹網路6.利用統一的 DRIVE Hyperion 生態系統加速自動駕駛以下是詳細資訊:新計算範式:加速計算在演講的開篇,老黃指出,計算行業正面臨六十年來最重要的一次模式轉變。這一轉變的根源在於傳統計算增長規律的終結與新需求的爆發摩爾定律的黃昏與登納德縮放定律的終結長期以來,計算性能的提升依賴於摩爾定律(Moore's Law),即晶片上的電晶體數量大約每兩年翻一番。然而,更關鍵的是登納德縮放定律(Dennard scaling),它保證了隨著電晶體變小,其功耗密度保持不變,從而使得性能提升的同時不會帶來過熱問題老黃明確指出,登納德縮放定律在近十年前就已經失效。雖然電晶體數量仍在增加,但其性能和能效的提升速度已大大減緩,受到了物理定律的限制。這意味著,僅僅依靠增加電晶體數量來提升 CPU 性能的傳統路徑已經走到了盡頭加速計算的必然性與 CUDA 的核心價值Nvidia 很早就預見到了這一趨勢,並開創了一種新的計算模型——加速計算(Accelerated computing)。其核心思想是將序列處理的 CPU 與大規模平行處理的 GPU 相結合,讓兩者各司其職,從而突破傳統計算的瓶頸然而,加速計算並非簡單的硬體替換,它需要一個全新的程式設計模型。你不能直接將為 CPU 序列執行編寫的軟體放在 GPU 上運行,那樣甚至會更慢。必須重新發明演算法、建立新的軟體庫,甚至重寫整個應用程式這正是 Nvidia 耗費近三十年時間打造的核心寶藏——CUDA(Compute Unified Device Architecture,計算統一裝置架構)。CUDA 不僅僅是一個 GPU,它是一個完整的程式設計平台,包含了一整套豐富的軟體庫和工具。老黃強調,人們常常關注 GPU 硬體本身,但如果沒有 CUDA 這個程式設計模型,以及 Nvidia 對其長達十幾代產品(目前已發展到 CUDA 13/14)的相容性維護,開發者將無法有效地利用 GPU 的強大算力CUDA X:賦能千行百業的軟體寶庫Nvidia 的真正護城河是建立在 CUDA 之上的龐大軟體庫生態,即 CUDA X。演講中列舉了超過 350 個庫中的一部分,展示了其應用的廣度與深度:cuLitho:計算光刻庫,耗時七年研發,現已被台積電(TSMC)、三星(Samsung)、阿斯麥(ASML)等半導體巨頭用於晶片製造的最前端環節Monai:全球排名第一的醫療影像 AI 框架Ariel:用於無線通訊系統的庫,是實現 6G 和 AI 融合的關鍵cuQuantum:用於量子計算模擬的庫cuDNN:深度神經網路庫,是引爆本輪 AI 革命的基礎。Megatron Core 庫在其之上建構,使得訓練超大規模語言模型成為可能其他還包括用於資料科學的 cuDF、用於 CAE(電腦輔助工程)的稀疏求解器、用於模擬的 Warp Python 求解器等每一個庫都代表著 Nvidia 針對一個特定領域,通過重新設計演算法,將該領域帶入加速計算時代。這不僅為生態夥伴創造了價值,也為 Nvidia 開拓了全新的市場。從醫療健康、製造業到自動駕駛,加速計算正在重塑每一個行業重新定義 AI:新的工業引擎老黃認為,公眾對 AI 的認知大多停留在 ChatGPT 這樣的聊天機器人上,但這遠非 AI 的全貌。AI 正在從兩個層面引發深刻的變革:它徹底重塑了計算技術堆疊,並催生了一個全新的產業AI 的新計算棧傳統的軟體開發模式是程式設計師手動編寫程式碼,在 CPU 上運行,而 AI 時代的軟體開發,則是通過機器學習的方式,用海量資料來“程式設計”或“訓練”一個模型,這個模型運行在 GPU 上,這一轉變導致整個計算技術堆疊發生了顛覆性變化。這個新的技術堆疊自下而上依次是:能源:AI 計算是能源密集型的GPU 基礎設施:由海量 GPU 連接構成的資料中心,其規模遠超以往Token(令牌)生成:這些 GPU 超級電腦將能源轉化為被稱為“Token”的數字。Token 是 AI 的基本計算單元和詞彙表。幾乎任何有結構的資訊都可以被“Token 化”,包括文字、圖像、視訊、3D 結構、化學物質、蛋白質、基因,甚至是機器人的動作和行為AI 模型:一旦資訊被 Token 化,AI 模型就可以學習其語言和內在含義,從而實現理解、回應和生成。Transformer 只是眾多模型架構中的一種,此外還有 CNN(摺積神經網路)、狀態空間模型、圖神經網路等,適用於不同類型的任務。應用:建構在模型之上的具體應用。AI 是“工作”,而非“工具”老黃提出了一個深刻的洞見:傳統軟體是工具,而 AI 是工作Excel、Word、瀏覽器都是工具,需要人類去使用它們。工具產業的規模是有限的,IT 工具市場大約為一兆美元AI 則不同,它本身可以成為勞動者,能夠自主使用工具來完成任務。比如:Perplexity AI:是一個能夠使用瀏覽器工具來預訂假期或購物的 AICursor:是一個“代理式 AI“,Nvidia 的每一位軟體工程師都在使用它作為程式設計夥伴。Cursor 使用的工具是 VS Code自動駕駛汽車:車內有一個無形的AI 司機,它在從事駕駛工作,而汽車就是它使用的工具由於 AI 能夠直接參與到價值創造的工作環節,它所能觸及的市場規模將遠超傳統 IT 行業。它將直接賦能價值一百兆美元的全球經濟,提高生產力,解決勞動力短缺問題AI 工廠:一個全新的產業除了改造現有產業,AI 還催生了一個全新的產業——生產智能(即 Token)的產業,與傳統的資料中心不同,老黃將未來的計算中心稱為“AI 工廠”。它的特點是:單一目的:它的唯一產品就是 Token。它不像傳統資料中心那樣儲存檔案、運行各種應用,而是專注於 AI 計算價值導向:工廠的目標是生產儘可能有價值(即更智能)的 Token效率驅動:它追求以極高的速率和儘可能低的成本來生產這些 Token。這個 AI 工廠的新產業,正是驅動對 GPU 需求呈指數級增長的根本原因Blackwell 革命與極限協同設計面對 AI 帶來的指數級算力需求,以及摩爾定律失效的雙重挑戰,Nvidia 的答案是“極限協同設計”(Extreme Co-design)。Blackwell 架構是這一理念的巔峰之作雙重指數增長的壓力與良性循環AI 的算力需求面臨著雙重指數增長:技術的指數增長:AI 模型的智能化過程(預訓練、後訓練、推理/思考)需要越來越大的計算量。特別是思考過程,即推理,遠比人們想像的要複雜和耗算力市場的指數增長:模型越智能,就越有價值,越多人和企業願意付費使用(例如 Cursor、Midjourney 等)。使用量的增加反過來又需要更多的算力。這兩個指數增長形成了一個強大的“良性循環”:更多的算力投入 -> AI 變得更智能 -> 吸引更多使用者和應用 -> 產生更多利潤 -> 投入更多算力。要維持這個循環高速運轉,關鍵在於必須持續地、大幅度地降低 Token 的生成成本和響應時間極限協同設計:超越晶片的系統性創新僅僅設計更快的單顆晶片,性能提升只能是百分比等級的,無法滿足指數級的需求,Nvidia 的方法是“極限協同設計”:從一張白紙開始,同時考慮和重新設計整個技術堆疊的每一個環節,包括新的晶片架構、新的系統設計、新的網路技術、新的軟體、新的 AI 模型架構,乃至新的應用這是一個從“scale up”(單機擴展)到“scale out”(橫向擴展)再到“gigascale”(千兆級規模)的全方位設計:Scale Up:將多個 GPU 晶片通過高速互聯技術(NVLink)組合成一個機架規模的巨型 GPUScale Out:通過專為 AI 設計的 Spectrum-X Ethernet 網路技術,將多個機架連接成一個 AI 超級電腦叢集Gigascale:通過 Spectrum-XGS 技術,將多個資料中心連接起來Blackwell 架構:性能與成本效益的飛躍Grace Blackwell GB200 系統是極限協同設計的產物。其核心是 NVLink 72,一個將 72 個 Blackwell GPU 連接成一個統一計算單元的機架系統,它解決了大模型中“專家混合”(Mixture of Experts, MoE)模型的通訊瓶頸。在舊系統中,一個 GPU 可能需要為 32 個專家模型服務;而在 NVLink 72 系統中,由於互聯頻寬極大提升,一個 GPU 只需服務 4 個專家,效率天差地別性能飛躍:根據第三方基準測試,Grace Blackwell 每個 GPU 的性能是上一代 H200 的 10 倍儘管 GB200 是有史以來最昂貴的電腦,但由於其極高的 Token 生成效率,它反而成為了全球生成 Token 成本最低的方案。這對於維持 AI 的良性循環至關重要驚人的商業增長與“美國製造”的回歸Blackwell 帶來了前所未有的商業增長。老黃透露,到 2026 年,公司對 Blackwell 和早期 Rubin 產品的累計業務可見性已達到五千億美元Blackwell 的初期產量(預計 2000 萬顆 GPU)將是其前代 Hopper 整個生命周期產量(400 萬顆 GPU)的五倍更重要的是,Blackwell 將實現Made in America。從亞利桑那州的晶圓,到印第安納州的 HBM 記憶體,再到德克薩斯州的系統組裝,Nvidia 正在將高端製造業帶回美國Rubin 平台演講的高潮之一是老黃髮布了下一代平台——Rubin。Vera Rubin 是第三代機架規模電腦,它實現了完全無電纜設計和 100% 液冷,整合了新的 Vera Rubin CPU、Rubin GPU、新的網路晶片 ConnectX-9 和資料處理器 BlueField-4AI 工廠與數字孿生隨著計算單元從晶片擴展到整個資料中心,Nvidia 的設計視野也隨之擴展。他們現在不僅設計 AI 超級電腦,更設計和營運整個AI 工廠,而實現這一點的關鍵技術是數字孿生(Digital Twin)Omniverse DSX:AI 工廠的設計與營運藍圖Nvidia 推出了 Omniverse DSX,一個用於建構和營運千兆瓦級AI 工廠的藍圖,這是一個革命性的理念:首次將建築、電力、冷卻系統與 AI 計算基礎設施本身進行協同設計設計階段:合作夥伴(如 Jacobs Engineering、西門子、施耐德電氣等)在 Omniverse 的數字孿生環境中,使用各自的 OpenUSD 資產,共同規劃工廠的佈局、電力和散熱方案他們可以使用 CUDA 加速的工具(如 Ansys、Cadence 的軟體)來模擬熱流和電氣性能,從而在動工前就找到最優設計。建造階段:採用預製模組化的方式,在工廠內完成製造和測試,然後運到現場像樂高一樣拼接起來,這大大縮短了建設周期營運階段:物理工廠上線後,數字孿生成為其作業系統,工程師可以指揮在數字孿生中預先訓練好的 AI 代理,即時最佳化能源消耗,減少對電網的壓力據估算,對於一個 1 吉瓦(gigawatt)的 AI 工廠,DSX 帶來的最佳化每年可以增加數十億美元的額外收入物理 AI 的數字孿生:從工廠到機器人數字孿生的應用不止於 AI 工廠本身,它也是實現物理 AI——即機器人技術的關鍵在與富士康(Foxconn)合作的案例中,他們在德克薩斯州休斯頓建造的 Nvidia AI 基礎設施製造工廠,就是“生於數字”(born digital)的。整個工廠的佈局和流程在西門子基於 Omniverse 的數字孿生解決方案中進行最佳化。工廠內的機器人(如 Fanuc 的機械臂、自主移動機器人 AMRs)首先在 Isaac Sim 的模擬環境中進行訓練和測試通過 Omniverse 進行大規模感測器模擬,讓機器人 AI 學會作為一個整體協同工作。部署後,基於 Metropolis 和 Cosmos 的視覺 AI 代理會從上方監控整個工廠的運作,發現異常、安全隱患甚至質量問題這個案例生動地展示了未來製造業的圖景:一個由機器人構成的工廠,在數字孿生中被精心編排,用以製造機器人化的產品6G、量子計算與開源模型除了在核心的 AI 計算領域持續深耕,Nvidia 也在積極佈局下一代顛覆性技術,並強調開放生態的重要性6G 通訊:重塑無線網路老黃指出,Nvidia 看到了一個機會,即利用 AI 和加速計算的平台轉變為契機,重奪在 6G 時代的領導地位Nvidia 與諾基亞(Nokia),全球第二大電信裝置製造商,達成重要合作。推出了一個全新的產品線:Nvidia ARC(Aerial Radio Network Computer,空中無線電網路電腦)ARC 是一個基於 Grace CPU、Blackwell GPU 和 ConnectX 網路的軟體定義的可程式設計電腦,它運行名為 Ariel 的 CUDA X 庫,實際上是一個運行在 CUDA 上的無線通訊系統這一合作將帶來兩大革命:AI for RAN(AI 賦能無線接入網):利用 AI 和強化學習,即時調整波束成形,最佳化訊號傳輸,從而提高頻譜效率。這不僅能傳輸更多資料,還能節省全球約 1.5-2% 的電力消耗AI on RAN(無線接入網上的 AI):將基站轉變為邊緣計算節點。就像 AWS 在網際網路之上建立了雲端運算一樣,Nvidia 和諾基亞將在無線通訊網路之上建立一個龐大的“邊緣工業機器人云”,將雲端 AI 能力直接推向資料無法到達的邊緣地帶量子計算經過 40 年的發展,量子計算領域取得了突破,現在已經可以製造出單個穩定的、可糾錯的“邏輯量子位元”然而,量子位元極其脆弱,需要複雜的控制和糾錯機制。Nvidia 認為,量子電腦(QPU)的未來在於與經典超級電腦(GPU)的緊密結合,為此,Nvidia 推出了 NVQLink,一種新的互聯架構,可以直接連接量子處理器和 Nvidia GPU,NVQLink 能夠以極高的速度(每秒數 TB)在 QPU 和 GPU 之間傳輸資料,這對於即時量子糾錯至關重要基於此,CUDA Q 平台得以擴展,支援 QPU 和 GPU 協同工作,在微秒級延遲內完成混合計算任務。這項技術得到了業界的廣泛支援,包括 17 家量子計算公司和美國能源部(DOE)下屬的幾乎所有主要國家實驗室。Nvidia 還宣佈將與 DOE 合作建造七台新的 AI 超級電腦,以推動美國在科學領域的領導地位開源模型Nvidia 堅信開源模型對整個生態系統至關重要。隨著推理能力的增強、多模態能力的發展和蒸餾技術的成熟,開源模型對於開發者,尤其是初創企業而言,變得前所未有的強大和實用。研究人員需要開源,開發者需要開源,全世界的公司都需要開源因此,Nvidia 投入巨大資源,成為了開源社區最大的貢獻者之一,在語言、物理 AI、生物學等多個領域的排行榜上擁有 23 個領先模型AI 生態系統Nvidia 的成功不僅在於技術本身,更在於其建構的龐大而繁榮的生態系統。他們通過與各行各業的領導者合作,將 AI 能力深度整合到世界的每一個角落。無處不在的平台Nvidia 的平台之所以能吸引大量初創公司,是因為其無處不在的可用性。無論是在各大雲服務商(AWS、Google Cloud、Microsoft Azure、Oracle),還是在本地,甚至是在一台遊戲 PC 上,開發者都可以下載和使用統一的 Nvidia 軟體棧。同時,也湧現了像 CoreWeave、Lambda 等新興的 GPU 雲服務商,為初創企業提供了更多選擇與行業巨頭的深度整合Nvidia 不僅提供底層算力,還將其 CUDA X 庫和 AI 模型整合到全球領先的企業軟體(SaaS)中,使它們最終能演變為“代理式 SaaS”。ServiceNow:承載了全球 85% 的企業工作流SAP:處理了全球 80% 的商業交易。Synopsis & Cadence:加速全球的 EDA(電子設計自動化)和 CAE 工具,並幫助它們建立 AI 設計師代理重磅新合作:網路安全與商業洞察演講中老黃宣佈了兩項新的重要合作:CrowdStrike:Nvidia 與全球領先的網路安全公司 CrowdStrike 合作,旨在打造光速的網路安全防禦體系。通過在雲端和邊緣部署超智能的 AI 代理,實現對安全威脅的瞬時檢測與響應Palantir:Palantir 的 Ontology 平台是全球最重要的企業級決策系統之一,它將資料和人類判斷轉化為商業洞察。Nvidia 將與其合作,利用加速計算,以光速和前所未有的規模處理結構化和非結構化資料,為政府、國家安全和全球企業提供更深層次的洞察力物理 AI老黃演講的最後一部分聚焦於物理 AI,即能理解並與物理世界互動的 AI,其兩大主要應用是機器人和自動駕駛汽車物理 AI 的三位一體計算平台實現物理 AI 需要三種不同類型的電腦協同工作,它們都運行在統一的 CUDA 平台上:訓練電腦:Grace Blackwell NVLink 72 這樣的 AI 超級電腦,用於訓練物理 AI 的基礎模型。模擬電腦:基於 Omniverse 的電腦,它是一個數字孿生平台。機器人可以在這個虛擬世界中安全、高效地學習如何成為一個好機器人,而無需在現實世界中進行昂貴且危險的試錯。操作電腦:Jetson Thor 這樣的高性能、低功耗的機器人電腦,被部署在機器人或汽車上,用於在現實世界中執行任務。人形機器人的未來Nvidia 正與多家領先的機器人公司合作,共同推動人形機器人的發展* **Figure**:其先進的人形機器人正在使用 Nvidia 的全套平台進行訓練、模擬和操作。 * **Agility Robotics**:專注於倉儲自動化機器人。 * **強生(Johnson & Johnson)**:開發的外科手術機器人,將在 Nvidia 技術的支援下,實現前所未有的無創手術精度。 * **迪士尼(Disney)**:合作開發了可愛的機器人 Blue,並在基於革命性技術 Newton 的全新模擬平台上進行學習,使其能夠在物理精確的環境中掌握與世界互動的技能。老黃預測,人形機器人很可能成為未來最大的消費電子市場和工業裝置市場之一。自動駕駛的拐點:從平台到網路在所有機器人中,最接近商業化拐點的是自動駕駛汽車,尤其是自動駕駛計程車(Robo-taxi),Nvidia 推出了 Drive Hyperion,一個標準化的自動駕駛汽車平台。它整合了一套完整的、具備冗餘的感測器套件(環視攝影機、雷達、雷射雷達),旨在達到最高的安全等級像 Lucid、梅賽德斯-奔馳、Stellantis 等多家汽車製造商已經採用了這個平台來製造“Robo-taxi Ready”的車輛一旦有了標準化的硬體平台,眾多優秀的自動駕駛軟體公司(如 Wayve、Wabbi、Aurora、Momenta 等)就可以將其 AI 駕駛系統部署到任何符合該標準的車輛上,就像在標準化的 PC 上安裝軟體一樣最後,Nvidia 宣佈與 Uber 合作,計畫將這些基於 Drive Hyperion 的自動駕駛汽車連接到一個全球性的出行網路中。未來,使用者可以通過 Uber 應用呼叫到這些由 Nvidia 技術驅動的自動駕駛汽車,這將催生一個龐大而成功的新計算平台 (AI寒武紀)