#AI工廠
黃仁勳:中美 AI 工廠賽,拼的是底座,不是矽谷
2025年12月4日,黃仁勳在華盛頓的一場訪談中,給AI產業競賽重新標定了坐標系。當主持人問及NVIDIA如何看待AI競爭格局時,黃仁勳的回答是:如果你沒有能源,你就沒有AI。不是大模型,不是AGI,不是演算法創新。他說,今天用於AI資料中心的GPU重兩噸,消耗20萬瓦,要價300萬美元。運行一個真正的AI資料中心,你得填滿一個足球場。AI 模型可以複製,AI 工廠不能。這場產業競賽的本質,不是誰的演算法更強,而是誰建得更快、電力充足、工廠批次落地。於是我們第一次清晰看見:AI競爭的真正戰場不在矽谷,而在作為底座的基礎設施。具體而言,是能源、晶片、平台、建廠速度和資本調度能力。誰能建出 AI 工廠,誰就是贏家。第一節|能源,才是AI工廠的底座黃仁勳在訪談裡,把能源放在了AI五層堆疊的最底端。他不是在打比方,這是產業事實: 如果我們沒有能源增長,這個產業就無法發展。01|為什麼能源成為第一層?傳統網際網路企業可以靠軟體迭代,AI工廠不行。模型吞吐量、訓練周期、推理規模,看上去是演算法問題,實質是電力問題。一台AI資料中心的GPU,是重達兩噸、耗電20萬瓦的工業裝置。而要把這些GPU跑起來,不是買幾台放機房,而是要建出一整套工業級電力系統。這就是他強調的:AI不是軟體革命,是能源革命。02|指數級需求,讓能源成為卡脖子環節NVIDIA每年都能把GPU能效拉升幾倍。但黃仁勳指出:性能增長是5到10倍,需求增長卻是1萬到100萬倍。這意味著什麼?意味著算力不是被研發速度卡住,而是被電力供應和廠區建設速度卡住。他坦言:我們正處在這項技術建設的初期,但需求已經遠遠超過基礎設施。AI的增長不是線性,是指數;而傳統能源體系的擴張速度,遠遠跟不上。這就是全球 AI 產業的根本矛盾。第二節|NVIDIA的護城河:平台,不是產品在第一節提到的五層堆疊中,黃仁勳把NVIDIA定位在最底層——平台公司,而不是應用開發者。這五層分別是:能源層(電力與基礎能源)晶片與系統層(硬體架構)基礎設施層(軟體+雲+土地+建築+資本能力)模型層(如ChatGPT、Claude、Gemini、Grok)應用層(自動駕駛、醫療、娛樂、金融、製造等場景)01|模型只在第四層,但我們只看到了它公眾眼中,AI是GPT、Claude、Sora,是發佈會、demo、token。但在黃仁勳的定義中,這些只是第四層,而且只是150萬個模型裡的幾個。真正的AI,早已不是只懂語言的系統,而是:懂基因的AI(藥物研發)懂物理運動的AI(機器人)懂長時間序列的AI(金融、天氣)懂多模態結構的AI(醫療、設計)這些模型的共用底座,不是某家公司的訓練技巧,而是平台堆疊+軟體生態+通用程式語言。02|平台的本質:讓別人造車,而不是自己做車廠黃仁勳直言:我們不製造自動駕駛汽車,但我們與世界上每一家自動駕駛汽車公司合作。我們不研發藥物,但每一家藥物研發公司都在用我們的平台。換句話說:NVIDIA的目標不是造出一個爆款產品,而是成為別人造產品時的工業基礎設施+開發工具鏈。就像英特爾支撐了PC生態,AWS重構了Web應用,黃仁勳想做的是:讓AI工廠的每一個環節,都跑在NVIDIA的堆疊上。03|CUDA:不是軟體,是平台語言外界以為NVIDIA的優勢是晶片性能,其實錯了。黃仁勳真正引以為傲的,是NVIDIA在25年前建構的一整套開發語言——CUDA。他說:“人們描述的護城河,其實不只是硬體,而是這些應用程式與我們之間的語言。”CUDA不是一段程式碼,而是全球AI工廠的通用語言。從晶片驅動,到建模工具,到深度學習框架,到圖像渲染系統,全在NVIDIA的語法裡。這意味著: 一旦開發者用CUDA寫了第一行程式碼, 一旦研究團隊用CUDA訓練了第一個模型, 一旦企業用CUDA部署了第一個AI服務,遷移成本就變得極高。04|護城河轉移:從產品能力,走向平台標準過去的競爭,拼誰模型大、誰跑得快。現在的戰爭,拼誰有平台語言、誰能讓AI工廠規模化複製。黃仁勳沒有說我們贏了,但他表示:“我們與世界上每一家AI公司合作,因為我們是那個平台。”這不是謙虛,是底氣。AI工業化的下半場,不是看誰發佈了什麼,而是看誰定義了什麼。第三節|AI工廠之戰:誰建得快,誰就贏當黃仁勳說AI的底座是能源時,他其實是在描述一場看不見的戰爭。這不是開源社區的博弈,也不是發佈會的比稿,而是一場必須靠混凝土、鋼筋、變壓器贏下來的競賽。“這不是ChatGPT對Claude,而是建廠速度對指數需求。”01|不只是買晶片,而是建工廠很多人以為買幾塊GPU就能做AI,但黃仁勳說:別以為我們做的是遊戲卡。真正的AI GPU,不是插在機箱裡的,而是:必須由高壓供電系統支撐必須放進專業冷卻架構必須在安全合規的廠房環境運行必須完成從資料、調度、訓練到推理的全流程閉環你不能只造晶片。你得有地、有電、有資金、有電網審批、有廠房、有散熱系統、有光纜接入、有跨國物流鏈。這一切,才能真正點亮AI。02|指數增長遇上行政審批:基建成為最大瓶頸黃仁勳透露了一個殘酷的現實:技術進步是指數級的,但基礎設施的建設速度卻卡在審批流程裡。土地批文卡一年;變壓器到貨要半年;跨州輸電網路審批更難以計時。他說得很克制,但警示意味十足:技術進步很快,但我們還在早期建設階段。也就是說,不是技術沒準備好,是基礎設施遠遠來不及。03|中美競速的真正變數:建廠速度美國技術一流,政策反應卻慢半拍。反觀中國,在建電、建廠、接網上的速度,成了全球AI工業最不能忽視的變數。這不是情緒判斷,而是現實級生產力差距:誰能三個月批下地誰能半年跑通100MW變電站誰能在一年內複製5座AI資料中心誰就能率先跑起來AI工業革命。04|矽谷沒輸在技術,而是輸在工業能力很多人以為這輪競爭拼的是誰有更好的AI研究員,誰能先發更大的模型。但在黃仁勳眼中,更核心的問題是:誰能在最短時間內,讓這些GPU開工。這些不是技術門檻,是工業能力門檻。黃仁勳沒有喊口號,但他的話已經把這場競爭的邏輯講透了:這場戰爭,不在雲端,也不在模型,而在地面。誰能建得快,誰就先跑出工廠;誰電夠多,誰才能跑得持久。AI的未來,不在Demo視訊裡,而在那些每天運轉、吞吐億級token的超級工廠中。第四節|別再談AI泡沫,這是一場再工業化這幾年,幾乎每一次技術躍遷之後,都會有人問:這會不會是下一輪AI泡沫?面對這個問題,黃仁勳沒有直接否認泡沫的存在。但他用了另一個更大的詞來回應:這不是泡沫,這是一次真正的再工業化。01|AI不是虛擬經濟,是實體工業從市場角度看,AI無疑有估值泡沫的成分。但黃仁勳的判斷更偏物理現實而非市場情緒:每個AI模型背後,都對應數千塊GPU每個推理系統,都需要土地、電力、冷卻系統、調度平台每個產品形態的進化,都對應一次工廠、晶片、基礎架構的迭代這些不是PPT上的路線圖,而是真正要投入資本、建設基礎設施、部署工業系統的東西。他說:我們造的不是軟體,是重量級工業系統。02|這不是技術泡沫,而是基礎設施周期的重啟黃仁勳判斷,未來10年,AI工業的最大機會不在模型迭代,而在:新一代算力中心的規模化部署新能源與算力的結合(如核能、地熱)工業GPU的模組化複製讓不同國家建立自己的AI主權系統這些描述,和上世紀美國推動電氣化、煉油廠、州際高速公路系統非常相似。他說得很直接:這是一場真正意義上的再工業化。而不是科技公司講一個新故事。03|企業要為AI自建電廠:前所未有的產業訊號黃仁勳在訪談中透露了一個趨勢:我們不能只依賴電網。我們必須自己發電,在自己的資料中心裡解決供電問題。這句話的意思是:企業要在電表之後,自己建發電系統。這不是誇張,是現實判斷。當AI工廠的耗電量大到不能依賴公共電網時,企業就必須擁有自己的能源調度能力,甚至自建電廠。這是前所未有的產業訊號:網際網路公司租伺服器,AI公司也要建電廠。04|這場工業化,重新定義了“工業”本身當大眾還在談AGI來不來,黃仁勳已經提醒我們:誰的模型最強,不重要; 誰先把模型跑起來,才重要。而能不能跑起來,取決於:有沒有自己的電有沒有自己的工廠能不能快速複製部署這是一場被誤讀的革命。它不是科技泡沫,而是產業基礎設施的重分配周期。就像20世紀初的電氣化、50年代的石化工業、90年代的網際網路基建一樣,這一輪AI工業化,正在重新定義:什麼是基礎設施(從雲到電廠)什麼是核心資產(從演算法到工廠)什麼是競爭壁壘(從技術到部署速度)黃仁勳沒有花太多時間談論模型能力、參數量、多模態的邊界。他更關注的是:誰能把這套工業系統率先跑通,誰就能定義下一個時代的遊戲規則。結語|AI紅利,落在誰的土地黃仁勳把AI工業化從雲端拉回地面。從想像,落到土地。從演算法,落到建廠。從估值,落到電網。這不是泡沫,是一場已經打響的基礎設施戰役。誰建得更快,誰電夠足,誰就掌握下一輪AI的收益分配權。這場競賽,不在矽谷的發佈會上,而在每一個正在破土動工的AI工廠裡。 (AI深度研究員)
黃仁勳與紅杉資本對談:AI工廠與智能體AI,正重塑勞動力市場與人力資源體系
資訊來源:Citadel Securities《全球市場的未來 2025:AI與下一輪增長前沿》時間:2025年10月6日|地點:紐約 Casa Cipriani一、從晶片製造到勞動力結構:不只是技術的對話2025 年 10 月初,Citadel Securities 在紐約舉辦了《全球市場的未來 2025》(Future of Global Markets 2025)論壇。在這場聚焦“AI與下一輪增長前沿”的活動中,輝達(NVIDIA)創始人兼CEO 黃仁勳(Jensen Huang)與 紅杉資本(Sequoia Capital)合夥人 Konstantine Buhler展開了長達一個多小時的對談。這場被外界視為“資本與算力的思想交匯”的對話,並沒有只停留在硬體、模型或市場規模的層面,還延伸到了一個重要的問題:AI 不僅在改變產業,也正在改變“組織與勞動力”的形態。黃仁勳在現場提出,AI 的下一輪影響將不只是演算法迭代,而是結構性地重塑整個勞動力體系。二、從資料中心到AI工廠:生產力的邏輯變化黃仁勳提出了一個正在快速取代“資料中心”的新概念——“AI工廠(AI Factory)”。這不僅是術語的變化,而是商業邏輯的根本轉向。“傳統資料中心是一個成本中心(Cost Center),它儲存和傳輸資訊;而AI工廠是一個利潤中心(Profit Center),它製造智能並創造收入。”他解釋道,一個資料中心的能耗上限是確定的——例如 1 吉瓦(gigawatt)。若你的AI基礎設施能效比競爭對手高出三倍,那麼在同樣的能源消耗下,你的公司就能產出三倍的智能與利潤。“這就是我稱之為工廠的原因,它不是資料中心。它是一個工廠,他們用它來賺錢。”他還分享了一段有趣的往事:輝達推出首台 DGX-1 超級電腦時,他親自將機器交付給當時在 OpenAI 的埃隆·馬斯克(Elon Musk),並笑稱自己沒想到第一位客戶竟然是一個“非營利組織”。這一故事象徵著AI產業的轉折點:AI不再只是算力服務,而是一種新的製造業形態——製造智能。三、AI走進勞動力市場:從工具到“數字同事”在這場對話中,黃仁勳提出——AI 將首次系統性地進入一個過去技術難以觸及的領域:全球勞動力市場。他預言,這個市場的規模高達 100兆美元,而 AI 的介入將帶來前所未有的結構性變化:“未來的企業勞動力,將由人類員工與數字員工(Digital Humans)共同組成。”他所說的“數字員工”,並不是今天常見的自動化系統或聊天機器人,而是一種能夠理解業務語境、具備決策能力、可以持續學習的智能體(Agentic AI)。他稱這種新型勞動力為 “智能體AI”,並列舉多個角色:數字軟體工程師(Digital Software Engineer)數字護士(Digital Nurse)數字行銷人員(Digital Marketer)數字法務顧問(Digital Counsel)在他看來,隨著智能體勞動力加入,企業組織結構的邊界將被重新定義:勞動力的核心不再僅是人力,而是“人類智能 + 機器智能”的組合;組織的管理體系將從“人力管理”轉向“智能協作管理”;企業文化、培訓體系、績效機制都將被重構。四、從IT部門到“AI員工的人力資源部”在對談中,黃仁勳分享了他在輝達內部的一個設想——隨著AI系統數量和複雜度的增加,未來的 IT 部門將承擔起類似“AI員工HR”的角色:“我告訴我們的 CIO,他們未來將成為 AI 員工的人力資源部。這些數字員工將與我們的生物員工一起工作,這就是未來公司的樣子。”組織內部的人力資源邊界正在擴展:招聘(Selection):企業將從不同AI平台挑選合適的智能體(如 OpenAI、Anthropic、Harvey、Cursor 等),或訓練自研模型;入職(Onboarding):通過微調(fine-tuning)和強化學習(RLHF)讓AI理解企業文化、價值觀與業務流程;績效管理(Evaluation):根據AI輸出的精準率、響應速度、決策質量設定考核標準;迭代與離職(Offboarding):像員工輪崗一樣,AI模型將持續升級或被替換。這不是“機器人取代人類”的故事,而是組織開始學會管理智能體。五、對勞動力市場與HR職能的系統衝擊黃仁勳的觀點,不只是對技術的展望,更是對整個用工生態的再定義。從他的表述中,可以歸納出AI對勞動力市場和人力資源管理的四個核心影響方向:1. 勞動力結構從“單一人類”轉向“混合智能”企業不再只依賴僱員數量,而是計算“人機混合產能”。AI代理的工作時長、響應速度和持續學習能力,使得組織邊界被大幅擴展。2. HR的職能邊界將重新劃分傳統HR關注人類生命周期管理;未來HR需要與IT部門共管“數字勞動力”。包括模型選擇、授權、訓練反饋、倫理監管、資料安全等。3. 企業文化需要數位化嵌入如果AI要與人協作,它必須“理解文化”。企業文化將從理念轉化為可學習的語料、prompt範本、反饋機制,成為演算法訓練的一部分。4. 新的信任機制與領導力形態管理者將面臨新的領導力議題:如何協調人類與AI的分工?如何建立信任?如何在演算法的確定性與人性的模糊性之間平衡?這意味著,未來的領導力不僅是“帶人”,而是在不同類型的智能之間建立合作秩序。六、現實約束與理性判斷從趨勢看,黃仁勳的觀點符合當前AI發展的方向,但從落地角度,它仍面臨多重挑戰:法律與倫理邊界尚未確立:AI不具備主體資格,責任與資料安全問題複雜。組織文化嵌入難度大:讓AI真正理解企業價值觀仍需要大量語義建模。管理認知尚未匹配:多數企業HR與IT仍在各自體系中運作,缺乏協同機制。“AI員工上班”的未來並非明天到來,但它已經在技術與制度之間,成為一種不可逆的方向。這將是一場技術與管理的雙重革命,也是人力資源體系必須正面迎接的結構性轉折。 (AI組織進化論)
【GTC】AI工廠正讓美國製造業加速回流:黃仁勳在輝達GTC大會的開場演講
2025年,NVIDIA GTC迎來了自2009年創辦以來最具變革性的一年。今年,GTC首次突破了傳統的"單一主場"模式,在全球四個城市連續舉辦——3月的聖何塞主場、5月的台北(與COMPUTEX合辦)、6月的巴黎,以及10月首次進入美國政治心臟華盛頓特區。這種"一年四城"的密集佈局在GTC 16年歷史上前所未有,且每一場都是黃仁勳親自壓陣,每場都有重磅產品發佈和戰略宣言。昨天華盛頓場的出現尤為意義深遠。在這場被Axios稱為"Nvidia's D.C. moment"的大會上,Jensen不再只是一位科技CEO,更像是國家AI戰略的設計師,他宣佈與美國能源部合作建設7座AI超級電腦,發佈與Nokia聯合開發的6G通訊平台Arc,強調"Made in America"的製造業回流。這場被稱為"AI超級碗"的盛會,見證了輝達在加速計算、量子計算、6G通訊、機器人技術等多個前沿領域的重大突破,以及"美國製造"的加速回歸。(視訊連結:NVIDIA GTC Washington, D.C. Keynote with CEO Jensen Huang,https://www.youtube.com/watch?v=lQHK61IDFH4&t=97s)核心觀點速覽1. AI不是工具,而是工作者:AI首次能夠使用工具完成工作,從幾兆美元的IT工具市場擴展到百兆美元的全球經濟2. Grace Blackwell NVL72性能革命:單GPU性能達H200的10倍,同時實現最低token生成成本,已獲得5000億美元的在手訂單3. 6G戰略突破:輝達Arc平台攜手Nokia重塑美國電信技術領導地位,覆蓋全球數百萬基站4. 量子-GPU融合:NVQLink架構獲17家量子公司支援,美國能源部合作建設7座AI超級電腦5. 三大擴展定律驅動AI爆發:預訓練、後訓練、推理思考三個階段疊加,創造兩個指數級增長的虛擬循環6. 極致協同設計:從單晶片到整個AI工廠的全端創新,Vera Rubin性能相當於100台DGX-17. 物理AI新紀元:三台電腦架構(訓練、模擬、運行)支撐人形機器人和Robotaxi產業化8. 九個月兌現承諾:Blackwell在亞利桑那州全面生產,120萬個元件、130兆電晶體實現美國製造9. 開源模型戰略:23個模型登頂榜首,支撐研究者和初創企業生態,確保美國在開源領域領先‍1. 加速計算的歷史拐點:CUDA-X生態的30年積累黃仁勳開場就強調,輝達發明了60年來首個全新的計算模型——加速計算。這場技術革命的背景是:傳統的摩爾定律走到了盡頭。"電晶體性能提升已經停滯近十年,雖然我們能塞進更多電晶體,但它們的速度和能效卻沒怎麼提升了。"正因為預見到這一趨勢,輝達在30年前就開始研發加速計算,發明了GPU和CUDA程式設計模型。CUDA-X庫的價值:輝達目前擁有350個不同的庫,每個庫都為特定領域重新設計了演算法,使得生態系統夥伴能夠充分利用加速計算。從計算光刻(cuLitho)到醫療影像AI框架(MONAI),從量子計算(cuQuantum)到基因組學處理,這些庫構成了NVIDIA的"公司瑰寶"。特別值得一提的是cuLitho庫,這是用來製造晶片的關鍵技術。經過近7年開發,現在被台積電、三星、ASML等晶片製造巨頭使用。這套完整的庫體系,為接下來要講的各個領域創新打下了堅實基礎。2. 6G領域:攜手諾基亞打造Arc平台,重塑美國電信技術在電信領域,黃仁勳宣佈了一項具有戰略意義的合作。輝達將與全球第二大電信裝置製造商諾基亞合作,推出全新的NVIDIA Arc產品線——空中無線網路電腦(Aerial Radio Network Computer)。Arc平台的技術架構Arc平台把三項核心技術整合到一起:Grace CPU(處理器)、Blackwell GPU(圖形處理器)和ConnectX網路技術,運行專門為無線通訊設計的軟體庫Aerial。簡單說,這是全球首個能同時干兩件事的電腦:既能做無線通訊,又能跑AI。"這是完全革命性的。我們稱之為NVIDIA Arc,諾基亞將與我們合作整合我們的技術,重寫他們的協議棧。"重塑美國電信技術領導地位這次合作意義重大。諾基亞掌握著7000項5G核心專利,與輝達攜手後,全球數百萬個通訊基站都能升級成支援6G和AI的新一代裝置。這意味著美國有機會重新奪回在無線通訊技術領域的話語權。Arc平台將實現兩大創新:AI for RAN(利用AI提高無線電頻譜效率)和AI on RAN(在無線網路上建立邊緣工業機器人云計算)。3. Quantum量子計算:NVQLink開啟量子-GPU融合時代黃仁勳講了一段歷史:1981年,物理學家Richard Feynman就夢想著造出能直接模擬大自然的量子電腦。40年過去了,去年行業終於有了關鍵突破——我們能造出一個穩定可靠、經過糾錯的邏輯量子位元了。在量子計算領域,輝達發佈了革命性的NVQLink量子-GPU互連架構。這一技術解決了量子計算面臨的關鍵挑戰——量子糾錯和經典-量子協同計算。技術突破的核心NVQLink的厲害之處在於:它能以極快的速度(每秒數千次)在量子電腦和GPU之間傳輸海量資料,這是做量子糾錯必須的速度。通過CUDAQ開放平台,研究人員不僅能糾錯,還能讓量子電腦和AI超級電腦協同工作。產業支援:17家量子計算公司支援NVQLink,8個美國能源部實驗室參與合作,包括伯克利、布魯克海文、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺、太平洋西北和聖地亞哥等頂級科研機構。與美國能源部的戰略合作更重磅的消息是,美國能源部宣佈跟輝達一起建7座新的AI超級電腦,用來做國家級科研項目。美國能源部部長Chris Wright親自參與,可以看出美國政府鐵了心要保持科技領先地位。4. AI領域:新工業革命的核心引擎AI是工作者而非工具黃仁勳說了句很有深度的話:"AI不是工具,AI是幹活的。"這跟以前的軟體完全不一樣。Excel、Word、瀏覽器都是工具,需要人來用。但AI呢?它自己會用工具幹活。舉幾個例子:Perplexity的AI會用瀏覽器幫你訂旅行,Cursor這個AI助手會用VS Code幫NVIDIA的工程師們寫程式碼,Robotaxi裡的AI司機用的工具就是汽車。這意味著什麼?AI不再侷限於幾兆美元的IT工具市場,而是能參與到百兆美元的全球經濟大盤子裡了。AI的三大擴展定律與虛擬循環黃仁勳詳細闡述了AI發展的三個關鍵階段,這解釋了為什麼AI計算需求呈現爆炸式增長。三個技術階段預訓練:讓AI學習人類創造的所有資訊,這是基礎智能技能的培養後訓練:教授AI解決問題的技能,如數學、程式設計、逐步推理等推理思考:AI需要為每個人類進行即時思考,這需要巨大的計算資源"背誦記憶的東西很容易,背乘法表也不難,但真正的思考?那可太難了。"虛擬循環的形成現在的AI模型已經夠聰明了,聰明到大家願意掏錢用。這就形成了一個良性循環:AI越聰明,用的人越多;用的人越多,就需要更多計算資源;有了更多資源,AI又變得更聰明。兩個指數級增長疊在一起,這個飛輪已經轉起來了。AI工廠:生產智能的新型基礎設施黃仁勳在去年的GTC大會上首次提出了個很形象的概念——把AI資料中心叫"AI工廠"。這個工廠生產什麼?生產tokens(可以理解為AI思考的"單位")。跟傳統資料中心不一樣,AI工廠是專門設施,目標就是用最快速度、最低成本生產高品質的tokens。為什麼這個概念重要?因為在傳統IT時代,晶片產業只佔5%左右的份額——用Excel、刷網頁不需要太多計算能力。但AI不一樣,它需要即時理解你說的話、進行推理、制定計畫、執行任務,每一步都要生成大量tokens。這就需要全新的"工廠"基礎設施。極致協同設計:Grace Blackwell NVL72面對指數級增長的計算需求,NVIDIA推出了極致協同設計的Grace Blackwell NVL72系統,這是現代最極端的協同設計電腦。性能突破:第三方機構Semi Analysis測試顯示,Grace Blackwell單個GPU的性能是上一代H200的10倍!更厲害的是,雖然它看起來是最貴的電腦,但算下來生產每個token的成本反而是最低的。性價比最高。‍市場需求的爆炸性增長NVIDIA透露了個驚人數字:到2026年,Grace Blackwell和早期Rubin的訂單已經看得見5000億美元了。科技史上還從沒有公司能提前看到這麼多訂單。更直觀的對比:前四個季度就出貨了600萬個Blackwell GPU,而上一代Hopper整個生命周期才出貨400萬個。Blackwell的增長速度是Hopper的5倍。下一代架構:Vera Rubin在現場,黃仁勳親自展示了下一代Vera Rubin系統——第三代NVLink 72機架級電腦,採用完全無纜設計,算力達到100 petaflops。性能對比:一台Vera Rubin有多強?相當於100台九年前的DGX-1超級電腦,或者說把25個機架的計算能力塞進了一個櫃子裡。這是計算密度的革命性飛躍。Vera Rubin採用100%液冷設計,整合了多種處理器:兩個Vera CPU、四個Rubin GPU包、八個ConnectX-9網路卡、八個CPX處理器和BlueField-4資料處理器。5. Factories工廠:從AI工廠到智能製造的全面革命AI工廠的數字孿生:Omniverse DSXNVIDIA不再只是設計晶片,而是設計整個AI工廠。Omniverse DSX是建構和營運千兆瓦級AI工廠的藍圖,首次實現了建築、電力、冷卻與NVIDIA AI基礎設施堆疊的協同設計。數字孿生的威力通過與雅各布工程、西門子、施耐德電氣等合作夥伴的協作,整個AI工廠在物理建設之前就在Omniverse數字孿生中完成設計、模擬和最佳化。經濟效益:對於1千兆瓦的AI工廠,DSX最佳化可以每年帶來數十億美元的額外收入。NVIDIA正在弗吉尼亞州建設AI工廠研究中心,使用DSX測試和產品化Vera Rubin。美國製造的工廠革命與富士康在德克薩斯州休斯頓建設的機器人製造設施代表了"美國再工業化"的新篇章。整個工廠在Omniverse數字孿生中設計,使用Fanuc機械臂、AGV小車、視覺AI代理等,實現人機協作的未來製造。6. Models模型:開源生態的戰略意義黃仁勳特別強調,美國必須在開源AI模型領域保持領先。"我們有很厲害的專有模型,但也需要同樣厲害的開源模型。國家發展需要它,創業公司更離不開它。"NVIDIA目前在開源貢獻方面領先,擁有23個模型在排行榜上名列前茅,涵蓋從語言模型到物理AI模型,從生物學模型到機器人技術的各個領域。開源模型在過去幾年因為推理能力、多模態和蒸餾技術變得高度可用,現在是初創企業的生命線。研究人員需要開源,開發者需要開源,全球企業需要開源。每個行業都有自己的用例、資料和飛輪,開源模型使領域專業知識能夠嵌入到模型中。7. Enterprise企業:建構無處不在的AI生態戰略級企業合作演講中宣佈了多項重要的企業合作:Palantir Ontology合作與"全球最快的企業公司"Palantir合作,將輝達技術整合到Palantir Ontology平台中,實現大規模、高速度的資料處理,為政府國家安全和全球企業提供商業洞察。CrowdStrike網路安全與CrowdStrike合作打造"光速網路安全",在雲端和邊緣部署AI代理,確保在威脅出現時能夠瞬間檢測和響應。SaaS平台整合與ServiceNow(85%的企業工作流程)、SAP(80%的全球商業)、Synopsis、Cadence等關鍵平台深度整合,將這些SaaS轉變為代理式SaaS。雲端與邊緣的全覆蓋輝達強調"Nvidia is Everywhere"(輝達無處不在)的戰略。所有CUDA-X庫和開源模型都整合到AWS、Google Cloud、Microsoft Azure、Oracle等主要雲平台,確保開發者無論選擇那個雲,都能獲得一致的體驗。8. Robotics機器人:物理AI開啟新紀元三台電腦架構物理AI需要三台電腦的協同:訓練電腦(Grace Blackwell NVL72)用於訓練AI模型,模擬電腦(Omniverse)用於在數字孿生中模擬和測試,機器人電腦(Thor Jetson Thor)用於實際運行機器人。物理AI理解物理世界、物理定律、因果關係和對象持久性。這種AI不僅處理資料,還要在真實物理環境中採取行動。人形機器人:未來最大的消費電子產品合作夥伴生態:Figure人形機器人(成立僅3.5年,估值近400億美元)、Disney研究的Newton模擬平台、Agility的倉庫自動化機器人、強生的手術機器人等,構成了完整的物理AI生態系統。黃仁勳預測,人形機器人"很可能成為世界上最大的新消費電子市場之一,以及最大的工業裝置市場之一"。Robotaxi:輪子上的機器人NVIDIA Drive Hyperion平台與Uber宣佈合作,建構全球機器人計程車網路。該平台已被Lucid、奔馳、Stellantis等汽車製造商採用,為自動駕駛的大規模部署奠定了基礎。9. 美國製造:九個月實現的承諾整場演講主題:"美國製造,服務世界(Made in America, made for the world)"。黃仁勳透露,川普第一個要求就是"把製造業搬回來"。九個月後,Blackwell已經在亞利桑那州全面投產了。完整的美國生產鏈黃仁勳詳細展示了Blackwell的完整生產鏈條:亞利桑那:矽晶圓處理,2000億電晶體逐層建構印第安納:HBM記憶體堆疊組裝德克薩斯:機器人24小時工作,組裝超過1萬個元件加利福尼亞:ConnectX8網路卡和BlueField-3 DPU組裝"總共120萬個元件,2英里長的銅纜,130兆電晶體,重量近2噸。從亞利桑那州和印第安納州的矽片到德克薩斯州的系統,Blackwell和未來的NVIDIA AI工廠世代將在美國製造。"10. 結語:七大領域的全面佈局黃仁勳在演講最後系統總結了輝達的全面佈局:"我們今天討論了很多內容。"這些內容覆蓋了七大核心領域:加速計算:30年積累,350個CUDA-X庫,迎來虛擬循環的拐點6G:NVIDIA Arc平台與Nokia合作,重塑美國電信技術領導地位Quantum:NVQLink連接量子與GPU,17家量子公司支援,7座DOE超級電腦AI:從工具到工作者,三大擴展定律驅動虛擬循環,5000億美元訂單可視性Models:23個開源模型登頂榜首,支撐研究者和初創企業生態Enterprise:與Palantir、CrowdStrike等深度整合,AI無處不在Robotics:人形機器人、Robotaxi,開啟物理AI新紀元Factories:AI工廠DSX、智能製造MEGA,數字孿生驅動營運這場演講展現了兩個平台轉型的歷史性碰撞:一個是從通用計算轉向加速計算,另一個是從傳統程式設計轉向人工智慧。兩個轉型同時發生,產生了指數級疊加效應。輝達展現了部署的全端創新能力——從底層晶片到系統設計,從軟體庫到應用模型,從資料中心到整個工廠,全都自己設計。而這一切都在"美國製造"的框架下完成,9個月內把Blackwell生產線搬回美國。2025年的GTC不僅僅是產品發佈會的集合,更像是輝達在AI時代重新定義自己的全球角色,似乎將自己定位為這場AI“新太空競賽”的核心引擎。 (JER學家)
【GTC】黃仁勳 GTC大會演講精華:超級晶片、AI工廠與“美國利益”
預計Vera Rubin“超級晶片”將在明年進入量產階段。2025年10月29日清晨,輝達創始人兼首席執行官黃仁勳在華盛頓舉行的GTC華盛頓技術峰會上發表了重要演講。計算架構範式轉移演講中,黃仁勳回顧了計算行業的歷史轉折點。數十年來,CPU的性能一直遵循著可預測的縱向擴展(scale-up)增長軌跡。然而,隨著登納德縮放定律(Dennard scaling)——即通過不斷縮小電晶體尺寸來維持功率密度,從而降低功耗並提升性能——的終結,傳統的發展路徑已難以為繼。面對這些挑戰,輝達的答案是平行計算、GPU和加速計算架構。黃仁勳宣稱:“這個轉折點已經到來,而輝達已經準備就緒。我們認識到,通過引入能夠充分利用指數級增長電晶體的處理器,應用平行計算技術,並與順序處理的CPU協同工作,我們可以將計算力推向一個全新的維度——這個時代真正來臨了。”加速計算的實現,有賴於輝達精心建構的軟體基石——CUDA-X全端加速庫。這個龐大的軟體生態系統涵蓋了深度學習領域的cuDNN和TensorRT-LLM、資料科學平台RAPIDS(cuDF/cuML)、決策最佳化工具cuOpt、計算光刻解決方案cuLitho,以及量子與混合計算框架CUDA-Q和cuQuantum等關鍵領域。黃仁勳將這個完整的軟體生態系統譽為“公司最寶貴的財富”。它構成了輝達加速計算戰略的技術核心,為各行各業的計算轉型提供了底層動力。AI原生6G技術堆疊ARC-Pro演講中,黃仁勳強調,電信技術是經濟和國家安全的生命線,但目前全球大部分無線技術部署都依賴於他國的技術體系。黃仁勳表示:“這種核心通訊技術受制於人的局面必須結束,現在我們迎來了扭轉局面的歷史性機遇。”他相信,美國將“重新奪回通訊技術的主導權”。為實現這一戰略目標,輝達推出了革命性的NVIDIA ARC——一個以美國技術為核心的AI原生6G無線技術堆疊。該平台基於輝達的Aerial平台建構,整合了Grace CPU、Blackwell GPU和先進的網路元件,並通過加速計算實現了性能突破。據黃仁勳透露,輝達已與通訊裝置巨頭諾基亞(Nokia)達成深度戰略合作。諾基亞將為其未來的基站系統中整合NVIDIA ARC解決方案,該平台將賦能精確機器人控制、高精度天氣預報等關鍵應用。根據輝達官方部落格文章,該公司計畫將其商業級AI-RAN產品整合到諾基亞領先的無線接入網(RAN)產品組合中,使通訊服務提供商能夠在輝達平台上部署AI原生的5G-Advanced和6G網路。作為合作的一部分,輝達將以每股6.01歐元的價格認購1.664億股諾基亞新股,總投資額達10億美元。NVQLink:打通量子計算的“經絡”在探討計算科學前沿時,黃仁勳回憶起量子物理學家理查德·費曼四十年前的願景:創造一台能夠直接模擬自然規律的量子電腦。“現在我們能夠製備穩定、相干且可糾錯的邏輯量子位元,”黃仁勳指出。“然而,這些量子位元極其脆弱,需要強大的技術來支援量子糾錯和狀態解讀。”為實現量子計算與GPU計算的無縫融合,輝達推出了量子-GPU互連技術NVQLink。這項創新使得量子處理單元(QPU)能夠即時呼叫CUDA-Q計算框架,將通訊延遲降低到約4微秒的極致水平。NVQLink將量子處理器和控制硬體系統的多種方法直接連接到 AI 超級電腦上,能夠幫助量子從業人員克服在擴展硬體時所面臨的整合難題。作為一種開放系統架構,它可以將 GPU 計算與量子處理器進行緊密結合,從而為量子超級電腦帶來加速。在現場演示中,黃仁勳身後的大螢幕展示了一個包含17家領先量子計算公司和多家美國能源部實驗室的協同創新生態網路。“幾乎所有美國能源部下屬的實驗室都在與我們的量子計算生態系統合作夥伴緊密協作,將量子計算融入未來的科學發展藍圖。”攜手能源部共建新一代超算叢集黃仁勳宣佈,美國國家實驗室正步入由AI基礎設施驅動的科研新紀元。輝達已與美國能源部(DOE)達成戰略合作,將共同建造七台新一代超級電腦,為未來的科學研究提供強大的算力支撐。在具體佈局上,輝達將聯合美國能源部及甲骨文,在阿貢國家實驗室內建造DOE體系內規模最大的AI超級電腦叢集。該超算網路由兩大核心系統構成:Solstice系統將部署100,000顆輝達Blackwell GPU。建成後,它將成為全球最大的、面向公共研究的智能體科學平台。Equinox系統配備10,000顆Blackwell GPU,提供高達2200 EFLOPS的AI算力,專門服務於前沿科學計算、模擬模擬和開放式研究。這項重大的基礎設施投資,標誌著美國正式邁入“智能體驅動科學研究”的新時代,將極大提升其在國家安全、能源戰略、基礎科研等關鍵領域的創新能力和發展速度。本土製造戰略:在美國本土量產Blackwell晶片在產業佈局方面,黃仁勳透露了重要進展:Blackwell GPU已在美國亞利桑那州實現規模化生產,基於該晶片的整機系統也將在美國本土組裝。此舉標誌著輝達成功將其旗艦產品的製造從完全依賴台積電,轉向了美國本土的供應鏈體系。值得注意的是,本次發佈會的許多公告都帶有明確的政策導向。通過展示其在美國科技生態系統中的核心地位,輝達向政策制定者傳遞了一個關鍵資訊:限制晶片出口將直接損害美國的利益。黃仁勳在會前透露,選擇華盛頓作為會議地點是為了方便川普總統出席,但由於總統的亞洲之行未能如願。在市場表現方面,黃仁勳透露GPU需求依舊強勁:過去四個季度,輝達已出貨600萬顆Blackwell GPU,預計Blackwell及下一代Rubin晶片的總銷售額將達到5000億美元的規模。Vera Rubin超級晶片明年量產黃仁勳在會上展示了下一代Vera Rubin超級晶片,其上搭載了Vera CPU和兩顆巨大的Rubin GPU。該主機板還承載了大量的LPDDR系統記憶體,這些記憶體將與Rubin GPU上的HBM4記憶體協同工作。黃仁勳還表示,Rubin GPU已經返回實驗室,這意味著這些是由台積電生產的首批樣品。每個GPU周圍都有大量的供電電路,每個晶片將包含8個HBM4堆疊位點和兩個光罩尺寸(Reticle-sized)大小的GPU裸片。Vera CPU將配備88個定製ARM核心和176個執行緒。談到推出計畫,黃仁勳透露,他預計Rubin GPU將在明年大約同一時間或更早進入量產階段,也就是2026年第三或第四季度。與此同時,輝達的Blackwell Ultra “GB300” 超級晶片平台正在全速推出。規格方面,輝達Vera Rubin NVL144平台將採用兩款新晶片。Rubin GPU將使用兩個光罩尺寸大小的晶片,提供高達50 PFLOPS的FP4性能和288 GB的下一代HBM4記憶體。這些晶片將與一顆擁有88核定製Arm架構、176執行緒的Vera CPU以及高達1.8 TB/s的NVLINK-C2C互連技術一起配置。在性能擴展方面,輝達Vera Rubin NVL144平台將具備3.6 Exaflops的FP4推理能力和1.2 Exaflops的FP8訓練能力,比GB300 NVL72提升3.3倍;擁有13 TB/s的HBM4記憶體頻寬和75 TB的快速記憶體,比GB300提升60%;NVLINK和CX9的能力則提升2倍,分別達到最高260 TB/s和28.8 TB/s。第二個平台將於2027年下半年問世,名為Rubin Ultra。該平台將把NVL系統從144擴展到576。CPU架構保持不變,但Rubin Ultra GPU將採用四個光罩尺寸大小的晶片,提供高達100 PFLOPS的FP4性能,以及分散在16個HBM位點上、總計1 TB的HBM4e容量。在性能擴展方面,輝達Rubin Ultra NVL576平台將具備15 Exaflops的FP4推理能力和5 Exaflops的FP8訓練能力,比GB300 NVL72提升14倍;擁有4.6 PB/s的HBM4記憶體頻寬和365 TB的快速記憶體,比GB300提升8倍;NVLINK和CX9的能力則分別提升12倍和8倍,達到最高1.5 PB/s和115.2 TB/s。AI工廠革命:從工具到生產力實體“AI不是工具,而是生產力實體,”黃仁勳在演講中提出了這一革命性觀點。“歷史上第一次,技術擁有了執行勞動任務的能力,成為人類生產力的延伸。”這種從“工具”到“AI工人”的根本性轉變,正催生著全新的計算範式,進而帶來前所未有的職業形態和產業圖景。在黃仁勳的設想中,現代“AI工廠”遠非傳統資料中心所能代表。它是專為海量令牌(tokens)的生成、傳輸和服務而建構的全新綜合計算平台。這種平台級架構旨在實現前所未有的計算密度和能效比。面對AI算力需求的指數級增長,黃仁勳詳述了輝達的解決方案:“首先,我們重新定義電腦的形態,首次將單個計算系統擴展至整個機櫃的規模;其次,通過創新的AI乙太網路技術Spectrum-X,實現多個系統之間的無損橫向擴展。”隨著AI工廠的興起,機器人工程、量子科學等新興領域正在創造大量前所未有的就業機會。“創新的飛輪已經啟動,”黃仁勳強調。“接下來的關鍵是通過成本控制,大幅降低營運成本,最佳化使用者體驗,維持這個創新循環的持續運轉。”實現這一願景的關鍵在於“極致協同設計”,即同步設計全新的底層計算架構,涵蓋晶片、系統平台、軟體棧、AI模型和終端應用。為了展示這一理念的實物成果,黃仁勳在台上展示了新一代NVIDIA BlueField-4 DPU。這款整合了64核Grace CPU和ConnectX-9網路晶片的資料處理器,計算性能是其前代的六倍,將成為未來AI工廠的“作業系統核心”。這款革命性的DPU專為解除安裝和加速伺服器的網路、儲存和安全任務而設計。計畫於2026年首先部署在輝達的Vera Rubin機櫃級AI平台上,隨後向更廣泛的伺服器生態系統開放。Omniverse DSX:AI工廠的藍圖為應對大規模AI部署的挑戰,黃仁勳正式推出了Omniverse DSX——一個全面覆蓋從100兆瓦到數千兆瓦規模AI工廠設計與營運的綜合解決方案。該藍圖已在弗吉尼亞州的AI工廠研究中心得到充分驗證。為了使DSX參考設計更能適應不同的資料中心,輝達提供了兩種配置框架:DSX Boost(內部能效最佳化):通過智能電源管理和動態工作負載分配,在相同算力輸出下可降低約30%的能耗,或在相同功率預算下提升30%的GPU密度,實現令牌生成吞吐量的質的飛躍。DSX Flex(外部能源整合):將資料中心深度融入區域電網系統。通過智能調度可再生能源、平衡供需關係,可有效啟動美國電網中約100吉瓦(gigawatts)的閒置容量。Omniverse DSX旨在讓新進入者能夠快速建構AI工廠。該解決方案確保了輝達及其合作夥伴的硬體在處理器、網路和冷卻系統層面上開箱即相容。即使沒有專業經驗,也可以按照藍圖進行部署,最大限度地減少了定製化需求。值得注意的是,該架構不僅完美支援當前的Blackwell平台,還為下一代Vera Rubin等未來產品預留了相容性,為投資者提供了長期的技術保障。開放生態與產業融合演講中,黃仁勳強調了開放生態系統的核心價值:“開源模型和開放協作是全球創新的基石,為初創企業、研究機構和工業企業提供了持續的動力。”據悉,輝達今年已向開發者社區貢獻了數百個高品質的開源模型和資料集。輝達建構了一個覆蓋關鍵領域的開源模型體系:Nemotron: 專注於智能體推理與決策的AICosmos: 打破合成資料生成與物理AI的界限Isaac GR00T: 賦能機器人技能學習與跨場景泛化Clara: 重塑生物醫藥研究與臨床工作流這些模型家族將共同賦能下一代智能體系統、機器人技術和科學發現。黃仁勳強調:“我們持續投入開放生態,因為這是科研、創業和產業升級的共同需求。”現場展示的合作夥伴成果顯示了輝達技術廣泛的應用場景,涵蓋了Google雲、微軟Azure、甲骨文等雲端運算巨頭,ServiceNow、SAP等企業服務提供商,以及Synopsys、Cadence等專業領域的領導者。黃仁勳還宣佈了兩項戰略合作:與CrowdStrike合作建構新一代網路安全體系,通過Nemotron模型和NeMo工具鏈,實現從雲到邊緣的“光速”威脅檢測與響應;與Palantir達成深度技術整合,將加速計算架構、CUDA-X庫和開源模型融入Ontology資料平台,實現大規模資料處理的性能突破。為美國再工業化打造數字孿生平台物理AI正在推動美國的再工業化——通過機器人和智能系統改造工廠、物流和基礎設施。在一段視訊中,黃仁勳重點介紹了合作夥伴如何將其應用於實際工作中。“工廠本質上是一個機器人,它指揮著其他機器人製造機器人的東西,”他說。“這需要大量的軟體,除非你能在數字孿生中完成,否則幾乎不可能實現。”黃仁勳在台上特別提到了富士康的工作,該公司正在使用Omniverse工具設計和驗證位於休斯頓的新工廠,該工廠將用於製造NVIDIA AI基礎設施系統;卡特彼勒公司——該公司也在製造過程中應用數字孿生技術;佈雷特·阿德科克,他在三年半前創立了Figure AI公司,該公司為家庭和工作場所製造人形機器人,現在價值近40億美元;強生公司;以及迪士尼,該公司正在使用Omniverse訓練“有史以來最可愛的機器人”。自動駕駛:Uber和DRIVE Hyperion 10黃仁勳宣佈,Uber和NVIDIA正在合作建構自動駕駛出行的主幹網,目標是打造約10萬輛自動駕駛汽車,並從2027年開始擴展。NVIDIA DRIVE AGX Hyperion 10是4級參考架構:安全、可擴展、軟體定義,在一個網路上統一人類和機器人駕駛員。“未來,你就能叫到這樣的車了,”黃仁勳說,“這個生態系統將會非常豐富,Hyperion 或自動駕駛計程車將會遍佈世界各地。”“人工智慧時代已經開啟。Blackwell是它的引擎。美國製造,服務全球,”黃仁勳總結道。“感謝大家讓我們將GTC帶到華盛頓特區。我們希望每年都能舉辦這樣的活動,也感謝大家的貢獻,讓美國再次偉大。” (半導體產業縱橫)
【GTC】黃仁勳GTC 演講揭示AI工廠未來圖景 輝達市值向5兆美金邁進!
據外媒報導:NVIDIA  CEO黃仁勳在華盛頓特區舉行的 GTC 大會主題演講中,描繪了人工智慧(AI) 作為下一個工業革命的願景,並將其比喻為美國繼太空時代黎明以來最大的能力考驗。據報導:這是輝達 GTC 大會創辦以來首次移師美東地區舉辦。計算模式革命開始加速計算與摩爾定律終結黃仁勳回顧了美國歷史上的創新時代,從貝爾實驗室的電晶體的誕生、IBM System/360 到蘋果公司的個人電腦。他指出,半導體產業的基礎-登納德縮放 (Dinard scaling) 已在大約十年前停止。由於物理定律的限制,電晶體的性能和功耗增長已大幅放緩,這意味著摩爾定律 (Moore’s law) 無法持續。為瞭解決通用電腦無法解決的問題,輝達發明了一種新的運算模型 「加速運算」。輝達發明了 GPU 和 CUDA 程式設計模型,透過利用平行計算能力,將運算能力擴展到傳統 CPU 之外。而 CUDA 已是輝達的核心寶藏,歷經 30 年的發展,現已推出 CUDA 13,即將推出 CUDA 14,還有數億個 GPU 運行著完全相容的 CUDA。甚至,加速計算需要重新設計演算法、建立新的函式庫,並重寫應用程式,輝達也已針對不同領域如計算曝光 (cuLitho)、數值最佳化 (cuOpt)、醫療成像 (Monai) 和基因組學 (Ariel) 等,開發了 350 多個 CUDA X 函式庫。從工具到工作者轉變的 AI 工廠黃仁勳指出,AI 的影響遠超聊天機器人。AI 已經徹底改變了整個運算堆迭,從傳統的手寫程式碼轉變為機器學習,這是一種訓練資料密集的程式設計方式,運行在 GPU 上。他解釋,AI 的計算單元是 Token。Token 可以代表文字、圖像、影片、3D 結構,甚至化學物質、蛋白質和基因等。一旦資訊被 Token 化,AI 就能學習其語言和含義,進行翻譯和生成。過去,軟體產業是關於建立如 Excel 或瀏覽器這樣的工具。然而,AI 的本質是工作,AI 系統本質上是能夠使用這些工具的工作者。這種新的計算需求,需要一種新型的系統— AI 工廠。與過去用於儲存檔案和運行多種應用的通用資料中心不同,AI 工廠專門設計用於生產 Token,這些 Token 必須儘可能有價值,並且必須以極高的速率生產,同時具備成本效益。AI 發展正面臨兩個指數級成長壓力黃仁勳強調,AI的發展現正面臨兩個指數級成長壓力。首先,隨著 AI 模型從預訓練、後訓練到推論,運算需求呈指數級增長。其次,由於 AI 模型變得更加智慧,人們願意為之付費,這形成了一個良性循環。模型越智能,使用的人越多。使用越多,所需的計算資源就越多。為維持這個良性循環,並在摩爾定律結束之際大幅降低成本,輝達採用了極致協同設計(Extreme Co-Design)。這種設計從零開始,同時考慮新的電腦架構、晶片、系統、軟體、模型架構和應用程式。透過這種方法,輝達推出了 Blackwell 架構及 Grace Blackwell NVLink 72 系統。GB200 是第一個機架級 AI 超級電腦,而下一代則是 Vera Rubin。黃仁勳展示了 Vera Rubin 系統的設計,該系統將整個機架視為一台電腦,透過 NVLink 72 將 72 個 GPU (或144個GPU核心) 連接成一個巨大的虛擬 GPU。整體 Grace Blackwell NVLink 72 的性能提升是驚人的。Grace Blackwell 每個 GPU 的性能比 H200 高出 10 倍。儘管 GB200 是最昂貴的電腦之一,但其 Token 生成能力極強,能以全球最低的成本生產 Token。 這證明了極致協同設計的效益:性能提高 10 倍,成本降低 10 倍。輝達預計 Blackwell 和 Rubin 架構將帶來巨大的市場成長。到 2026 年,Blackwell 和 Rubin早期的累積業務可見度已達五千億美元,這是 Hopper 整個生命周期增長率的五倍。此外, NVIDIA 強調了將製造業帶回美國的承諾,Blackwell 和未來幾代 AI 工廠系統將在亞利桑那州、印第安納州和德克薩斯州等地製造。六大領域的創新突破與合作夥伴演講中,黃仁勳表示,輝達為了發展整個 AI 生態系,宣佈了在六個關鍵領域的重大進展:1. 6G 與電信基礎設施:輝達與諾基亞 (Nokia) 合作,推出了新的產品線 「NVIDIA Arc」(空中無線電網路電腦,Aerial Radio Network Computer)。「NVIDIA Arc」 結合了 Grace CPU、Blackwell GPU 和 C onnectX 網路,運行 Aerial 函式庫。諾基亞將採用 「NVIDIA Arc」 作為其未來基地台,並能升級全球數百萬個 Airscale 基地台,實現 6G 和 AI 功能。2.量子計算:量子計算的未來是 GPU 超算與量子處理器 (QPU) 的協同工作。為此,輝達發佈了 NVQLink,這是一種新的互連架構,能夠直接連接量子處理器和 NVIDIA GPU。 NVQLink 能夠以每秒數千次的速度傳輸 TB 級資料,以進行量子錯誤修正 (Quantum Error Correction) 和 AI 校準。目前,平台已得到 17 家量子計算公司和幾乎所有美國能源部 (DOE) 實驗室的支援。3.企業運算與網路安全:AI 將極大地增加網路安全挑戰,需要更強大的防禦者。輝達與 CrowdStrike 合作,建立雲端和邊緣的網路安全 AI 代理。此外,輝達還與 Palantir 合作,加速其 Ontology 平台,以便能夠以光速處理結構化和非結構化資料,用於國防安全和企業洞察。4.機器人與實體 AI(Physical AI):實體 AI 需要三種電腦,那就是用於訓練模型的 Grace Blackwell、用於模擬 (數位分身) 的 Omniverse 電腦,以及用於操作的 Jetson Thor 機器人電腦。輝達推出了 Omniverse DSX,作為建造和操作 Gigascale AI 工廠的藍圖。DSX 實現了計算、電力和冷卻設施的協同設計。輝達正與鴻海 Figure、Agility 和 Disney Research 合作,推出可愛的機器人 Disney Blue,其動作完全在 Omniverse 中模擬學習。5.自動駕駛:機器人正在輪子上實現商業化。輝達發佈了 Drive Hyperion 平台,這是一個標準化的感測器套件和計算平台,目的在讓全球汽車公司,如 Lucid、Mercedes-Benz、Stalantis 等能夠開發 Robo Taxi。輝達還宣佈與 Uber 合作,將 Drive Hyperion 汽車連接到全球網路。6.開源模型:開源模型是科學家、研究人員和新創公司的命脈。輝達一直以來在開源貢獻方面處於領先地位,在各大排行榜上擁有 23 個模型,涵蓋語言模型、實體 AI 模型到生物學模型。黃仁勳最後總結,我們正經歷著兩次平台轉型,從通用計算到加速計算,以及從傳統手寫軟體到 AI。而輝達正在為 6G(ARC)、機器人汽車 (Hyperion) 和 AI 工廠 (DSX) 打造新的平台,並將製造業帶回美國。另據報導:黃仁勳演講後,輝達28日股價收盤上漲近5%,市值增加超過2,300億美元,總市值達到4.89兆美元,盤中一度觸及4.94兆美元,直逼5兆美元新突破!輝達將有望成為全球第一家市值突破5兆美元的公司。 (芯聞眼)
【GTC】輝達GTC大會深度解析從GPU到AI工廠,黃仁勳如何重塑科技未來
🎯 核心要點物理智能與數字孿生推動美國再工業化AI原生6G技術引領全球通訊標準NVQLink鞏固量子計算領域主導地位建構安全可部署的AI基礎設施打造開放模型生態核心引擎統一DRIVE Hyperion平台加速自動駕駛落地美東時間10月28日,輝達創始人兼CEO黃仁勳在GTC華盛頓特區技術峰會上發表重磅演講。這場被譽為"AI界超級碗"的盛會,不再僅僅是技術參數的堆砌,而是黃仁勳站在美國首都的心臟地帶,為美國勾勒的一幅"AI世紀"宏偉藍圖。從晶片製造回歸本土,到用AI主導未來通訊標準,輝達正以"極致協同設計"的姿態,試圖幫助美國在AI基礎設施和創新領域繼續保持領導地位。💻 計算架構範式轉移:從CPU主宰到GPU加速時代核心觀點:在"摩爾定律"失效、計算性能增長陷入停滯的當下,輝達正是那個拯救未來計算的"救世主"。黃仁勳在演講中回顧了計算產業的歷史性轉折。數十年來,CPU性能始終遵循著可預測的規模增長軌跡,然而隨著登納德縮放定律走向終結,傳統發展路徑已難以為繼。面對這些挑戰,輝達給出的答案是:平行計算、GPU和加速計算架構。黃仁勳宣稱:"這一轉折點已經到來,輝達已做好準備。通過引入能夠充分利用指數級增長電晶體的處理器,運用平行計算技術,再與順序處理的CPU協同工作,就能將計算能力推向一個全新維度。"🔧 CUDA-X全端加速庫加速計算的實現,離不開輝達精心建構的軟體基石——CUDA-X全端加速庫。這個龐大的軟體生態覆蓋了從深度學習領域的cuDNN與TensorRT-LLM,到資料科學平台RAPIDS,再到決策最佳化工具cuOpt等關鍵領域。📡 AI原生6G技術堆疊:重塑全球通訊格局黃仁勳強調,電信技術是經濟和國家安全的生命線,但目前全球無線技術部署大多依賴於其他國家的技術體系。"這種核心通訊技術受制於人的局面必須終結,而現在我們迎來了扭轉局面的歷史性機遇"。🚀 NVIDIA ARC技術突破為實現這一戰略目標,輝達推出了顛覆性的NVIDIA ARC——一個以美國技術為核心的AI原生6G無線技術堆疊。該平台基於輝達Aerial平台建構,融合了Grace CPU、Blackwell GPU及先進網路元件。重大合作:輝達已與通訊裝置巨頭諾基亞達成深度戰略合作,投資總額達10億美元。⚛️ NVQLink:打通量子計算的"任督二脈"在探討計算科學前沿時,黃仁勳回顧了量子物理學家理查德·費曼四十年前的設想:創造能夠直接模擬自然規律的量子電腦。🔬 技術突破NVQLink將量子處理單元與CUDA-Q計算框架即時連接,通訊延遲降至約4微秒的極致水平。🤝 生態合作已獲得17家量子計算領先企業和多個美國能源部實驗室的支援。🏭 AI工廠革命:從工具到生產力主體"AI不是工具,而是生產力主體。這是歷史上首次,技術具備了執行勞動任務的能力,成為人類生產力的延伸。"在黃仁勳的構想中,現代"AI工廠"已遠非傳統資料中心所能概括,而是專門為海量token的生成、傳輸與服務建構的全新綜合計算平台。🔧 BlueField-4 DPU核心技術整合64核Grace CPU與ConnectX-9網路晶片計算性能達到前代產品的6倍計畫於2026年率先部署於Vera Rubin機架級AI平台🚗 自動駕駛新紀元:十萬輛級Robotaxi網路在自動駕駛領域,黃仁勳宣佈了一項里程碑式合作:輝達與Uber正共同建構面向未來的自動駕駛出行平台,計畫自2027年起規模化部署約10萬輛自動駕駛車輛。🔧 DRIVE AGX Hyperion 10平台處理器配置兩顆Thor處理器,每顆約2000 FP4 TFLOPS感測器套件14個攝影機、9個雷達、1個雷射雷達、12個超聲波感測器除Uber外,Hyperion已獲得Lucid Motors、梅賽德斯-奔馳以及Stellantis集團等多家國際汽車製造巨頭的採用。📊 市場表現與產業佈局🏭 本土製造戰略Blackwell GPU已在美國亞利桑那州實現規模化生產,基於該晶片的整機系統也將在美國完成組裝。這標誌著輝達成功將旗艦產品的製造環節從完全依賴台積電代工,轉向美國本土供應鏈體系。🤝 重大戰略合作🛡️ CrowdStrike網路安全合作通過Nemotron模型與NeMo工具鏈,實現從雲端到邊緣的"光速級"威脅檢測與響應。📊 Palantir資料平台整合將加速計算架構、CUDA-X庫與開源模型融入Ontology資料平台,實現超大規模資料處理的性能突破。💊 禮來製藥超算項目建設由超過1000塊Blackwell Ultra GPU驅動的超級電腦,專門用於藥物發現和開發的AI模型訓練。🚀 展望未來"AI是我們這個時代最強大的技術,而科學是其最偉大的前沿。"輝達從晶片製造商向全端AI基礎設施供應商的戰略轉型,正在重新定義整個科技產業的未來格局。 (FinHub)
黃仁勳:AI革命才剛開始,這次不是泡沫——與紅杉資本的深度對話
2025年10月6日,在紐約舉辦的避險基金Citadel Securities全球市場未來峰會上,輝達創始人兼CEO黃仁勳接受了紅杉資本合夥人Constantine Buhler的深度專訪。這場對話不僅回顧了輝達從圖形加速器到AI基礎設施巨頭的傳奇歷程,更為我們描繪了一個以AI工廠為核心、數字員工與人類協作、機器人技術普及的未來世界。核心觀點速覽1. 這次不是2000年網際網路泡沫:當年網際網路公司大多不盈利,整個行業只有200-300億美元,而AI正在改造價值數千億美元的現有業務2. 摩爾定律走到盡頭:傳統晶片性能提升遇到物理極限,專用加速計算成為唯一出路3. AI工廠重新定義資料中心:不再是成本中心,而是直接產生收入的"智能工廠"4. 百兆美元勞動力市場首次可及:AI代理將觸及人類歷史上從未被技術覆蓋的巨大市場5. 機器人革命臨近:能生成視訊就能控制機器人,這只是工程實現問題6. 計算方式徹底改變:從"搜尋+點選"變成"提問+生成",就像人腦思考方式7. 各國都需要AI主權:不能把國家資料全部外包,必須有自己的AI能力8. 與細胞對話成真:AI已能理解蛋白質結構,可以像聊天一樣與細胞交流9. 5000億投資只是開胃菜:相比未來每年兆級投資,現在還是小數目‍1第一性原理出發:30年前輝達的創業洞察1993年:看到傳統計算的天花板黃仁勳回憶創立輝達時的核心判斷很簡單:通用處理器什麼都能做,但什麼都做不到極致。當時整個矽谷都在押注CPU和摩爾定律,但他們看到了兩個問題:- 電晶體不能無限縮小,物理規律有極限- 真正困難的計算問題需要專門的"加速器"來解決"從第一性原理思考,如果你能推理出今天運行良好的東西建立在什麼基礎上,以及這個基礎如何隨時間變化,就能看到拐角處的未來。"同時發明技術和市場的奇蹟輝達面臨的挑戰是:要創造新的計算平台,需要大市場;但大市場不存在,因為技術架構還沒出現。這是典型的"雞生蛋、蛋生雞"問題。黃仁勳回憶當年向紅杉資本融資的趣事:"Don Valentine問我殺手級應用在那裡,我說是幫Electronic Arts做3D遊戲。他說:'我剛投資了EA,他們的CTO才14歲,還要家長開車送上班,你告訴我這是你的殺手級應用?'"結果證明,現代3D遊戲市場成為了全球最大的娛樂產業之一。2CUDA:從畫圖到AI的神奇跳躍世界上最難的平台創新"除了ARM和x86,世界上還有那個計算平台是幾乎人人都在用的?答案是:沒有。創造新的計算平台極其罕見,我們用了30年。"CUDA的成功不只是技術突破,更是系統工程:- 發明新技術- 創造新產品- 設計市場策略- 建構開發者生態3D圖形的意外收穫3D圖形本質上是"模擬現實",核心是物理模擬和數學計算。黃仁勳意識到,如果GPU能處理複雜的圖形運算,為什麼不能處理其他類型的運算?這為GPU從專用圖形處理器發展為通用計算平台奠定了基礎。32012年:AI時代的關鍵轉折點三個機緣巧合的匯聚2012年AlexNet在電腦視覺上的突破,黃仁勳認為來自三個因素:1. 個人痛點:他對傳統電腦視覺"各種技巧拼湊"的方式很不滿2. 戰略佈局:多年推廣"CUDA Everywhere",讓全球研究者都能用上GPU3. 關鍵洞察:Geoffrey Hinton、Andrew Ng等頂級研究者都在嘗試解決同樣的問題從電腦視覺到"萬能求解器"看到深度學習在圖像識別上的巨大進步後,黃仁勳進行了關鍵推理:"這項技術在電腦視覺上這麼厲害,還能在什麼地方厲害?"答案是:深度神經網路是"通用函數逼近器",理論上能學會任何函數。這意味著電腦行業的每一層——每個晶片、每個系統、每個軟體——都可能被重新發明。4AI工廠:資料中心的華麗轉身從DGX-1到超級工廠2016年,黃仁勳親手把世界第一台"AI工廠"DGX-1送給了當時在OpenAI的馬斯克:"我在GTC大會上發佈這台機器時,觀眾的反應就像現在一樣安靜,沒人知道我在說什麼。然後馬斯克上台說'我想要一台',我終於有了第一個訂單!他還說這是給他的非營利組織用的。當你造出全新產品時,最不想聽到的就是第一個客戶是非營利組織。"現在這個"非營利組織"已經成為最成功的AI公司之一。規模的指數級躍升今天的AI系統規模令人震撼:- 單個GPU:2噸重,12萬瓦功耗,300萬美元本城- 1吉瓦工廠:價值約500億美元,佔地數千英畝"如果你的資料中心功耗上限是1吉瓦,那就是固定的。如果我們的每瓦特性能是別人的3倍,你的公司就能在同一個工廠裡賺3倍的錢。這就是為什麼我叫它'工廠'——它們在賺錢。"5不是泡沫,是轉型:兆美元的智能經濟對於AI投資是否存在泡沫的質疑,Jensen給出了清晰的資料對比:2000年網際網路泡沫的特點- 大多數公司不盈利(pets.com、hospital.com等)- 整個行業規模只有200-300億美元- 主要是新興公司的投機2025年AI革命的不同- 現有巨頭業務轉型:Google搜尋、Amazon推薦、Meta廣告系統都已經用AI重構,這些是價值數千億美元的成熟業務- 立即產生收入:AI正在為現有的數千億美元業務提供直接價值- 基礎設施升級:整個雲端運算行業需要從傳統CPU架構升級到AI架構"第一個要觀察的是,即使沒有OpenAI和Anthropic,整個超大規模雲端運算行業都在被AI驅動,包括Google、Amazon、Meta數千億美元的收入都由AI提供支援。"Meta的真實案例2022年第四季度,蘋果的隱私政策讓Meta失去了廣告歸因資料,市值暴跌數千億美元。Meta用AI重建了推薦系統,不僅恢復了廣告效果,股價還漲到了歷史新高。"這就是AI ROI的真實體現——數千億美元的市值恢復,全部由輝達GPU驅動的AI實現。"6百兆美元市場:代理AI和物理AI黃仁勳指出,AI將首次讓技術觸及一個全新的市場:"企業AI和物理AI這兩個領域,代表著全球經濟約100兆美元的規模。這是人類歷史上第一次,我們有技術能夠增強這些領域。"‍數字員工的現實應用:- 輝達100%的工程師都在使用AI助手(主要是Cursor)- 未來企業將同時僱傭人類員工和數字員工- 有些數字員工你會"外包",有些你會"內部培養"物理AI:機器人的關鍵突破黃仁勳提出了一個精彩的思想實驗:"你現在可以提示AI生成我拿起瓶子、打開並喝水的視訊。既然它能生成這個畫面,為什麼不能操縱機器人做同樣的動作?......我能開車,也能操控我的身體,這是同樣的智能。AI也將在不同的'身體'裡運行同樣的智能。"這表明物理AI的實現主要是工程問題,而非技術壁壘。7生成式計算:未來的計算範式從"搜尋"到"生成"黃仁勳用Perplexity舉例說明計算範式的根本變化,提出未來100%的計算都將是生成式的。"傳統搜尋是基於儲存的計算、基於檢索的計算——為你檢索資訊供你自己消費。Perplexity或AI回去學習、閱讀所有內容,然後為你生成。"人類對話模式的體現"我們現在的對話就是100%生成式計算的例子。你問我問題,我不會跑回辦公室查資料再回來讀給你聽,而是基於當前語境即時生成回答。"這種生成式計算方式更接近人腦工作方式,需要AI工廠提供持續的計算支援。8主權AI:各國的必然選擇資料主權的必然性"沒有國家能夠承受將所有國民資料外包處理,然後再進口自己的智能回來。從第一性原理看,這不合理。"平衡開放與安全對於對華AI技術出口限制,黃仁勳表達了細緻的觀點:輝達在中國市場份額從95%降到0%:"我無法想像任何政策制定者認為這是好主意——讓美國在全球第二大電腦市場的份額變成零。"他建議的平衡策略:"中國擁有約50%的世界AI研究人員,擁有卓越的學校、對AI的巨大關注和熱情。我認為不讓這些研究人員在美國技術上建構AI是一個錯誤。"需要"細緻入微的策略",既要保持美國領先地位,又要確保世界建構在美國技術堆疊之上。9技術前沿:從量子計算到生命科學與細胞對話成為現實黃仁勳透露了AI在生物醫學領域的最新進展:"如果你能理解文字序列的含義,能理解虛擬世界的結構,是不是也能理解同樣有結構的蛋白質和化學物質?答案是肯定的。"最近與與ARC合作推出EVO 2是首個細胞表示的基礎模型,"你現在可以和細胞對話,就像和聊天機器人對話一樣",詢問細胞的屬性、能結合什麼、新陳代謝機制等。跨領域技術融合其他令人興奮的技術方向還包括:- 通訊革命:5G和6G將被AI徹底改造- 量子計算:CUDA Q架構讓量子-GPU混合計算提前十年實現- 半導體製造:AI驅動的光刻技術10投資建議與未來展望最被低估的技術黃仁勳認為Omniverse(虛擬世界平台)被嚴重低估:"人們還不知道他們需要它。但一旦開始造機器人,就會意識到我們十年前開始做這個平台是多麼有遠見。現在Omniverse正在席捲整個機器人行業。"給CIO的建議對於有100億美元AI預算的CIO,黃仁勳建議:"立即開始實驗建立自己的AI。就像你有員工入職培訓、企業文化傳承一樣,你需要為AI員工建立'入職流程'。我告訴我們的CIO,他們將成為未來AI數字員工的人力資源部門。"華爾街最忽視的指標"你的工廠每單位能耗的吞吐量決定了客戶的收入。這不只是選一個更好的晶片,而是決定你能賺多少錢。"輝達最被低估的資產"大多數人談論CUDA,但我們有350個專業庫,比如CUDNN(深度神經網路庫)可能是人類歷史上最重要的庫之一,就像SQL一樣重要。這些庫是輝達的寶藏。"11結語:一切還只是開始"我們現在只建設了幾千億美元的基礎設施,相比於未來可能每年需要建設的數兆美元基礎設施,我們還很小。"從1993年的圖形加速器,到今天的AI工廠,從30年前看起來"成功率約為0%"的想法,到今天價值數兆美元的智能革命,黃仁勳從第一性原理出發,推理技術發展的必然趨勢。與2000年的網際網路泡沫不同,這次AI革命建立在堅實的商業價值基礎上。它不是在創造全新的虛擬需求,而是在用更好的方式滿足現實世界的真實需求。從搜尋、推薦到自動駕駛、機器人,從數字員工到細胞對話,一切只是剛剛開始...... (JER學家)
輝達GB200可為AI工廠帶來77.6%利潤率,AMD MI355X利潤率為-64%!
8月27日消息,據摩根士丹利最新公佈的一份報告顯示,雖然目前人工智慧(AI)晶片市場競爭激烈,但是輝達依舊是無可爭議地佔據著市場主導地位,並且其產品的經濟效益也遠超其他競爭對手。報告以輝達目前暢銷的GB200 NVL72機架為例指出,這個機架包含了72個NVIDIA B200 GPU和36個Grace CPU,通過NVLink互聯,整體的成本約為310萬美元。而上一代的8卡配置的H100伺服器架構僅為30萬美元左右。不過,對於大型的 AI工廠(資料中心),摩根士丹利認為,與上一代的H100相比,採用輝達最新的GB200 NVL72機架式產品更具經濟效益。根據摩根士丹利的計算,對於給定的100MW規模的AI工廠,尤其對於專注於推理的AI工廠來說,輝達的GB200 NVL72系統目前在盈利能力方面居於市場領先地位,其次是Google的TPU v6e pod。具體來說,100MW規模的AI工廠,使用輝達的GB200 NVL72 機架,該AI工廠可以實現77.6%的利潤率;而如果實使用Google的TPU v6e pod則可以實現74.9%的利潤率。需要指出的是,雖然GoogleTPU v6e pod的定價尚未公開,但是與輝達GB200 NVL72機架相比,租用GoogleTPU v6e pod的平均成本要低40%至50%。△將CoreWeave平台的每小時每晶片的收入與每小時每GPU(GB200 NVL72)的租金價格進行比較有趣的是,根據摩根士丹利的計算,採用AMD MI300和MI355平台的100MW規模的AI工廠的利潤率為負,分別為-28.2%和-64%。輝達GB200 NVL72 機架為AI工廠所帶來的利潤率卻是最高的,達到了77.6%。這還是真是印證了輝達CEO黃仁勳那句廣告語:“買得越多,省得越多!”摩根士丹利的報告基於一個假設,即一個100MW的AI工廠需要6.6億美元的基礎設施成本,在10年內折舊。GPU的成本從低端的3.67億美元到高端的22.73億美元不等,折舊期為4年。然後,摩根士丹利通過將各種冷卻系統提供的能效應用於全球電價的平均值來計算營運成本。最終,計算出各晶片能夠為AI工廠帶來的利潤率。雖然,對於100MW規模的AI工廠(利用Llama 2 70 B模型進行推理)來說,輝達GB200 NVL72能夠帶來更好的經濟效益,但是其總擁有成本(TCO)也是最高的,達到了8.0658億美元。相比之下,AMD的MI355X平台則略低,為7.7411億美元;Google的TPU v6e pod的TCO最低,只有3.5869億美元。 (芯智訊)