#AI基建
三星+SK海力士>騰訊+阿里
一場儲存熱潮,不僅讓三星與SK海力士賺得盆滿缽滿,也讓資本市場的天平發生了一次微妙的傾斜。2月3日,三星電子與SK海力士合計市值達到1.14兆美元,略微超過阿里巴巴和騰訊在港股合計1.07兆美元的市值。三星與SK海力士是目前韓國市值最高的兩家公司,前者今日大漲11%,後者漲幅超過9%;今年以來,它們的累計漲幅均接近40%。另一邊,在總市值上暫時落後的阿里與騰訊,市場普遍認為,今日下跌主要與一則網際網路增值服務將被“加稅”傳言有關。不過追根溯源,這或許是外界對相關稅收調整政策的誤讀。阿里與騰訊同日收盤跌幅均分別收斂至1.41%與2.92%;今年以來,阿里累計漲幅12.75%,騰訊微跌3%。在這背後,更重要的推動力自然還是席捲全球的儲存缺貨潮。如今,以HBM為首的儲存晶片已成為AI基建中不可或缺的部分,同時,願意支付溢價的大型雲廠商帶來的需求,進一步推高了儲存巨頭們的業績。在DRAM和NAND雙雙出現創紀錄短缺的背景下,三星和SK海力士獲得了前所未有的定價權。高盛集團亞太區首席股票策略師Timothy Moe則預計,今年韓國股市約60%的盈利增長將來自半導體行業。在暫時不同的股價走勢背後,也是在AI領域選擇的不同發展路徑。富時羅素全球投資研究主管Indrani De指出,中國的優勢在於龐大的製造生態體系,這意味著可以非常迅速地實現規模化;韓國則專注於硬體領域,建構結構性優勢。富蘭克林鄧普頓全球投資的投資組合經理Yiping Liao也給出了類似觀點:“韓國高度聚焦於科技供應鏈中的某一個特定環節,而中國則更像是在試圖建構一個端到端、完整覆蓋的AI技術體系。”換言之,兩種路線中,一條專注於關鍵環節的技術深度與掌控力,另一條則偏向於系統整合與市場應用的廣度。更值得注意的是,在事關AI熱潮的全球討論中,阿里、騰訊這些網際網路大廠更頻繁的比較對象,是微軟、Google、Meta等矽谷巨頭們,對比維度也更聚焦於資本開支、AI變現等。在過去幾天,國內幾家網際網路巨頭都已陸續部署2026年發展規劃,AI均是核心發力點。例如騰訊創始人馬化騰表示,未來將大模型和AI 產品以一體化的方式來考慮,持續提升產品長期競爭力與使用者體驗;阿里提出“通雲哥”新概念,即“雲+AI+晶片”三位一體發展,充分發揮全端優勢;字節CEO梁汝波明確,2026年公司在AI上要“勇攀高峰”,短期核心目標聚焦豆包/Dola助手的應用落地。與此同時,隨著春節臨近,AI流量戰也已升溫:此前字節跳動旗下火山引擎已官宣成為央視春晚獨家AI雲合作夥伴,豆包將同步上線多元AI互動玩法;元寶、文心、千問也宣佈將於春節期間派送現金紅包,全力搶佔節日流量入口。長期而言,相較於將自己暴露於儲存晶片供需周期之中的韓國晶片廠商,中國網際網路巨頭在應用層面的優勢,或許能為自身提供更長期、更穩定的增長支撐。 (財聯社AI daily)
【達沃斯論壇】黃仁勳最新訪談:AI 正在開啟人類最大基建潮,五層AI蛋糕指什麼?
黃仁勳在達沃斯對談中坦言:AI 正在掀起人類史上最大基礎設施浪潮,並將重塑全球勞動力市場。基礎設施怎麼鋪?開發中國家和歐洲怎麼抓住機會?一起來順著他的“五層 AI 蛋糕”聊聊。一、AI 不只是 ChatGPT,而是一次平台大換代這場對談裡,黃仁勳先把聊天機器人“拆了個框”,提醒大家:ChatGPT、Claude、Gemini本身只是應用,真正大的變化,是整個計算平台在換代。過去的軟體,本質是“預錄好的人類指令”,只能吃表格、欄位這類結構化資料,用 SQL 去查“姓名、地址、帳號”。現在的 AI,則第一次讓電腦能吃下非結構化資訊:看圖、讀長文、聽語音,甚至理解其中的語氣、上下文,然後根據你的“隨口一說”做推理、做計畫。更關鍵的是,這不是預先錄好的指令碼,而是即時生成:它會結合環境、你給的材料和當下的上下文,臨場“思考”出一個方案,這就是他口中的平台級遷移。二、“五層 AI 蛋糕”:從電力到應用很多人談 AI,只盯著模型本身。黃仁勳反覆強調:從產業的角度看,AI 其實是一塊五層蛋糕。底層:能源層—— AI 是即時計算,推理也要耗能,電力是第一要素。第二層:晶片與算力基礎設施—— GPU、網路、伺服器整機,這一層是輝達所在的位置。第三層:雲與資料中心—— 各家雲廠商、超算中心,提供按需的算力服務。第四層:AI 模型—— 大家熟悉的各種大模型、開源模型都在這一層。最上層:行業應用—— 金融、醫療、製造等垂直場景,真正產生經濟價值的地方。他說,過去一年“AI 很瘋狂”,真正原因不是只有模型變強,而是應用層終於能站在這些模型上開跑了。而要托起這一層應用,現在全球正在開啟他口中的:“人類歷史上最大規模的基礎設施建設”。1. 晶片廠、電腦廠、AI 工廠,一起開建他隨口列了幾組數字:台積電計畫新建20 座晶片工廠;富士康、緯創、廣達,要建30 座“電腦工廠”來組裝 AI 伺服器;美光、SK 海力士、三星在記憶體領域也在瘋狂擴張。他把這些資料中心稱作“AI 工廠”:晶片廠造 GPU,電腦廠把 GPU 組裝成整機,AI 工廠再把整機堆成算力叢集,最後養出各行各業的 AI 應用。目前全球只是“投入了幾千億美元”,而他和金融圈看到的規劃,是向兆美元等級挺進。2. VC 在押什麼?押“AI 原生公司”錢往那兒流,是判斷技術周期的最好風向標。黃仁勳提到:2025 年(按對談語境)是風險投資史上規模最大的一年之一,其中大部分資金,都流向了所謂的AI-native 公司。這些公司不做“給模型包個殼”的小工具,而是直接在醫療、機器人、製造、金融等行業,重新設計產品和業務流程,把 AI 當成底層能力來用。三、從聊天到“行動”:AI 的三大技術飛躍聊到具體技術進展,他用過去一年的三個變化,解釋為什麼應用層突然百花齊放。1. 從語言模型到“智能體系統”一開始的大模型會幻覺嚴重,很好玩,但不太能托底業務。過去一年,模型開始變得更“腳踏實地”:能做檢索、做多步推理,把需求拆成步驟,然後給出計畫,甚至直接幫你執行部分任務。他把這類系統稱作“Agentic AI(智能體 AI)”——從“會聊天”進化到“能行動”。2. 開源推了一把:“推理模型”的出現第二個轉折點,是開源推理模型的崛起。他點名提到 DeepSeek:這是全球第一個公開的“開源推理模型”,出來時讓很多大公司都緊張了一下,也逼著整個行業加速開放。有了這些開源基座,創業公司、大學、研究機構可以站在公開模型上,訓練自己的專業小模型,把知識“灌”進特定領域,而不用從零開始。3. 物理智能:AI 開始“懂世界”了第三塊,是他非常興奮的一點:Physical AI(物理智能)。AI 不再只懂語言,而是開始理解蛋白質、化學、流體力學、粒子物理、量子物理這類“自然語言”。比如在藥物研發上,輝達和禮來製藥合作,用模型去“和蛋白質對話”,推演分子結構和反應路徑,為新藥發現提速。在他眼裡,這一波物理智能,會直接改變藥物設計、材料科學、工業製造的底層範式。四、AI 搶不搶飯碗?關鍵先分清“工作目的”和“工作任務”話題繞不開就業。對談人拋出一個很多人心裡的問號:AI 會不會大規模替代人?黃仁勳的回答挺“逆風”的:未來我們更可能面對勞動力短缺,而不是失業潮。1. AI 基建本身,就是巨大的“藍領機會”先看最直觀的一層:建設那一大堆晶片廠、資料中心,本身就需要大量技工和工人。電工、水管工、鋼結構工人、建築工人;網路工程、裝置安裝偵錯、機房維運;各種“tradecraft”(技藝工種),都在漲薪。他提到,在美國,這些崗位的收入已經接近翻倍,做晶片廠、電腦廠、AI 工廠項目的人,拿六位數年薪變得越來越常見。這也是他很看重的一點:你不需要博士學位,也能在 AI 浪潮裡賺到一份好收入。2. 放大“人”的作用,而不是刪除“人”接下來,他用兩個真實案例,解釋一個簡單但經常被忽略的邏輯:要分清工作的“目的”和“任務”。第一個是放射科醫生。十年前,大家就說“有了圖像識別,放射科要失業了”。十年過去,AI 的確滲透進了所有影像判讀場景,醫生看片子已經離不開 AI,但放射科醫生的數量,反而增加了。原因很樸素:醫生這份工作的目的是診斷疾病、服務病人;看片子只是其中一個任務。當看片這件事被 AI 加速後,醫生可以把更多時間花在解釋病情、和其他科室協作上,醫院整體接診能力提升,病人多了,醫院收入更高,自然要招更多醫生。第二個是護士。美國大概缺 500 萬護士,他們有一半時間在做病歷記錄和文書工作。現在用 AI 做自動記錄和轉寫後,一個叫 Abridge 的團隊,讓護士把精力重新集中到病人身上——結果是:醫院能更快接收病人,營收變好,然後反過來多招護士。所以,他給出一個判斷框架:問問自己,這份工作的“目的”是什麼?被自動化的,只是“任務”還是“目的本身”?如果 AI 自動化的是任務,但能讓“目的”做得更好、更快,往往會帶來用工的擴張,而不是收縮。五、開發中國家怎麼上車?先把 AI 當成“國家基礎設施”話鋒一轉,對談拋出了一個更現實的問題:AI 會不會進一步放大“只對高學歷人群有用”的不平等?開發中國家怎麼辦?黃仁勳的建議可以概括成兩句話:建自己的 AI、用自己的語言。1. 像修電網、修公路一樣修 AI在他眼裡,AI 已經是和電力、道路同等級的基礎設施。每個國家都可以選擇“完全進口 AI 服務”,但如今有那麼多開源模型,其實自己訓練並不遙不可及。一個國家最獨特的資源,是本地語言和文化。在通用模型的基礎上,用本國資料進行微調,打造貼合本地法規、教育和產業的模型,他認為這是所有國家都應該做的事情。2. AI 反而可能縮小“技術鴻溝”很多人直覺會覺得:越複雜的技術,越有利於頭部國家。但他強調,AI 其實是史上門檻最低的軟體形態:你不需要學程式語言,只要會用自然語言描述問題。未來的“數字勞動力”裡,會同時存在“碳基員工”和“矽基員工”。你需要學會的,是如何指揮、評估、設定邊界,有點像管理一個虛擬團隊。他說,如果你不會用 AI,就直接開口問它:“我不會用 AI,應該怎麼開始?”,然後順著它的提問,去搭自己的工作流。對沒受過系統程式設計訓練的人來說,這反而是一條“繞過傳統 CS 教育的捷徑”:直接從需求出發,讓 AI 把程式碼和系統搭出來。六、歐洲的機會:跳過“軟體時代”,直接擁抱機器人坐在歐洲,他也被問到一個敏感問題:AI 這波浪潮裡,似乎大家提到的公司,不是美國就是亞洲,歐洲的機會在那?他的判斷反而很樂觀:歐洲這次機會很大,甚至有可能在某些領域領跑。1. 工業基礎 + AI = 物理世界的“新作業系統”歐洲有一個非常紮實的家底:製造業和工業基礎,無論是機器、工廠還是自動化經驗,都很強。美國在傳統軟體時代佔了便宜,但 AI 有個特點:AI 不是手寫程式碼,而是“教出來”的。這意味著,只要歐洲企業把現場經驗、工藝流程、工業資料喂給模型,就有機會在機器人、工業控制、物理 AI上,直接做出新一代“世界標準”。2. 深度科學 + AI:加速基礎研究另一個被他點名的優勢,是歐洲在基礎科學上的深度積累。當物理智能模型可以理解粒子、流體、材料的行為模式時,物理、化學、生物這些傳統學科都能被“外掛”一層 AI 輔助,大幅縮短從理論到實驗的周期。他給歐洲的建議很直接:先解決能源問題,大膽投向 AI 基礎設施,讓本地形成一個完整而豐富的 AI 生態,而不僅是消費別人的雲服務。七、這是 AI 泡沫嗎?看一眼 GPU 的“租金”就知道最後一個問題,也是資本市場最關心的:我們是不是已經身處一個 AI 泡沫?黃仁勳給出的檢驗方法很樸素:看使用率和價格。1. GPU 一卡難求,連“老卡”租金都在漲目前,輝達的 GPU 已經鋪進全球幾乎所有主流雲平台,數量達到數百萬顆。但如果你現在去雲上想臨時租一批 GPU,會發現一個現實:非常難租,連兩代之前的舊 GPU,現貨租金都在往上走。這背後不是“炒概念”,而是有真實需求在托底:一大批公司把自己的研發預算從濕實驗室、傳統 IT,轉到 AI 超算和模型研發上。2. 這是“基礎設施周期”,而不是“概念股周期”在他看來,今天的 AI 更像是上世紀修電網、高鐵、網際網路骨幹網——一次持續數十年的基礎設施周期。投資的重頭戲,不在於短期那家模型公司火爆,而在於:誰在修電力、土地、機房這套“Land、Power、Shell”;誰在建設算力、網路、儲存這套 AI 基建;誰在各行各業裡,真正把 AI 融進生產系統。他反倒擔心的是另一件事:全球養老資金、普通儲蓄者如果站在場外,看著這次基礎設施周期從自己身邊劃過去,將會錯過一整代的增長。因此,他一再強調基礎設施投資的角色:這是歷史上最大的一次“AI 基建投資窗口”,也是公共資金、養老金可以更公平參與的一次機會。 (喬智說)
【達沃斯論壇】黃仁勳深度對話:AI將帶來人類史上最大基建浪潮,藍領工人薪資將翻倍
五層蛋糕、三大突破、兆基建解鎖AI新機遇。簡介1月21日,達沃斯世界經濟論壇的聚光燈下,輝達創始人兼CEO黃仁勳與貝萊德(BlackRock)掌門人Laurence D. Fink(勞倫斯·芬克),展開了一場長達半小時的科技與金融巔峰對話。此次對話的背景,是全球對AI浪潮的狂熱與疑慮交織——華爾街緊盯AI基建的“資金黑洞”爭議,還有各國爭搶技術紅利的同時擔憂經濟格局重構。從AI“五層蛋糕”的底層邏輯,到兆基建的就業紅利,從物理智能的產業突破,到全球普惠的技術鴻溝縮小,兩位行業領軍者直擊核心爭議,深入探討了AI如何成為人類史上最大基建機遇、重塑全球經濟與就業形態。本文為全場對話實錄精編,帶你解鎖黃仁勳眼中的AI未來圖景。引言與開場Laurence D. Fink:各位早上好!很高興能回到國會大廳。我非常榮幸地向大家介紹黃仁勳(Jensen Huang)先生——他是我敬佩的人,是我一直關注的榜樣,在我學習技術與人工智慧的道路上,更是我的良師益友。見證他帶領輝達(Nvidia)的發展歷程,實在令人驚嘆。我並不喜歡拿自己和別人比較,但有一個事情我很認同:輝達於1999年上市,巧的是,貝萊德(BlackRock)也是在同一年上市。自上市以來,輝達為股東帶來的復合總回報率高達37%。大家不妨想想,如果每個養老基金在輝達IPO時就進行投資,會給所有人的退休生活帶來多大的改變?我們的退休保障事業將會取得多麼輝煌的成就。與此同時,貝萊德的年化總回報率為21%——對於一家金融服務公司來說,這已經相當不錯了,但相比之下就相形見絀了。一對比充分彰顯了黃仁勳的領導力、輝達的戰略眼光,也印證了全球市場對其未來的信心。黃仁勳,祝賀你,期待你和輝達未來續寫更多精彩。黃仁勳:謝謝。我唯一的遺憾是,在公司IPO後,我想給父母買件好東西,於是在輝達估值3億美元的時候賣掉了一些股票,給他們買了一輛梅賽德斯-奔馳S級轎車——那可是當時世界上最昂貴的汽車之一。Laurence D. Fink:他們現在後悔嗎?那輛車還在嗎?黃仁勳:哦,當然在。他們一直保留著那輛車。AI成為增長引擎的核心邏輯Laurence D. Fink:好的,我們繼續深入交流。當下,AI的核心討論圍繞其對世界與全球經濟的改變展開。今天我們聚焦於AI如何為經濟賦能,成為人人可用的基礎技術、改善全球生活,以及它如何重塑生產力、勞動力與各行業基礎設施,更要探討如何讓更多群體受益、推動全球經濟擴張。在我看來,沒人比黃仁勳先生更懂AI本質與配套基礎設施——眾多超大規模雲端運算廠商都在用輝達的產品,全行業也圍繞AI基建與潛力深度合作。感謝你首次出席達沃斯論壇,在繁忙日程中抽空參與。接下來,我們直接進入正題。你為什麼認為人工智慧有潛力成為如此重要的增長引擎?與以往的技術周期相比,這項技術和當下這個時代有何不同之處?黃仁勳:首先,當我們以各種方式與人工智慧互動時——比如使用ChatGPT、Gemini、Anthropic Claude等工具,體驗它們帶來的神奇功能——我們不妨從最基本的原理來梳理計算棧正在發生的根本性變革。平台是應用程式建構的基礎,就像個人電腦(PC)引發的平台轉移催生了適配新型電腦的應用程式,網際網路的平台轉移打造了承載各類新應用的計算平台,移動雲端運算的平台轉移也帶來了全新的應用生態。在每一次平台轉移中,計算棧都會被重新定義,新的應用程式也會應運而生。如今我們使用ChatGPT,需要明確的是,它本身就是一款應用程式,但更重要的是,未來會有更多新應用基於ChatGPT、Anthropic Claude等工具建構。從這個角度來說,這無疑是一次全新的平台轉移。理解人工智慧其實很簡單,關鍵在於認識到它能完成我們以往無法實現的事情。過去的軟體本質上是“預錄好的”:人類編寫演算法或操作流程,再由電腦執行。這類軟體只能處理結構化資訊——比如你必須整理好姓名、地址、帳號、年齡、居住地等資料,建立成結構化表格,軟體才能從中檢索資訊。我們稱之為SQL查詢,SQL是迄今為止全球最重要的資料庫引擎,在此之前,幾乎所有系統都依賴SQL運行。而現在,我們擁有了能夠理解非結構化資訊的電腦:它能看懂圖像、讀懂文字(完全非結構化的內容)、聽懂聲音,不僅能理解其含義和結構,還能據此進行推理並採取行動。這是有史以來第一次,電腦不再依賴預錄程序,而是能夠即時處理資訊——它能結合環境資訊、上下文資訊以及你提供的任何內容,推理這些資訊的意義,理解你的意圖(即便你的表達非常不規範)。你可以用任何方式描述需求,我們稱之為“提示詞(prompts)”,只要它能理解你的意圖,就能為你完成任務。關鍵在於,我們正在重新打造整個計算棧。說到人工智慧,人們通常會想到AI模型,但從產業角度來看,人工智慧本質上是一個“五層蛋糕”架構。最底層是能源——由於人工智慧需要即時處理資訊並生成智能,能源是其運行的基礎;第二層是晶片和計算基礎設施,這也是我所專注的領域;第三層是雲端運算基礎設施和雲服務;第四層是AI模型——這是大多數人認為的“人工智慧所在層”,但請記住,沒有下方所有層級的支撐,這些模型就無從談起;最頂層,也是當前正在蓬勃發展的一層,是應用層——去年人工智慧之所以取得爆發式增長,核心原因就是AI模型的巨大進步,為應用層的發展奠定了堅實基礎。應用層覆蓋金融、醫療、製造等多領域,全球經濟的實際效益最終將在此落地。但這一計算平台離不開底層架構支撐,人類史上最大規模的AI基建已啟動。目前僅投入數千億美元,未來還需數兆美元,這是支撐AI模型生成智能、驅動頂層應用的必要投入。逐層來看,能源行業正爆發式增長;晶片領域,台積電將新建20座晶片工廠,富士康與我們及緯創、廣達合作新建30座電腦工廠,均服務於AI工廠建設;儲存領域,美光擬在美國投資2000億美元,SK海力士、三星同步發力,整個晶片產業高速擴張。值得關注的是,AI應用層正飛速進步,風險投資的流向就是明確訊號。2025年全球VC投資規模創下新高,大部分資金流向醫療、機器人、製造等領域的原生AI公司,核心原因是AI模型已足夠成熟,能支撐各類應用開發。AI在物理世界的變革機遇Laurence D. Fink:顯然,我相信每個人都會使用聊天機器人獲取資訊。能否再深入談談人工智慧在物理世界的普及所帶來的積極影響?你提到醫療健康是一個很好的例子,但在交通、科學等領域,你認為有那些變革性機遇?黃仁勳:去年,人工智慧技術層(尤其是模型層)發生了三大重要突破。首先,AI模型最初雖然充滿吸引力,但存在嚴重的“幻覺”問題(即生成虛假資訊),而去年,這些模型已經變得更加可靠。它們能夠開展研究,對未經過訓練的場景進行推理,將問題拆解為逐步推理的步驟,進而制定解決方案、回答問題、完成研究或執行任務。因此,去年我們見證了語言模型向“智能體AI(agentic AI)”系統的演進。其次是開源模型的突破。大概一年前DeepSeek問世,當時很多人都對此表示擔憂,但事實上,DeepSeek對全球大多數行業和企業來說都是一個里程碑式的事件——它是全球首個開源推理模型。此後,一大批開源推理模型相繼湧現,這些開源模型讓企業、行業、研究人員、教育工作者、大學和初創公司能夠利用它們,開髮針對特定領域或自身需求的專屬應用。第三個取得巨大進展的領域是物理智能(physical AI)——這種人工智慧不僅能理解語言,還能理解自然世界。它可以理解蛋白質、化學物質,也能理解物理學等領域的知識。這些AI正在學習各種不同的結構和“語言”——比如蛋白質本身就可以被視為一種“語言”。如今,這些AI的進步如此顯著,以至於製造業、藥物研發等領域的工業企業正取得長足發展。一個很好的例子是我們與禮來(Lily)的合作:他們意識到,人工智慧在理解蛋白質和化學物質結構方面已經取得了非凡進展。我們現在能夠像與ChatGPT對話一樣“與蛋白質對話”——這必將帶來一系列重大突破。AI與就業:創造而非取代Laurence D. Fink:這些技術突破也引發了大家對“人的因素”的擔憂。我和你聊過多次,今天想跟觀眾說清楚:很多人怕AI取代工作,但你看法相反。正如你所說,人類史上最大規模的AI基建,會創造大量就業——能源、產業、基建各環節都有崗位,像土地開發、能源供應、廠房建設等,這特別令人振奮。請你再詳細談談:你確實認為我們未來會面臨勞動力短缺嗎?人工智慧和機器人技術將如何改變工作的本質,而非消滅工作?黃仁勳:這個問題可以從多方面來看。首先,人類史上最大規模的AI基建,必然催生大量專業技能相關崗位。比如水管工、電工、建築工人、網路技術人員、裝置安裝偵錯人員等。在美國,相關領域已蓬勃發展,薪資近乎翻倍,參與晶片廠、AI工廠建設的人員年薪可達六位數,這類人才目前嚴重短缺,而無需電腦博士學位也能獲得高薪,這一點令人欣慰。其次,用真實案例說說自動化對就業的影響。10年前,大家都覺得放射科醫生會被AI取代,因為電腦視覺早已超越人類,而影像解讀是他們的核心任務。但如今AI全面滲透放射科後,放射科醫生數量反而增加了——AI讓影像解讀效率暴漲,醫生能花更多時間溝通患者、協作診療,醫院接診量和收入提升,自然會招聘更多醫生。護士行業也是如此,美國目前短缺500萬名護士,過去護士一半時間都在記錄病歷,而AI技術讓病歷錄入自動化,護士能專注於患者護理。醫院接診瓶頸緩解後,也會招聘更多護士。這些案例都說明:AI提升效率,進而推動行業發展,最終會創造更多就業。關鍵是要區分“工作的宗旨”和“任務”——AI自動化的是繁瑣任務,而非核心宗旨。就像放射科醫生和護士的宗旨是關愛患者,AI讓他們能更好地實現這一目標,這正是理解AI與就業關係的核心框架。AI的全球普惠Laurence D. Fink:我們把話題從發達國家擴展到全球,聊聊AI如何惠及世界。Anthropic近期報告顯示,AI使用者多集中在受教育群體,不同教育水平使用率差異明顯,這可能讓AI模型帶有偏見。如何讓AI像Wi-Fi、5G那樣,成為改變新興市場的變革性技術?這對新興國家意義何在,又該如何推動全球經濟擴張?另外回到就業,AI和機器人確實會替代部分崗位,美國已有顯現:比如需要更多水管工、電工,但金融分析師、律師助理可能減少,畢竟AI整合資料更快。請你談談人工智慧在開發中國家會如何發展?黃仁勳:首先,AI是各國必需的基礎設施,就像電力和道路一樣不可或缺。各國雖可進口AI技術,但如今借助大量開源模型,結合本土專業知識,開發適配自身需求的AI應用已不再困難。因此,每個國家都應參與AI基建,打造專屬AI技術,盤活語言、文化等核心資源,讓國家智能融入自身生態。其次,AI是史上最易用的軟體,這也是它兩三年間使用者近10億、快速普及的關鍵。Anthropic的Claude在編碼、推理上表現出色,我們公司也在廣泛使用;ChatGPT作為最成功的消費級AI,易用性讓開發中國家民眾、學生等都能輕鬆上手。更重要的是,人人都需掌握AI使用技能——引導、寫提示詞、管理、設邊界、評估輸出,這些能力和領導、管理他人無異。未來,矽基AI將成為數字勞動力的一部分,我們要學會管理它們。所以我建議開發中國家投身AI基建與領域發展,AI的易用性和普及性有望縮小技術鴻溝。如今無需電腦學位也能當“程式設計師”,比如不會程式設計就問AI“如何程式設計”,不會用AI就讓它教你,想建網站只需說明需求,AI就能直接寫程式碼,這正是AI的非凡力量。AI與歐洲的未來Laurence D. Fink:我們現在身處歐洲,之前我們提到了很多美國和亞洲的公司,想請教你:人工智慧與歐洲的成功和未來發展有何交集?輝達將如何在歐洲發揮作用?黃仁勳:輝達有幸與全球所有AI公司合作——由於我們處於基礎設施的底層,我們為各類AI技術提供支援,包括語言AI、生物AI、物理AI、世界模型AI,以及與製造業和機器人技術相關的AI。歐洲最令人振奮的優勢在於其強大的工業基礎——歐洲的工業製造實力極為雄厚,這是歐洲超越軟體時代的絕佳機遇。美國在軟體時代處於領先地位,而人工智慧是一種“無需編寫程式碼的軟體”——你不需要編寫AI,而是“教導”AI。因此,歐洲應儘早行動,將自身強大的工業製造能力與人工智慧深度融合,進軍物理AI或機器人領域。對於歐洲各國來說,機器人技術是一個千載難逢的機遇——我到訪過歐洲多個國家,深深感受到其工業基礎的強大。此外,歐洲在基礎科學領域的實力依然非常雄厚,而人工智慧的應用將加速基礎科學的探索處理程序。因此,歐洲必須重視增加能源供應,加大對基礎設施層的投資,從而在歐洲打造一個豐富的人工智慧生態系統。AI泡沫之爭Laurence D. Fink:所以你的意思是,我們遠未進入AI泡沫,真正的問題是“我們的投資是否足夠”?現在很多人在談論AI泡沫,但你的觀點似乎是,為了推動全球經濟擴張,我們需要進行更多投資。黃仁勳:判斷是否存在AI泡沫,一個很好的指標是:輝達目前在全球各大雲平台部署了數百萬塊GPU,應用極為廣泛,但如今租賃輝達GPU變得異常困難,GPU租賃的現貨價格持續上漲。不僅是最新一代GPU,就連兩代以前的GPU,租賃價格也在攀升。這背後的原因是AI初創公司數量激增,各類企業紛紛調整研發預算。以禮來為例,三年前他們的研發預算幾乎全部投入實驗室,而現在他們已經投資建設了大型AI超級電腦和AI實驗室,研發預算正越來越多地向AI領域傾斜。所謂的“AI泡沫”,本質上是因為投資規模巨大,而這種大規模投資是必要的——我們必須為AI上層所有層級的發展搭建基礎設施。因此,我認為這一機遇極為非凡,每個人都應該參與其中、積極投身其中。我們需要更多能源,需要更多土地、電力和廠房,需要更多擁有專業技能的工人——而歐洲在專業技能人才方面擁有強大優勢。相比之下,美國在過去二三十年裡,這方面的優勢有所減弱,但歐洲依然保持著強勁的實力——這是歐洲必須抓住的絕佳機遇。正如我之前提到的,2025年是全球風險投資規模最大的一年,總額超過1000億美元,其中大部分都流向了原生AI公司——這些公司正在搭建AI應用層,建構未來。我堅信,對於全球養老基金來說,參與AI領域的投資將是一項明智的選擇,能夠伴隨AI時代共同成長。這也是我想向眾多政界領袖傳達的資訊:我們必須確保普通養老金持有者、普通儲蓄者都能參與到這場增長中來,如果他們只能站在一旁觀望,就會產生被拋棄的感覺。基礎設施是絕佳的投資選擇,而這是人類歷史上規模最大的基礎設施建設,所以加入進來吧!Laurence D. Fink:時間到了!希望現場觀眾和線上觀眾都能感受到黃仁勳先生作為領導者的非凡魅力。他不僅是技術和人工智慧領域的領軍人物,也是商界的領袖,更擁有溫暖的內心和堅定的信念,這在當今時代尤為重要。感謝大家!感謝黃仁勳先生! (創新觀察局)
AI 基建到底在建什麼?黃仁勳在達沃斯給了一個答案
“AI,到底是概念泡沫,還是真金白銀的基建?”2026 年 1 月 21 日,達沃斯主舞台對談上,輝達創始人黃仁勳給出的答案是:這是人類歷史上最大的一次基礎設施建設。這個“建設”,是真的要動土、通電、招人。黃仁勳說,AI 分五層:最底層是能源,往上是晶片、雲服務、模型,最頂層才是應用。而每一層,都需要真實的廠房、裝置、電力和人。正因如此,他對所有國家說:AI 是基礎設施。每個國家都該建。所以,這篇文章,我們不談宏觀趨勢,只把一個問題問清楚: AI 基建,到底在建什麼?第一節|第一件事是電,不是晶片2025年,全世界的科技公司都在搶算力。但算力要運轉,必須有電。而且是持續的、穩定的、大量的電。結果,最先漲價的,是電力合同。這不是偶然。黃仁勳在達沃斯說:“AI 是即時處理、即時生成智能的,它需要能源來做到這一點。”這意味著,那怕你手上有最好的模型,有最新的晶片,但如果沒有穩定、足夠的電力,AI 就動不了。不是慢,而是完全運行不了。因為 AI 需要的電,和普通用電不一樣。資料中心訓練模型、即時推理,需要的是高密度、低延遲、全年不中斷的電力。這意味著,建 AI 不只是“通上電”就行,而是要建一整套能源供應系統:選址要看電網能不能承受,發電要保證穩定輸出,儲能要應對峰值,配網要扛得住持續高負載。黃仁勳沒有用能源危機這樣的詞。他說的是:我們需要更多的能源、土地和資料中心。在他看來,人類歷史上最大的基礎設施建設已經開始。從美國到阿聯,從東南亞到北歐,想建 AI 的地方,第一件事都是先談電力夠不夠。AI 到底在建什麼?第一步不是寫程式碼,是先接上電。第二節|晶片廠、AI 工廠,都已經開工了黃仁勳說:“我們正在世界各地建設晶片工廠、電腦工廠和 AI 工廠。”他列出了幾組數字:台積電將在全球建 20 座新晶片廠,廣達、緯創、富士康將建 30 座 AI 電腦工廠。不是代工手機、不是做消費電子,而是專門為 AI 訓練和部署提供生產裝備。晶片負責算,但 AI 還需要存。訓練一個大模型,要處理海量資料,這些資料得有地方放。 美光(Micron)宣佈投資2000億美元做儲存器,三星和 SK 海力士也同步加碼。也就是,建 AI 不光是有電就行,還得造出整套硬體:晶片負責算,儲存器負責裝資料,電腦工廠把這些組裝成 AI 伺服器,然後大規模交付。這不是幾家公司的事,而是一場全球性的建設浪潮。為什麼說是浪潮?因為這和早年的鋼鐵、電力、鐵路一樣,都是先建工廠,再有產業。 AI 工廠的概唸過去聽起來有點虛,現在你能看到動土、招工、封頂、通電、交付的完整流程。那麼規模有多大? 黃仁勳給出的數字是:我們現在投入了幾千億美元,但這只是開始,還有數兆美元的基礎設施要建。AI 的熱,不是因為“炒概念”,而是越來越多國家、企業都在真金白銀地建廠、買裝置、招人。從電力到工廠,AI 這場基建,已經從圖紙落到了地上。第三節|模型只是第四層,不是 AI 的全部過去幾年,大家談 AI,說的幾乎都是模型。那個模型更強,參數多少,誰跑分第一。但在黃仁勳看來,模型只是 AI 五層結構中的一層。精準說,是第四層。在它下面,有能源、晶片、雲服務在支撐;在它上面,還有應用層才是真正產生價值的地方。怎麼理解?他用了一個比喻:過去的 AI 模型像是一台發動機放在展台上,很漂亮,但你不能直接開走。你得先造好車架、油箱、電路系統,再裝進去,最後調校,跑在真實路上,才叫產品。現在最大的問題,不是模型不夠好,而是很多人只看到“發動機”。黃仁勳看的不一樣。他關注的是,這台發動機能不能進車間、上公路、進行業現場。因為模型本身不等於應用,只有落地了才有價值。真正讓產業受益、讓經濟增長的,是應用層。也就是模型之上,那些能落地到醫療、金融、製造等具體領域的產品和服務。所以現在,行業的焦點正在轉移:不再是誰的模型參數更多,而是誰能把 AI 真正用起來。第四節|AI 原生公司爆發,基建才剛開始黃仁勳在達沃斯給出了一組資料:2025年是風險投資歷史上投資額最高的一年之一,大量資金流向了 AI 原生公司。這些公司不造模型,也不設計晶片。它們直接拿現成的模型來做事,做藥物研發、做金融分析、重建製造流程。他用了一個詞:AI 原生公司(AI-native companies)。意思是,這類公司一開始就圍繞 AI 來設計自己的產品流程和商業模式。比如製藥巨頭禮來公司(Lilly),過去主要把研發預算投在濕實驗室,買裝置、做化學試驗。但現在,他們投資了一座大型 AI 實驗室和超級電腦,把一部分新藥開發流程交給 AI。類似的轉變,在很多行業都在發生。機器人製造、醫療診斷、自動交易、客服系統、合規審查……這些過去需要大量人力的領域,現在 AI 原生公司的做法是:拿現成的模型,用自己行業的資料訓練它,讓它學會處理具體任務,再把這套能力做成可以直接用的產品。比如客服系統,以前要雇幾百人,現在用 AI 客服,24小時線上,成本降到十分之一。這不是概念驗證,而是已經在大規模商用的產品。而當這類 AI 原生公司越來越多,會發生什麼?黃仁勳的回答是:上層 AI 應用爆發了,下層基礎設施就得必須跟上。這些公司要用 AI,不是演示一次,而是要它穩定、便宜、能大規模用。這就倒逼著底層基礎設施必須擴張:電力得更充足,晶片要供得上,工廠要能量產,雲服務要能承壓。黃仁勳說:我們才剛開始建 AI 的底座。不是行業不熱,是用 AI 的公司才剛剛冒出來。基礎設施的作用,就是讓這些公司能真正用起來。第五節|誰在參與:勞動力和國家的角色說完建什麼,再看誰來建。答案可能出乎很多人意料:首先是水管工、電工、鋼鐵工人。在美國,參與晶片廠、電腦工廠、AI工廠建設的這些工種,已經供不應求。黃仁勳現場舉了個數字:薪資在短時間內幾乎翻了一倍,有人年薪已經突破六位數。最重要的是,這類工作並不需要電腦博士學位。它需要的是,能動手、能現場施工、能操作裝置的人。對很多國家來說,這是讓藍領重新成為中產的機會。那麼,當 AI 真正投入使用後,會怎樣影響那些已經在崗的人?很多人的第一反應是:會被取代。但現實恰恰相反。比如放射科醫生。過去 AI 被預測最先取代的職業之一就是他們。但 10 年過去,AI 已經深入滲透放射科室,而醫生的數量卻增加了。為什麼?因為讀圖像這種重複、機械的任務被 AI 接手後,醫生反而能把時間用在和病人對話、做綜合判斷上。醫院接診量增加,收入提升,醫生職位也變多了。再比如護士。很多 AI 工具正在幫他們完成文件記錄、就診轉寫等繁雜事務。結果是:護士花更多時間照顧病人,而不是填表。病人流轉變快,醫院雇的人也更多了。黃仁勳總結:AI 取代的是任務,不是目的。只要你的工作不是純機械重複,而是需要判斷、需要和人互動、需要創造,AI 就是幫手,不是對手。除了個人,國家呢?黃仁勳強調的是:參與權。過去很多開發中國家覺得 AI 太遙遠,但他給出的是一套本地起步方案:開源模型已經非常強大;很多國家可以用本地語言+本地知識進行微調;不一定非要從頭做起,但一定要參與建設。AI 應該像電力、道路一樣,是每個國家的基礎設施。這話,是說給所有開發中國家聽的。如果說過去幾波技術革命,先在矽谷、歐美發生,再傳到其他國家;那麼 AI 這一輪,是從頭就開放了部分參與權。你不必先造模型,但可以先用模型;不必懂晶片,但可以先建 AI 應用。結語|短缺,不是泡沫想租一個 GPU,很難。現貨價格還在漲,不只是最新的,就連兩代以前的卡也漲了。黃仁勳說:“泡沫不會漲價,短缺才會。”製藥公司開始把錢投向 AI 實驗室。各國在搶電力和土地。投資機構在找 AI 基建項目。AI 到底在建什麼?能源、晶片廠、資料中心、模型層、應用層。這是黃仁勳在達沃斯給出的答案。 (AI深度研究員)
【達沃斯論壇】黃仁勳大聲疾呼:最重要的除了Infra,還是Infra!AI原生公司已爆發,基建才剛開始!
達沃斯經濟論壇上,少不了老黃的身影!當地時間1月21日,輝達CEO黃仁勳出席了達沃斯經濟論壇,與知名投資管理公司貝蘭德的CEO Larry Fink 展開對話。30分鐘看下來,老黃的觀點很直接:現在最重要的事情,除了Infra,還是Infra!黃仁勳指出,人工智慧已經啟動了“人類歷史上最大規模的基礎設施建設”,輝達已經投入了數千億美元,但還有數兆美元的基礎設施需要建設。再進一步延展,黃仁勳認為AI本身未來會成為每個國家的基礎設施,每個國家都應該打造自己的AI、建設自身的AI基礎設施,讓“國家智能”成為生態系統的一部分。他堅信AI會縮小而不是放大技術鴻溝,並建議開發中國家應該盡快行動起來:建設基礎設施,積極參與AI浪潮。此外,他還指出AI基礎設施的建設將會是歐洲“一代人難得一遇的機會”,因為歐洲具有強大的工業製造基礎。如果歐洲現在就入場,把自身強大的工業與製造能力與 AI 融合,就能直接躍遷到“物理 AI”和機器人時代。面對AI是否會重塑勞動力市場、替代人類崗位的問題,黃仁勳再次強調了他一貫秉持的看法:比起替代,AI能為人們創造更多的就業崗位。他描述了自己親眼看到的現象:這些崗位大量集中在“技工型職業”上,包括水管工、電工、建築工人、鋼結構工人、網路技術人員,負責裝置安裝、偵錯和維運的人等等。“僅在美國,我們已經看到這一領域出現了非常顯著的增長,相關崗位的薪資幾乎翻倍。”AI 原生公司爆發,基建才剛開始在訪談中,黃仁勳給出了一個強勢判斷:AI原生公司已經爆發了,但基礎設施建設才剛剛開始!他指出,我們如今與AI進行互動,背後的本質是計算平台的遷移。所謂平台,就是應用建構其上的基礎。從 PC 時代到網際網路,再到移動雲端運算,每一次平台遷移都會重塑整個計算棧,並催生出全新的應用生態。今天的 AI,同樣是一場新的平台遷移。根據黃仁勳提出的“AI五層蛋糕模型”理論:最底下是能源層,AI即時生成智能,需要大量能耗;第二層是晶片與基礎設施,這也是輝達所在的層級;第三層是雲基礎計算和雲服務;第四層是AI模型層,如 GPT、Gemini 等模型,也是大多數人所理解的AI;最上層是AI應用層,比如自動駕駛、聊天機器人等應用場景。黃仁勳強調,真正的經濟價值最終都會在應用層產生,而應用層已經爆發,一個重要訊號就是風險投資的流向。他給出了一組資料:2025 年是史上 VC 投資規模最大的年份之一,大多數資金都流向了“AI 原生公司”——無論是醫療、機器人、製造業還是金融服務。什麼是AI原生公司?就是一開始就圍繞 AI 來設計自己的產品流程和商業模式的公司。比如製藥巨頭禮來公司(Lilly),過去主要把研發預算投在濕實驗室,買裝置、做化學試驗。但現在,他們投資了一座大型 AI 實驗室和超級電腦,把一部分新藥開發流程交給 AI。就在不久前,輝達宣佈與禮來達成合作,雙方將在人才、基礎設施和算力方面聯合投入高達 10 億美元,成立一家開創性的 AI 聯合創新實驗室,該實驗室將基於 NVIDIA BioNeMo 平台及 NVIDIA Vera Rubin 架構搭建基礎設施,從而建構強大的AI模型,加速新藥研發。黃仁勳也在訪談中透露,禮來已經發現AI 在理解蛋白質和化學結構方面取得了巨大進展,未來我們甚至可以像“對話 ChatGPT”一樣,與蛋白質進行互動,這將帶來真正重大的科學突破。而這種轉變,並不只發生在製藥行業。機器人製造、醫療診斷、自動交易、客服系統、合規審查……這些過去需要大量人力的領域,現在 AI 原生公司的做法是:拿現成的模型,用自己行業的資料訓練它,讓它學會處理具體任務,再把這套能力做成可以直接用的產品。以客服系統為例,過去需要僱傭數百人的呼叫中心,如今可以被 AI 客服系統替代:全天候運行、響應一致、成本僅為原來的十分之一。這已經成為正在大規模落地、真實創造現金流的商業產品。為什麼AI應用層會出現大爆發?黃仁勳的回答是:因為模型能力越來越強了。他指出,2025年AI模型層發生了三件大事:第一,模型越來越值得信任,成為人們可靠的助手,能夠開展研究、對未見過的情境進行推理,將複雜問題拆解為可執行的步驟並制定行動方案。這標誌著語言模型正在演進為“智能體(Agentic AI)”。第二,開源模型很重要。他特別點名了DeepSeek,認為DeepSeek的開源對於全球AI產業都是重大利多。越來越多開源模型的湧現,讓企業、研究人員、大學和創業公司能夠基於這些模型,建構高度專業化、面向特定領域的系統。第三,物理智能取得突破。AI 的理解範圍從語言擴展到自然世界本身,包括蛋白質、化學結構和物理規律等複雜系統。本質上,這些對象都可以被視為“語言”,AI 正在學習並掌握它們的結構與規則。那麼當 AI 原生公司越來越多,會發生什麼?黃仁勳的回答很直接:上層 AI 應用爆發了,下層基礎設施就得必須跟上。他的判斷是:AI已經啟動了人類歷史上最大規模的基礎設施建設,輝達已經投入了數千億美元,但還遠遠不夠。“目前我們只投入了幾千億美元,這還只是開始。未來需要建設的是數兆美元等級的基礎設施,而且這是完全合理的。”不止是輝達,整個能源和晶片行業都在快速擴張。黃仁勳列出了幾個數字:台積電宣佈將建設 20 座新晶圓廠;輝達將與富士康、緯創、廣達一起合作建設 30 座新的電腦工廠,最終形成一座“AI 工廠”。同時,記憶體產業也在爆發:2025年,美光科技宣佈在美國投資約2,000億美元,用於美國半導體製造和研發;SK 海力士、三星也都在快速擴張。AI會創造大量工作崗位 技工類職業非常吃香既然AI的能力這麼強,那它會不會替代我們的工作崗位呢?這是縈繞在每個人心頭的疑慮。面對Larry Fink的追問,黃仁勳再次重申了他的看法:不會!並且AI還會創造大量工作崗位。老黃再次把辛頓拖出來鞭屍,又舉了那個著名的放射科例子:十年前,辛頓曾經建議停止培養放射科醫生,因為AI可以應用於醫學影像分析,這些醫生在未來五年中很可能被取代。但現在,AI 已經全面滲透進放射學的每一個環節,放射科醫生的數量卻不減反增。黃仁勳指出,這是因為工作的“目的”和“任務”不能混淆。放射科醫生工作的“目的”,是診斷疾病、幫助患者,解讀影像只是其中的一項“任務”。AI在這項任務上快速提效,能把醫生的時間解放出來去做更多與患者溝通、與其他醫生協作的事情,醫院能接診的患者變多了,收入增加,對醫生的需求自然也增加了。至於AI創造的工作崗位,據黃仁勳觀察,主要集中在“技工類崗位”上。這也不難理解,因為AI 正在引發人類歷史上規模最大的基礎設施建設:晶片工廠、電腦工廠、AI工廠……這都需要大量的水管工、電工、鋼結構工人、網路技術人員,裝置安裝、偵錯和維運的人等等。老黃透露,僅僅在美國,這一領域已經出現了非常顯著的增長,相關崗位的薪資幾乎翻倍。現在參與建設晶片工廠、電腦工廠或 AI 工廠的人,基本都能拿到六位數年薪。相比之下,白領工作會何去何從呢?不禁讓人捏了一把汗。每個國家都應該建設AI基礎設施 歐洲的機會尤其難得在訪談最後,老黃也大放豪言,呼籲每個國家都應該立刻行動起來,建設自己的AI基礎設施,尤其是開發中國家。黃仁勳的態度非常樂觀,他認為AI能夠縮小而非擴大技術鴻溝,未來AI本身就會成為一種基礎設施。“我很難想像,未來會有那個國家不把 AI 視為基礎設施的一部分,就像電力和道路一樣。”因此,打造屬於自身的AI模型,對一個國家來說會變得非常重要,“國家智能”將成為生態系統的一部分。黃仁勳指出,AI並不會僅侷限在發達國家,而是能夠普惠全球。原因是AI是歷史上最容易使用的軟體,短短兩三年時間,使用者規模就接近十億。他還認為,ChatGPT 可能是“歷史上最成功的消費級 AI 產品”,其易用性和親和力讓幾乎任何人都可以參與進來。“無論你是在開發中國家的學生,還是普通使用者,學習如何使用 AI、如何引導它、管理它、設定邊界、評估它,都會變得至關重要。”在這種發展趨勢下,未來我們可能不僅要管理“碳基智能”(人),還要管理“矽基智能”(數字 AI),AI將成為人類數位化勞動力的一部分。最後,Larry Fink話鋒一轉,將話題拉到了歐洲:歐洲目前在AI的舞台上似乎身影寥寥,那麼AI 與歐洲未來的成功之間有怎樣的關係?黃仁勳直言:你們擁有非常強大的工業基礎。如果歐洲現在就入場,把自身強大的工業與製造能力與 AI 融合,就能直接躍遷到“物理 AI”和機器人時代。前提是歐洲必須嚴肅對待能源供給問題,加大對基礎設施層的投入。他還強調,這對於歐洲來說,是“一代人只有一次”的機會。那麼,現在究竟是否存在AI泡沫?黃仁勳的回答很直接:沒有!他給出了一個很簡單的判斷標準:“輝達 GPU 現在遍佈所有雲平台,但你想租到一塊 GPU 仍然非常困難,而且不只是最新一代,連兩代之前的 GPU 租賃價格都在上漲。”這說明AI基礎設施的需求缺口還非常龐大,遠沒有到“泡沫”的程度。黃仁勳大聲疾呼,投資AI基礎設施,是一次歷史等級的機會!“我們需要更多能源、更多土地、電力、廠房,也需要更多技術工人。這是一次極其重大的歷史機遇,所有人都應該參與進來!”(51CTO技術堆疊)
祖克柏按下“核按鈕”!6000億美元豪賭AI基建,傳元宇宙裁員10%輸血
祖克柏開啟AI基建“核競賽”!1月13日凌晨,Meta正式啟動全新頂級戰略計畫“Meta Compute” ,旨在為AI發展建構前所未有的基礎設施規模。這也標誌著Meta此前承諾的“2028年前狂砸6000億美元投資美國基建”,正式進入了實操階段。為了攻克全球能源與監管的層層壁壘,祖克柏組建了一支極具政治權重的“三駕馬車”天團,甚至直接將川普的前國家安全副顧問招致麾下,親自坐鎮“外交”。另據內部消息,為了給這場核能豪賭籌措軍費,祖克柏不惜對自己曾經的摯愛,也就是元宇宙部門痛下殺手:裁員10%以全力輸血給新的AI帝國。這一近乎瘋狂的轉型瞬間撕裂了輿論場:一邊是川普高調點贊,為Meta的基建野心背書;另一邊是股價盤後跳水,市場對這種“不計成本”的投入表現出了本能的恐懼。但這或許是通往AGI唯一的窄門。在祖克柏精明的算盤裡,今天的股價下跌只是暫時的“燃料費”。他賭的是,當全球算力的狂飆最終撞上電力的天花板時,唯有掌握了能源閥門的人,才有資格定義什麼是真正的“超級智能”。01劍指“超級智能”:Meta Compute正式成軍就在本周一,祖克柏通過旗下社交平台Facebook發佈了一條重磅消息:Meta正式啟動名為“Meta Compute”的頂級倡議(Top-level initiative)。這絕非一次簡單的技術升級,而是關乎Meta未來十年生死的基石。這項計畫的核心任務極其純粹:建構一個能夠支撐“個人超級智能(Personal Superintelligence)”的全球級AI基礎設施。所謂的“超級智能”,即機器思維全面超越人類的奇點。祖克柏對此毫不掩飾野心:“Meta計畫在十年內建設能耗高達數十吉瓦(GW)的算力叢集,進而實現數百吉瓦甚至更多。”數百吉瓦是什麼概念?一吉瓦足以支撐一個小城市的用電。Meta的這一規劃,意味著其未來資料中心的耗電量將堪比一個中等規模的國家。 這不僅僅是程式碼與晶片的比拚,更是一場關於土地、能源、電網與全球供應鏈的總動員。正如祖克柏所言:“我們如何通過工程設計、投資和合夥關係來建構這些基礎設施,將成為我們的戰略優勢。”02“三駕馬車”:技術、算力與政商藝術的合流為了推動這一宏大計畫,祖克柏組建了一個極具深意的領導成員。“三駕馬車”的排布,精準暴露了Meta在全球化博弈中的多維佈局:技術壓艙石:高級工程主管桑托什·賈納爾丹 (Santosh Janardhan)作為Meta全球基礎設施的掌舵人,賈納爾丹將繼續負責資料中心架構、晶片計畫及營運。他是Meta多年來維持高並行社交網路的功臣,也是確保Meta Compute從藍圖變為現實的工程總指揮。AI新大腦:AI產品負責人丹尼爾·格羅斯 (Daniel Gross)作為初創公司Safe Superintelligence的前CEO,格羅斯是Meta的新面孔。他曾與OpenAI前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)共同創立Safe Superintelligence(SSI)。自2025年7月加入Meta後,格羅斯將負責長期容量戰略、供應商合作夥伴關係及行業分析。他的加入,標誌著Meta在追趕OpenAI和Google的過程中,終於補齊了最核心的戰略規劃短板。政商操盤手:總裁兼副董事長迪娜·鮑爾·麥考密克 (Dina Powell McCormick)這是最出人意料、也最關鍵的一步棋。麥考密克是華爾街最有權勢的女性之一,曾在高盛深耕16年,並擔任過川普政府的國家安全副顧問。祖克柏明確表示,麥考密克將直接向他匯報,重點負責搞定各國政府及主權基金,解決基礎設施的建設、部署與融資問題。在全球監管收緊的當下,Meta深知“AI主權化”趨勢不可阻擋,要在全球拿地、拿電、拿錢,必須有這種等級的“影子外交官”出馬。有趣的是,這一任命迅速得到了川普本人的公開背書:“馬克做出了偉大的選擇!她是一個才華橫溢、表現卓越的人。”03現實的殘酷:元宇宙為AI“輸血”然而,宏大敘事的背後往往伴隨著陣痛。就在Meta Compute高歌猛進的同時,另一個曾經的夢想“元宇宙”正面臨嚴重的戰略壓縮。據知情人士透露,Meta計畫本周對旗下現實實驗室(Reality Labs)裁員約10%。該部門擁有約15000名員工,主要負責Quest頭顯、Ray-Ban智能眼鏡以及Horizon社交平台,曾是祖克柏的掌上明珠。2021年,祖克柏將公司改名Meta,宣佈All-in元宇宙。結果在燒掉超過600億美元後,元宇宙不再是舞台上唯一的明星。雖然官方堅稱不會放棄,但重心的偏移顯而易見。現實實驗室內部正在進行一場“存優去劣”的洗牌:將資源從昂貴且小眾的VR頭顯,向搭載AI助手的智能眼鏡傾斜。祖克柏在去年7月份的投資者電話會上也表示,智能眼鏡將是我們將“超級智能”融入日常生活的核心方式。投資者對這一邏輯心知肚明:Meta正在急於削減主營業務之外的開支,只為給那個吞金無數的“個人超級智能”輸血。04能源之戰:當AI撞上“核能”要實現數百吉瓦的夢想,光有晶片是不夠的,當下最緊缺的硬通貨是電力。由於AI資料中心的激進擴張,美國電力需求正經歷20年來首次大幅增長。為了確保長期供應,祖克柏徹底轉變了策略:將Meta從單純的算力“租戶”,變成了深度參與電網建設的“能源基建商”。根據BloombergNEF最新預測,為了支援Meta的資料中心,相關新型核反應堆的建設投資將超過140億美元。這一驚人數字背後,是Meta的一系列掃貨式核能協議。Meta已鎖定兩家新一代核能領軍企業:由OpenAI CEO薩姆·奧特曼(Sam Altman)支援的Oklo,以及比爾·蓋茲(Bill Gates)創立的泰拉能源(TerraPower)。·Oklo計畫:在俄亥俄州建設1.2吉瓦的核能園區,由16個小型反應堆組成的叢集,每個反應堆成本約3.5億至4億美元。如果一切順利,這些系統最早將於2030年開始供電。·泰拉能源計畫:建設兩座345兆瓦反應堆,並擁有增購6座的期權。儘管初期單座成本高達40億美元,但隨著技術成熟,成本有望壓降至10億美元。首批項目預計2032年完工。·現貨採購:為了填補“遠水解不了近渴”的空白,Meta還簽署了20年長約,直接購買Vistra Corp旗下三座已投入營運的傳統核電站電力。然而,實驗室之外的核能之路佈滿荊棘。目前,Oklo和泰拉能源都尚未獲得建造商業系統的監管批准,更沒有在商業規模上證明其發電能力。BNEF首席核能分析師克里斯·加多姆斯基(Chris Gadomski)潑了一盆冷水:“在核能世界裡,最初的成本估算通常遠低於實際支出,且遠滯後於實際目標。”這意味著,140億美元可能只是一個起步價,Meta必須面對漫長的審批周期和技術迭代的不確定性。Meta選擇的“重資產”模式雖然保證了穩定性,卻也讓華爾街感到不安。Meta此前預計2025年的資本支出將高達720億美元,而這僅僅是冰山一角。正如ClearView Energy Partners的分析指出,Meta已經把自己定位成了極少數具備“雄厚財力”和“極高風險承受能力”的科技巨頭。對於投資客來說,這就像是一個深不見底的黑洞:錢在以核聚變的速度燃燒,但Llama 4之後的盈利路徑依然籠罩在迷霧中。05資本市場的冷思考:耐心還能維持多久?周一消息公佈後,Meta股價盤後下跌1.7%。過去三個月裡,累計跌幅已近9%。投資者的擔憂並非空穴來風:投資回報率焦慮:祖克柏預計到2028年在AI基建上的投入將達到6000億美元。競爭白熱化:面對OpenAI和Google的步步緊逼,Llama 4的反響並未形成碾壓之勢。監管壓力:隨著資料中心消耗的水電資源達到“城市級”,地方社區的牴觸情緒正在升溫。但也有人看到了硬幣的另一面。網紅投資客@Matkinvest在X上發文稱:“許多人懷疑,是因為Meta的資產負債表不像雲服務商那樣能即時變現。但這恰恰為理解價值創造過程的長期投資者,提供了絕佳的上車位置。”06結語:祖克柏的“二次創業”從Facebook到Meta,祖克柏展現了矽谷掌舵人中罕見的賭性與決斷。Meta Compute的成立,實際上是他的第二次“改名級”創業。祖克柏正在建構一個由液冷機架、核反應堆、主權資本和超級智能構成的全新帝國。在這個帝國裡,社交媒體只是表層的應用,底層的能源與算力才是真正的力量源泉。裁員、重組、買核能、聘請政要,所有的動作都指向同一個目標:在人類通往超級智能的路上,Meta要成為那個修路的人,並擁有這條路的永久收費權。在通往AGI的荒原上,祖克柏已經燒掉了退路。這究竟是天才的遠見,還是狂人的妄想?答案就藏在未來兩年的AI落地上。 (網易科技)
【GTC】黃仁勳稱將大舉投資AI基建確保美國領先,輝達市值逼近5萬億美元 | 巴倫科技
在GTC華盛頓大會主題演講中,黃仁勳官宣了輝達對諾基亞10億美元的投資,發佈了NVIDIA Arc、NVQLink、下一代Vera Rubin超級晶片等新技術、產品,並始終強調通過AI基礎設施等投資保證美國的領先地位。人工智慧的熱度越來越高,以至於“AI春晚”一年要辦兩場。美東時間10月27日至29日,人工智慧盛會輝達GTC大會首次在華盛頓特區舉辦“加場”。有別於更聚焦技術、產品的3月聖何塞春季旗艦大會,10月的華盛頓大會更像是“政策專場”,不少討論都聚焦於AI領域的產業政策、政府角色等。此前輝達官方也曾預告,大會重頭戲——公司CEO黃仁勳的主題演講除了會公佈產品相關資訊外,還將為觀眾釐清AI如何重塑行業、基礎設施及公共部門的路線圖。Wccftech的會前報導也曾指出,考慮地緣問題對輝達變得愈發重要,在華盛頓舉辦的大會或將更加關注“如何確保美國在人工智慧競賽中保持領先地位”。更引人矚目的是,美國總統川普在大會召開之際稱“希望向黃仁勳表示祝賀”,還表示二人隨後就將會面。美東時間10月28日中午12時許,黃仁勳如期登台發表演講。再次回顧公司發展歷程後,他集中介紹了公司在6G、量子計算、AI基礎設施建設等領域的最新進展和雄心。而在這背後,有關如何保持美國在AI領域的競爭優勢的考慮無處不在。在6G領域,黃仁勳詳細解釋了公司剛剛宣佈的向諾基亞投資10億美元的計畫。表示雙方將合作開發6G人工智慧平台,諾基亞未來的基站將全面採用主題演講中發佈的全新產品線NVIDIA Arc架構。“這將推動美國重返電信領導地位”,輝達在與黃仁勳主題演講同步發出的新聞稿中寫道。黃仁勳還在演講中推出了NVQLink,這是一種旨在將量子處理器與GPU計算系統連接起來的系統架構。他表示,未來每台使用輝達GPU的超級電腦都將是混合的,與量子處理器緊密耦合,以擴展計算的可能性。“這是計算的未來”,雖然沒有公佈具體技術進展,但黃仁勳稱已有17家量子計算公司承諾支援NVQLink。另外,主題演講中也明確提到,NVQLink允許量子處理器與美國九個國家實驗室的超級計算系統連接,保持美國在高性能計算領域的領先地位。與此同時,黃仁勳還宣佈輝達將與美國能源部合作建造7台新的AI超級電腦以推動美國科學發展,這也將成為美國能源部最大的AI超級電腦。在近2個小時的演講中,黃仁勳還談到了機器人、物理AI、美國的製造業回流等眾多熱點問題,並展示了下一代Vera Rubin超級晶片,還發佈了輝達資料中心/AI GPU路線圖。值得一提的是,就像呼應後者在遠方的祝賀一樣,黃仁勳還感謝了川普,主要是因為他在推動為資料中心加強能源供給方面的舉措。延續著此前說法,黃仁勳認為人類正處於人工智慧工業革命的黎明,而這項技術將定義每個行業和國家的未來。“美國必須引領這場邁向未來的競賽,這是我們這一代人的阿波羅時刻。下一輪的發明、發現和進步將取決於國家擴展人工智慧基礎設施的能力。我們正在與我們的合作夥伴一起建設有史以來最先進的人工智慧基礎設施,確保美國擁有繁榮未來的基礎,並確保世界人工智慧以美國的創新、開放和協作為基礎造福所有人。”他表示。在中美AI競賽趨於白熱化,兩國貿易關係持續波動的時刻,黃仁勳和他的輝達也承受著來自雙方的壓力。此前川普政府曾禁止輝達向中國出口高端晶片。但禁令解除後,輝達又在中國接連遭遇反壟斷調查、安全後門等問題。根據公司季度財報和黃仁勳的“親口承認”,輝達在中國的市佔率已從95%直接歸零,從今年二季度開始就無法向中國市場正常銷售晶片。而中國則在加速AI製造國產化替代處理程序,以寒武紀為代表的國產晶片公司備受矚目,被寄予“產生像DeepSeek一樣的衝擊波”的期待。截至10月28日,寒武紀股價已再次超越貴州茅台,成為A股第一高價股。不過,輝達是全球市值最高的公司。值得一提的是,在黃仁勳發表主題演講的同時,輝達股價繼續走高,盤中突破203美元,總市值逼近5萬億美元,再次創下歷史新高。以下為黃仁勳主題演講的中文翻譯版,經AI輔助和人工編輯:歡迎來到GTC。今天我們有太多內容要和大家分享。GTC是我們探討工業、科學、計算、現在與未來的地方。所以今天我要涵蓋的內容非常多。但在我開始之前,我想感謝我們所有的合作夥伴。他們幫助贊助了這次活動。你們會在展會周圍看到他們。他們來這裡與大家會面,這真的很棒。沒有我們整個生態系統的合作夥伴,我們無法完成我們所做的一切。大家都說,這是AI領域的“超級碗”。那麼,每一屆“超級碗”都應該有一個精彩的開場秀。你們覺得剛才的開場秀(指開場播放的回顧美國及全球科技產業發展的短片)和我們的“全大寫全明星”陣容(指大螢幕上展示的贊助商名單)怎麼樣?全是全明星運動員和全明星陣容。看看這些傢伙。在接下來的三個半小時裡,AI生態系統的各個行業將齊聚一堂,共同探討一些事情。那麼,我們開始吧。如大家在視訊中所見,輝達在60年來首次發明了一種新的計算模型。一種新的計算模型很少出現。這需要大量的時間和一系列我們觀察到的條件。我們發明這種計算模型,是因為我們想解決通用電腦、普通電腦無法解決的問題。我們還觀察到,總有一天,電晶體會繼續增加,但電晶體的性能和功耗提升將會放緩。這就意味著,摩爾定律將無法持續,它會受到物理定律的限制。那個時刻現在已經到來,我們的縮放已經停止了。這被稱為“德納德縮放”。德納德縮放大約在十年前就幾乎停止了。事實上,電晶體性能及其功耗的提升已經大幅放緩。然而,電晶體數量仍在繼續增長。我們在很久以前就注意到了這一點,並且在過去的30年裡,我們一直在推進這種我們稱之為“加速計算”的計算形式。我們發明了GPU。我們發明了名為CUDA的程式設計模型。我們觀察到,如果我們能增加一個處理器,利用越來越多的電晶體,應用平行計算,將其與順序處理的CPU相結合,我們就能將計算能力擴展到遠超以往的程度。而這個時刻確實已經到來了。我們已經看到了這個拐點:加速計算,它的時代現在已經來臨。然而,加速計算是一種本質上就不同的程式設計模型。你不能只是把手工編寫的、順序執行的CPU軟體放到GPU上,並指望它能正常運行。事實上,如果你只是那樣做,它實際上會運行得更慢。所以你必須重新發明新演算法,你必須建立新的庫,事實上,你必須重寫應用程式,這就是為什麼它花了這麼長時間。我們花了將近30年才走到這裡,但我們是一步一個腳印走來的。這也是我們公司的瑰寶。大多數人談論GPU的重要性,但如果沒有一個建構在其之上的程式設計模型,並且沒有對這個程式設計模型進行代際相容的dedication(我們現在是CUDA 13,即將推出14),如果沒有數百萬個GPU在每台電腦上完美相容地運行。那麼開發者就不會以這個計算平台為目標。如果我們沒有建立這些庫,那麼開發者就不知道如何使用演算法,並充分發揮架構的潛力。我的意思是,這真的是我們公司的瑰寶。(對應現場螢幕的展示依次解釋)我們花了將近七年的時間才讓cuLitho達到現在的水平。現在台積電在使用它,三星在使用它,ASML也在使用它。這是一個用於計算光刻的不可思議的庫,這是製造晶片的第一步。cuOpt,在數值最佳化方面打破了幾乎每一項紀錄……cuDF,一個資料幀方法,基本上是加速SQL、資料幀、專業資料幀資料庫。這個庫是共同啟動AI的庫,cuDNN,以及建構在它之上的名為Megatron Core的庫,使我們能夠模擬和訓練極其龐大的語言模型。這樣的例子還有很多。MONAI,非常重要,世界排名第一的醫學影像AI框架。順便說一下,我們今天不會過多討論醫療保健,但請務必觀看Kimberly的主題演講。她會詳細討論我們在醫療保健領域的工作。這樣的例子還有很多,基因組學處理、航空影像… 請大家注意,今天我們在這裡要做一些非常重要的事情。那就是cuQuantum,量子計算。螢幕展示的這只是我們公司350個不同庫的代表。這裡的每一個庫都重新設計了加速計算所需的演算法。每一個庫都使得我們所有的生態系統合作夥伴能夠利用加速計算,並且每一個庫都為我們開闢了新的市場。讓我們看看CUDA-X能做什麼。準備好了嗎?開始。(現場展示了數段遊戲、動畫CG片段)是不是很神奇?你們看到的一切都是模擬。沒有藝術,沒有動畫。這就是數學之美。這是深度的電腦科學,深度的數學,它的美令人難以置信。涵蓋了每一個行業,從醫療保健和生命科學,到製造業、機器人技術、自動駕駛汽車、電腦圖形學…甚至電子遊戲。你們看到的第一個鏡頭是輝達運行過的第一個應用程式。那是我們1993年開始的地方。我們一直堅信我們正在努力做的事情。很難想像,你能看到那個最初的虛擬戰鬥機場景活生生地呈現出來。而同一家公司相信我們今天會站在這裡。這真是一段不可思議的旅程。我想感謝所有輝達員工,請大家為他們鼓掌,感謝你們所做的一切。這真的太不可思議了。今天,我們涵蓋了很多行業。我的演講也將涵蓋AI、6G、量子模型、企業計算、機器人和工廠。讓我們開始吧。我們要涵蓋很多內容,有很多重大發佈,有很多新合作夥伴,這些可能會讓你們非常驚訝。電信是我們經濟、我們工業、我們國家安全的支柱和生命線。自從無線技術誕生以來,我們定義技術,我們定義全球標準,我們將美國技術出口到世界各地,以便世界可以基於美國的技術和標準進行建設。然而,距離那時已經過去很久了。當今世界部署的無線技術很大程度上都基於外國技術。我們基本的通訊架建構立在外國技術之上。這種情況必須停止。而我們有機會做到這一點,尤其是在這個根本性的平台轉型期。如你們所知,電腦技術實際上是每個行業的基礎。它是科學最重要的工具。它是工業最重要的工具。我剛剛說過我們正在經歷一個平台轉型。這個平台轉型應該是我們千載難逢的機會,讓我們重新回到遊戲中,開始基於美國技術進行創新。今天,我們宣佈我們將這樣做。我們與諾基亞建立了重大合作夥伴關係。諾基亞是世界第二大電信裝置製造商。這是一個3萬億美元的產業。包含數千億美元的基礎設施,全球有數百萬個基站。如果雙反進行合作,我們可以基於這個令人難以置信的、根本上基於加速計算和AI的新技術進行建設。並且讓美國成為6G下一次革命的中心。所以今天,我們宣佈輝達有一個新的產品線。它叫做輝達Aerial RAN Computer Arc。Arc由三項基本新技術建構而成:出色的CPU——Blackwell GPU,以及我們用於此應用的ConnectX網路。所有這些使我們能夠運行這個庫。我前面提到的這個CUDA-X庫叫做Aerial,本質上是一個運行在CUDA之上的無線通訊系統。我們將首次建立一個軟體定義的、可程式設計的電腦,它能夠無線通訊,同時進行AI處理。這完全是革命性的。我們稱之為輝達Arc。而諾基亞將與我們合作,整合我們的技術,重寫他們的軟體棧。這是一家擁有7000項5G基本專利的公司。很難想像,還有比這更偉大的電信領導者了。所以我們將與諾基亞合作。他們未來的基站將全面採用輝達Arc。而輝達Arc也與諾基亞當前的AirScale基站相容。這意味著,我們將採用這項新技術,並能夠用6G和AI升級全球數百萬個基站。現在,6G和AI確實很重要,我們也將首次能夠使用AI技術——“AI for ran”——通過使用人工智慧、強化學習,根據環境、流量、移動性、天氣等即時調整波束成形,來提高無線通訊的頻譜效率。所有這些都可以被考慮進去,這樣我們就能提高頻譜效率。基站消耗了全球約1.5%到2%的電力。所以提高頻譜效率意味著我們可以在不增加必要能源的情況下,通過無線網路傳輸更多資料。我們能做的另一件事是“AI on ran”。這是一個全新的機會。請記住,網際網路實現了通訊,但令人驚奇的是,像AWS這樣的聰明公司在網際網路之上建構了雲端運算系統。我們現在將在無線電信網路之上做同樣的事情。這個新的雲將是一個邊緣工業機器人云。這就是說,“AI for ran”來提高無線電頻譜效率。“AI on ran”本質上則是無線電信的雲端運算。雲端運算將能夠直接延伸到邊緣,那裡沒有資料中心,因為我們在世界各地都有基站。這個發佈非常令人興奮。Justin Hodar,諾基亞他們的CEO,我想他就在會場某處,感謝您與我們合作,感謝您幫助將電信技術帶回美國。這真是一次了不起的合作。非常感謝。(現場響起諾基亞經典鈴聲)這是慶祝諾基亞的最佳方式。接下來,讓我們談談量子計算。1981年,粒子物理學家、量子物理學家理查德·費曼設想了一種新型電腦,可以直接模擬自然。他稱之為量子電腦。四十年後,這個行業取得了根本性的突破。就在去年,實現了一個根本性的突破。現在可以製造出一個邏輯量子位元。一個相干的、穩定的、並且經過糾錯的邏輯量子位元。這一個邏輯量子位元由有時是幾十個,有時是幾百個物理量子位元共同工作組成。如您所知,量子位元這些粒子極其脆弱。它們可能非常不穩定。任何觀察、任何採樣、任何環境條件都可能導致它退相干。因此,它需要極其受控的環境,現在還需要許多不同的物理量子位元讓它們協同工作,讓我們能夠對它們進行糾錯,這些被稱為輔助量子位元或綜合徵量子位元。讓我們能夠糾正錯誤,並推斷出那個邏輯量子位元的狀態。有各種不同類型的量子電腦,超導、光子、囚禁離子、穩定原子,各種不同的製造量子電腦的方法。我們現在意識到,將量子電腦直接連接到GPU超級電腦是至關重要的,這樣我們才能進行糾錯,才能進行量子電腦的人工智慧校準和控制,才能進行協同模擬,共同工作,讓正確的演算法運行在GPU上,正確的演算法運行在QPU(量子處理單元)上,並讓這兩個處理器、兩台電腦並肩工作。這是量子計算的未來。讓我們看看。(現場播放了一段量子計算相關的視訊,其中稱量子糾錯是答案,NVQ Link則是一種新的互連架構,直接將量子處理器與輝達GPU連接起來,他們還將能夠協調量子裝置和AI超級電腦來運行量子GPU應用程式。)所以今天,我們正式發佈NVQ、NVQ Link。這得益於兩件事,當然,這個互連實現了量子電腦控制和校準、量子糾錯,以及連接兩台電腦(QPU和我們的GPU超級電腦)的混合模擬。它也是完全可擴展的。它不僅僅針對今天少量量子位元進行糾錯。它也為未來進行糾錯,屆時我們將把這些量子電腦從今天的幾百個量子位元擴展到數萬個量子位元,未來甚至到數十萬個量子位元。所以我們現在有一個架構,可以進行控制、協同模擬、量子糾錯,並面向未來進行擴展。行業的支援一直令人難以置信。在CUDA-Q的發明期間,記住,CUDA是為GPU-CPU加速計算設計的,基本上是用合適的工具做合適的工作。現在CUDA-Q已經擴展到CUDA之外,這樣我們就可以支援QPU,並讓兩個處理器(QPU和GPU)協同工作,計算在幾微秒內來回移動,這是與量子電腦協作所需的關鍵延遲。所以現在CUDA-Q是一個如此不可思議的突破,被眾多不同的開發者採納。今天我們宣佈有17家不同的量子電腦行業公司支援NVQ Link架構。我對此感到非常興奮。還有8個不同的美國能源部下屬實驗室:伯克利、布魯克海文、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺… 幾乎每個美國能源部實驗室都與我們合作,與我們的量子電腦公司和這些量子控製器生態系統合作,以便我們將量子計算整合到未來的科學中。我們還有一個額外的重要發佈。今天,我們宣佈美國能源部正與輝達合作,建造7台新的AI超級電腦,以推動我們國家的科學發展。我必須向克里斯·賴特部長(美國能源部部長)部長致敬。他給能源部帶來了如此多的活力,能量的激增、激情的激增,以確保美國再次引領科學。正如我提到的,計算是科學的基本工具,我們正在經歷幾個大的平台轉型期。一方面,我們轉向加速計算。這就是為什麼未來的每台超級電腦都將是基於GPU的超級電腦。而且,我們轉向AI,這樣AI和基於原理的求解器、基於物理的模擬都不會消失,但它可以得到增強,從而通過使用代理模型、AI模型協同工作來擴展規模。我們也知道,基於原理的求解器、經典計算可以通過使用量子計算來增強,以理解自然狀態。我們也知道,未來,我們有如此多的訊號,如此多的資料需要從世界中採樣。遙感比以往任何時候都更重要。而這些實驗室,除非它們是機器人工廠、機器人實驗室,否則我們無法以我們需要的規模和速度進行實驗。所以所有這些不同的技術正在同時進入科學領域。賴特部長理解我們,他希望美國能源部抓住這個機會,為自己注入超強動力,並確保美國保持在科學的前沿。我想為此感謝你們所有人。謝謝。接下來,讓我們談談AI。什麼是AI?大多數人會說AI是一個聊天機器人,這確實是正確的。毫無疑問,ChatGPT是人們認為的AI前沿。然而,正如你現在看到的,這些科學超級電腦不是用來運行聊天機器人的。它們將進行基礎科學AI。AI的世界遠不止聊天機器人,當然。聊天機器人極其重要,而AGI從根本上來說至關重要。深度電腦科學、不可思議的計算能力、偉大的突破對於AGI仍然至關重要。但除此之外,AI還有更多內涵。事實上,我將用幾種不同的方式來描述AI。第一種方式,你首先會想到的是,AI已經完全重塑了計算棧。我們過去編寫軟體的方式是手工編碼的軟體運行在CPU上。今天AI是機器學習、訓練、資料密集型程式設計,如果你願意這麼說的話,通過AI進行訓練和學習,而AI運行在GPU上。為了實現這一點,整個計算棧已經改變。注意,你在這裡看不到Windows。你看不到CPU。你看到的是一個完全不同的、根本不同的棧。我們還可以從對能源的需求開始說起,這是另一個領域,我們的政府、川普總統值得巨大讚譽,他支援能源發展的倡議,他認識到這個行業需要能源來增長,需要能源來進步,我們需要能源來獲勝。他認識到這一點,並將國家的力量置於支援能源增長之後,完全改變了遊戲規則。如果沒有發生這種情況,我們可能會陷入糟糕的境地。我為此感謝川普總統。在能源之上是這些GPU。這些GPU被連接起來,建構成我稍後會展示的基礎設施。在這個基礎設施之上,包括巨型資料中心,輕鬆有這個房間大小的好多倍,消耗巨大的能量,然後通過這些稱為GPU超級電腦的新機器轉化能量,以生成數字。這些數字被稱為Token,可以說是人工智慧的語言、計算單元、詞彙表。你幾乎可以將任何東西標記化。你當然可以將英文單詞標記化。這就是為什麼你能夠識別圖像或生成圖像。將視訊標記化,將3D結構標記化,你可以標記化學物質、蛋白質和基因,你可以標記我們自己,或者幾乎任何有結構的東西,任何有資訊內容的東西。一旦你能將其標記化,AI就能學習那種語言及其含義。一旦它理解了那種語言的含義,它就能翻譯、能響應,就像你與ChatGPT互動一樣。它也能生成,就像ChatGPT能生成一樣。所以,你看到ChatGPT做的所有基本事情,你只需要想像,如果它是蛋白質會怎樣?如果它是化學物質呢?如果它是一個像工廠一樣的3D結構呢?如果它是一個機器人,而標記是理解行為,並將動作和運動標記化呢?所有這些概念基本上都是一樣的,這就是為什麼AI正在取得如此非凡的進展。在這些模型之上是應用程式。Transformer不是一個通用模型。它是一個非常有效的模型,但不存在一個通用的模型。只是AI具有普遍的影響力而已。我們有太多不同類型的模型了。在過去的幾年裡,我們享受了多模態的發明並經歷了創新突破。有太多不同類型的模型。有CNN模型,有狀態空間模型,有圖神經網路模型。在這些模型架構之上是應用程式,即過去的軟體。這是對人工智慧的一個深刻理解,一個深刻的觀察。過去的軟體行業是關於建立工具的。Excel是一個工具,Word是一個工具,網頁瀏覽器也是一個工具。我們之所以知道這些是工具,是因為大家在使用它們。工具,就像螺絲刀和錘子一樣,行業只有這麼大,這些IT工具大約價值1萬億美元左右。但AI不是一個工具,AI是工作者,這就是深刻的區別。AI實際上是能夠使用工具的工人。我真正感到興奮的事情之一是由Irvin在Perplexity所做的工作,他們使用網頁瀏覽器來預訂假期或購物。基本上是一個使用工具的AI。Cursor是一個AI和代理式AI系統,我們在輝達使用它。輝達的每一位軟體工程師都在使用Cursor。這極大地提高了我們的生產力。它基本上是我們每一位軟體工程師生成程式碼的合作夥伴。它也使用名叫VS Code的工具。所以Cursor是一個AI,一個代理式AI系統,而VS Code是它使用的工具。所有這些不同的行業,無論是聊天機器人,還是數字生物學(在那裡我們有AI助理研究員),或者機器人計程車。說到這,在機器人計程車內部,雖然看不見的,但顯然有一個AI司機。那個司機在工作,而它用來工作的工具就是汽車。所以,我們至今創造的一切,整個世界,我們至今創造的一切都是供我們使用的工具。有史以來第一次,技術現在能夠自己工作並幫助我們提高生產力。這樣的機會列表還在繼續,這就是為什麼AI所涉及的經濟領域是它從未觸及過的。它是在工具之下的幾萬億美元、甚至百萬億美元全球經濟。現在,AI將首次涉足這百萬億美元的經濟,使其更具生產力,增長更快,規模更大。我們面臨嚴重的勞動力短缺,擁有增強勞動力的AI將幫助我們增長。從技術產業的角度來看,有趣的是,在AI是開創經濟新領域的新技術這一事實之外,AI本身也是一個新產業。正如我早先解釋的,這些Token,這些數字,在你將所有不同的模態和資訊標記化之後,需要一個工廠來生產這些數字,這與過去不同。過去的電腦行業和晶片行業,請注意,如果你看過去的晶片行業的話,過去的晶片行業約佔IT行業的5%到10%,也許更少。原因是,使用Excel不需要那麼多計算,使用瀏覽器不需要那麼多計算,使用Word不需要那麼多計算。但是在這個新世界裡,需要有一台電腦始終理解上下文。它無法預先計算,因為每次你使用AI電腦,每次你要求AI做某事時,上下文都是不同的。所以它必須處理所有這些資訊環境。例如,在自動駕駛汽車的情況下,它必須處理汽車的上下文。你提出的指令是什麼?要求AI去做?然後它必須逐步分解問題,進行推理,制定計畫並執行。每一步都需要生成大量的Token,這就是為什麼我們需要一種新型系統,我稱之為AI工廠。它當然是一個AI工廠。它不同於過去的資料中心,它是一個AI工廠。因為,這個工廠只生產一樣東西,不像過去的資料中心什麼都做,為我們所有人儲存檔案,運行各種不同的應用程式。你可以像使用電腦一樣使用那個資料中心來處理所有應用程式。你可以一天用它來玩遊戲,你可以用它來瀏覽網頁,你也可以用它來做會計。所以那是過去的電腦,一個通用的、多用途的電腦。我在這裡談論的電腦是一個工廠。它基本上只運行一樣東西:它運行AI。其目的是設計用來生產儘可能有價值的Token,意思是它們必須聰明,並且你希望以驚人的速度生產這些Token。因為當你向AI提問時,你希望它快速響應。並且注意到在高峰時段,這些AI的響應越來越慢,因為它要為很多人做很多工作。所以你希望以驚人的速度生產有價值的Token,並且你希望以高效的方式生產它。我使用的每一個詞都與AI工廠、汽車工廠或任何工廠的概念一致。它絕對是一個工廠。而這些工廠以前從未存在過。在這些工廠內部是堆積如山的晶片,這引出了今天的話題。過去幾年發生了什麼。事實上,去年發生了一些相當深刻的事情。實際上,如果你看今年年初,每個人對AI都有某種態度。這種態度通常是:這將會很大,這將是未來。幾個月前,它進入了渦輪增壓模式。原因有幾個。首先,在過去的幾年裡,我們已經找到了如何讓AI更聰明的方法。這不僅僅是預訓練。預訓練基本上是說,讓我們把人類創造的所有資訊都給AI學習。這本質上是記憶和泛化。這不像我們小時候上學。學習的第一階段,預訓練從來不是,就像學前班從來不是教育的終點一樣。預訓練僅僅是教你智能的基本技能,以便你能夠理解如何學習其他一切。接下來是後訓練。預訓練之後是教你解決問題的技能,分解問題,進行推理。關於如何解決數學問題,如何編碼,如何逐步思考這些問題,使用第一性原理推理。然後在那之後,才是計算真正開始發揮作用的時候。如你們所知,我們上了學,那對我來說是幾十年前的事了。但自那以後,我學到了更多,思考了更多。原因是我們在不斷地用新知識夯實自己。我們不斷地進行研究,我們不斷地思考,這確實是智能的全部意義所在。所以現在我們擁有三個基本的技術技能。我們有這三個技術:預訓練,這仍然需要巨大的計算量。我們現在有後訓練,它使用甚至更多的計算。而現在,“思考”給基礎設施帶來了難以置信的計算負荷,因為它是在為我們每一個人思考。所以AI進行推理、“思考”所需的計算量確實非常巨大。我以前聽人說推理很容易,輝達應該做訓練,輝達需要做。但是,思考怎麼可能容易?思考是困難的,這就是為什麼這三個擴展法則給計算量帶來了如此大的壓力。現在另一件事發生了,從這三個擴展法則中,我們得到了更聰明的模型,這些更聰明的模型需要更多的計算。而模型越聰明,就有越多的人使用它,這就需要越多的計算。而且,現在它們值得付費了。輝達為每一份Cursor許可證付費,我們很樂意這樣做,因為Cursor正在幫助價值數十萬美元的員工——軟體工程師或AI研究員——提高數倍的生產力。所以,我們當然非常樂意這樣做。這些AI模型已經好到值得付費了。Cursor、11 Labs、Cynthia、Abridge、OpenEvidence,這樣的例子還有很多。當然還有OpenAI、Claude。這些模型現在如此之好,以至於人們願意為之付費。因為人們付費並更多地使用它,而每次他們更多地使用它,你就需要更多的計算。我們現在有兩個指數級增長。這兩個指數,一個是三個擴展法則帶來的指數級計算需求。第二個指數是,模型越智能,就有越多的人使用它,使用者增長和模型能力提升相互促進,都導致計算需求指數級增長。兩個指數現在同時對世界的計算資源施加壓力,正好在我剛才告訴你摩爾定律已基本結束的時候。所以問題是,我們該怎麼做?如果我們有這兩個指數級增長的需求,而我們找不到方法來驅動成本下降,那麼這個正反饋系統就會崩潰。良性循環對幾乎任何行業都至關重要,對任何平台行業都至關重要。它對輝達也至關重要。我們現在已經達到了CUDA的良性循環。建立的應用越多,人們創造的應用越多,CUDA就越有價值,CUDA就越有價值。購買的CUDA電腦越多,購買的電腦越多,開發者就越想為該平台建立應用。輝達的這個良性循環在經過30年後現在已經實現了。15年後,我們也將為AI實現了這個良性循環。AI現在已經達到了一個良性循環。所以,你越多地使用它,因為AI很智能並且我們願意付費,就能產生越多的利潤。產生的利潤越多,投入到電網中的計算資源就越多,投入到AI工廠中的計算就越多,AI就能變得越智能,越多的人使用它,越多的應用使用它,我們能解決的問題就越多。這個良性循環現在開始運轉了。我們需要做的是大幅降低成本,以便第一讓使用者體驗更好,當你提示AI時,它響應你的速度要快得多;第二,這樣我們就能通過驅動成本下降來保持這個良性循環繼續,這樣它就能變得更聰明,這樣就有更多人使用它,如此循環下去,這個良性循環現在正在加速。但是當摩爾定律真的達到極限時,我們該怎麼做呢?答案叫做協同設計。你不能只設計晶片,然後指望運行在上面的東西會更快。在設計晶片方面,你能做的最好就是每隔幾年增加可能50%的電晶體。如果你增加了更多電晶體,或者只是不斷增加更多電晶體,但那都是百分比增長,不是指數增長。我們需要復合指數增長來保持這個良性循環繼續,我們稱之為極端協同設計。輝達是當今世界上唯一一家真正從一張白紙開始,能夠同時思考新的基礎架構、電腦架構、新晶片、新系統、新軟體、新模型架構和新應用的公司。在座的許多人之所以在這裡,是因為你們是這個堆疊不同層面的一部分。通過與輝達合作,我們從根本上重新設計了從底層到頂層的一切。然後,因為AI是一個如此龐大的問題,我們將其規模化。我們首次建立了一台電腦,這台電腦已經擴展成整個機架。那是一台電腦,一個GPU,然後我們通過發明一種新的AI乙太網路技術(我們稱之為Spectrum-X Ethernet)將其橫向擴展。每個人都會說乙太網路就是乙太網路。而Spectrum-X乙太網路是為AI性能而設計的,這就是它如此成功的原因。即使那樣也還不夠大。我們會用AI超級電腦和GPU填滿整個房間。那仍然不夠大,因為AI的應用數量和使用者數量持續呈指數級增長,我們將多個這樣的資料中心連接在一起,我們稱之為跨規模擴展,使用Spectrum-X GS,千兆規模X,Spectrum-X Gigascale XGS。通過這樣做,我們在如此巨大的層面上進行協同設計,如此極端的層面,以至於性能提升是驚人的。不是每一代提升50%,不是每一代提升25%,而是多得多。這是我們製造過的最極端的協同設計電腦,坦白說,自IBM System 360以來,在現代時期,我認為從未有過像這樣從頭開始、徹底重新發明的電腦。建立這個系統極其困難。我稍後會向你們展示其好處。但本質上我們所做的,我們創造了NVLink 72,如果我們要建立一個巨大的晶片,一個巨大的GPU,它看起來會是這樣。這是我們必須要做的晶圓級處理的水平,是不可思議的。所有這些,所有這些晶片現在都被放入一個巨大的機架,這個巨大的機架使所有這些晶片作為一個整體協同工作。這看上去完全不可思議。(現場演示環節)不管怎樣,我們基本上,過去我們創造的是這個。這是NVLinks,NVLink 8。現在這些模型如此巨大,我們解決的方法是把這個模型,這個巨大的模型,變成一大堆專家,有點像團隊。所以這些專家擅長某些類型的問題,我們把一大堆專家聚集在一起。所以這個巨大的數萬億美元AI模型有所有這些不同的專家,我們把所有這些不同的專家放在GPU上。現在是NVLink 72。我們可以把所有的晶片放入一個巨大的交換網路中,每個專家都可以相互交談。所以主專家、主要專家可以與所有下屬專家交談,以及所有必要的上下文、提示和我們必鬚髮送給所有專家的大量資料。專家們,無論哪個專家被選中來解答問題,我們會更多地嘗試響應,然後它會一層接一層地去做,有時八層,有時十六層。有時這些專家,有時六十四個,有時兩百五十六個。但關鍵是專家越來越多。那麼,這裡,NVLink 72,我們有72個GPU。正因為如此,我們可以在一個GPU裡放四個專家。你需要為每個GPU做的最重要的事情是生成Token,這取決於你的HBM記憶體的頻寬量。我們有一個H100 GPU為四個專家生成“思考”。而在這裡,因為每台電腦只能放八個GPU,我們必須把三十二個專家放進一個GPU。所以這個GPU要為一個專家進行三十二次“思考”。對比這個系統,每個GPU只為一個專家進行四次“思考”。正因為如此,速度差異是驚人的。這個剛剛出來,是由SemiAnalysis進行的基準測試。他們做了非常徹底的工作,他們對所有可進行基準測試的GPU進行了基準測試。結果發現並沒有那麼多。如果你看看GPU列表,實際上可以基準測試的GPU大概90%是輝達。好吧。但是,所以我們是在和自己比較,但世界上第二好的GPU是H200,運行所有工作負載。Grace Blackwell每個GPU的性能是H200的10倍。當你只增加了兩倍的電晶體時,如何獲得10倍的性能?答案是極端協同設計。通過理解未來AI模型的性質,並且我們在整個堆疊上進行思考,我們可以為未來建立架構。這是件大事。這意味著我們現在可以更快地響應。但接下來是更大的事。這張圖片顯示世界上成本最低的Token是由Grace Blackwell NVLink 72生成的,這是最昂貴的電腦。一方面,GB200是最昂貴的電腦。另一方面,它的Token生成能力如此強大,以至於它以最低的成本生產Token。因為每秒Token數除以Grace Blackwell的總擁有成本是如此之好,以至於它是生成Token成本最低的方式。通過這樣做,提供驚人的性能,10倍的性能提升,並提供10倍的低成本,以此讓良性循環可以繼續。不管怎樣,有兩個平台轉型正在同時發生。一個平台轉型是從通用計算轉向加速計算。記住,加速計算,正如我之前向你們提到的,它進行資料處理、圖像處理、電腦圖形學,它進行各種計算。它運行SQL,運行Spark,不管你需要什麼,我相當確定我們有一個很棒的庫能夠給你。你可能是一個試圖製造掩範本來生產半導體的資料中心。我們有一個很棒的庫給你。所以,在底層, irrespective of AI,世界正在從通用計算轉向加速計算,這與AI無關。事實上,許多CSP在AI出現之前早就有了服務。記住,它們誕生於機器學習時代,經典的機器學習演算法,如XGBoost,用於推薦系統、協同過濾、內容過濾的演算法,像資料幀這樣的演算法,所有這些技術都是在通用計算的時代建立的。即使是那些演算法,即使是那些架構,現在通過加速計算也變得更好。所以,即使沒有AI,世界的CSP也將投資於加速。而我們的GPU是唯一能完成所有這些事情的GPU。而ASIC可能能做AI,但它不能做任何其他事情。輝達能完成所有那些。這就解釋了為什麼僅僅依賴輝達的架構是如此安全。我們現在已經達到了我們的良性循環,達到了我們的拐點。這相當不尋常。我有很多合作夥伴在座,你們所有人都是我們供應鏈的一部分,我知道你們工作得多麼努力。我想感謝你們所有人,感謝你們如此努力地工作。非常感謝。現在我要向你們展示原因。這是我們公司業務正在發生的情況。我們看到Grace Blackwell的增長非常驚人,原因正如我剛才提到的。它是由兩個指數驅動的。我們現在能見度很高,我想我們可能是歷史上第一家能看到截至2026年累計5000億美元Blackwell訂單和早期Ruben(下一代平台)訂單的技術公司。如您所知,2025年還沒結束,2026年還沒開始。這是已經預訂的業務量,價值5000億美元。到目前為止,我們已經出貨了600萬個Blackwell GPU…在最初幾個季度,我想,是頭四個生產季度或三個半生產季度。2025年我們還有一個季度要完成。然後我們還有四個季度。所以接下來五個季度,要完成5000億美元,那是五倍的增長速度。這某種程度上告訴了你一些事情。這是上一代的Hopper的整個生命週期的數額。還不包括中國和亞洲市場。所以Hopper在其整個生命週期中是400萬個GPU。每個Blackwell模組裡面有2個GPU,是一個大封裝。Blackwell在早期階段就有2000萬個GPU,增長非常驚人。所以我想感謝我們所有的供應鏈合作夥伴,各位。我知道你們工作得多麼努力。我製作了一個視訊來慶祝你們的工作。讓我們播放它。(播放一段關於美國製造業的視訊)我們再次在美國進行製造,這太不可思議了。川普總統之前講的第一件事就是讓製造業回歸,因為這對國家安全是必要的。讓製造業回歸,因為我們想要那些工作崗位。我們想要那部分經濟。九個月後,我們現在在亞利桑那州全面生產Blackwell。Extreme Blackwell,GB200 NV Grace,Blackwell NVLink 72。極端協同設計給我們帶來了10倍的代際提升。這完全不可思議。現在,真正不可思議的部分是,這是我們製造的第一台AI超級電腦。這是在2016年,我把它交付給舊金山的一家初創公司,這家公司後來被證明是OpenAI。這就是那台電腦。而為了製造那台電腦,我們設計了一款新晶片以便我們進行協同設計。現在我們必須設計的所有晶片。這就是目前所需要的。你不可能拿一個晶片就讓電腦快10倍。那不會發生。讓電腦快10倍的方法,讓我們能夠持續指數級提升性能、持續指數級驅動成本下降的方法,就是極端協同設計,同時研發所有這些不同的晶片。我們現在已經有了下一代的Ruben晶片。這是我們的第三代NVLink 72機架規模電腦。GB200是第一代。我們在世界各地的所有合作夥伴,我知道我聽說你們工作有多努力。第一代做得非常艱難,第二代順暢多了。而這一代,看這個(現場展示),對我們來說真的不算什麼了。這些現在都在實驗室裡了。這是下一代Ruby。在我們發貨的同時,我們正在準備投入生產,你知道,大概明年這個時候,甚至可能稍早一點。所以每一年,我們都會推出最極端的協同設計系統,這樣我們就能持續提升性能,持續降低Token生成成本。看看這個,這非常漂亮。所以這太神奇了。(接下來是現場展示和介紹,包括Vera Rubic計算托盤、BlueField、NVLink交換機等)現在,如你所注意到的,輝達最初從設計晶片開始,然後我們開始設計系統,我們設計AI超級電腦。現在我們正在設計整個AI工廠。每次我們向外擴展並整合更多需要解決的問題,我們就能提出更好的解決方案。我們現在建造整個AI工廠。這個AI工廠是我們為Vera Ruben建造的,我們建立了一種技術,使我們所有的合作夥伴能夠數位化地整合到這個工廠中。讓我展示給你們看。(現場播放一段相關視訊)完全數位化。遠在Vera Ruben作為實體存在之前,遠在這些AI工廠存在之前。我們就最佳化它,並將它作為數字孿生來營運。所以所有與我們合作的合作夥伴,很高興你們所有人都支援我們。我們一起建造AI工廠。再來,讓我們談談模型,開源模型。在過去的幾年裡,發生了幾件事。一個是開源模型,由於推理能力相當強大,例如Stability AI,這些不同的能力使得開源模型首次對開發者來說非常有用,它們現在是初創公司的命脈。每個行業都有其自己的用例,不同行業的初創公司需要讓那個領域專業知識能夠嵌入到一個模型中。開源使之成為可能。研究人員需要開源,開發者需要開源。世界各地的公司,我們需要開源模型,這非常重要。美國也必須在開源方面領先。我們有驚人的專有模型,但我們還需要驚人的開源模型。我們的國家依賴於此,我們的初創公司依賴於此,所以輝達正致力於去做這件事。我們現在是開源貢獻的最大領導者。我們有23個模型在排行榜上。我們有所有這些不同的領域,從語言模型到物理AI模型再到生物學模型。每個模型都有龐大的團隊。這就是我們為自己建構超級電腦的原因之一,以促成所有這些模型的建立。我們有排名第一的語音模型,排名第一的推理模型,排名第一的物理AI模型。下載量非常可觀。我們致力於此。原因是科學需要它,研究人員需要它,初創公司需要它。我很高興AI初創公司基於輝達建構。他們這樣做有幾個原因。當然,我們的系統豐富。我們的工具運行良好。我們所有的工具都在我們所有的GPU上運行。我們的GPU無處不在,在每一個雲上都可用,你可以下載我們的軟體棧,然後它就能工作。我們擁有豐富的開發者生態系統的優勢,他們正在使這個生態系統更加豐富。所以我真的很高興與所有我們合作的初創公司建立關係。謝謝你們。同樣的情況是,許多這些初創公司現在開始創造更多的方式來利用我們的GPU,僱傭人員並擴展規模。Nibias、Lama、love、Lambda, 所有這些公司都很棒。所有我談到的CUDA-X庫。我告訴過你們關於如何開源AI,將我談到的所有模型貨幣化,我們整合到AWS中,我們整合到Google Cloud中……我們還將真實的庫整合到世界SaaS中,這樣每一個SaaS最終都將成為一個代理式SaaS。總有一天,我很想僱傭一個AI代理基本設計師,與我們的ACS合作,本質上是Synopsys的Cursor,如果你願意這麼說的話。我們與Anirudh Devgan、Cadence合作。今天早些時候,他是開場秀的一部分,Cadence在做不可思議的工作,加速他們的堆疊以建立AI代理,這樣我們就能擁有Cadence AI、AC設計師和系統設計師工作。今天,我們宣佈一個新的合作。AI將極大提高生產力。AI將改變幾乎每一個行業。但AI也將極大地加劇大型網路安全挑戰,那些壞AI。所以,我們需要一個不可思議的防禦者。我無法想像有比CrowdStrike更好的防禦者了。George Voltage在這裡。他剛才在這裡。是的,我早些時候看到他了。我們正在與CrowdStrike合作,使網路安全達到光速。建立一個在雲中擁有網路安全AI代理的系統,同時也在本地或邊緣擁有真正優秀的AI代理。這樣,無論何時出現威脅,你都能在瞬間檢測到它。我們需要速度,我們需要快速的代理式AI,超級智能的代理。然後,還有一個發佈要宣佈。這是世界上增長速度最快、最有價值的企業,可能是當今世界上最重要的企業堆疊——Palantir。他們獲取資訊,獲取資料,獲取人類判斷,並將其轉化為商業洞察。我們與Palantir合作,加速Palantir所做的一切,這樣我們就能以更大的規模和更快的速度進行資料處理。無論是過去的結構化資料,還是非結構化資料。然後,我們會為我們的政府處理這些資料,為了國家安全,也為世界各地的企業。以光速處理這些資料,並從中發現洞察。這就是未來的樣子。Palantir將整合輝達技術,以便我們能夠以光速處理資料。接下來,讓我們談談物理AI吧。物理AI需要三台電腦,就像訓練一個語言模型需要兩台電腦一樣:一台訓練它,一台評估和推理。好吧,所以那就是你看到的大型GB200。為了給物理AI做這件事,你需要三台電腦。你需要電腦來訓練它。這是GB,Grace Blackwell NVLink 72,是進行所有我早先向你們展示的模擬的電腦,使用Omniverse DSX。那基本上是一個大窗口,讓機器人學習如何成為一個好機器人,讓工廠本質上成為一個數字工具。(現場展示)這台電腦必須非常擅長生成式AI,並且必須擅長電腦圖形學、感測器模擬、光線追蹤、訊號處理。這台電腦,它叫做Omniverse電腦。一旦我們訓練了模型,在數字孿生中模擬那個AI,那個數字孿生可以是一個工廠的數字孿生,也可以是一大堆機器人的數字孿生,然後你需要操作那個機器人。而這是機器人電腦。這個進入自動駕駛汽車。它的一半可以進入一個機器人。好吧?或者你實際上可以有,你知道,相當敏捷和快速操作的機器人。它可能需要兩個這樣的電腦。這三台電腦都運行CUDA。這使得我們能夠推進物理AI,讓AI理解物理世界,理解物理定律、因果關係、持久性。我們有令人難以置信的合作夥伴與我們一起建立工廠的物理AI。我們自己也在使用它在德克薩斯州建立我們的工廠。現在一旦我們建立了機器人工廠,裡面有一堆機器人,而這些機器人也需要物理AI,應用物理AI並在可視化孿生中工作。讓我們看看美國的再工業化。在德克薩斯州的休斯頓,富士康正在建設一個最先進的機器人設施,用於製造輝達AI基礎設施系統。面對勞動力短缺和技能差距,數位化、機器人技術和物理AI比以往任何時候都更加重要。工廠在Omniverse中以數字方式誕生。富士康工程師在基於Omniverse技術的西門子數字孿生解決方案中組裝他們的虛擬工廠。每個系統,機械、電氣、管道,都在施工前經過驗證。西門子Plant Simulation運行設計空間探索最佳化,以確定理想的佈局。當出現瓶頸時,工程師使用由西門子TeamCenter管理的更改來更新佈局。在Isaac Sim中,相同的數字孿生用於訓練和模擬機器人AI。在裝配區,發那科機械手建構GB300托盤模組。由FII的靈巧機械手和熟練的AI將母線排安裝到托盤中。AMR(自主移動機器人)將托盤運送到測試艙。富士康使用Omniverse進行大規模感測器模擬,機器人AI在其中學習作為車隊協同工作。在Omniverse中,基於輝達Metropolis和Cosmos建構的視覺AI智能體從上方監視機器人車隊和工人以監控操作,並在出現異常、安全違規甚至人與機器人協同工作。這就是製造業的未來,工廠的未來。我想感謝我們的合作夥伴富士康,他們的CEO就在這裡。所有這些生態系統合作夥伴使得我們建立機器人工廠成為可能。你知道,完成這項工作所需的軟體量如此巨大,除非你能在數字孿生中完成,在這個星球上設計它,在數字孿生中操作它,否則讓這個正常工作的希望很渺茫。我也非常高興地看到,Caterpillar,我的朋友Joe Creed和他有百年歷史的公司也正在將數字孿生融入他們製造這些工廠的方式中。我們將擁有未來的機器人系統。而最先進的系統之一是Figure。Brett Abcock今天在這裡,他剛在三年前創立了一家公司。他們今天價值近400億美元。我們正在一起合作訓練AI,、訓練機器人、模擬機器人,當然,還有進入Figure的機器人電腦。真的很驚人。我有幸看到了它。它真的非常了不起。還有我的朋友馬斯克也在研究人形機器人,這很可能將成為最大的新型消費電子市場之一,並且肯定也是最大的工業裝置市場之一。Peggy Johnson,Agility的同事們正在與我們合作,是關於倉庫自動化機器人的。Johnson & Johnson的同事們再次與我們合作,訓練機器人,在數字孿生中模擬以及操作機器人。這些Johnson & Johnson的手術機器人甚至將執行完全現代的非侵入性手術,其精度將是世界前所未見的。當然,還有最可愛的機器人,迪士尼機器人。這個真的非常貼近我們的心。我們正與迪士尼研究部門合作,基於一項革命性的技術,開發一個全新的框架和模擬平台,使得機器人能夠在一個物理上準確、基於物理的環境裡學習如何成為一個好機器人。讓我們看看它。(現場播放了一段機器人相關視訊)現在,記住,你剛剛看到的一切…那不是動畫,不是電影,是模擬。那個模擬是在Omniverse中實現的,是數字孿生。所以這些工廠的數字孿生、倉庫的數字孿生、手術室的數字孿生,他們學習如何操作和導航、與世界互動的數字孿生,而且全部都是即時完成的。這將成為世界上最大的消費電子產品線,這是人形機器人的未來,當然,現在人形機器人仍在開發中。但與此同時,有一種機器人顯然正處於拐點,並且基本上已經到來,那就是輪式機器人。機器人計程車本質上是一個AI司機。現在我們今天要做的一件事是,發佈輝達Drive Hyperion。這是件大事!我們建立了這個架構,以便世界上每家汽車公司都能製造汽車。車輛可以是商用的,可以是乘用的,可以專用於機器人計程車。製造作為機器人計程車的車輛。本質上,3個環繞攝影機和雷達、雷射雷達使我們能夠實現最高水平的環繞繭式感測器感知和冗餘,這是最高安全等級所必需的。Drive Hyperion現在已被梅賽德斯-奔馳等採用了,未來還有許多其他汽車企業會採用。(現場播放了一段機器人自動駕駛相關視訊)好吧,所以這就是我們今天討論的內容。我們討論了大量的事情,核心是兩個平台轉型,從通用計算轉向加速計算,以及輝達CUDA。而那套名為CUDA-X的庫使我們能夠涉足幾乎每個行業,並且我們正處在拐點上。它現在正在增長,正如良性循環所預示的那樣,第二個拐點現在正降臨到我們身上。第二個平台轉型,AI,從經典的手寫軟體轉向人工智慧。兩個平台轉型同時發生,這就是為什麼我們感受到了如此驚人的增長。我們談到了量子計算、開源模型。在企業方面,我們與CrowdStrike和Palantir合作,加速他們的平台。我們談到了機器人技術,它即將成為最大的消費電子和工業製造領域之一。當然,我們還談到了6G,輝達為6G提供了新平台。我們稱之為Arc。我們為機器人汽車提供了新平台,我們稱之為Hyperion。我們甚至為工廠提供了新平台,兩種類型的工廠:AI工廠,我們稱之為DSX。然後是應用AI的工廠,我們稱之為Mega。所以現在我們也在美國進行製造。女士們先生們,感謝你們今天蒞臨,感謝你們允許我將GTC帶到華盛頓特區。我們希望每年都能在這裡舉辦。感謝你們所有人,讓美國再次偉大。謝謝! (Barrons巴倫)
OpenAI公佈超級智能路線圖:模型明年有望重大飛躍,2028年實現全自動AI研究員,基建投資承諾1.4兆
OpenAI設定兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年AI研究員可自主完成大型研究項目。Altman指出,到2028年科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。截至目前OpenAI已承諾建設總計超過30GW基礎設施,對應未來數年內總計約1.4兆美元投資。Altman強調,1.4兆美元只是起點,正討論更宏大願景。預計未來六個月內模型能力將有巨大飛躍。美東時間28日周二,OpenAI宣佈公司重組完成後,CEO Sam Altman和首席科學家Jakub Pachocki通過一小時直播首次公開了實現超級智能的具體時間表。公司已承諾在資料中心基礎設施上投入約1.4兆美元,對應約30吉瓦的算力容量,並計畫建立每周新增1吉瓦算力的"基礎設施工廠"。Jakub Pachocki在直播中表示,深度學習可能在不到十年內將人類帶入超級智能時代。OpenAI設定了兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年3月實現全自動AI研究員,可自主完成大型研究項目。Sam Altman強調,為支撐這一時間表,OpenAI正從AI助手轉型為平台服務商,目標是讓外部開發者在其平台上創造的價值超過OpenAI自身創造的價值。他表示,公司最終需要達到數千億美元年收入以支撐基建投資,企業服務和消費者業務都將是重要收入來源,IPO是最可能的融資路徑。OpenAI 的內部模型目前尚未遠超已發佈的版本,但對在2026年9月前實現重大飛躍非常樂觀。預計到2026年9月,極有可能見證模型質量的巨大飛躍。此外,預計未來數月乃至數年內還會有重大進展。OpenAI並未給出發佈GPT-6的具體時間表,但表示產品發佈的節奏將不再與研究計畫嚴格繫結。例如 GPT-5 首次將推理模型作為旗艦產品推出,這本身就是一個重大的整合性工作。但可以確定,未來六個月內、甚至更早,模型能力將有巨大飛躍。此次直播圍繞研究、產品和基礎設施三大支柱展開,披露了OpenAI對AGI發展路徑、安全框架和商業模式的最新思考。公司同時公佈了新的組織架構,由非營利性質的OpenAI基金會控制公共利益公司OpenAI集團,前者初期持有後者約26%股權。超級智能時間表:從研究實習生到全自動研究員Jakub Pachocki詳細闡述了OpenAI的研究路線圖,核心聚焦於深度學習的規模化訓練。他指出,AGI這個詞可能低估了技術進步的潛在規模,OpenAI內部相信距離實現超級智能——在眾多關鍵維度上超越所有人類的系統——可能已不足十年。OpenAI使用"任務時間跨度"來衡量模型能力進展,即模型完成任務所需時間與人類專家的對比。當前一代模型的水平約為5小時,可從其在國際數學或資訊學奧林匹克競賽中與頂尖選手相媲美的表現看出。Jakub表示,這個時間跨度將繼續快速延伸,不僅源於演算法創新,也來自"上下文計算"或"測試時計算"等新維度的規模化。基於這些預期,OpenAI設定了明確的內部目標。2026年9月前,開發出能力足夠強的AI研究實習生,能夠通過消耗大量計算資源有意義地加速內部研究人員工作。更長遠的目標是在2028年3月前,開發出能夠自主完成大型研究項目的全自動AI研究員。Jakub強調,整個研究計畫圍繞一個核心展開:加速科學發現和新技術發展,這將從根本上改變人類技術進步的速度。Sam Altman在問答環節中補充,AGI的到來將是一個持續數年的過渡過程,而非單一時間點。他特別指出2028年這個節點,屆時科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。關於內部模型進展,他表示並未雪藏某個極其強大的模型,但有許多已開發的技術元件,當這些元件組合在一起時將帶來巨大能力飛躍,預計未來六個月內模型能力將有顯著提升。五層安全框架:從價值對齊到系統性保障隨著系統能力向超級智能邁進,Jakub Pachocki提出了一個將安全問題結構化的五層框架,從模型最核心的內部因素延伸到最外部的系統保障。最核心的是價值對齊,關乎AI最根本"關心"的是什麼。Jakub解釋,當系統變得極其聰明、思考時間極長、處理的問題超越人類能力極限時,給出完全無懈可擊的指令會變得異常困難,因此必須依賴更深層次的對齊。第二層是目標對齊,關注AI如何與人互動以及遵循指令的表現。第三層是可靠性,即AI能否精準校準預測、在簡單任務上保持可靠並在困難任務上表達不確定性。第四層是對抗性魯棒性,側重於AI能否抵禦來自人類或其他AI對手的蓄意攻擊。最外層是系統性安全,包括系統安全性、AI可訪問的資料範圍、可使用的裝置等外部限制。Jakub特別介紹了一項名為"思維鏈忠實度"的研究方向。這項可解釋性技術的核心思想是,在訓練過程中刻意讓模型內部推理的某些部分不受監督,從而讓這部分推理過程能夠更忠實地反映模型真實所思所想。他表示,經驗性結果非常理想,OpenAI內部大量使用該技術來理解模型訓練過程中的演變,並與外部合作者成功用它研究模型的欺騙傾向。這項技術具有可擴展性,但也很脆弱,要求在演算法和產品設計中劃定清晰界限。例如,ChatGPT中對思維鏈進行總結的功能,就是為了避免將完整思維鏈直接暴露給使用者。Jakub解釋,如果思維鏈完全可見,它就會成為使用者體驗的一部分,久而久之就很難再對其保持無監督狀態。基建擴張計畫:向兆美元級算力投資邁進Altman以前所未有的透明度公開了OpenAI的基礎設施建設計畫。Altman周二表示,截至目前OpenAI已承諾建設總計超過30吉瓦(GW)的基礎設施,對應未來數年內總計約1.4兆美元投資。這些承諾基於OpenAI目前對收入增長和融資能力的評估。這一投資涉及眾多合作夥伴,包括AMD、博通、Google、微軟、輝達、甲骨文、軟銀等晶片、資料中心、能源和製造領域的公司。Altman強調,1.4兆美元只是起點,OpenAI正在積極討論更宏大的願景。Altman表示,OpenAI的願景是建立一個基礎設施工廠,能夠以每周1GW的速度創造算力,同時將成本大幅降低,目標是在裝置的5年生命周期內,將每GW成本降至約200億美元。他承認,實現這一願景需要海量創新、更深入的合作、巨大的收入增長,甚至需要重新調整OpenAI在機器人領域的思路,讓機器人幫助建設資料中心。Altman在問答環節中指出,要支撐1.4兆美元的投資,公司年收入最終需要達到數千億美元,"我們正處在通往這一目標的陡峭增長曲線上"。他預計企業服務將是重要收入驅動力,但也看到了從消費者獲取收入的方式,不僅限於月度付費訂閱,還包括新產品和裝置等。關於IPO計畫,Altman表示,考慮到公司巨大的資本需求和規模,IPO是最可能的路徑,但目前沒有具體計畫或時間表。"考慮到我們的資本需求以及公司規模,可以說這對我們而言是最可能的路徑,"他說。平台化轉型:從超級助手到AI雲生態Sam Altman闡述了OpenAI在產品層面的戰略演進。他表示,過去OpenAI的產品形態主要是以ChatGPT為代表的AI超級助手,現在正朝著更宏大的目標演進——成為一個平台,一個其他人可以在其上建構應用和服務的"AI雲"。Altman引用比爾·蓋茲的觀點定義平台成功:當其他人基於平台創造的價值超過平台建構者自身創造的價值時,平台就成功了。這正是OpenAI明年的目標。他表示,憑藉現有的技術、使用者基礎和框架,OpenAI能夠推動全世界在其平台上建立出驚人的新公司、服務和應用。為實現平台化轉型,Altman強調了兩個基礎原則。首先是使用者自由,如果OpenAI要成為供全世界不同人群使用的平台,就必須承認人們有截然不同的需求。雖然會有一些寬泛的邊界,但OpenAI希望使用者在使用AI時擁有大量控制權和定製化能力。他多次重申"像對待成年人一樣對待成年使用者"的原則,承諾隨著年齡驗證等機制完善,將給予成年使用者更大的自由度,尤其在創作等領域會大幅放寬限制。其次是隱私保護。Altman指出,隨著AI成為基礎平台,人們與AI的互動方式非常私密,會像對醫生、律師或配偶一樣與之交談,分享生活中最隱秘的細節,因此需要以不同於以往技術的方式思考隱私問題。在產品規劃上,OpenAI描繪了一個層級架構:底層是晶片、機架、資料中心和能源等硬體基礎;中間層在硬體之上訓練模型並建構帳戶體系;應用層推出了名為Atlas的瀏覽器,並計畫未來幾年推出硬體裝置;最令人興奮的是頂層的生態系統,人們將利用OpenAI的API、ChatGPT內的應用、企業平台和帳戶建構服務。新公司架構與基金會使命為支援上述計畫並確保服務於核心使命,OpenAI對公司架構進行了重大調整。新架構由兩部分組成:頂端是非營利性質的OpenAI基金會,擁有對公司的最終控制權,董事會隸屬於基金會;基金會之下是公共利益公司OpenAI集團。基金會將掌控OpenAI集團,初期持有其約26%股權,如果公司表現出色這一比例未來還可能增加。Altman表示,基金會的目標是成為有史以來最大的非營利組織,利用其資源追求AI帶來的最大化社會福祉。OpenAI集團將更像普通公司一樣運作,以便吸引研究所需的龐大資源,但依然受到與基金會相同的使命約束,尤其在安全問題上必須以使命為唯一準則。基金會公佈了兩個初步重點方向。首先是投入250億美元利用AI幫助治癒疾病,資金將用於生成資料、提供計算資源、資助科學家等。其次是AI韌性,這是一個比傳統AI安全更廣泛的概念。聯合創始人Wojciech Zaremba解釋,先進AI的到來必然伴隨風險和顛覆,AI韌性的目標是建立一個由眾多組織構成的生態系統共同解決這些問題。他用網路安全行業發展類比:網際網路早期人們不敢線上輸入信用卡號,而現在龐大的網路安全產業保護著關鍵基礎設施,使人們願意將最私密資料放線上上。同樣,AI領域也需要一個"AI韌性層",OpenAI基金會將幫助催生這樣一個生態系統。以生物風險為例,韌性不僅包括在模型層面阻止病毒學相關查詢,還包括建立快速響應機制,以便在問題發生時有效應對。 (invest wallstreet)