#晶片
“儲存狂潮”何時見頂?這是最有效的“領先指標”
自2023年1月以來,受AI計算需求推動,儲存晶片股持續大漲,前三大儲存製造商股價平均上漲699%。然而,隨著股價不斷攀升,市場最關心的已不是“還能漲多少”,而是“該盯什麼訊號判斷拐點”。3月16日,瑞銀全球研究團隊發佈研報《全球 I/O 儲存半導體》,回顧了過去20年儲存行業的周期規律,並對當前的領先指標進行了重新評估。瑞銀指出,在AI計算的推動下,儲存行業的底層邏輯已經發生根本性改變,傳統的估值和預測模型可能不再適用。而營業利潤則成為更好的領先指標。行業“底層邏輯”變了:AI把供需關係推向新均衡瑞銀將本輪行情的關鍵歸因於“AI算力時代,儲存價值上移”。報告指出,價值重估背後有兩條供給側約束在累積:HBM佔用越來越多DRAM晶圓產能,帶來“嚴重DRAM短缺”;這一緊張還會被“trade ratio”放大:即HBM DRAM die尺寸相對DDR持續變大,單位HBM對產能的“消耗”更高。在此基礎上,瑞銀提出一個對投資者更敏感的結論——回報率中樞上移。報告直言:“我們認為ROE已經結構性重設”,並預計三星/SK海力士/美光在2026-2030E平均ROE為36%,顯著高於過去十年15%。這意味著:用舊周期範本去找頂部,可能會更頻繁失靈。傳統指標失靈:“二階導數”不再可靠過去,投資者通常喜歡用“二階導數”——即儲存合約價格(ASP)環比或同比加速最快的季度——來預測股價的頂部。然而,瑞銀的復盤結果顯示,這個指標的可靠性正在下降。在過去20年的10次“股價見頂”中,只有50%的情況下,股價與DRAM ASP環比變化在同一季度或相近季度見頂。例如,在2009年第四季度(全球金融危機後的復甦期)、2013年第二季度(行業整合後的周期)以及2017年第一季度(傳統周期),ASP環比變化的峰值分別比股價見頂早了3個、5個和5個季度。瑞銀指出,雖然實際ASP與股價的同步性稍好(60%的情況下在同一季度見頂),但整體來看,“二階導數”在當前複雜的市場環境下,已經很難作為精準的“逃頂”訊號。尋找新錨點:營業利潤是更好的領先指標既然傳統指標失靈,投資者該看什麼?瑞銀給出的答案是:營業利潤(OP)。營業利潤不僅反映了價格變化,還綜合了位元增長(bit growth)和單位成本下降(cost reduction per bit)的因素。因此,它更接近行業真實景氣度的“終值”。報告分析顯示,在過去20年中,股價在90%的情況下與營業利潤同時或提前見頂。特別是在2012年之前,股價與營業利潤的見頂時間幾乎是同步的。而在此之後,股市的預期性變得更強,股價通常會比營業利潤提前一到兩個季度見頂(大多數情況下提前一個季度)。不過,瑞銀也提醒投資者,預測營業利潤何時見頂並非易事。原因仍在於AI帶來的供需結構變化可能讓盈利節奏更難預測,尤其當HBM持續擠佔DRAM產能時,價格、供給、利潤的聯動關係會更複雜,利潤峰值的“預估時間點”也可能快速漂移。因此,營業利潤可以作為一個重要的觀察指標,但絕不是“萬能藥”。AI重塑行業:ROE結構性重設,上漲行情有望延續至2027年瑞銀強調,當前的儲存周期與以往有著本質的不同。AI計算時代的到來,使得價值向儲存領域發生了根本性的轉移。隨著HBM(高頻寬記憶體)佔據越來越多的DRAM晶圓產能,DRAM短缺問題日益嚴重。此外,HBM DRAM的晶片尺寸不斷增大,進一步加劇了產能的緊張。基於這些因素,瑞銀認為儲存行業的淨資產收益率(ROE)已經發生了結構性重設。報告預測,2026年至2030年,三星、SK海力士和美光的平均ROE將達到36%,遠高於過去十年的15%。因此,報告對儲存股的後市依然保持樂觀。報告預計,儲存行業的營業利潤將在2027年第三季度見頂。在其他條件不變的情況下,這意味著儲存股的上漲行情有望持續到2027年第二季度。瑞銀繼續首選買入SK海力士,同時對三星、美光(MU)和南亞科技均維持“買入”評級。 (追風交易台)
監管批准字節跳動、阿里巴巴、騰訊等公司哦買超過40萬塊輝達H200晶片/Kimi動了11年沒人敢碰的Transformer結構,馬斯克說:令人印象深刻
監管批准字節跳動、阿里巴巴、騰訊等中國科技巨頭購買超過40萬塊輝達H200晶片/Kimi動了11年沒人敢碰的Transformer結構,馬斯克說:令人印象深刻/比亞迪、吉利簽了Nvidia,Uber要在28個城市開無人計程車——2027年就開始/小米MiMo負責人帶著北大團隊炸場:強化學習訓練成本直降71.2%監管剛批了40萬塊H200,黃仁勳轉頭宣佈:我已經開始重新生產了!今年1月,監管批准字節跳動、阿里巴巴、騰訊等中國科技巨頭購買超過40萬塊輝達H200晶片,總價值約100億美元。這是中美晶片博弈裡罕見的"開綠燈"時刻——美國出口管制繞了一大圈,監管蓋了章,DeepSeek也在其中拿到了有條件購買許可。(來源:Reuters、《華爾街日報》)與此同時,中國官方發言人回應說"不瞭解具體情況"——100億美元的訂單,官方說不知道,這已經是一種態度了。更快的是輝達這邊。2026年3月17日,CEO黃仁勳在GTC大會上直接宣佈:已收到來自"眾多客戶"的訂單,H200中國版正在重啟生產。幾周前訂單來了,幾周內工廠開動。禁令、解禁、重啟,這條鏈條走完只用了不到兩個月。100億美元擺在那裡,到底是管制有效,還是管制本身就是一筆生意?(來源:Axios、CNBC)不是降級版!輝達Groq晶片5月入華,這次連"特供"都省了輝達去年底以約200億美元收購了推理晶片公司Groq,現在這顆晶片要直接賣給中國了。據Reuters消息,輝達正在為中國市場準備一款Groq晶片,預計5月上市,面向AI推理業務——也就是模型跑起來之後回答問題、執行任務那個環節。更關鍵的是,知情人士明確透露:這款晶片不是降級版,也不是專為中國特供的閹割版本。(來源:Reuters)之前H20是專門為中國"定製"的縮水版,這次連縮水都免了。這個時間點很微妙。H200剛剛重啟生產,Groq非降級版緊跟著入場,輝達在中國市場一口氣佈局兩條產品線。可美國出口管制的框架還掛在那裡,Groq晶片究竟走的是那個口子,目前沒有官方解釋。監管還沒表態,晶片已經在路上——黃仁勳每次在華盛頓和監管之間走鋼絲,都比上次走得更穩一點。(來源:Reuters)五角大樓要讓AI公司進軍事機密庫訓練模型,這件事比你想像的更炸這件事3月17日才被MIT Technology Review報導出來,五角大樓正在討論一個計畫:為AI公司建立安全隔離環境,讓它們用機密軍事資料訓練專屬的軍用版模型。不是部署,是訓練。意味著OpenAI、Anthropic或者Google的工程師,理論上可以接觸到美軍的機密資料集來"喂"模型。這是一個史無前例的方向,之前從來沒有商業AI公司被允許碰這類東西。(來源:MIT Technology Review)背景是:OpenAI已經與五角大樓簽了在機密網路中部署AI系統的協議,國防部也在今年1月發佈了AI戰略備忘錄。問題是,訓練和部署是兩件性質完全不同的事。部署是讓AI用軍事資訊,訓練是讓軍事資訊變成AI的一部分——這兩者之間的資料安全邊界,目前沒有任何明確的技術標準或法律框架來界定。Hegseth已經警告Anthropic必須配合軍方,OpenAI也大方接單。但誰來決定這些模型最終學到了什麼、記住了什麼,答案目前是:沒人知道。(來源:MIT Technology Review、PBS)GPT-5.4 mini和nano來了——OpenAI說這是"最強小模型",速度快了2倍多OpenAI正式發佈GPT-5.4 mini和GPT-5.4 nano,主打Agent、程式碼生成、多模態工作流,定位是"以極低成本提供接近GPT-5.4水準的性能"。GPT-5.4 mini相比上一代GPT-5 mini,在程式設計、推理、多模態理解、工具呼叫上全面提升,速度快了2倍以上;兩款模型都支援40萬token的超長上下文窗口(大約30萬個漢字),專門針對需要大量子任務串聯的Agent場景做了最佳化。(來源:OpenAI、ZDNET)這對開發者來說是實打實的降本消息——頂級性能的七成,花頂級價格的一個零頭。但OpenAI這一步的棋感,很微妙。GPT-5.4 mini是給API用量大、成本敏感的企業用的,nano是面向更高頻的輕量場景。兩款小模型同時推,等於在Agent賽道上把價格門檻砸穿——競爭對手做的那套"小模型夠用論",OpenAI直接親自驗證了。Anthropic、Google同樣有自己的"小強模型",但現在面對的問題是:你的小模型,是不是真的比OpenAI的小模型更小、更便宜、還更好用?(來源:OpenAI、ZDNET)阿里、騰訊都搶了,百度終於把"小龍蝦"塞進了小度音箱中國AI圈這陣子有個新詞叫"養龍蝦"——OpenClaw是一個開源AI Agent框架,因為logo像龍蝦,被叫爆了。騰訊最先動,做了QClaw接入微信和QQ;阿里隨後跟上。3月17日,百度宣佈將OpenClaw整合進旗下小度(Xiaodu)智能音箱,讓小度變成一個語音控制的Agent遙控器,用一句話就能觸發跨應用的複雜任務。(來源:Bloomberg)三大廠同台,百度靠的是硬體入口:小度的螢幕和麥克風,是其他兩家沒有的物理觸點。但有趣的是,在這場搶跑裡,百度的AI雲收入剛剛同比增長38%,OpenClaw的整合宣佈同一天發佈,時機選得極準——用一個熱詞捆綁一個財報數字,這是一種很熟練的敘事操作。問題是,把Agent塞進音箱和塞進聊天框,那個更容易讓使用者真的用起來?目前沒有任何資料,三家都在同一起跑線上等答案。(來源:Bloomberg)阿里巴巴發佈"悟空"平台,讓AI幫企業打工——現在還在內測阿里巴巴正式推出企業級AI平台"悟空(Wukong)",目前處於封閉測試階段。悟空的核心邏輯是協調多個AI Agent配合工作,處理文件編輯、表格操作、商業研究等複雜企業任務——不是一個聊天機器人,而是一套能"自己分工幹活"的Agent調度系統。(來源:Reuters)時間節點同樣刻意:剛好在中國agent熱潮爆發的那個當口,騰訊在聊,百度在跟,阿里這次選擇先做企業端。悟空和同期宣佈的"Token Hub"是阿里AI戰略的兩面。Token Hub是整合阿里所有AI研究、消費者產品、AI應用的新業務集團,由CEO吳泳銘(Eddie Wu)親自掛帥,核心命題是AI變現。(來源:Bloomberg)悟空是變現的產品抓手,Token Hub是整合內部資源的組織容器——從架構上看,這是阿里把AI從"成本中心"推向"利潤中心"的一次整體操刀。但封閉內測的悟空究竟什麼時候能開放,阿里沒說。(來源:Reuters)Manus突然下載到我電腦裡了!"My Computer"讓AI Agent徹底告別雲端2026年3月16日,Manus正式發佈桌面應用,核心功能叫"My Computer"——可在Windows和macOS上運行,讓AI Agent直接訪問你的本地檔案、瀏覽器、應用程式,以及在你電腦空閒時自動幹活。這是Manus從雲端走向本地的關鍵一步。之前Manus能做的事,都發生在遠端沙盒裡;現在它可以直接讀你的項目資料夾、開你本地的IDE、在你不看螢幕的時候繼續工作。(來源:Manus官網、9to5Mac)這不是"助手",更像一個在你電腦裡常駐的無聲員工。這件事最讓人不安的地方,恰恰是它最吸引人的地方——AI終於能碰你真實的本地資料了。雲端Agent和本地Agent的最大區別,就是這道"能不能接觸到你實際工作環境"的門檻。Manus選擇在這個時間點把門踢開,意味著Agent賽道的戰場從"在雲上幫你查資料",正式移到了"在你的電腦裡幫你幹活"。Cursor在程式碼領域已經打通了這一層,現在Manus要在更寬泛的通用任務上複製這條路——誰先讓使用者真的放心把電腦交出去,誰就贏了。(來源:Manus官網)比亞迪、吉利簽了Nvidia,Uber要在28個城市開無人計程車——2027年就開始輝達在GTC 2026大會上宣佈:比亞迪、吉利、五十鈴、日產四大車企將採用其DRIVE Hyperion自動駕駛平台,支援Level 4等級無人駕駛車輛。同時,Uber與輝達擴大合作,計畫2027年上半年率先在洛杉磯和舊金山推出全端Robotaxi服務,並於2028年擴展至覆蓋四大洲的28個城市。(來源:Nvidia官方、The Verge)一次發佈會,輝達同時繫結了整車製造端和出行營運端——中美日的車企,全進了這張網。這個陣容有點意思。比亞迪和吉利是中國新能源頭部,五十鈴是日本商用車代表,日產是傳統燃油巨頭——四種不同背景的車企,同時選了輝達的同一套平台,這本身就是一種背書。Waymo已經在舊金山和鳳凰城跑了好幾年,Cruise折戟,特斯拉Full Self-Driving還在講故事;輝達這次的策略不是自己造車,而是把自己做成Robotaxi時代的"底盤供應商"。2027年不到兩年,洛杉磯的街上會不會真的有Uber+輝達的無人車跑起來,值得盯著看。(來源:Reuters、The Verge)騰訊QClaw內測,14億微信使用者的手機裡快要住進一隻"AI龍蝦"了騰訊正在內測一款名為QClaw的產品——這是OpenClaw的微信/QQ雙端一鍵啟動包,讓使用者直接在微信聊天框裡調起AI Agent,完成本來需要跨多個App切換才能做完的任務。(來源:新浪科技、知乎)微信12億活躍使用者,QQ幾億年輕使用者,QClaw一旦全面上線,等於給OpenClaw這套開源框架接上了一個全球最大的流量入口。騰訊之前在AI產品上一直給人"慢半拍"的感覺,這次的動作算是把入口優勢打出來了。但QClaw目前只是內測,預計"近期上線"——沒有正式發佈日期。在這條賽道上,阿里的悟空也在等開放,百度小度已經宣佈整合,OpenClaw在中國的生態正在被三大廠同時圈地。微信入口的流量是真實的,但Agent能不能在14億人的聊天框裡真正活下來,取決於它能不能在一個"對話"介面裡把任務做得比人工快。這一步,騰訊比阿里和百度都更有條件驗證——問題只是它動不動得快。(來源:36氪、財富號)小米MiMo負責人帶著北大團隊炸場:強化學習訓練成本直降71.2%2026年3月16日,小米MiMo大模型負責人羅福莉與監管大學研究團隊聯合發佈ARL-Tangram系統,這是一套針對Agent強化學習的統一資源管理框架,核心數字是:將強化學習訓練步驟持續時長縮短至多1.5倍,節省高達71.2%的外部算力資源,同時在真實世界Agent任務上平均ACT提升4.3分。(來源:IT之家、新浪財經)簡單說,同樣的訓練效果,花的錢不到原來的三成。這在當下算力極度緊缺、訓練成本居高不下的背景下,是非常實際的突破。但這篇論文更值得注意的,是它的位置。羅福莉是小米內部MiMo模型的負責人,ARL-Tangram發的不是產品,是學術論文——小米在用學術成果的方式宣示自己在大模型基礎研究上有真正的積累。三月的AI圈到處是"發佈會",小米選擇發一篇論文。在大廠裡,這種動作通常意味著:接下來會有更大的東西落地。算力成本降了70%,下一步的問題是,這個效率用在那裡?(來源:搜狐、IT之家)Kimi動了11年沒人敢碰的Transformer結構,馬斯克說:令人印象深刻2026年3月16日,月之暗面三位聯合創始人楊植麟、吳育昕、周昕宇與數十名研究員聯署,發佈了一篇純架構層面的技術報告。他們重新設計了大模型的核心結構——殘差連接(Residual Connection),這個元件自2015年引入Transformer以來,超過10年幾乎沒有人動過。Kimi的方案讓每一層能夠選擇性地關注此前各層的輸出,而不是統一求和,實驗結果是48B參數規模的模型訓練效率提升1.25倍。(來源:新浪財經、澎湃新聞)論文發出後,馬斯克本人評價"令人印象深刻",前OpenAI研究科學家Andrej Karpathy同樣給予好評。這篇報告的戲劇性,不在於那1.25倍的效率提升,而在於它選擇攻擊的目標——一個10年沒人敢改的基礎元件。大多數模型創新發生在訓練方法、資料配比、規模擴展上;動架構本身,是風險最高也最難被外界驗證的路。三位聯合創始人都署名,不像是一篇普通論文,更像是一份聲明:Kimi在做自己的事,而不是跟在別人後面堆參數。馬斯克和Karpathy的背書,給了這篇論文在國際AI圈的能見度——但它能不能真正改變下一代模型的架構選擇,還需要時間驗證。 (AI Daily Insights)
【GTC 2026】傳輝達Groq LPU將對華出口!
3月18日消息,據路透社報導,兩位知情人士透露,人工智慧(AI)晶片大廠輝達正準備推出一款可向中國市場出口和銷售的Groq語言處理單元(LPU)版本,預計將於今年5月上市。在近日的GTC 2026大會上,輝達高調發佈了基於Groq技術的Groq 3語言處理單元(LPU),將其定位為Vera Rubin GPU的“推理協處理器”,引發了市場的極大關注。與大多數依賴HBM(高頻寬記憶體)作為工作記憶體層的AI加速器不同,每個Groq 3 LPU晶片整合了500MB的片上SRAM(靜態隨機存取儲存器)。雖然其容量遠低於Rubin GPU上的288GB的HBM4,但是其可提供高達150TB/s的頻寬,對於頻寬極度敏感的AI解碼操作,Groq 3 LPU的頻寬是傳統HBM的近7倍。輝達超大規模計算副總裁Ian Buck表示,對於需要極致低延遲的token生成任務,LPU的頻寬優勢無可替代。”那麼,輝達最新推出的這款LPU是否能夠對華出口呢?2026年1月,美國為了讓輝達老的AI晶片能夠對華出口,放寬了相關出口管制的硬體參數限制,已經修改為:TPP(總處理性能)低於21000(3A090.a和3A090.b中所定義)且“總DRAM頻寬”低於6500 GB/s(如第748部分補充2第(dd)(1)段註釋中所定義的)的高級計算商品。美國的AI晶片出口管制的核心紅線是算力密度(TPP)和互聯頻寬。但LPU的架構與AI GPU完全不同:它不擅長高平行浮點運算(訓練任務),而是專攻低延遲推理。雖然其片上SRAM頻寬極高,但容量極小(單晶片僅500MB),無法獨立運行兆參數級大模型。如果看FP8精度下的理論峰值算力,可能遠低於H100/B200等晶片。這意味著,Groq LPU的算力密度可能並不觸及現行美國針對AI晶片出口管制的性能閾值。路透社的報導也指出,輝達正在為中國市場準備的Groq LPU晶片並非降級版本,也不是專門為中國市場打造的“特供版”。但是,在輝達的規劃中,Groq LPU是作為Rubin GPU的“協處理器”存在的。黃仁勳給出的配比建議是:約25%部署Groq LPU,其餘75%部署Vera Rubin。LPU負責解碼階段的低延遲生成,Rubin GPU負責預填充階段的海量計算。這意味著,即使LPU本身可以進入中國,它也無法與Vera Rubin組成完整的混合推理系統——這將顯著影響其在中國市場的實用價值。不過,消息人士稱,輝達計畫對華出口的LPU新版本可以適配其他GPU系統——這意味著它可能在介面、互聯協議或系統整合層面進行了調整,以適應中國市場的伺服器生態。另一種可能是,輝達將Groq LPU以板卡或系統的形式出口,通過整體系統的性能參數來滿足管制要求。消息人士稱“新版本可以適配其他系統”,也暗示了其可能在系統整合層面進行了調整。雖然目前輝達在AI訓練晶片市場依然佔據著主導地位,但是由於美國出口管制政策的限制,使得其在中國AI晶片市場的份額已持續降低至冰點。同時,在中國的AI推理晶片市場,輝達更是面臨著寒武紀、HW、阿里平頭哥、百度崑崙芯等眾多本土廠商的激烈競爭。如果輝達無法將Groq LPU帶入中國,可能將這部分市場份額拱手讓人。這種商業壓力也促使輝達尋找合適的產品及合規的出口路徑,重新回到中國AI晶片市場。 (芯智訊)
【GTC 2026】黃仁勳祭出終極AI推理神器!
黃仁勳介紹稱,LPX與Vera Rubin平台結合後,推理吞吐量/功耗比將能提升35倍。在GTC 2026主題演講上,一款名為輝達Groq 3 LPU的全新晶片正式亮相。台北時間周二凌晨,輝達正式推出Vera Rubin平台,包括Groq 3 LPU(簡稱LPU)在內,共計搭載了七款晶片,分別為Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9超級網路卡、BlueField-4 DPU和Spectrum-6乙太網路交換機。據悉,輝達將建構包含256個LPU的Groq 3 LPX機架,提供128GB(每個LPU整合500MB的SRAM)的SRAM和40 PB/s的推理加速頻寬,並通過每個機架640 TB/s的專用擴展介面將這些晶片連接起來。這款機架將與Vera Rubin NVL72、Vera CPU等另外四款機架一同構成完整的AI超級電腦平台Vera Rubin。輝達表示,Groq 3 LPX 是Vera Rubin的推理加速器,旨在滿足智能體系統對低延遲和大上下文的需求。Vera Rubin和LPX通過協同設計的架構,將Rubin GPU和LPU的卓越性能完美結合,使其呈現極低延遲與超大吞吐量的特點。黃仁勳介紹稱,LPX與Vera Rubin平台結合後,推理吞吐量/功耗比將能提升35倍。LPU晶片將由三星代工,預計機架將於今年下半年開始出貨。就在昨日,分析師郭明錤發文稱,在輝達投資Groq之後,LPU的出貨量預測已大幅上調。預計2026至2027年的總出貨量將達到400萬至500萬顆。新架構機櫃預計於今年第四季度開始量產,2026年與2027年機櫃出貨量分別約為300至500個,以及15000至20000個。在他看來,LPU需求增長快速增長主要來自外部因素。一方面,LPU與輝達生態系(如CUDA)高度整合,大幅降低應用開發與部署門檻。另一方面,如今業內超低延遲推理需求快速增加,包括AI智能體(AI Agents)以及正在興起的即時處理(Real-Time)、終端使用者(Consumer-Facing)與物理AI(Physical-AI)等類型應用。值得一提的是,黃仁勳在主題演講上也強調,AI已完成從感知智能到生成智能,再到物理智能和智能體智能的關鍵躍遷。財通證券指出,大模型在推理過程中會存在延遲,延遲與使用者體驗感精密掛鉤,大模型推理過程中的延遲主要在Decode階段,核心瓶頸在於記憶體頻寬。LPU具備更快的記憶體頻寬,可縮短大模型推理過程中的延遲。同時,基於LPU的大模型不僅具有更快的推理速度,還可以提供更具性價比的價格,可進一步提高使用者體驗感。該機構表示,目前Tokens的消耗量大幅增長,帶動推理晶片市場規模的高增長。LPU有望在推理晶片市場中逐步滲透,具有高成長性的市場空間。看好LPU的高成長性及LPU以機櫃出貨時帶來的PCB機會,建議關注:智微智能(參股元川微)、星宸科技(多輪增資元川微)、滬電股份(輝達PCB供應商)、勝宏科技(輝達PCB供應商)、深南電路。 (科創板日報)
黃仁勳發表重磅演講!稱2027營收至少兆美元,“龍蝦”就是新作業系統!輝達宣佈:七款新晶片全面投產
2026年3月16日,輝達GTC 2026大會正式開幕,輝達創始人兼CEO黃仁勳發表了主題演講。黃仁勳預計輝達新一代AI加速晶片架構Blackwell與下一代Rubin產品,到2027年底將創造至少1兆美元收入。這一數字遠超黃仁勳2025年10月給出的5000億美元銷售預測,再次凸顯AI基礎設施投資浪潮仍在快速擴張。此外,他定義了“代幣工廠(Token Factory)”概念,指出未來的資料中心將不再是儲存中心,而是生產智能代幣的工廠。輝達宣佈七款新晶片投入生產據媒體報導,在GTC大會上,輝達宣佈,Vera Rubin(最新晶片架構)目前已有七款新晶片全面投入生產,Vera Rubin平台正在開啟 Agentic AI新時代,建構全球最大的AI工廠。具體而言,這些晶片產品包括:NVIDIA Vera CPU(沒錯,輝達已進軍伺服器CPU)NVIDIA Rubin GPU (GPU王牌產品)NVIDIA NVLink 6(第六代NVLink交換機晶片,晶片內部互聯)NVIDIA ConnectX-9 SuperNIC(超級網路卡)NVIDIA BlueField-4 DPU (儲存晶片)NVIDIA Spectrum-6 (乙太網路交換機晶片,支援CPO技術)以及新整合的 NVIDIA Groq 3 LPU(收編Groq後的首款晶片)可以看到,晶片家族中不僅有大家平常熟知的CPU、GPU產品,還包括來自Groq的LPU,以及儲存晶片、交換機晶片等全系產品。這些晶片又能夠組成5款機架,在資料中心運行。而Vera Rubin平台把這些晶片全部匯聚在一起,可以形成一台強大的AI超級電腦。無論是大規模預訓練、後訓練和測試時擴展,還是即時智能推理,這台算力性能巨獸都可以支援。“Vera Rubin是一次代際躍遷——七個突破性晶片、五種機架、一台巨型超級電腦——為AI的每一個階段提供動力,”黃仁勳表示,“隨著Vera Rubin的推出,Agentic AI的拐點已經到來,並將開啟歷史上最大規模的基礎設施建設。”黃仁勳預測2027年底收入將達1兆美元黃仁勳在演講中預測,Blackwell與Rubin的AI晶片,到2027年底的收入將達到1兆美元,相比去年10月的5000億美元銷售預測,已經翻倍。黃仁勳直言:去年這個時候,我說過,我們看到了5000億美元的高確信度需求,覆蓋Blackwell和Rubin直到2026年。現在,就在此時此地,我看到到2027年至少有1兆美元的需求(at least $1 trillion)。這句話也是整場演講股民們最興奮的時刻。輝達股價盤中最多上漲超4%,最終收盤迴落到1.6%。Token工廠經濟學,每瓦性能決定商業命脈為瞭解釋這1兆需求的合理性,黃仁勳向全球企業CEO展示了一套全新的商業思維。他指出,未來的資料中心不再是儲存檔案的倉庫,而是生產Token(AI生成的基本單位)的“工廠”。黃仁勳強調:每一座資料中心、每一座工廠,從定義上來說都是受電力限制的。一座1GW(吉瓦)的工廠永遠不會變成2GW,這是物理和原子的定律。在固定的功率下,誰的每瓦Token吞吐量最高,誰的生產成本就最低。黃仁勳將未來的AI服務分為以下商業層級:免費層(高吞吐、低速度)中級層(~每百萬token 3美元)高級層(~每百萬token 6美元)高速層(~每百萬token 45美元)超高速層(~每百萬token 150美元)他指出,隨著模型越來越大、上下文越來越長,AI會變得更聰明,但Token的生成速率會降低。黃仁勳表示:在這個Token工廠裡,你的吞吐量和Token生成速度,將直接轉化為你明年的精確收入。黃仁勳強調輝達的架構能夠讓客戶在免費層實現極高的吞吐量,同時在最高價值的推理層級上,將性能提升驚人的35倍。黃仁勳:OpenClaw本質就是Agent電腦的“作業系統”黃仁勳還談到了最近爆火的“龍蝦”現象,他高度評價了由 Peter Steinberger 建立的開放原始碼專案 OpenClaw。他將開放原始碼專案OpenClaw形容為“人類歷史上最受歡迎的開放原始碼專案”,稱其僅用幾周時間就超越了Linux在過去30年取得的成就。黃仁勳直言,OpenClaw本質上就是Agent電腦的“作業系統”。黃仁勳斷言:每一個SaaS(軟體即服務)公司都將變成AaaS(Agent-as-a-Service,智能體即服務)公司。毫無疑問,為了讓這種具備訪問敏感資料和執行程式碼能力的智能體安全落地,輝達推出了企業級的NeMo Claw參考設計,增加了策略引擎和隱私路由器。對於普通職場人,這場變革同樣近在咫尺。黃仁勳描繪了未來的職場新形態:在未來,我們公司的每一位工程師都需要一個年度Token預算。他們的基礎年薪可能是幾十萬美元,我會在此基礎上再拿出大約一半的金額作為Token額度給他們,讓他們實現10x的效率提升。這已經是矽谷的新招聘籌碼了:你的offer裡帶多少Token?演講最後,黃仁勳還“劇透”了下一代計算架構Feynman,它將首次實現銅線與CPO的共同水平擴展。更引人遐想的是,輝達正在研發部署在太空的資料中心電腦“Vera Rubin Space-1”,徹底打開了AI算力向地球之外延伸的想像空間。 (每日經濟新聞)
有免費層是否代表無限的龍蝦
【GTC 2026】輝達黃仁勳:預計2027年AI晶片將帶來兆美元營收
當地時間3月16日,輝達CEO黃仁勳在2026年GTC技術大會的主題演講中,拋出了一系列重磅消息。他不僅一口氣發佈了包括全新Vera處理器在內的多款新硬體,還大幅上調了公司AI晶片的銷售預期,預測Blackwell和Rubin系列產品將帶來至少1兆美元的收入,進一步鞏固公司在AI計算領域的領先地位。黃仁勳在演講中表示,未來幾個月,Blackwell和Rubin晶片的銷售將成為公司巨大的收入來源。“我看到(AI 晶片銷售)到2027年至少有一兆美元。”這一數字直接令現場觀眾驚嘆連連。在此之前,輝達曾預測到2026年底,其資料中心裝置將帶來5000億美元的銷售額。黃仁勳將此次收入預期的飆升歸因於計算需求的爆炸式增長。他表示,AI已經從“感知”進化到“生成”,再到“推理”,現在已經可以執行極其高效的實際工作。“推理拐點”已經到來。“我相信,在過去的兩年裡,計算需求增長了一百萬倍,”黃仁勳表示,“這是我們所有人的感受,也是每一家創業公司的感受。”黃仁勳指出,如今的輝達系統已經證明了自己是全球“成本最低的基礎設施”。據介紹,輝達目前的業務中,60%來自頂級雲服務商,不僅支援其內部AI消費(如推薦系統、搜尋向大模型的遷移),更通過輝達的生態系統加速每一家AI實驗室;另外40%則遍佈區域雲、主權雲、企業級伺服器及工業自動化。黃仁勳認為,未來的資料中心不再是儲存檔案的倉庫,而是生產Token(AI生成的基本單位)的“AI工廠”。由於資料中心收到電力限制,對於企業而言,在固定的功率下,誰的每瓦Token吞吐量最高,誰的生產成本就最低。這也意味著,企業必須確保在其AI工廠裡運行最強的電腦系統,才能獲得最大化的收益。為了延續這一增長勢頭,黃仁勳展示或發佈了一系列重大產品,包括由7款全新晶片和5個機架組成的Vera Rubin超級AI平台,涵蓋計算、網路和儲存三大功能。輝達聲稱,Vera Rubin平台在推理token成本上較Blackwell降低10倍,訓練混合專家(MoE)模型所需GPU數量減少75%。這其中最引人注目的是一款全新的Vera CPU,計畫於2026年下半年面市。輝達稱,這款CPU是專為AI智能體“量身打造”的,與傳統CPU相比,其能效翻倍,速度提升50%,並擁有目前業內最高的單線程性能和每核心頻寬。此外,輝達還發佈了一款全新的伺服器機架,整合了256個液冷式Vera CPU。這套系統足以支援超過22500個並行CPU環境,每個環境都能獨立全速運行。這是輝達推動建構“AI工廠”戰略的關鍵一環,旨在為從量子計算到機器人技術等一系列應用場景提供算力支援。據悉,Vera Rubin超級AI平台目前已全面投產,並得到了包括Anthropic、OpenAI、Meta和Mistral AI以及主要雲提供商在內的眾多客戶的鼎力支援。黃仁勳表示,隨著AI模型規模和推理需求持續增長,未來的資料中心將越來越像一台完整的超級電腦。而像Vera Rubin這樣的系統,正是為下一代AI工作負載——尤其是智能體系統——設計的核心計算基礎設施。輝達的AI計算版圖還在向太空延伸。黃仁勳表示,公司此前已經在衛星領域部署計算系統,並計畫與合作夥伴開發新的太空計算平台Vera Rubin Space One,用於在軌道上建設資料中心。對於最近爆火的OpenClaw,黃仁勳也給出了高度評價。他表示,OpenClaw的增長速度甚至超過了Linux在過去幾十年的傳播速度,其影響力“極其深遠”。輝達也宣佈將正式支援這一項目。黃仁勳認為,OpenClaw之於AI的意義,堪比Windows之於個人計算的變革。“當今全球每一家企業都必須制定OpenClaw戰略,制定智能體系統戰略,”黃仁勳表示,“這是新的電腦形態。”在大會上,輝達宣佈推出其基於OpenClaw的定製版本,名為NemoClaw,該版本允許使用者為其AI智能體加入隱私和安全控制功能。“它擁有網路護欄和隱私路由器,因此,我們能夠保護並防止這些智能體在我們公司內部隨意執行任務,從而安全地使用它們。”黃仁勳表示。 (i商周)
【GTC 2026】黃仁勳2小時激情演講:連曬17顆晶片,蓋機架、養龍蝦,算力飆升4000萬倍
輝達版Groq晶片來了!黃仁勳解讀技術亮點。就在剛剛,全球最大規模的AI盛會——輝達GTC 2026盛大開幕!智東西3月16日聖何塞現場報導,美西時間11點18分,輝達創始人兼CEO黃仁勳身穿標誌性皮衣登場,發表了一場激情澎湃的主題演講。200億美元買下的Groq技術、掀起“全民養蝦”盛世的OpenClaw、一大波全新開放模型、L4自動駕駛最新進展,全部濃縮在這場資訊密度極高的演講之中。先上重點,輝達發佈其旗艦AI計算平台Vera Rubin的5大機架級系統,推出全新AI推理晶片Groq LPU 3,宣佈7款晶片全面生產,並帶來太空計算裝置Space-1 Vera Rubin Module,將AI計算版圖擴展到地球之外。7款晶片分別是Rubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO,以及新整合的Groq 3 LPU。輝達還公佈了最新產品路線圖:對於Rubin架構,Oberon系統採用銅纜縱向擴展,還可以使用光學擴展,將NVLink擴展到576。黃仁勳說,銅纜縱向擴展和光學縱向擴展,輝達都會採用。Rubin Ultra晶片正在流片,即將到來;NVLink 7 Switch也近了;還有全新的LP35晶片——將首次融入輝達的NVFP4計算結構,帶來又一個幾倍的速度提升。Oberon之後,Kyber系統採用銅纜縱向擴展,還將有Kyber CPO縱向擴展——首次同時支援銅纜和共封裝光學的縱向擴展。計畫在2028年發佈的輝達AI資料中心扛鼎之作們,也被一次性曝光:Feynman GPU(定製HBM)、LP40 NVLink、Rosa CPU、Bluefield-5 DPU、NVLink 8 CPO、Spectrum7 204T CPO、ConnectX-10 SuperNIC。在2小時10分鐘的演講中,輝達密集甩出超過20項重磅發佈,涉及AI基礎設施、智能體、推理、開放模型、機器人、自動駕駛、企業級AI等,這些也是今年GTC大會的核心話題。今年恰逢CUDA誕生20周年,黃仁勳想說的話很多,最言簡意賅的當屬下面這張圖,基本概括了輝達100%的戰略佈局:CUDA龐大的裝機基數吸引開發者,開發者創造新演算法,演算法突破催生新技術,新技術開闢全新市場,全新市場建構新生態,更多企業加入生態,進而擴大裝機基數——這個飛輪,正在加速轉動。20年前,輝達發明了CUDA,這是其有史以來最重大的投資之一,消耗了公司絕大部分利潤,導致當時的輝達幾乎負擔不起。但歷經初期的重重困難,歷經13代產品、整整20年的堅持,如今,CUDA已無處不在。黃仁勳宣佈,輝達與IBM達成深度合作,並曬出與Google雲、AWS、微軟Azure等雲巨頭的合作案例。“今年我特別興奮的一件事是,我們將把OpenAI帶到AWS。”他提到過去兩年,ChatGPT、生成式AI、Claude Code三件事持續推動AI浪潮,輝達的計算需求已經爆表,現貨價格飛漲,推理的拐點已經到來。回顧整場演講,幾個掌聲雷動時刻,堪稱“人氣王”:1、黃仁勳預言:到2027年將坐擁1兆美元訂單黃仁勳估計輝達2025年訂單額約為5000億美元,並大膽預測,到2027年,這一數字將翻番,至少會達到1兆美元。2、龍蝦一出,全場歡呼在萌版紅色龍蝦出現在大螢幕的剎那,觀眾席瞬間沸騰!果然論起炸場,還得看今年AI領域的“頭號頂流”——開源AI智能體框架OpenClaw。為開發者掏心掏肺的輝達,這次直接端出“養龍蝦全家桶”:軟體包括輝達版龍蝦NemoClaw、智能體基礎模型Nemotron 3 Ultra、智能體工具包,硬體有個人AI電腦DGX Spark和桌面級AI超算DGX Station。大會期間,輝達每天都在GTC Park舉辦build-a-claw部署活動,幫參會者免費裝“龍蝦”。參會者帶上自己的NVIDIA DGX Spark或GeForce RTX筆記型電腦,就能在輝達專家的幫助下本地部署智能體,打造自己的專屬AI助手。輝達還誠意拉滿,給OpenClaw爆紅之路做了個精緻的回顧視訊。OpenClaw創始人Peter Steinberger特意發推文安利:“用OpenShell和 NemoClaw烹飪真的太有趣了!🦞”3、輝達機器人全家福亮相黃仁勳放出一張最新機器人大合照,有30多台機器人,包括比亞迪、庫卡、智元、小鵬、吉利的機器人。黃仁勳談道,機器人是一個50兆美元的製造業市場,輝達已在此深耕十年,本屆大會現場將展示110台機器人,全球幾乎每一家機器人公司都在與輝達合作。4、“雪寶”機器人壓軸登場,跟黃仁勳熱聊“這裡有很多人形機器人,但我最喜歡的之一……是一款迪士尼機器人。”黃仁勳誇獎一響,《冰雪奇緣》電影同款的“雪寶”機器人閃亮登場!“雪寶”機器人先是出現在一段展示“全球首次大規模物理AI部署已經到來”的影片裡,當迪士尼Newton Snow Solver物理引擎將“雪寶”所在的冰雪場景和彩色糖果場景絲滑切換,現場響起熱烈的掌聲。影片一結束,真正的“雪寶”機器人就走了出來,與黃仁勳熱聊互動,逗樂觀眾。5、魔性收尾:Q版黃仁勳、龍蝦和機器人組樂隊大會收尾別出心裁,黃仁勳數字人與一群機器人、一隻萌版龍蝦,一起拍了一支魔性音樂MV,歌詞把本屆GTC的核心乾貨唱了個遍,曲調也很上頭。(文末附上了歌詞全文)今年GTC大會人氣相當火爆,超過30000名參會者齊聚聖何塞,有1000多場技術分論壇、2000多位演講嘉賓。輝達將在本屆GTC大會上發佈大約100個庫、70個模型及40個模型。01. 5大機架組出Vera Rubin巨型AI超算 Groq 3 LPU晶片絲滑融入輝達全家桶“我們每Token的成本是全球最低的,無法被超越。”黃仁勳說,“我之前說過,如果你選擇了錯誤的架構,即便它是免費的,也還是不夠便宜。”在他看來,只有在AI工廠安置了最好的計算系統,才能獲得最低的token成本,而輝達的token成本基本無可匹敵,原因在於極致的協同設計。全新Vera Rubin平台是當前輝達瞄準AI推理計算市場的王牌產品:7款晶片、5種機架級電腦、1台革命性AI超算,專為智能體打造——僅用10年,就將算力提升了4000萬倍。在GTC主題演講中,黃仁勳一口氣介紹了Vera Rubin平台的5款全新機架級系統:NVIDIA Vera Rubin NVL72 GPU機架NVIDIA Groq 3 LPX推理加速器機架NVIDIA Vera CPU機架NVIDIA BlueField-4 STX儲存機架NVIDIA Spectrum-6 SPX乙太網路機架它們以統一的MGX模組化架構進行深度協同設計,可自由組合,按負載密度和價格梯度靈活部署,加快產品上市速度,服務於整個AI工廠。當這些匯聚在一起,意味著Vera Rubin平台將擴展整個AI工廠的收入機會。目前,7款全新晶片已全面量產,可在超大型AI工廠中規模化部署。基於Vera Rubin的產品將從下半年開始由輝達的合作夥伴提供。1、Vera Rubin NVL72 GPU機架Vera Rubin NVL72系統整合了由NVLink 6連結的72顆GPU與36顆Vera CPU,以及ConnectX-9 SuperNIC和BlueField-4 DPU。相較前代Blackwell平台,在Vera Rubin平台上訓練大型混合專家模型時,所需GPU數量僅為1/4,並在AI推理方面,實現吞吐量提升10倍,token單位成本降至原來的1/10。黃仁勳認為,token是新的大宗商品,一旦達到拐點、走向成熟,它將會分層細分,不同模型尺寸、智能、速度、上下文長度對應不同的價格。輝達在每一層都提升吞吐量。註:圖中免費層(千問3 235B 32K),中級層(Kimi K2.5 1T 128K),高級層(GPT MoE 2T 128K),旗艦層(GPT MoE 2T 400K)吞吐量需要大量算力,延遲和互動性需要巨大的頻寬。由於晶片面積有限,因此追求高吞吐量和追求低延遲,實際上是互相衝突的目標。輝達通過引入Groq技術來解決這一沖突,在最貴的旗艦層將性能提升35倍。如果將圖表裡的曲線向右延伸,想要每秒1000個token的服務,NVLink 72就會力不從心,因為沒有足夠的頻寬。而這,恰恰是Groq發揮作用的地方。2、Groq 3 LPX推理加速器機架去年12月,輝達買下AI晶片創企Groq非獨家協議和核心成員的交易轟動科技圈。業界密切關注Groq的LPU晶片是否會與輝達GPU形成競爭。現在,答案揭曉,LPU並不是來取代GPU的,而是來加入GPU這個家的。在輝達的佈局裡,Rubin性能強,LPU頻寬高、延遲低,兩者優勢恰好互補。因此,輝達推出全新NVIDIA Groq 3 LPU,實現GPU超強算力與LPU超高頻寬的融合。來看一組對比:一張Rubin GPU擁有3360億顆電晶體、288GB HBM4記憶體、22TB/s頻寬、50PFLOPs算力(NVFP4)、 2.5T(HBM4)。而一張Groq 3 LPU只有980億顆電晶體、500MB SRAM,記憶體容量僅為Rubin HBM4的1/500,算力達1.2PFLOPS。但其SRAM頻寬高達150TB/s,是Rubin頻寬的約7倍。在此基礎上,輝達發佈Groq 3 LPX機架。這款新機架可支援256張Groq 3 LPU,共有128GB片上SRAM、315PFLOPS算力、640TB/s擴展頻寬,可擴展至超過1000張LPU。黃仁勳說,Groq如此吸引人的原因在於:其計算系統是一種確定性資料流處理器,靜態編譯,由編譯器調度——編譯器預先確定何時執行計算,資料同步到達,所有這些都在軟體中靜態預排,沒有動態調度。該架構設計配備了大量SRAM,專為推理這一個單一工作負載而設計。需要大量的Groq晶片,才能儲存Vera Rubin的參數規模以及必須與之配套的KV Cache,這使得Groq受到一定限制。對此,輝達用Dynamo軟體重新建構推理的管線,使適合的工作放在Vera Rubin上運行,然後將解碼生成部分,也就是低延遲、頻寬受限的挑戰性工作負載部分,解除安裝到Groq上。這就將兩款各具極端優勢的處理器統一起來。協同設計的LPX架構與Rubin GPU緊密耦合,LPX作為token加速器,疊加在擁有高吞吐量的Vera Rubin之上,兩者合計可將運行兆參數模型時提供每兆瓦推理吞吐量提升35倍。Groq 3 LPU由三星代工,已進入量產,預計下半年出貨,大約在第三季度。3、NVIDIA Vera CPU機架智能體模型的訓練和部署推理都離不開CPU。GPU需要呼叫CPU來執行工具呼叫、SQL查詢和程式碼編譯等任務,CPU的速度至關重要。輝達將Vera CPU稱作“專為智能體AI工作負載打造的最佳CPU”。Vera搭載全新Olympus核心,是全球唯一使用LPDDR5的資料中心CPU,結合高性能與高能效的核心設計、高頻寬記憶體子系統以及第二代輝達可擴展計算Fabric,能在各類智能體應用場景和強化學習極端條件下提供更快的響應速度。相比傳統x86 CPU,Vera單線程性能提升50%,每核心記憶體頻寬提升至3倍,能效翻倍。今日,輝達發佈全新NVIDIA Vera CPU機架。該機架搭載256台液冷Vera CPU,提供400TB記憶體、300TB/s記憶體頻寬,整合64顆BlueField-4 DPU,全面相容Vera Rubin與MGX生態系統。輝達已完成初步晶片測試,Vera在各類工作負載上的性能提升從2倍到超過5倍不等。4、BlueField-4 STX儲存機架隨著智能體應用規模擴大,資料需求也在膨脹。傳統資料中心提供大容量的通用儲存,但缺乏AI智能體所需的即時響應能力。隨著上下文窗口增長、AI能力提升,傳統儲存路徑和資料通路會拖慢AI推理速度、降低GPU利用率。為此,輝達推出全新的BlueField-4 STX儲存機架。這是一個原生儲存基礎設施,基於BlueField-4 DPU,結合Vera CPU和ConnectX-9 SuperNIC,可將GPU記憶體無縫擴展至POD計算叢集中。STX提供了一種高頻寬共享層,用於儲存和檢索大語言模型及智能體AI工作流所產生的海量KV Cache資料。該機架可實現能效比提升至4倍,企業資料翻頁速率提升至2倍,同時讓AI工廠的上下文記憶每秒token處理速率快5倍。5、Spectrum-6 SPX乙太網路機架Spectrum-6 SPX乙太網路機架用於全資料中心橫向擴展的互連網路,讓以上所有系統連成整體。與傳統可插拔收發器相比,帶有共封裝光學器件(CPO)的Spectrum-X乙太網路光子技術實現了多達5倍的光學功率效率和10倍的彈性。6、Vera Rubin DSX AI工廠參考設計和Omniverse DSX數字孿生藍圖要在資料中心部署上述全新計算叢集和架構,必須考慮如何營運,並幫助整個資料中心生態系統實現效能提升。因此,輝達發佈Vera Rubin DSX AI工廠參考設計,這是一個AI基礎設施藍圖,概述了如何設計、建構、操作整個AI工廠基礎設施堆疊,可最大限度提高每瓦token和整體實際吞吐量,提高系統彈性並加快首次生產的時間。基於Rubin平台部署DSX架構後,AI工廠能在固定功耗下,實現能效比提升30%,同時增加30%的AI算力部署規模。NVIDIA Omniverse DSX藍圖現在提供NVIDIA Vera Rubin DSX AI工廠參考設計,為大型AI工廠設計和模擬提供數字孿生。開發者通過以下幾個API接入:DSX Sim,用於物理、電氣、熱力和網路模擬;DSX Exchange,用於AI工廠營運資料交換;DSX Flex,用於電網與資料中心之間安全的動態功率管理;DSX Max-Q,用於動態最大化Token吞吐量。7、NVIDIA RTX PRO 4500 Blackwell伺服器版在GTC期間,輝達還發佈了NVIDIA RTX PRO 4500 Blackwell伺服器版,為全球應用廣泛的企業資料中心和邊緣計算平台(包括本地部署和雲端)帶來多工作負載GPU加速功能。8、Vera Rubin AI太空計算模組“我們已經進入太空了,”黃仁勳說,“我們有抗輻射的GPU,我們在衛星上進行成像。未來,我們還將在太空中建造資料中心。”這很複雜,所以,輝達正與合作夥伴研發一款新型電腦,稱作NVIDIA Space-1 Vera Rubin Module,將發射入軌並在太空中建立資料中心。這是一款面向太空最佳化的AI計算模組,支援即時感知、決策和自主運作,將資料中心級AI計算性能帶到軌道資料中心、地理空間智能和自主空間與營運。在太空中沒有傳導、沒有對流,只有輻射散熱,所以必須想辦法冷卻這些系統,輝達有很多優秀的工程師正在研究。02. 發智能體工具包、桌面級AI超算 全方位助攻安全“養龍蝦”隨著OpenClaw爆火,智能體的“ChatGPT時刻”已至。黃仁勳評價說,OpenClaw是人類歷史上最受歡迎的開放原始碼專案,僅僅幾周內就做到,超越了Linux用30年取得的成就。在他看來,OpenClaw開源了,本質上就是一個“智能體電腦的作業系統”,與Windows使得PC得以實現沒區別,如今,OpenClaw使個人智能體的建立得以實現。因為OpenClaw的吉祥物是一隻紅色龍蝦,中國開發者更喜歡用“龍蝦”來稱呼這個智能體,並將部署OpenClaw稱作“養龍蝦”。“全民養蝦”熱潮正推動算力需求呈數量級增長,但也存在可能自主訪問敏感資料、濫用已連接的工具或自行提升權限等風險。對此,輝達發佈了多款智能體工具及硬體裝置,來幫助更高效、更安全地“養龍蝦”。1、為OpenClaw設計的NemoClaw輝達正與OpenClaw創始人Peter Steinberger合作,匯聚世界上最優秀的安全和計算專家,將OpenClaw改造為OpenClaw企業版,使其具備企業安全性和企業隱私能力。這被稱為輝達OpenClaw參考設計——Open NeMoClaw。只需一條命令(command),NemoClaw就能用輝達智能體工具包軟體來最佳化OpenClaw,將NVIDIA Nemotron模型、NVIDIA OpenShell執行階段一併安裝,通過OpenShell提供開放模型和一個增強智能體隱私安全性的獨立沙盒環境。這為智能體提供了按照預定隱私和安全護欄開發新Skills、完成任務的基礎,使使用者能在企業內部安全地保護和約束“龍蝦”的執行。NemoClaw可運行於各類專用平台,包括雲端、本地部署、RTX PC和筆記型電腦、DGX Station和DGX Spark超算等,確保智能體擁有持續建構軟體工具、完成任務所需的專屬算力。2、輝達智能體工具包輝達智能體工具包(NVIDIA Agent Toolkit)是一套開放模型、執行階段和藍圖的集合,用於建構、評估和最佳化更安全的長期運行自治智能體。該工具包以覆蓋推理、編碼、文件智能、語音和視覺領域的高效開放模型Nemotron為起點,配備NeMo用於智能體的性能分析、定製與最佳化,NIM提供模型推理服務,Dynamo負責規模化擴展。智能體需要各種Skills。其中NVIDIA OpenShell是一款面向智能體的新型開源安全與防護執行階段,提供了“龍蝦”缺失的基礎設施層,通過基於策略的安全、網路和隱私護欄進行管控。AI-Q是一個開源藍圖,融合前沿模型與開放模型的智能,打造全球領先的面向長期工作流的研究型智能體,且運行高效。軟體的世界已經改變。輝達認為,每一家SaaS(軟體即服務)公司,都將被重塑為AaaS(智能體即服務,Agent as a Service)。企業不再銷售工具,而是出租使用其工具的智能體。輝達正在幫助全球軟體企業完成這一轉型,支援他們基於輝達智能體工具包建構智能體。LangChain是開發者建構智能體的首選框架,下載量超過10億次,今日宣佈推出與輝達合作建構的企業級智能體AI平台。3、兩款“養龍蝦”裝置:DGX Spark與DGX Station建構好智能體之後,下一個問題就很簡單了:在那兒運行?它們可以在雲端或AI工廠中運行,但很多開發者更傾向於在完全可控的本地環境中開發。因此,輝達推出兩款適合運行NemoClaw的雲端開發者平台:個人AI電腦DGX Spark和全球最快桌面級AI超算DGX Station。DGX Spark旨在讓雲端開發更具普惠性,可以運行安全、常駐的自治智能體。多項DGX Spark更新發佈,支援將最多4個系統叢集到統一配置中,並支援GTC大會上發佈的最新AI模型。基於GB10的DGX Spark及OEM合作夥伴系統今日起在全球正式開售。DGX Station是終極雲端開發平台,讓開發者能直接在辦公桌上本地建構、微調和運行具備前沿智能水平的模型。這意味著開發者可在自己的機器上建構並運行“龍蝦”,無需連接雲端,全程保持本地化,實現開發過程中的完整掌控與安全保障。DGX Station將於今日起向OEM合作夥伴開放訂購。03. 一大波開放模型上新 涉及智能體、物理AI和醫療健康開放模型對AI生態發展至關重要。作為全球最大的開源AI貢獻者之一,輝達建構並行布六大系列的開放前沿模型及訓練資料配方和框架,幫開發者定製和採用。Nemotron 3 Ultra是最強開放基礎模型,在輝達自有基礎設施上完成預訓練,吞吐量是此前最佳開放模型的2倍。Nemotron 3 Omni具備音訊、視覺和語言理解能力,可支援智能體從視訊和文件中高效提取資訊。Nemotron 3 VoiceChat支援即時對話,把自動語音識別、大語言模型處理和文字轉語音功能結合在一個系統中。上周先一步發佈的Nemotron 3 Super模型是輝達迄今最強推理模型,在其同量級中智能水平最高、效率最優,在BFCL(伯克利函數呼叫排行榜,專門評估大模型作為智能體大腦的能力)中登頂開源模型第一,綜合排名全球第四。面向物理AI和醫療健康AI的全新開放模型包括:NVIDIA Cosmos 3,第一個統一合成世界生成、物理AI推理和動作模擬的世界基礎模型。NVIDIA GR00T N1.7,一個專為人形機器人建構的開放推理視覺語言動作(VLA)模型,在現實世界中部署具有商業可行性。NVIDIA  Alphamayo 1.5,一個面向自動駕駛汽車的一種推理VLA模型。NVIDIA BioNeMo Proteina-Complexa,一個用於蛋白質結合體設計的生成模型,可加速基於結構的藥物發現和治療。以上模型均已在Hugging Face上發佈。黃仁勳還預告了GR00T N2,這是一個基於DreamZero研究的下一代基礎模型,預計將於今年年底發佈。該模型建構於新的世界動作模型架構上,幫助機器人在新環境中成功完成新任務的頻率是領先VLA模型的2倍多。此外,輝達宣佈成立Nemotron聯盟,聯手Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、AI Star、Bomb、Thinking Machines Lab等頂尖AI實驗室,匯聚專業知識、資料、評估體系和模型開發能力。輝達將使用內部DGX Cloud算力統一承擔訓練工作,避免每家機構在相同基礎模型上重複投入,共同建構開放的共享基礎。開發者和企業隨後可在此基礎上,針對各自的行業、地區和應用場景進行專項定製。聯盟的第一個項目是一款全新的基礎模型,正在輝達DGX Cloud上訓練,將成為即將發佈的Nemotron 4系列的基礎。04. 物理AI:工業軟體、機器人龍頭都在用 公佈L4自動駕駛、太空計算新進展整個IT行業只有2兆美元,而世界上其他所有行業,都需要能與真實世界互動的AI,需要能夠理解、建模並與真實世界互動的AI物理模型。從桌面到機器人、自動駕駛汽車,從AI工廠到電信網路,輝達的AI基礎設施已無處不在。1、物理AI資料工廠藍圖在機器人領域,算力即資料。當前的資料生成工作流極為碎片化,資料處理、生成、模擬、評估和部署分散在不同管道中。對此,輝達推出物理AI資料工廠藍圖,一個基於輝達Cosmos世界模型和Osmo機器人算力編排系統的開放參考架構,讓“用模擬資料大規模訓練機器人”這件事有了標準化管線。輝達正是用這套管線建構了Alphamaya、Cosmos和GR00T等前沿開放模型。微軟Azure和Nebius是首批採用該架構的雲服務商,首批客戶包括Field AI、Hexagon Robotics、Milestone Systems、Skilled AI和Teradyne Robotics。2、機器人企業們都在用輝達計算平台輝達為機器人製造商提供三類計算平台,以及開放模型、庫和框架,可按需組合使用。輝達宣佈,全球眾多頂級機器人企業都在這三類計算平台上進行建構:ABB、FANUC和庫卡合計佔全球工業機器人裝機量近半,均已將Omniverse庫整合至其機器人模擬工具中。Figure、智元機器人、1X等人形機器人企業採用Isaac Lab、Newton和Cosmos等機器人模擬庫進行建構,並採用Jetson和Thor進行邊緣推理。AI原生企業如Skilled AI和Field AI均在輝達Isaac和Cosmos技術堆疊上建構其通用機器人大腦。輝達是目前唯一一個每家機器人公司都在建構於其上的計算平台。3、L4自動駕駛計程車試點,擴展軟體安全自動駕駛汽車是物理AI大規模落地的第一個場景,也是全球首次大規模部署機器人。輝達建構了全球唯一的全端自動駕駛平台NVIDIA DRIVE,覆蓋自動駕駛訓練與驗證所需的架構、安全系統和AI基礎設施。其核心是NVIDIA DRIVE Hyperion,一款支援L4級自動駕駛的整車參考架構,整合計算、感測器和軟體,可供整個自動駕駛生態系統建構。自動駕駛的使命是安全,輝達宣佈推出L4自動駕駛汽車的統一軟體安全基礎NVIDIA Halos OS、開放推理VLA自動駕駛模型的全新版本NVIDIA Alphamamya 1.5,用於自動駕駛模擬的Omniverse NuRec也普遍可用了。輝達DRIVE生態系統正在持續擴大。比亞迪、吉利、日產等多家全球車企新近加入,採用DRIVE Hyperion,開發下一代L4自動駕駛程序。Uber全球L4無人駕駛計程車將採用DRIVE Hyperion,基於輝達全端DRIVE AV軟體運行無人駕駛網路,計畫於2027年在洛杉磯和舊金山啟動試點,2028年底前擴展至四大洲28座城市。4、全球工業軟體巨頭都在用輝達AI輝達宣佈Cadence、Dassault Systèmes、西門子、新思科技等主要工業軟體廠商將輝達AI、開放模型、CUDA-X、Omniverse和GPU加速工業軟體及工具帶到現代、本田、奔馳、聯發科、百事可樂、三星、SK海力士、台積電等公司,以加速設計、工程和製造。這些軟體領導者們還推出了由輝達驅動的智能體解決方案,用於複雜的晶片和系統工具流。例如,本田正使用新思科技的Ansys Fluent在輝達Grace Blackwell上運行空氣動力學模擬,速度比使用CPU快了34倍。5、輝達、T-Mobile等將物理AI應用部署到AI-RAN基礎設施輝達和T-Mobile宣佈正與諾基亞合作,將物理AI應用部署到AI RAN基礎設施。電信網路正在演變成AI基礎設施。T-Mobile試點NVIDIA RTX PRO 6000 Blackwell伺服器版AI基礎設施,補充AI-RAN創新中心的分佈式網路,以充分發揮物理AI的潛力。基於輝達加速計算的AI-RAN過渡解決了物理AI擴展的關鍵瓶頸:缺乏低延遲、安全和無處不在的連接。雖然Wi-Fi受到覆蓋範圍和安全性的限制,但T-Mobile的5G獨立網路為複雜AI智能體提供了廣泛的覆蓋和保證服務質量。05. 結語5套機架級系統、7款量產晶片、1套完整智能體開發軟硬體、覆蓋自動駕駛/機器人/工業/邊緣/太空的物理AI佈局……黃仁勳用2小時資訊量爆棚的演講,繪製出一張通往未來的AI基建施工圖。在這張圖裡,輝達的目標始終如一:垂直整合,橫向開放,確保每一個AI系統,無論運行在那裡、做什麼、規模有多大,都跑在輝達的平台上。未來已來,智能體大爆發正推動難以置信的計算需求。在這個AI新世界裡,算力即金錢。從桌面、機器人、汽車、工廠到資料中心甚至到近地軌道,每一層都有輝達的算力在運轉,每一個token的生成都在為它的收入計數。通過收購Groq LPU技術增強推理優勢,用開源頂尖模型激勵更廣泛的算力需求,以全端佈局和提高工具易用性來壘高使用者的遷移成本,輝達走得每一步棋,都堪稱教科書級。輝達是克制的,它堅持做基建商,不碰下遊客戶的分毫蛋糕。輝達又是貪婪的,這種貪婪驅動它以極強的戰鬥力向前狂奔,為自己創造更龐大的未來市場,又以一種高明的長期主義,把各行各業的頭部企業引入自己的生態軌道,把客戶的成功變成自己的護城河。最後,附上GTC 2026黃仁勳主題演講片尾曲的歌詞,來總結下本屆GTC的重點:The keynotes over, all was said Jensen mapped the road ahead.主題演講落幕,該說的都已講完,黃仁勳為我們鋪好了前路。AI factories coming alive, agents learning how to drive.AI工廠全面甦醒,智能體學會自主行動。From open models to robots too now we break it all down for you.從開源模型到機器人世界,現在我們為你拆解這一切。Compute exploded, what we saw from CNN’s to OpenClaw.從摺積網路到OpenClaw,我們親眼見證算力大爆發。Agents working cross the land but they need the power to meet demand.智能體遍佈各地但它們需要強大算力才能滿足需求。So we solved the problem, It was brilliant.於是我們解決了難題,方案堪稱絕妙。We multiplied compute by forty million.我們把算力提升了4000萬倍。Once upon an AI time training was the paradigm.曾經的AI時代訓練是核心範式。Sure it taught the models how, but inference runs the whole world now.它教會模型如何學習,但如今推理才是驅動世界的引擎。Vere shows us who’s the boss at thirty-five times less the cost.Vere告訴世界才是真正王者,成本降到1/35。Blackwell makes the tokens sing NVIDIA, the inference King.Blackwell讓Token放聲歌唱:輝達,推理之王。AI Factories once took year vendors pulling racks and gears.AI工廠曾經耗時經年,廠商們堆砌機架與配件。Built up slowly, piece by piece no clear way to scale the beast.一點點緩慢搭建,卻找不到規模化的路徑。DSX and Dynamo know what to do turning power into revenue.DSX與Dynamo指明方向把算力直接變成營收。Agents used to wait and see now act autonomously.智能體過去只會觀望等待。But if they ever try to stray safe Claws block and say ‘No Way!’如今可以完全自主行動,可一旦它們試圖越界,安全Claw會阻攔:“絕對不行!”NemoClaw’s there to guard the course and yes, my friends…NemoClaw守護全程航向,而且,朋友們……It’s open source.它還是開放原始碼的!Cars that think and droids that run this ain’t the movies, it’s all begun.會思考的汽車,能奔跑的機器人,這不是電影,一切已經開始。Alpamayo calls the shots it’s a GPT moment for the bots.Alpamayo掌控全域,這是機器人的GPT時刻。From sim to streets, now watch them drive throw your hands up for Physical AI.從模擬到街頭,看它們馳騁,為物理AI振臂高呼。The Industrial Age built what came before now we build for AI even more.工業時代鑄就了過往,如今我們為AI再造新章。Vera Rubin plus groq make the inference splash put them together,now it's raining cash.Vera 加上Groq掀起推理狂潮,兩者強強聯手財富如雨降臨。We build new architecture every year because Claws keep yelling, ‘More tokens here!’我們每年都打造全新架構,因為“龍蝦”不停吶喊:“這裡需要更多token!”The AI stack’s for all to make so let us all eat five layer cake.AI技術堆疊由所有人共同創造,讓我們共享這五層蛋糕。The moment's bright, the path is clear because open models led us here.此刻光芒萬丈,前路清晰坦蕩,是開源模型帶領我們抵達遠方。When data’s missing, there's no dispute we just generate more with compute.當資料缺失時毋庸置疑,我們用算力生成更多資料。Robots learning without a flaw fueling the four scaling laws.機器人完美學習無差錯,驅動四大增長定律。The future’s here, won't you come and see?未來已來,你難道不想親眼見證?Welcome all to GTC.歡迎所有人來到GTC大會。 (芯東西)