#AI
美銀:AI衝擊下更看好醫療保健、半導體、資本貨物和保險業能長期增長
美國銀行發表報告指,人工智慧(AI)驅動的顛覆性變革為全球資本市場帶來了巨大衝擊。房地產、公用事業和銀行業擁有強大的實際護城河,可以抵禦AI帶來的波動,但其估值重估的潛力有限。相比之下,醫療保健、半導體、資本貨物和保險業更有可能在這一交匯點實現長期增長。美銀指出,美國軟體產業市值在5個月內蒸發逾2兆美元,印度資訊科技(IT)產業市值較2024年12月的峰值下跌逾40%,該地區的網際網路股票也遭到拋售。隨著投資者湧入“HALO”股票,該策略在中國等產能充裕的市場存在侷限性,因此引入了“R.E.A.L.”(監管-持久資產-本地)護城河,以捕捉更廣泛的韌性來源,例如監管壁壘和本地服務強度。報告指,對社會穩定和國家安全至關重要的系統重要性產業(例如銀行、電信、國防)。持久周期型產業:認證/驗證周期和資本更新周期是瓶頸的產業(例如航空航太、半導體)。資產密集產業:稀缺性由現實世界的資源和嚴格的許可證制度所驅動(例如能源、公用事業、商品、房地產)。本地服務型產業:需要動手操作和提供護理服務的領域,熟練勞動力比機器人更勝一籌(例如餐飲、醫療保健)。這些產業的領先企業面臨的生存風險有限,而缺乏實際競爭優勢的產業(例如多元化金融、耐用消費品、媒體娛樂、零售和軟體)則更容易受到AI驅動的波動影響。美銀表示,許多亞洲經濟體缺乏AI應用所需的強大網路、電力、資料和運算能力,而且其低廉的勞動力成本、文化阻力以及對“自主人工智慧”的關注進一步減緩了這一處理程序。在股市中,東盟市場指數更偏向實際產業(例如銀行),這些產業受 AI 衝擊的影響較小,且年初至今的表現優於其他國。然而,從長遠來看,AI 驅動的自動化可能會抑制離岸外包、外國直接投資流入以及技術向這些市場的轉移。越南、馬來西亞和泰國更依賴外國直接投資和出口,可能面臨更多結構性挑戰。同時美銀指,雖然AI是盈利和估值的直接驅動因素,但亞洲人口老化是長期的不利因素。 (invest wallstreet)
【GTC 2026】傳輝達Groq LPU將對華出口!
3月18日消息,據路透社報導,兩位知情人士透露,人工智慧(AI)晶片大廠輝達正準備推出一款可向中國市場出口和銷售的Groq語言處理單元(LPU)版本,預計將於今年5月上市。在近日的GTC 2026大會上,輝達高調發佈了基於Groq技術的Groq 3語言處理單元(LPU),將其定位為Vera Rubin GPU的“推理協處理器”,引發了市場的極大關注。與大多數依賴HBM(高頻寬記憶體)作為工作記憶體層的AI加速器不同,每個Groq 3 LPU晶片整合了500MB的片上SRAM(靜態隨機存取儲存器)。雖然其容量遠低於Rubin GPU上的288GB的HBM4,但是其可提供高達150TB/s的頻寬,對於頻寬極度敏感的AI解碼操作,Groq 3 LPU的頻寬是傳統HBM的近7倍。輝達超大規模計算副總裁Ian Buck表示,對於需要極致低延遲的token生成任務,LPU的頻寬優勢無可替代。”那麼,輝達最新推出的這款LPU是否能夠對華出口呢?2026年1月,美國為了讓輝達老的AI晶片能夠對華出口,放寬了相關出口管制的硬體參數限制,已經修改為:TPP(總處理性能)低於21000(3A090.a和3A090.b中所定義)且“總DRAM頻寬”低於6500 GB/s(如第748部分補充2第(dd)(1)段註釋中所定義的)的高級計算商品。美國的AI晶片出口管制的核心紅線是算力密度(TPP)和互聯頻寬。但LPU的架構與AI GPU完全不同:它不擅長高平行浮點運算(訓練任務),而是專攻低延遲推理。雖然其片上SRAM頻寬極高,但容量極小(單晶片僅500MB),無法獨立運行兆參數級大模型。如果看FP8精度下的理論峰值算力,可能遠低於H100/B200等晶片。這意味著,Groq LPU的算力密度可能並不觸及現行美國針對AI晶片出口管制的性能閾值。路透社的報導也指出,輝達正在為中國市場準備的Groq LPU晶片並非降級版本,也不是專門為中國市場打造的“特供版”。但是,在輝達的規劃中,Groq LPU是作為Rubin GPU的“協處理器”存在的。黃仁勳給出的配比建議是:約25%部署Groq LPU,其餘75%部署Vera Rubin。LPU負責解碼階段的低延遲生成,Rubin GPU負責預填充階段的海量計算。這意味著,即使LPU本身可以進入中國,它也無法與Vera Rubin組成完整的混合推理系統——這將顯著影響其在中國市場的實用價值。不過,消息人士稱,輝達計畫對華出口的LPU新版本可以適配其他GPU系統——這意味著它可能在介面、互聯協議或系統整合層面進行了調整,以適應中國市場的伺服器生態。另一種可能是,輝達將Groq LPU以板卡或系統的形式出口,通過整體系統的性能參數來滿足管制要求。消息人士稱“新版本可以適配其他系統”,也暗示了其可能在系統整合層面進行了調整。雖然目前輝達在AI訓練晶片市場依然佔據著主導地位,但是由於美國出口管制政策的限制,使得其在中國AI晶片市場的份額已持續降低至冰點。同時,在中國的AI推理晶片市場,輝達更是面臨著寒武紀、HW、阿里平頭哥、百度崑崙芯等眾多本土廠商的激烈競爭。如果輝達無法將Groq LPU帶入中國,可能將這部分市場份額拱手讓人。這種商業壓力也促使輝達尋找合適的產品及合規的出口路徑,重新回到中國AI晶片市場。 (芯智訊)
輝達剛投20億美元,Nebius為什麼還要再借37.5億美元
Meta剛把一張最高270億美元的合同壓給Nebius真正把Nebius一下推到台前的,並不是這筆新債,而是前一天那張更大的合同。按照公司與路透披露的資訊,Meta已承諾到2027年向Nebius採購120億美元的AI算力容量,另外還有未來五年最高150億美元的附加採購空間,整份協議的總額上限約為270億美元。這不是一筆普通的雲服務訂單,它更像是把未來幾年的GPU產能、機櫃、供電和交付節奏,提前鎖給一家外部AI基建供應商。這件事之所以重要,不只是因為數字大,還因為它把AI基建賽道的一層現實直接攤開了。過去外界更習慣看大廠自己修資料中心、自己買晶片,但現在情況正在變化:在GPU和電力都偏緊的背景下,Meta這樣的科技巨頭,也開始更積極地從“新型AI雲服務商”這類專業供應商手裡鎖定稀缺產能。Nebius被看中的,不只是能不能賣雲,而是能不能比別人更快把大規模AI基礎設施建起來、交付出來。37.5億美元可轉債,幾乎是跟著這張大單一起出來的也正因為如此,Nebius第二天就宣佈要發37.5億美元可轉債,這件事其實並不意外。從公司公告來看,這次融資分成兩部分:20億美元、2031年到期的可轉債,以及17.5億美元、2033年到期的可轉債;如果承銷安排全部執行,規模還可能進一步擴大。資金用途寫得也很直接:繼續投向資料中心建設、全端AI雲擴張、資料中心擴建,以及關鍵部件採購,其中就包括GPU。所以,這筆債並不是在“慶祝利多”,而是在為下一輪資本開支提前備資。Meta的大單看上去是收入,但落到Nebius這邊,最先到來的其實是建設壓力:公司必須先把機房、供電、晶片、網路和交付能力準備出來,後面的收入確認才有意義。換句話說,這張大單一旦落地,Nebius最先面對的不是利潤,而是支出。微軟、Meta、輝達,三股力量正在把Nebius往前推把最近幾筆交易連在一起看,Nebius過去半年的擴張路徑就很清楚了。2025年9月,它簽下了與微軟價值174億美元的協議;2025年11月,它拿到Meta一筆30億美元的合作;到了2026年3月,Meta又把合作規模一下抬到最高270億美元。與此同時,輝達在2026年3月11日宣佈出資20億美元,拿下約8.3%的股份,並支援Nebius到2030年部署超過5吉瓦的資料中心能力。如果只看表面,Nebius像是在同時得到客戶、晶片夥伴和資本市場的追捧;但把經營面攤開,另一面也同樣清楚。公司2025年第四季度營收只有2.28億美元,卻錄得2.5億美元淨虧損;同一時期,資本開支則明顯抬升,路透報導其2025年第四季度資本支出升至21億美元,上年同期為4.16億美元。這說明,市場當前看中的,並不是一份已經兌現的利潤表,而是它能不能把訂單、裝置、土地、電力和融資能力組織在一起,持續把擴張節奏推下去。在這條賽道里,誰先把這些資源拼起來,誰才有資格去談後面的規模效應。輝達已經投了20億美元,Nebius為什麼還要再借37.5億美元問題的關鍵,其實就在這裡。輝達那20億美元,當然是一筆很重要的資金,但它解決的更像是啟動資金和信用背書;而Meta、微軟這類多年期大單真正帶來的,是持續不斷、而且節奏高度前置的建設需求。Nebius自己給出的預期也很激進:到2025年底,它的年化收入運行率(run rate)是12.5億美元;到2026年底,這個數字要拉到70億至90億美元。這樣的目標如果要兌現,靠一筆股權投資顯然不夠,後面還需要更大體量、也更連續的資金供給跟上。這也是為什麼它會在大單落地後立刻再借一筆巨額可轉債。因為這類公司眼下最稀缺的,已經不是故事,而是時間。客戶在催交付,晶片窗口期有限,土地和電力指標也不是想拿就能立刻拿到。你越晚把錢備好,後面的建設節奏就越容易被卡住。說到底,Nebius這輪融資看起來激進,實則是在搶一個行業窗口。當AI基建從“有沒有需求”進入“誰先交付”的階段,現金儲備與產能準備,事實上已經被綁在了一起。它今天借的,不是一筆普通的擴張資金,而是在為未來兩三年的交付節奏提前準備資金安全墊。Nebius這筆債,把AI算力生意最重的一面擺到了台前看到這裡,這件事就不能只當成一家公司的融資新聞來看了。路透對這輪合作的描述很到位:美國科技巨頭正在補充自建資料中心的不足,通過Nebius這類新型AI雲服務商去鎖GPU和電力等稀缺資源。換句話說,AI基建的分工正在變細,需求方未必什麼都自己建,但中間這一層承建者,必須先把最重、最貴、最吃現金流的部分扛起來。Nebius這次之所以特別有代表性,就在於它幾乎把這門生意的重資產屬性完整展示了一遍:上面是Meta、微軟這樣的大客戶在壓交付,旁邊是輝達這樣的上游在提供晶片支援和資本背書,下面則是公司自己要去消化土地、機房、電力、裝置和融資成本。行業熱度當然還在,但這門生意最先到來的,從來不是利潤,而是巨額投入。前端必須先投入一筆又一筆的大額資本開支,後面才談得上把訂單慢慢兌現出來。到了這一步,AI算力生意已經越來越像一場基礎設施競賽,而不是一個輕資產的軟體故事。 (視界的剖析)
【GTC 2026】兆美金後的新霸主:黃仁勳GTC 2026全解讀,AI正式進入“Token工廠”時代
台北時間2026年3月17日凌晨2點,沒有絲毫意外,全球科技圈的目光再次聚焦於那個穿著皮衣的男人身上。輝達GTC 2026大會如約而至。如果你還以為這只是一場關於顯示卡參數的發佈會,那你可能已經掉隊了。今年的GTC,黃仁勳不再僅僅談論晶片,而是拋出了一個震撼行業的全新定義:輝達已經從一家“晶片公司”徹底蛻變為一家“AI基礎設施和工廠公司”。這場長達兩小時的演講,資訊密度極高。從CUDA生態的飛輪效應,到Token成本的極致壓縮;從Vera Rubin平台的量產,到Feynman架構的前瞻;再到那個讓全場沸騰的“龍蝦”NemoClaw。黃仁勳用無可辯駁的資料和路線圖,向世界展示了AI推理時代的宏大圖景。01 20年的飛輪:CUDA的護城河比想像中更深演講伊始,黃仁勳並沒有急於拋出新的硬體參數,而是花了近十分鐘回溯CUDA架構誕生20年的歷程。這不僅是對過去的致敬,更是對護城河的宣示。螢幕上展示著“20 YEARS CUDA FLYWHEEL”(20年CUDA飛輪)的巨大循環圖,這不僅是技術的循環,更是商業的邏輯。“二十年來,我們一直致力於這種革命性架構——單指令多線程(SIMT)。”黃仁勳回憶道。CUDA的真正壁壘,在於底層的安裝基數。這是一個經典的飛輪效應:安裝基數:全球數億塊運行CUDA的GPU構成了龐大的底座。開發者:龐大的底座吸引開發者創造新演算法。突破:新演算法帶來技術突破(如深度學習)。生態:技術突破催生新市場,吸引更多公司加入,進一步擴大安裝基數。“CUDA真正融入了每一個生態系統。”黃仁勳指著那張描述其媒體戰略的幻燈片說道。這種軟硬一體的生態壁壘,讓NVIDIA的架構應用範圍不斷擴展,計算成本持續降低。正如他所強調的,加速計算不僅帶來初期的性能躍升,還能在生命周期內持續最佳化軟體,讓算力成本不斷下降。02 資料革命:結構化與非結構化資料的全面加速在本次演講中,黃仁勳著重介紹了輝達為資料處理打造的核心軟體庫,並稱其為“本場演講最重要的一張圖”。隨著AI的爆發,全球資料處理體系正面臨結構性變革。螢幕上展示了一張複雜的圖表,標題為“Structured Data is the Ground Truth of AI”(結構化資料是AI的“真相”),這是一個價值1200億美元的生態系統。過去,企業計算建立在結構化資料之上。但未來,AI智能體將直接訪問和使用這些資料庫。與此同時,全球每年產生的資料中約90%是非結構化資料。AI的多模態能力正在將這些“死資料”轉化為可計算的資訊。為此,NVIDIA推出了兩項關鍵技術:cuDF:加速資料框計算,面向結構化資料。cuVS:面向向量儲存和語義資料,處理非結構化資料。黃仁勳透露,SQL的發明者IBM正在利用cuDF加速其watsonx.data平台。這標誌著AI正在重塑整個資料處理基礎設施。03 推理拐點:Token成本全球最低“去年我說營收將達5000億美元,你們可能沒覺得驚豔。但今天,我預見通過2027年的營收將至少達到1兆美元。”黃仁勳的這句話引爆了全場。支撐這一驚人預測的,是AI計算需求的爆發式增長。螢幕上清晰地標示著“Inference Inflection Arrives”(推理拐點到來)黃仁勳指出,過去兩年,計算需求增長了約10,000倍。這背後是三件大事的發生:ChatGPT開啟生成式AI時代:計算從“檢索”轉向“生成”。推理AI(o1/o3)的出現:AI開始思考、規劃,Token使用量爆炸。Claude Code開啟代理時代:首個代理模型革新了軟體工程。“推理既是最困難的環節,也是最關鍵的商業環節。”黃仁勳強調。在資料中心層面,衡量效率的關鍵指標是“每瓦特生成多少Token”。評測結果顯示,NVIDIA在AI推理性能和效率上保持絕對領先。從Hopper H200到Grace Blackwell NVLink 72架構,每瓦特性能提升約35倍,分析師甚至認為接近50倍。螢幕上打出了“NVIDIA Token Cost is Untouchable”(NVIDIA Token成本不可觸碰)的字樣。黃仁勳放出豪言:“即便競爭對手的架構是免費的,它也不夠便宜。” 因為建立一個1GW的工廠,即便什麼都不放,15年的攤銷成本也高達400億美元。只有運行最強的電腦系統,才能獲得最低的Token生產成本。04 Vera Rubin:為智能體AI而生的超級電腦演講的高潮之一,是Vera Rubin超級AI平台的亮相。這是一個由七款晶片組成的全新計算平台,涵蓋計算、網路和儲存三大功能。螢幕上展示的“NVIDIA Vera Rubin”字樣下,赫然寫著“40,000,000X - 10 years”(10年4000萬倍性能提升),震撼人心。 該平台包含40個機架、1.2千兆個電晶體、近2萬個NVIDIA晶片、1152個Rubin GPU,擁有60 exaflops的運算能力。這是一個完全縱向整合的計算平台,專門為智能體AI(Agentic AI)設計。隨著大模型處理更長上下文,系統需要更高頻寬的記憶體和儲存訪問能力,因此NVIDIA對整個系統架構進行了重新設計。硬體層面,全新的NVIDIA Vera CPU開始單獨銷售,有望成為一項數十億美元級業務。系統設計方面,採用100%液冷架構,通過45°C熱水散熱,大幅降低製冷成本,整機安裝時間從兩天縮短至兩小時。更引人注目的是,NVIDIA推出了全球首個CPO(光電共封裝)乙太網路交換機,將光模組直接整合到晶片封裝中,顯著提升頻寬與能效。針對光互聯技術,黃仁勳展示了全球首款量產的共封裝光學(CPO)交換機Spectrum X,並平息了市場對於“銅退光進”的路線之爭。黃仁勳說我們需要更多的銅纜產能,更多的光晶片產能,更多的CPO產能。而在未來的版圖中,Rubin Ultra和Feynman架構也已提上日程。螢幕上展示的路線圖清晰地標示著從2024年Blackwell到2028年Feynman的演進路徑,每一次迭代都涉及晶片、CPU、網路交換機等關鍵元件的全面升級 Feynman架構將採用定製化HBM技術,搭載全新的Rosa CPU,標誌著計算、儲存和封裝的深度耦合。05 “龍蝦”創造歷史:SaaS將消失整場演講中,對軟體開發者影響最深遠的,莫過於對“龍蝦”現象的評論。螢幕上展示了一張Star History圖,紅色的openclaw/openclaw曲線在2024-2026年間急劇飆升,遠超Linux和React,其增長速度“極其深遠” 黃仁勳宣佈,NVIDIA將正式支援這一項目。OpenClaw被黃仁勳定義為一種智能體電腦的作業系統。它連接大模型,管理資源,調度任務,類似於Linux之於PC,Kubernetes之於雲,HTML之於網際網路。“未來所有科技公司都會面臨一個問題——你的OpenClaw戰略是什麼?”黃仁勳的這句話擲地有聲。他認為,未來幾乎所有SaaS公司都將演變為AaaS(Agentic as a Service)——即以智能體為核心的服務平台。針對智能體進入企業網路帶來的安全挑戰,NVIDIA推出了NVIDIA NemoClaw參考架構。螢幕上演示了簡單的安裝命令:curl -fsSL https://nvidia.com/nemoclaw.sh | bash,顯示出NVIDIA推動這一生態落地的決心。NemoClaw在OpenClaw基礎上加入了安全元件,確保企業能安全部署智能體系統。甚至未來工程師招聘,除了薪資,公司還會提供“Token配額”,因為算力將直接決定生產效率。06 物理AI與數字孿生:AI工廠的作業系統AI的未來不僅在數字世界,更在物理世界。黃仁勳介紹了面向“AI工廠”的基礎設施平台——NVIDIA DSX在資料中心建設階段,系統通過工程模擬工具進行驗證,實現“虛擬偵錯”;投入運行後,數字孿生系統成為基礎設施的“作業系統”,AI智能體即時監控冷卻、電力和網路,動態最佳化效率。在物理AI方面,NVIDIA的觸角已延伸至自動駕駛和機器人。螢幕上展示的“NVIDIA Space-1 Vera Rubin Module”暗示了其向太空計算領域的拓展。自動駕駛領域,基於NVIDIA Drive AV,車輛已具備推理能力。NVIDIA宣佈了新的Robotaxi合作夥伴,包括BYD、Hyundai、Nissan和Geely,並與Uber合作部署自動駕駛計程車網路。機器人產業方面,正與ABB、KUKA等企業合作,將物理AI模型用於工業自動化。結語:跨越“推理鴻溝”,中國AI產業的破局之路演講的最後,黃仁勳站在巨大的“NVIDIA Vera Rubin”標識前,背後是醒目的“40,000,000X - 10 years”。這一刻,我們看到的不再是單一的晶片迭代,而是一場宏大的生態進化。從底層的CUDA飛輪,到算力成本的極致壓縮;從智能體作業系統NemoClaw的推出,到SaaS向AaaS的範式轉移;從資料中心向AI工廠的蛻變,到物理AI的全面覺醒。黃仁勳用這場演講證明:AI推理的拐點已經到來。未來的競爭,不再僅僅是算力的競爭,更是Token生產效率、智能體生態和物理世界融合能力的全方位競爭。面對輝達如此強勁的實力與深不見底的護城河,中國AI產業該如何趕上?這或許是每個從業者看完這場演講後最深刻的思考。首先,必須正視“軟體生態”的斷層。 黃仁勳反覆強調,CUDA的安裝基數才是飛輪加速的原因,這不僅是硬體的勝利,更是二十年軟體生態的積累。中國產業界往往重硬輕軟,但在AI時代,軟體棧(如cuDF、cuVS等核心庫)才是連接應用與算力的橋樑。我們不僅需要造出“卡”,更需要打磨出能承載萬行程式碼、適配千行場景的“軟底座”。其次,要從“單一產品”思維轉向“系統級整合”。 Vera Rubin平台的成功在於其垂直整合能力——從Vera CPU到NVLink互連,再到液冷機架,這是一個整體的“超級電腦”。中國廠商不能只盯著單點突破,而應致力於建構從晶片、網路到液冷散熱的整體系統解決方案,追求每瓦特性能的極致最佳化。最後,要抓住“智能體”與“物理AI”的新範式窗口。 當SaaS轉向AaaS,當OpenClaw成為新的作業系統入口,這意味著軟體開發的底層邏輯正在重構。這是彎道超車的機會。中國企業應積極擁抱開源生態,在智能體安全、垂直行業大模型、以及物理AI(如機器人、自動駕駛)的落地場景中尋找差異化優勢,建構屬於自己的“主權AI”。在這場通往未來的競賽中,輝達已經鋪好了最堅實的鐵軌,但列車駛向何方,依然取決於我們如何握緊手中的方向盤。 (算力與科技茶館)
【GTC 2026】黃仁勳祭出終極AI推理神器!
黃仁勳介紹稱,LPX與Vera Rubin平台結合後,推理吞吐量/功耗比將能提升35倍。在GTC 2026主題演講上,一款名為輝達Groq 3 LPU的全新晶片正式亮相。台北時間周二凌晨,輝達正式推出Vera Rubin平台,包括Groq 3 LPU(簡稱LPU)在內,共計搭載了七款晶片,分別為Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9超級網路卡、BlueField-4 DPU和Spectrum-6乙太網路交換機。據悉,輝達將建構包含256個LPU的Groq 3 LPX機架,提供128GB(每個LPU整合500MB的SRAM)的SRAM和40 PB/s的推理加速頻寬,並通過每個機架640 TB/s的專用擴展介面將這些晶片連接起來。這款機架將與Vera Rubin NVL72、Vera CPU等另外四款機架一同構成完整的AI超級電腦平台Vera Rubin。輝達表示,Groq 3 LPX 是Vera Rubin的推理加速器,旨在滿足智能體系統對低延遲和大上下文的需求。Vera Rubin和LPX通過協同設計的架構,將Rubin GPU和LPU的卓越性能完美結合,使其呈現極低延遲與超大吞吐量的特點。黃仁勳介紹稱,LPX與Vera Rubin平台結合後,推理吞吐量/功耗比將能提升35倍。LPU晶片將由三星代工,預計機架將於今年下半年開始出貨。就在昨日,分析師郭明錤發文稱,在輝達投資Groq之後,LPU的出貨量預測已大幅上調。預計2026至2027年的總出貨量將達到400萬至500萬顆。新架構機櫃預計於今年第四季度開始量產,2026年與2027年機櫃出貨量分別約為300至500個,以及15000至20000個。在他看來,LPU需求增長快速增長主要來自外部因素。一方面,LPU與輝達生態系(如CUDA)高度整合,大幅降低應用開發與部署門檻。另一方面,如今業內超低延遲推理需求快速增加,包括AI智能體(AI Agents)以及正在興起的即時處理(Real-Time)、終端使用者(Consumer-Facing)與物理AI(Physical-AI)等類型應用。值得一提的是,黃仁勳在主題演講上也強調,AI已完成從感知智能到生成智能,再到物理智能和智能體智能的關鍵躍遷。財通證券指出,大模型在推理過程中會存在延遲,延遲與使用者體驗感精密掛鉤,大模型推理過程中的延遲主要在Decode階段,核心瓶頸在於記憶體頻寬。LPU具備更快的記憶體頻寬,可縮短大模型推理過程中的延遲。同時,基於LPU的大模型不僅具有更快的推理速度,還可以提供更具性價比的價格,可進一步提高使用者體驗感。該機構表示,目前Tokens的消耗量大幅增長,帶動推理晶片市場規模的高增長。LPU有望在推理晶片市場中逐步滲透,具有高成長性的市場空間。看好LPU的高成長性及LPU以機櫃出貨時帶來的PCB機會,建議關注:智微智能(參股元川微)、星宸科技(多輪增資元川微)、滬電股份(輝達PCB供應商)、勝宏科技(輝達PCB供應商)、深南電路。 (科創板日報)
【GTC 2026】黃仁勳要把AI“送上天”!
台北時間3月17日凌晨,輝達GTC 2026大會在聖何塞拉開帷幕。身穿標誌性皮衣的黃仁勳再次登上舞台,帶來了一場超過兩小時的“全端AI”盛宴。從全新的硬體平台Vera Rubin,到改變遊戲規則的DLSS 5,再到進軍太空的算力模組,輝達正在用一場發佈會,描繪從地面到宇宙、從訓練到推理、從虛擬到物理世界的完整AI藍圖。本文為你劃重點,一文看懂所有重磅發佈。宏大的新藍圖:兆美元營收與“代幣工廠”新概念黃仁勳在演講開場就拋出一個驚人的預測:到2027年,市場對Blackwell和Vera Rubin系統的訂單需求將帶來至少1兆美元的營收,這個數字較去年的預測直接翻了一番。輝達的底氣,來自AI算力需求的指數級增長。黃仁勳指出:AI正在從“模型訓練時代”加速邁入“模型推理時代”。過去,人們關注的是訓練一個模型需要多少算力;而現在,當模型被部署到實際應用中,每一次對話、每一張圖片生成、每一段視訊合成,都需要消耗大量的推理算力。這些推理任務產生的“輸出”——黃仁勳將其命名為 “智能代幣”(Intelligent Tokens)——將成為未來數字經濟的基本單位。“每一個Token都是一次智能的生產,就像工廠裡生產出的零件。”黃仁勳解釋道。基於這個邏輯,未來的資料中心將不再是簡單的計算中心,而是一座座 “代幣工廠”。企業的競爭力將不再取決於擁有多少台伺服器,而取決於生產這些智能代幣的成本與效率。因此,一個新的核心指標誕生了:每瓦特產生的Token數。這不僅考驗晶片的絕對性能,更考驗整個計算系統的能效比和吞吐量。這意味著輝達正在將AI算力從“奢侈品”推向“大眾商品”。當算力像電力一樣可以被量化、被定價,整個產業的商業模式都將被重塑。硬體核彈:從Vera Rubin到太空資料中心如果說去年的Blackwell是輝達投下的“AI超級晶片”,那麼今年的Vera Rubin,則是一座完整的、可落地的 “AI工廠平台”。1.Vera Rubin AI工廠平台:從晶片到系統的全面革新Vera Rubin並非單一的產品名稱,而是一個由多個元件構成的完整平台,包括:lVera CPU:這是輝達自主研發的新一代中央處理器,專為AI工作負載最佳化。與上一代Grace CPU相比,Vera在核心數量、記憶體頻寬和互連速度上都有大幅提升,能夠更高效地為GPU“喂料”,消除資料搬運的瓶頸。lRubin GPU:作為平台的“心臟”,Rubin GPU採用先進的製程工藝和全新的架構設計,其AI算力預計將達到H100的數十倍。黃仁勳沒有透露具體參數,但強調Rubin GPU將全面支援下一代AI模型,包括兆參數等級的多模態模型。l第六代NVLink:隨著GPU數量的增加,晶片間的通訊成為新的瓶頸。第六代NVLink將GPU之間的互聯頻寬推至新高,使得數百塊Rubin GPU可以像一個巨大的“虛擬GPU”一樣協同工作,大幅提升大規模平行計算的效率。lCPO交換機:為瞭解決傳統銅纜傳輸在高速下的訊號衰減和功耗問題,輝達推出了整合共封裝光學(Co-packaged optics,CPO) 技術的交換機。這種交換機將光學引擎與交換晶片封裝在一起,用光訊號替代電訊號進行資料傳輸,不僅頻寬更高、延遲更低,而且功耗大幅下降。這是建構下一代超大規模AI叢集的關鍵技術。整個Vera Rubin平台採用全液冷設計,不僅提升了散熱效率,還使得資料中心的安裝密度和維運效率得到革命性提升。黃仁勳將其比喻為“AI工廠的流水線”,客戶只需將平台接入電力網路和資料來源,即可快速啟動AI生產。2. 與Groq深度合作:LPU推理架構帶來35倍速度提升大模型推理的速度和成本,一直是制約AI應用普及的關鍵因素。為此,輝達與明星初創公司Groq達成深度合作,將後者的LPU(語言處理單元) 架構正式納入自己的產品矩陣。Groq 3 LPU是專為順序計算(如大語言模型推理)設計的晶片,與GPU的平行計算形成完美互補。本次發佈的Groq 3 LPX機架整合了256個LPU,可以與Rubin GPU協同工作,通過一種名為 “解耦推理” 的技術,將大模型推理過程中的“預填充”(Prefill,處理輸入提示)和“解碼”(Decoding,逐字生成輸出)兩個階段分開處理。GPU負責高並行的預填充階段,而LPU則專注於低延遲的解碼階段,從而將整個推理流程的Token生成速度提升35倍。這意味著,未來使用者在使用AI助手時,將幾乎感受不到延遲,實現真正的即時對話。這套系統預計在今年下半年出貨,將首先面向需要極低延遲的雲服務商和大型企業。3. Rubin Ultra與下一代Feynman架構:未來已來在演講中,黃仁勳還罕見地展示了更遠期的路線圖。用於未來Rubin Ultra平台的Kyber機架首次亮相,它可以連接多達144塊Rubin Ultra GPU,建構一個超大規模的AI計算單元。Rubin Ultra將採用更先進的封裝技術,將多個晶片組合成一個巨大的邏輯晶片,進一步突破單晶片的物理極限。黃仁勳預告了下一代架構——Feynman架構GPU。它將採用3D堆疊晶片和定製化的HBM(高頻寬記憶體)技術,標誌著輝達已經將研發目光投向了2030年。。4. Space-1太空資料中心模組:AI的觸角伸向宇宙如果說地面上的AI工廠已經足夠震撼,那麼輝達發佈的Space-1 Vera Rubin模組,則將AI的疆域拓展到了太空。這是一個為極端太空環境設計的、具備抗輻射能力的AI計算模組,可以部署在衛星或空間站上。它的意義在於:未來的衛星不再僅僅是一個“訊號中繼站”,而可以成為一個在軌運行的“智能節點”。衛星可以直接處理拍攝的圖像、分析感測器資料,甚至即時做出決策,而無需將海量原始資料傳回地面。這將徹底改變遙感、通訊、科學探測等領域的遊戲規則。例如,一顆氣象衛星可以即時識別颱風路徑並直接發佈預警,而不必等待地面處理。黃仁勳將其稱為“建構從太空到地面的完整算力架構”的第一步,預示著AI基礎設施競賽已經擴展到地球軌道。軟體與應用:從遊戲到企業的全面革新硬體之外,輝達的軟體生態也迎來重磅更新。1、DLSS 5:圖形領域的“GPT時刻”黃仁勳將DLSS 5稱為圖形領域的“GPT時刻”。它不再僅僅是超解析度和補幀,而是通過生成式AI模型即時渲染整個遊戲畫面,為玩家帶來前所未有的電影級畫質飛躍。該技術預計今年秋季上線,遊戲顯示卡的競爭將徹底進入AI驅動的新時代。2、NemoClaw“一鍵養蝦”平台這並非真的養蝦,而是面向企業級AI代理的部署平台 NemoClaw。它允許企業一鍵安全部署AI代理,補齊了安全、隱私等企業級能力,讓AI員工真正走進公司流程。3、“Nemotron聯盟”與開放模型輝達宣佈與Mistral AI等全球頂尖實驗室合作,共同開發開放的先進基礎模型,並行布開源智能體軟體套件,建構一個更開放的AI生態。物理AI:自動駕駛與機器人走進現實AI正在走出螢幕,開始與物理世界互動。本次GTC,自動駕駛和機器人領域的進展尤為引人注目。1. 自動駕駛:中國車企全面擁抱,Uber車隊明年上路比亞迪、日產、吉利、現代汽車宣佈加入輝達“robotaxi ready”平台,這意味著這些品牌將採用輝達的全端解決方案來開發自動駕駛計程車。更引人注目的是,Uber也計畫從明年起部署基於輝達Drive AV軟體的自動駕駛車隊,共享出行與自動駕駛的結合即將迎來大規模落地。黃仁勳在現場表示:“自動駕駛可能是第一個價值數兆美元的機器人產業,而輝達正在為這個產業提供從訓練到部署的完整計算基礎設施。”2. 機器人:與迪士尼合作的“雪寶”驚豔亮相在演講的最後,一個特別的嘉賓登上了舞台——由輝達與迪士尼合作開發的機器人 “雪寶”(Olaf)。這個可愛的機器人不僅能夠行走、揮手,還能與黃仁勳進行簡單的對話互動,展示了其在物理世界中的靈活互動能力。這背後是輝達在機器人領域的長期投入:從用於訓練的Isaac Sim模擬平台,到部署在機器人身上的Jetson Thor計算模組,再到驅動其“大腦”的AI模型。雪寶的出現,是輝達“物理AI”戰略的一個縮影:讓AI不僅能在虛擬世界中回答問題,更能在現實世界中完成任務。結語:AI的“工業革命”已經到來三年前,黃仁勳在GTC上喊出“AI的iPhone時刻”已經到來;今天,他用一場近三小時的演講,描繪了那個時刻之後更宏大的圖景——AI的“工業革命”。從兆美元的算力工廠,到太空中的智能節點,再到可以互動的機器人夥伴,輝達正在建構一個前所未有的AI基礎設施帝國。這場革命的核心邏輯已經清晰:算力不再是稀缺資源,而是像電力一樣的基礎設施;效率將成為企業的核心競爭力;而AI將從“回答問題”進化到“執行任務”,全面滲透進人類社會的每一個角落。黃仁勳在演講結尾說:“計算成本正在急劇下降,創新速度正在指數級上升。現在,是開始建構未來的最好時機。” (TechWeb)
AI性能暴增35倍!輝達發佈全新LPU,GPU不再是唯一主角!
當地時間3月16日,輝達GTC 2026正式美國加州聖何塞召開。輝達創始人兼首席執行長黃仁勳身披標誌性皮衣登場,在長達兩個半小時的主題演講中,勾勒出這家算力巨頭從“晶片公司”向“AI基礎設施工廠”全面蛻變的宏偉藍圖。面對市場對業績持續性的高度關注,黃仁勳給出了極為強勁的預期:到2027年,輝達新一代AI晶片的累計營收將正式跨入1兆美元時代。這一數字是他去年預測的兩倍。本次演講的一大重點,當屬備受期待的Vera Rubin AI工廠平台。與以往發佈單晶片不同,黃仁勳此次展示的是一個包含7款全新晶片的“全家桶”系統。他強調:“過去提到Hopper,我會舉起一塊晶片,那很可愛。但提到Vera Rubin,大家想到的是整個系統。”這一系統級平台的核心元件包括:Vera CPU:全球首款專為“AI智能體時代”與“強化學習”設計的處理器。它搭載88個自研“Olympus”核心,性能較傳統CPU快50%,能效提升達2倍。黃仁勳將其比作智能體系統背後的“指揮與調度中心”,負責管理海量並行任務。Rubin GPU:與Vera CPU通過NVLink-C2C技術實現1.8TB/s的驚人互聯頻寬,共同構成強大的算力核心。NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU以及帶同包光學器件的Spectrum-X可擴展交換機:構成了一套完整的超高速互聯、網路與資料處理基礎,確保資料在AI工廠內高效流轉。黃仁勳展示了基於這些元件建構的Vera Rubin NVL72機架,它整合了72顆Rubin GPU和36顆Vera CPU。相比上代Blackwell平台,訓練大型混合專家模型所需GPU數量僅為其四分之一,推理吞吐量/瓦特提升高達10倍。他驕傲地宣稱,通過極致的軟硬體協同設計,在短短兩年內,輝達將1GW資料中心內的Token生成速率提升了350倍。特別值得重點介紹的是,黃仁勳展示Vera Rubin平台的“全家桶”時,還推出了一款看似小巧卻極具戰略意義的晶片——Groq 3語言處理單元(LPU)。這款源自輝達去年12月以約200億美元收購Groq核心技術資產的晶片,被黃仁勳定位為Rubin GPU的“推理協處理器”,成為了Vera Rubin平台的又一基石。黃仁勳解釋了引入LPU的戰略考量時指出:在AI智能體時代,推理需求正加速分化。面對需要極高互動性、超短響應時間的任務,傳統GPU架構存在性能冗餘。為此,輝達引入了專注於“極致低延遲Token生成”的LPU架構。本文將深入解析Groq 3 LPU的技術細節、混合推理架構以及它對AI推理市場的深遠影響。一、技術顛覆:打造150TB/s的SRAM怪獸Groq 3 LPU最引人注目的特點,在於其徹底顛覆了傳統AI加速器的記憶體架構。1、500MB片上SRAM:頻寬的極致追求與大多數依賴HBM(高頻寬記憶體)作為工作記憶體層的AI加速器不同,每個Groq 3 LPU晶片整合了500MB的片上SRAM(靜態隨機存取儲存器)。這種記憶體此前主要用於CPU和GPU的超快取記憶體,從未在AI加速器中擔當主角。這500MB SRAM看似“微不足道”——與每個Rubin GPU上容量高達288GB的HBM4相比,僅為其1/500。但SRAM的關鍵優勢在於頻寬:這塊SRAM可提供高達150TB/s的頻寬,而HBM4的頻寬僅為22TB/s。這意味著,對於頻寬極度敏感的AI解碼操作,Groq 3 LPU的頻寬是傳統HBM的近7倍。輝達超大規模計算副總裁Ian Buck對此解釋道:“讓我們對比一下這兩種處理器:GPU擁有288GB記憶體,但頻寬是22TB/s;LPU只有1/500的容量,但頻寬達到了驚人的150TB/s。對於需要極致低延遲的token生成任務,LPU的頻寬優勢無可替代。”基於此晶片的Groq 3 LPX機架配備256顆LPU,提供128GB片上SRAM和640TB/s總頻寬。黃仁勳描繪了GPU與LPU協同工作的未來圖景:Vera Rubin負責需要海量計算的“預填充”階段,而Groq LPU則負責對延遲極度敏感的“解碼”階段。在這種混合架構下,系統的推理吞吐量與功耗比最高可提升35倍。他建議企業客戶,若工作負載包含大量高價值的Token生成需求,應將25%的資料中心規模配置給Groq。據悉,由三星代工的Groq LP30晶片已進入量產,預計今年第三季度出貨。2、三星代工:黃仁勳現場致謝在GTC主題演講中,黃仁勳特別提到三星電子,感謝其為輝達加快生產Groq 3 LPU晶片。這是輝達首次公開確認三星晶圓代工部門參與下一代AI晶片生產。“三星為輝達生產Groq 3 LPU晶片,並正在加快生產速度,我非常感謝三星。”黃仁勳在演講中表示。他進一步透露,該晶片將於2026年第三季度正式出貨。這一合作標誌著三星與輝達的夥伴關係從儲存領域(HBM)正式擴展到晶圓代工領域。三星電子當天在GTC大會現場展出了第七代HBM產品“HBM4E”和垂直堆疊晶片“核心裸片”,積極宣傳其在儲存和代工領域的雙重合作。3、技術代價:容量與成本的博弈SRAM的優勢背後是殘酷的工程權衡。SRAM的生產成本遠高於DRAM,且佔用更大的晶片面積。這導致單個Groq 3 LPU僅能提供500MB記憶體,遠不足以獨立運行兆參數等級的超大AI模型。輝達的解決方案是:用數量彌補容量。公司將256顆Groq 3 LPU整合到一個Groq 3 LPX機架中,提供128GB的片上SRAM和40 PB/s的推理加速頻寬。該機架採用液冷設計,通過每個機架640TB/s的專用擴展介面將晶片互聯。Ian Buck坦承這種設計的侷限性:“你需要很多晶片才能獲得那種性能。從每晶片的token吞吐量(經濟性)來看,LPU其實相當低。”二、混合架構:GPU+LPU如何協同工作?既然LPU有容量短板,輝達為何要大費周章將其納入Rubin平台?答案在於推理任務的分工協作。1、預填充階段 vs. 解碼階段大語言模型的推理過程可分為兩個階段:預填充階段:處理輸入提示(prompt),平行計算所有輸入token,生成中間狀態。這一階段需要強大的浮點運算能力和大容量記憶體來儲存鍵值快取。解碼階段:逐個生成輸出token,每一步都依賴於之前生成的token。這一階段對延遲極度敏感,且受記憶體頻寬限制嚴重。輝達的策略是:讓Rubin GPU負責預填充階段,讓Groq LPU負責解碼階段。具體來說,在輝達新引入的Dynamo軟體框架協調下:Rubin GPU利用其288GB HBM4和強大的浮點運算能力,處理複雜的注意力機制(Attention)計算和數學運算,儲存大型鍵值快取Groq LPU利用其150TB/s的超高頻寬,處理前饋神經網路(FFN)層計算,實現極低延遲的逐token生成2、智能體間通訊:從100 token/s到1500 token/s隨著AI從單一大模型走向多智能體系統(multi-agent systems),推理延遲的要求發生了根本性變化。Ian Buck描繪了這樣的未來場景:在多智能體系統中,AI代理越來越多地與其他AI進行互動,而非與查看聊天窗口的人類交流。對人類而言看似合理的每秒100 token生成速率,對AI代理來說卻如同蝸牛爬行。Buck表示:“Rubin GPU和Groq LPU的組合將人工智慧代理間通訊的吞吐量從每秒100個token提升到每秒1500個token甚至更高。”3、35倍性能提升:資料背後的工程奇蹟根據輝達官方基準測試,當運行達到1兆參數規模的大語言模型時,Rubin GPU與Groq LPU組合相比上代方案,推理吞吐量每瓦特提升高達35倍。具體到成本層面,輝達強調,這一組合方案運行超大AI模型時,每百萬token的成本為45美元,每秒token處理量達到500。輝達聲稱,這將使超大AI模型服務的創收機會增加10倍。三、戰略意義:輝達為何需要LPU?1、填補推理市場的短板分析認為,“通過結合Rubin GPU和Groq LPX,輝達終於進入了推理市場——一個它從未成為第一的市場。”長期以來,輝達的GPU在訓練市場佔據絕對主導,但在低延遲推理領域,面臨著Cerebras、Groq(收購前)等挑戰者的競爭。Cerebras的晶圓級引擎同樣整合了大量SRAM,為先進模型提供低延遲推理,甚至吸引了OpenAI等大客戶。收購Groq技術並將其整合到Rubin平台,是輝達對競爭者的直接回應。正如Ian Buck所說,公司希望“通過這兩種處理器的結合,走向多智能體未來”。2、生態系統相容:無需修改CUDA對於現有輝達客戶而言,引入Groq LPU的一個重要優勢是軟體相容性。Groq 3 LPX機架與Rubin平台的結合“無需修改現有的NVIDIA CUDA軟體生態系統”。這意味著,企業客戶可以在不重寫程式碼的前提下,通過增加LPU機架來顯著提升推理性能。3、競爭格局:誰將受益?Tom's Hardware分析指出,Groq 3 LPU的加入可能降低Rubin CPX推理加速器的作用。Buck暗示,公司目前專注於將Groq 3 LPX機架與Rubin整合,因為兩者都旨在提供相似的推理性能增強,而LPU不需要每個Rubin CPX模組所需的大量GDDR7記憶體。在客戶層面,PCMag預測,最大的AI公司——包括OpenAI、Anthropic、Meta——將成為這項技術的首批採用者。這意味著,未來你的聊天機器人查詢或圖像生成請求,可能正由Rubin GPU和Groq LPU協同處理。四、小結:推理時代的新範式Groq 3 LPU的發佈,標誌著輝達對AI計算的理解進入新階段。當行業還在爭論“記憶體容量vs記憶體頻寬”孰輕孰重時,輝達給出了一個務實答案:全都要,但分工協作。Rubin GPU負責需要大容量記憶體和複雜計算的預填充階段,Groq LPU負責需要極致低延遲的解碼階段。兩者通過NVLink和Spectrum-X高速互聯,在Dynamo軟體框架的調度下,如同一台電腦般協同工作。對於企業客戶而言,黃仁勳的建議很明確:如果你的工作負載包含大量需要高互動性的token生成任務,應考慮將資料中心的一部分規模配置給Groq LPU。在智能體AI成為行業下一個“拐點”的當下,這種混合架構可能是保持競爭力的關鍵。而對於三星而言,拿下Groq 3 LPU的代工訂單,標誌著其在AI晶片供應鏈中的地位從“儲存供應商”升級為“全面製造夥伴”。正如黃仁勳所言:“謝謝三星。”這句話背後,是AI算力生態日益複雜的分工與合作。 (芯智訊)
【GTC 2026】輝達黃仁勳:預計2027年AI晶片將帶來兆美元營收
當地時間3月16日,輝達CEO黃仁勳在2026年GTC技術大會的主題演講中,拋出了一系列重磅消息。他不僅一口氣發佈了包括全新Vera處理器在內的多款新硬體,還大幅上調了公司AI晶片的銷售預期,預測Blackwell和Rubin系列產品將帶來至少1兆美元的收入,進一步鞏固公司在AI計算領域的領先地位。黃仁勳在演講中表示,未來幾個月,Blackwell和Rubin晶片的銷售將成為公司巨大的收入來源。“我看到(AI 晶片銷售)到2027年至少有一兆美元。”這一數字直接令現場觀眾驚嘆連連。在此之前,輝達曾預測到2026年底,其資料中心裝置將帶來5000億美元的銷售額。黃仁勳將此次收入預期的飆升歸因於計算需求的爆炸式增長。他表示,AI已經從“感知”進化到“生成”,再到“推理”,現在已經可以執行極其高效的實際工作。“推理拐點”已經到來。“我相信,在過去的兩年裡,計算需求增長了一百萬倍,”黃仁勳表示,“這是我們所有人的感受,也是每一家創業公司的感受。”黃仁勳指出,如今的輝達系統已經證明了自己是全球“成本最低的基礎設施”。據介紹,輝達目前的業務中,60%來自頂級雲服務商,不僅支援其內部AI消費(如推薦系統、搜尋向大模型的遷移),更通過輝達的生態系統加速每一家AI實驗室;另外40%則遍佈區域雲、主權雲、企業級伺服器及工業自動化。黃仁勳認為,未來的資料中心不再是儲存檔案的倉庫,而是生產Token(AI生成的基本單位)的“AI工廠”。由於資料中心收到電力限制,對於企業而言,在固定的功率下,誰的每瓦Token吞吐量最高,誰的生產成本就最低。這也意味著,企業必須確保在其AI工廠裡運行最強的電腦系統,才能獲得最大化的收益。為了延續這一增長勢頭,黃仁勳展示或發佈了一系列重大產品,包括由7款全新晶片和5個機架組成的Vera Rubin超級AI平台,涵蓋計算、網路和儲存三大功能。輝達聲稱,Vera Rubin平台在推理token成本上較Blackwell降低10倍,訓練混合專家(MoE)模型所需GPU數量減少75%。這其中最引人注目的是一款全新的Vera CPU,計畫於2026年下半年面市。輝達稱,這款CPU是專為AI智能體“量身打造”的,與傳統CPU相比,其能效翻倍,速度提升50%,並擁有目前業內最高的單線程性能和每核心頻寬。此外,輝達還發佈了一款全新的伺服器機架,整合了256個液冷式Vera CPU。這套系統足以支援超過22500個並行CPU環境,每個環境都能獨立全速運行。這是輝達推動建構“AI工廠”戰略的關鍵一環,旨在為從量子計算到機器人技術等一系列應用場景提供算力支援。據悉,Vera Rubin超級AI平台目前已全面投產,並得到了包括Anthropic、OpenAI、Meta和Mistral AI以及主要雲提供商在內的眾多客戶的鼎力支援。黃仁勳表示,隨著AI模型規模和推理需求持續增長,未來的資料中心將越來越像一台完整的超級電腦。而像Vera Rubin這樣的系統,正是為下一代AI工作負載——尤其是智能體系統——設計的核心計算基礎設施。輝達的AI計算版圖還在向太空延伸。黃仁勳表示,公司此前已經在衛星領域部署計算系統,並計畫與合作夥伴開發新的太空計算平台Vera Rubin Space One,用於在軌道上建設資料中心。對於最近爆火的OpenClaw,黃仁勳也給出了高度評價。他表示,OpenClaw的增長速度甚至超過了Linux在過去幾十年的傳播速度,其影響力“極其深遠”。輝達也宣佈將正式支援這一項目。黃仁勳認為,OpenClaw之於AI的意義,堪比Windows之於個人計算的變革。“當今全球每一家企業都必須制定OpenClaw戰略,制定智能體系統戰略,”黃仁勳表示,“這是新的電腦形態。”在大會上,輝達宣佈推出其基於OpenClaw的定製版本,名為NemoClaw,該版本允許使用者為其AI智能體加入隱私和安全控制功能。“它擁有網路護欄和隱私路由器,因此,我們能夠保護並防止這些智能體在我們公司內部隨意執行任務,從而安全地使用它們。”黃仁勳表示。 (i商周)