#養龍蝦
雷軍放送“養龍蝦”利器!
在AI大模型賽道打得火熱的當下,小米的入局姿態顯得異常兇猛。近日,雷軍親自下場發聲,宣佈小米面向Agent時代的旗艦基座模型——MiMo-V2-Pro自上線以來,在全球開發者圈層引發了熱烈反響,其核心的Agent能力更是收穫了一致好評。為回饋這份熱情,雷軍拍板決定:將原定的首周限免活動正式延長至4月2日,並幽默地喊話開發者:“大家‘養龍蝦’(註:業內對AI Agent的趣味代稱)的時候可以試試。”硬核參數拉滿:兆規模架構直擊複雜工作流能夠一經推出就引發全球矚目,MiMo-V2-Pro的底牌在於其毫不妥協的硬體級參數堆料。這是一款總參數規模高達1兆的MoE(混合專家)模型,雖然每次啟動的參數為420億,但配合其創新的混合注意力架構,模型實現了高達百萬等級的超長上下文窗口。這就賦予了MiMo-V2-Pro極其強悍的“長線作戰”能力。它不僅能Hold住長流程的複雜規劃,還能持續、可靠地完成複雜工作流的編排以及精準的工具呼叫。簡單來說,在需要AI自動寫程式碼和操控工具的複雜場景下,它有著壓倒性的優勢。叫板全球頂流:基準測試比肩GPT-5.2與Claude 4.6紙面參數的強大最終需要落地驗證。在業界公認的多項核心能力基準測評中,MiMo-V2-Pro交出了一份極其亮眼的答卷。尤其在當前最具含金量的Coding Agent(程式碼智能體)、通用Agent以及Tool Use(工具呼叫)三大維度上,小米這款大模型直接越級打怪,其表現與目前統治榜單的Claude Sonnet 4.6、GPT 5.2以及Gemini 3.0 Pro穩穩處於同一梯隊,正式確立了自己在全球AI競賽中的第一梯隊席位。開發者“用腳投票”:“好用到忘了其他模型”比起冰冷的成績單,真實使用者的體驗更具說服力。稍早前,小米技術官方帳號曝光了部分海外內測開發者的狂熱評價。一位資深開發者在體驗後直言不諱地表示:“它非常棒,在Agentic任務方面表現十分出色,不僅性能穩定,最可怕的是它能記住所有資訊。”另一位開發者更是給出了極高評價:“我也一直在用它!說實話,我都忘了還有其他模型了。它就是很好用,這正是我現在需要的。”在AI模型日新月異的今天,能讓挑剔的開發者產生“用了就回不去”的粘性,足見MiMo-V2-Pro在底層邏輯和實際體驗上確實打中了行業痛點。隨著4月2日限免截止日的臨近,這場由小米引發的Agent體驗風暴,大機率還會在開發者社區持續發酵。 (TechWeb)
【GTC 2026】黃仁勳2小時激情演講:連曬17顆晶片,蓋機架、養龍蝦,算力飆升4000萬倍
輝達版Groq晶片來了!黃仁勳解讀技術亮點。就在剛剛,全球最大規模的AI盛會——輝達GTC 2026盛大開幕!智東西3月16日聖何塞現場報導,美西時間11點18分,輝達創始人兼CEO黃仁勳身穿標誌性皮衣登場,發表了一場激情澎湃的主題演講。200億美元買下的Groq技術、掀起“全民養蝦”盛世的OpenClaw、一大波全新開放模型、L4自動駕駛最新進展,全部濃縮在這場資訊密度極高的演講之中。先上重點,輝達發佈其旗艦AI計算平台Vera Rubin的5大機架級系統,推出全新AI推理晶片Groq LPU 3,宣佈7款晶片全面生產,並帶來太空計算裝置Space-1 Vera Rubin Module,將AI計算版圖擴展到地球之外。7款晶片分別是Rubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO,以及新整合的Groq 3 LPU。輝達還公佈了最新產品路線圖:對於Rubin架構,Oberon系統採用銅纜縱向擴展,還可以使用光學擴展,將NVLink擴展到576。黃仁勳說,銅纜縱向擴展和光學縱向擴展,輝達都會採用。Rubin Ultra晶片正在流片,即將到來;NVLink 7 Switch也近了;還有全新的LP35晶片——將首次融入輝達的NVFP4計算結構,帶來又一個幾倍的速度提升。Oberon之後,Kyber系統採用銅纜縱向擴展,還將有Kyber CPO縱向擴展——首次同時支援銅纜和共封裝光學的縱向擴展。計畫在2028年發佈的輝達AI資料中心扛鼎之作們,也被一次性曝光:Feynman GPU(定製HBM)、LP40 NVLink、Rosa CPU、Bluefield-5 DPU、NVLink 8 CPO、Spectrum7 204T CPO、ConnectX-10 SuperNIC。在2小時10分鐘的演講中,輝達密集甩出超過20項重磅發佈,涉及AI基礎設施、智能體、推理、開放模型、機器人、自動駕駛、企業級AI等,這些也是今年GTC大會的核心話題。今年恰逢CUDA誕生20周年,黃仁勳想說的話很多,最言簡意賅的當屬下面這張圖,基本概括了輝達100%的戰略佈局:CUDA龐大的裝機基數吸引開發者,開發者創造新演算法,演算法突破催生新技術,新技術開闢全新市場,全新市場建構新生態,更多企業加入生態,進而擴大裝機基數——這個飛輪,正在加速轉動。20年前,輝達發明了CUDA,這是其有史以來最重大的投資之一,消耗了公司絕大部分利潤,導致當時的輝達幾乎負擔不起。但歷經初期的重重困難,歷經13代產品、整整20年的堅持,如今,CUDA已無處不在。黃仁勳宣佈,輝達與IBM達成深度合作,並曬出與Google雲、AWS、微軟Azure等雲巨頭的合作案例。“今年我特別興奮的一件事是,我們將把OpenAI帶到AWS。”他提到過去兩年,ChatGPT、生成式AI、Claude Code三件事持續推動AI浪潮,輝達的計算需求已經爆表,現貨價格飛漲,推理的拐點已經到來。回顧整場演講,幾個掌聲雷動時刻,堪稱“人氣王”:1、黃仁勳預言:到2027年將坐擁1兆美元訂單黃仁勳估計輝達2025年訂單額約為5000億美元,並大膽預測,到2027年,這一數字將翻番,至少會達到1兆美元。2、龍蝦一出,全場歡呼在萌版紅色龍蝦出現在大螢幕的剎那,觀眾席瞬間沸騰!果然論起炸場,還得看今年AI領域的“頭號頂流”——開源AI智能體框架OpenClaw。為開發者掏心掏肺的輝達,這次直接端出“養龍蝦全家桶”:軟體包括輝達版龍蝦NemoClaw、智能體基礎模型Nemotron 3 Ultra、智能體工具包,硬體有個人AI電腦DGX Spark和桌面級AI超算DGX Station。大會期間,輝達每天都在GTC Park舉辦build-a-claw部署活動,幫參會者免費裝“龍蝦”。參會者帶上自己的NVIDIA DGX Spark或GeForce RTX筆記型電腦,就能在輝達專家的幫助下本地部署智能體,打造自己的專屬AI助手。輝達還誠意拉滿,給OpenClaw爆紅之路做了個精緻的回顧視訊。OpenClaw創始人Peter Steinberger特意發推文安利:“用OpenShell和 NemoClaw烹飪真的太有趣了!🦞”3、輝達機器人全家福亮相黃仁勳放出一張最新機器人大合照,有30多台機器人,包括比亞迪、庫卡、智元、小鵬、吉利的機器人。黃仁勳談道,機器人是一個50兆美元的製造業市場,輝達已在此深耕十年,本屆大會現場將展示110台機器人,全球幾乎每一家機器人公司都在與輝達合作。4、“雪寶”機器人壓軸登場,跟黃仁勳熱聊“這裡有很多人形機器人,但我最喜歡的之一……是一款迪士尼機器人。”黃仁勳誇獎一響,《冰雪奇緣》電影同款的“雪寶”機器人閃亮登場!“雪寶”機器人先是出現在一段展示“全球首次大規模物理AI部署已經到來”的影片裡,當迪士尼Newton Snow Solver物理引擎將“雪寶”所在的冰雪場景和彩色糖果場景絲滑切換,現場響起熱烈的掌聲。影片一結束,真正的“雪寶”機器人就走了出來,與黃仁勳熱聊互動,逗樂觀眾。5、魔性收尾:Q版黃仁勳、龍蝦和機器人組樂隊大會收尾別出心裁,黃仁勳數字人與一群機器人、一隻萌版龍蝦,一起拍了一支魔性音樂MV,歌詞把本屆GTC的核心乾貨唱了個遍,曲調也很上頭。(文末附上了歌詞全文)今年GTC大會人氣相當火爆,超過30000名參會者齊聚聖何塞,有1000多場技術分論壇、2000多位演講嘉賓。輝達將在本屆GTC大會上發佈大約100個庫、70個模型及40個模型。01. 5大機架組出Vera Rubin巨型AI超算 Groq 3 LPU晶片絲滑融入輝達全家桶“我們每Token的成本是全球最低的,無法被超越。”黃仁勳說,“我之前說過,如果你選擇了錯誤的架構,即便它是免費的,也還是不夠便宜。”在他看來,只有在AI工廠安置了最好的計算系統,才能獲得最低的token成本,而輝達的token成本基本無可匹敵,原因在於極致的協同設計。全新Vera Rubin平台是當前輝達瞄準AI推理計算市場的王牌產品:7款晶片、5種機架級電腦、1台革命性AI超算,專為智能體打造——僅用10年,就將算力提升了4000萬倍。在GTC主題演講中,黃仁勳一口氣介紹了Vera Rubin平台的5款全新機架級系統:NVIDIA Vera Rubin NVL72 GPU機架NVIDIA Groq 3 LPX推理加速器機架NVIDIA Vera CPU機架NVIDIA BlueField-4 STX儲存機架NVIDIA Spectrum-6 SPX乙太網路機架它們以統一的MGX模組化架構進行深度協同設計,可自由組合,按負載密度和價格梯度靈活部署,加快產品上市速度,服務於整個AI工廠。當這些匯聚在一起,意味著Vera Rubin平台將擴展整個AI工廠的收入機會。目前,7款全新晶片已全面量產,可在超大型AI工廠中規模化部署。基於Vera Rubin的產品將從下半年開始由輝達的合作夥伴提供。1、Vera Rubin NVL72 GPU機架Vera Rubin NVL72系統整合了由NVLink 6連結的72顆GPU與36顆Vera CPU,以及ConnectX-9 SuperNIC和BlueField-4 DPU。相較前代Blackwell平台,在Vera Rubin平台上訓練大型混合專家模型時,所需GPU數量僅為1/4,並在AI推理方面,實現吞吐量提升10倍,token單位成本降至原來的1/10。黃仁勳認為,token是新的大宗商品,一旦達到拐點、走向成熟,它將會分層細分,不同模型尺寸、智能、速度、上下文長度對應不同的價格。輝達在每一層都提升吞吐量。註:圖中免費層(千問3 235B 32K),中級層(Kimi K2.5 1T 128K),高級層(GPT MoE 2T 128K),旗艦層(GPT MoE 2T 400K)吞吐量需要大量算力,延遲和互動性需要巨大的頻寬。由於晶片面積有限,因此追求高吞吐量和追求低延遲,實際上是互相衝突的目標。輝達通過引入Groq技術來解決這一沖突,在最貴的旗艦層將性能提升35倍。如果將圖表裡的曲線向右延伸,想要每秒1000個token的服務,NVLink 72就會力不從心,因為沒有足夠的頻寬。而這,恰恰是Groq發揮作用的地方。2、Groq 3 LPX推理加速器機架去年12月,輝達買下AI晶片創企Groq非獨家協議和核心成員的交易轟動科技圈。業界密切關注Groq的LPU晶片是否會與輝達GPU形成競爭。現在,答案揭曉,LPU並不是來取代GPU的,而是來加入GPU這個家的。在輝達的佈局裡,Rubin性能強,LPU頻寬高、延遲低,兩者優勢恰好互補。因此,輝達推出全新NVIDIA Groq 3 LPU,實現GPU超強算力與LPU超高頻寬的融合。來看一組對比:一張Rubin GPU擁有3360億顆電晶體、288GB HBM4記憶體、22TB/s頻寬、50PFLOPs算力(NVFP4)、 2.5T(HBM4)。而一張Groq 3 LPU只有980億顆電晶體、500MB SRAM,記憶體容量僅為Rubin HBM4的1/500,算力達1.2PFLOPS。但其SRAM頻寬高達150TB/s,是Rubin頻寬的約7倍。在此基礎上,輝達發佈Groq 3 LPX機架。這款新機架可支援256張Groq 3 LPU,共有128GB片上SRAM、315PFLOPS算力、640TB/s擴展頻寬,可擴展至超過1000張LPU。黃仁勳說,Groq如此吸引人的原因在於:其計算系統是一種確定性資料流處理器,靜態編譯,由編譯器調度——編譯器預先確定何時執行計算,資料同步到達,所有這些都在軟體中靜態預排,沒有動態調度。該架構設計配備了大量SRAM,專為推理這一個單一工作負載而設計。需要大量的Groq晶片,才能儲存Vera Rubin的參數規模以及必須與之配套的KV Cache,這使得Groq受到一定限制。對此,輝達用Dynamo軟體重新建構推理的管線,使適合的工作放在Vera Rubin上運行,然後將解碼生成部分,也就是低延遲、頻寬受限的挑戰性工作負載部分,解除安裝到Groq上。這就將兩款各具極端優勢的處理器統一起來。協同設計的LPX架構與Rubin GPU緊密耦合,LPX作為token加速器,疊加在擁有高吞吐量的Vera Rubin之上,兩者合計可將運行兆參數模型時提供每兆瓦推理吞吐量提升35倍。Groq 3 LPU由三星代工,已進入量產,預計下半年出貨,大約在第三季度。3、NVIDIA Vera CPU機架智能體模型的訓練和部署推理都離不開CPU。GPU需要呼叫CPU來執行工具呼叫、SQL查詢和程式碼編譯等任務,CPU的速度至關重要。輝達將Vera CPU稱作“專為智能體AI工作負載打造的最佳CPU”。Vera搭載全新Olympus核心,是全球唯一使用LPDDR5的資料中心CPU,結合高性能與高能效的核心設計、高頻寬記憶體子系統以及第二代輝達可擴展計算Fabric,能在各類智能體應用場景和強化學習極端條件下提供更快的響應速度。相比傳統x86 CPU,Vera單線程性能提升50%,每核心記憶體頻寬提升至3倍,能效翻倍。今日,輝達發佈全新NVIDIA Vera CPU機架。該機架搭載256台液冷Vera CPU,提供400TB記憶體、300TB/s記憶體頻寬,整合64顆BlueField-4 DPU,全面相容Vera Rubin與MGX生態系統。輝達已完成初步晶片測試,Vera在各類工作負載上的性能提升從2倍到超過5倍不等。4、BlueField-4 STX儲存機架隨著智能體應用規模擴大,資料需求也在膨脹。傳統資料中心提供大容量的通用儲存,但缺乏AI智能體所需的即時響應能力。隨著上下文窗口增長、AI能力提升,傳統儲存路徑和資料通路會拖慢AI推理速度、降低GPU利用率。為此,輝達推出全新的BlueField-4 STX儲存機架。這是一個原生儲存基礎設施,基於BlueField-4 DPU,結合Vera CPU和ConnectX-9 SuperNIC,可將GPU記憶體無縫擴展至POD計算叢集中。STX提供了一種高頻寬共享層,用於儲存和檢索大語言模型及智能體AI工作流所產生的海量KV Cache資料。該機架可實現能效比提升至4倍,企業資料翻頁速率提升至2倍,同時讓AI工廠的上下文記憶每秒token處理速率快5倍。5、Spectrum-6 SPX乙太網路機架Spectrum-6 SPX乙太網路機架用於全資料中心橫向擴展的互連網路,讓以上所有系統連成整體。與傳統可插拔收發器相比,帶有共封裝光學器件(CPO)的Spectrum-X乙太網路光子技術實現了多達5倍的光學功率效率和10倍的彈性。6、Vera Rubin DSX AI工廠參考設計和Omniverse DSX數字孿生藍圖要在資料中心部署上述全新計算叢集和架構,必須考慮如何營運,並幫助整個資料中心生態系統實現效能提升。因此,輝達發佈Vera Rubin DSX AI工廠參考設計,這是一個AI基礎設施藍圖,概述了如何設計、建構、操作整個AI工廠基礎設施堆疊,可最大限度提高每瓦token和整體實際吞吐量,提高系統彈性並加快首次生產的時間。基於Rubin平台部署DSX架構後,AI工廠能在固定功耗下,實現能效比提升30%,同時增加30%的AI算力部署規模。NVIDIA Omniverse DSX藍圖現在提供NVIDIA Vera Rubin DSX AI工廠參考設計,為大型AI工廠設計和模擬提供數字孿生。開發者通過以下幾個API接入:DSX Sim,用於物理、電氣、熱力和網路模擬;DSX Exchange,用於AI工廠營運資料交換;DSX Flex,用於電網與資料中心之間安全的動態功率管理;DSX Max-Q,用於動態最大化Token吞吐量。7、NVIDIA RTX PRO 4500 Blackwell伺服器版在GTC期間,輝達還發佈了NVIDIA RTX PRO 4500 Blackwell伺服器版,為全球應用廣泛的企業資料中心和邊緣計算平台(包括本地部署和雲端)帶來多工作負載GPU加速功能。8、Vera Rubin AI太空計算模組“我們已經進入太空了,”黃仁勳說,“我們有抗輻射的GPU,我們在衛星上進行成像。未來,我們還將在太空中建造資料中心。”這很複雜,所以,輝達正與合作夥伴研發一款新型電腦,稱作NVIDIA Space-1 Vera Rubin Module,將發射入軌並在太空中建立資料中心。這是一款面向太空最佳化的AI計算模組,支援即時感知、決策和自主運作,將資料中心級AI計算性能帶到軌道資料中心、地理空間智能和自主空間與營運。在太空中沒有傳導、沒有對流,只有輻射散熱,所以必須想辦法冷卻這些系統,輝達有很多優秀的工程師正在研究。02. 發智能體工具包、桌面級AI超算 全方位助攻安全“養龍蝦”隨著OpenClaw爆火,智能體的“ChatGPT時刻”已至。黃仁勳評價說,OpenClaw是人類歷史上最受歡迎的開放原始碼專案,僅僅幾周內就做到,超越了Linux用30年取得的成就。在他看來,OpenClaw開源了,本質上就是一個“智能體電腦的作業系統”,與Windows使得PC得以實現沒區別,如今,OpenClaw使個人智能體的建立得以實現。因為OpenClaw的吉祥物是一隻紅色龍蝦,中國開發者更喜歡用“龍蝦”來稱呼這個智能體,並將部署OpenClaw稱作“養龍蝦”。“全民養蝦”熱潮正推動算力需求呈數量級增長,但也存在可能自主訪問敏感資料、濫用已連接的工具或自行提升權限等風險。對此,輝達發佈了多款智能體工具及硬體裝置,來幫助更高效、更安全地“養龍蝦”。1、為OpenClaw設計的NemoClaw輝達正與OpenClaw創始人Peter Steinberger合作,匯聚世界上最優秀的安全和計算專家,將OpenClaw改造為OpenClaw企業版,使其具備企業安全性和企業隱私能力。這被稱為輝達OpenClaw參考設計——Open NeMoClaw。只需一條命令(command),NemoClaw就能用輝達智能體工具包軟體來最佳化OpenClaw,將NVIDIA Nemotron模型、NVIDIA OpenShell執行階段一併安裝,通過OpenShell提供開放模型和一個增強智能體隱私安全性的獨立沙盒環境。這為智能體提供了按照預定隱私和安全護欄開發新Skills、完成任務的基礎,使使用者能在企業內部安全地保護和約束“龍蝦”的執行。NemoClaw可運行於各類專用平台,包括雲端、本地部署、RTX PC和筆記型電腦、DGX Station和DGX Spark超算等,確保智能體擁有持續建構軟體工具、完成任務所需的專屬算力。2、輝達智能體工具包輝達智能體工具包(NVIDIA Agent Toolkit)是一套開放模型、執行階段和藍圖的集合,用於建構、評估和最佳化更安全的長期運行自治智能體。該工具包以覆蓋推理、編碼、文件智能、語音和視覺領域的高效開放模型Nemotron為起點,配備NeMo用於智能體的性能分析、定製與最佳化,NIM提供模型推理服務,Dynamo負責規模化擴展。智能體需要各種Skills。其中NVIDIA OpenShell是一款面向智能體的新型開源安全與防護執行階段,提供了“龍蝦”缺失的基礎設施層,通過基於策略的安全、網路和隱私護欄進行管控。AI-Q是一個開源藍圖,融合前沿模型與開放模型的智能,打造全球領先的面向長期工作流的研究型智能體,且運行高效。軟體的世界已經改變。輝達認為,每一家SaaS(軟體即服務)公司,都將被重塑為AaaS(智能體即服務,Agent as a Service)。企業不再銷售工具,而是出租使用其工具的智能體。輝達正在幫助全球軟體企業完成這一轉型,支援他們基於輝達智能體工具包建構智能體。LangChain是開發者建構智能體的首選框架,下載量超過10億次,今日宣佈推出與輝達合作建構的企業級智能體AI平台。3、兩款“養龍蝦”裝置:DGX Spark與DGX Station建構好智能體之後,下一個問題就很簡單了:在那兒運行?它們可以在雲端或AI工廠中運行,但很多開發者更傾向於在完全可控的本地環境中開發。因此,輝達推出兩款適合運行NemoClaw的雲端開發者平台:個人AI電腦DGX Spark和全球最快桌面級AI超算DGX Station。DGX Spark旨在讓雲端開發更具普惠性,可以運行安全、常駐的自治智能體。多項DGX Spark更新發佈,支援將最多4個系統叢集到統一配置中,並支援GTC大會上發佈的最新AI模型。基於GB10的DGX Spark及OEM合作夥伴系統今日起在全球正式開售。DGX Station是終極雲端開發平台,讓開發者能直接在辦公桌上本地建構、微調和運行具備前沿智能水平的模型。這意味著開發者可在自己的機器上建構並運行“龍蝦”,無需連接雲端,全程保持本地化,實現開發過程中的完整掌控與安全保障。DGX Station將於今日起向OEM合作夥伴開放訂購。03. 一大波開放模型上新 涉及智能體、物理AI和醫療健康開放模型對AI生態發展至關重要。作為全球最大的開源AI貢獻者之一,輝達建構並行布六大系列的開放前沿模型及訓練資料配方和框架,幫開發者定製和採用。Nemotron 3 Ultra是最強開放基礎模型,在輝達自有基礎設施上完成預訓練,吞吐量是此前最佳開放模型的2倍。Nemotron 3 Omni具備音訊、視覺和語言理解能力,可支援智能體從視訊和文件中高效提取資訊。Nemotron 3 VoiceChat支援即時對話,把自動語音識別、大語言模型處理和文字轉語音功能結合在一個系統中。上周先一步發佈的Nemotron 3 Super模型是輝達迄今最強推理模型,在其同量級中智能水平最高、效率最優,在BFCL(伯克利函數呼叫排行榜,專門評估大模型作為智能體大腦的能力)中登頂開源模型第一,綜合排名全球第四。面向物理AI和醫療健康AI的全新開放模型包括:NVIDIA Cosmos 3,第一個統一合成世界生成、物理AI推理和動作模擬的世界基礎模型。NVIDIA GR00T N1.7,一個專為人形機器人建構的開放推理視覺語言動作(VLA)模型,在現實世界中部署具有商業可行性。NVIDIA  Alphamayo 1.5,一個面向自動駕駛汽車的一種推理VLA模型。NVIDIA BioNeMo Proteina-Complexa,一個用於蛋白質結合體設計的生成模型,可加速基於結構的藥物發現和治療。以上模型均已在Hugging Face上發佈。黃仁勳還預告了GR00T N2,這是一個基於DreamZero研究的下一代基礎模型,預計將於今年年底發佈。該模型建構於新的世界動作模型架構上,幫助機器人在新環境中成功完成新任務的頻率是領先VLA模型的2倍多。此外,輝達宣佈成立Nemotron聯盟,聯手Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、AI Star、Bomb、Thinking Machines Lab等頂尖AI實驗室,匯聚專業知識、資料、評估體系和模型開發能力。輝達將使用內部DGX Cloud算力統一承擔訓練工作,避免每家機構在相同基礎模型上重複投入,共同建構開放的共享基礎。開發者和企業隨後可在此基礎上,針對各自的行業、地區和應用場景進行專項定製。聯盟的第一個項目是一款全新的基礎模型,正在輝達DGX Cloud上訓練,將成為即將發佈的Nemotron 4系列的基礎。04. 物理AI:工業軟體、機器人龍頭都在用 公佈L4自動駕駛、太空計算新進展整個IT行業只有2兆美元,而世界上其他所有行業,都需要能與真實世界互動的AI,需要能夠理解、建模並與真實世界互動的AI物理模型。從桌面到機器人、自動駕駛汽車,從AI工廠到電信網路,輝達的AI基礎設施已無處不在。1、物理AI資料工廠藍圖在機器人領域,算力即資料。當前的資料生成工作流極為碎片化,資料處理、生成、模擬、評估和部署分散在不同管道中。對此,輝達推出物理AI資料工廠藍圖,一個基於輝達Cosmos世界模型和Osmo機器人算力編排系統的開放參考架構,讓“用模擬資料大規模訓練機器人”這件事有了標準化管線。輝達正是用這套管線建構了Alphamaya、Cosmos和GR00T等前沿開放模型。微軟Azure和Nebius是首批採用該架構的雲服務商,首批客戶包括Field AI、Hexagon Robotics、Milestone Systems、Skilled AI和Teradyne Robotics。2、機器人企業們都在用輝達計算平台輝達為機器人製造商提供三類計算平台,以及開放模型、庫和框架,可按需組合使用。輝達宣佈,全球眾多頂級機器人企業都在這三類計算平台上進行建構:ABB、FANUC和庫卡合計佔全球工業機器人裝機量近半,均已將Omniverse庫整合至其機器人模擬工具中。Figure、智元機器人、1X等人形機器人企業採用Isaac Lab、Newton和Cosmos等機器人模擬庫進行建構,並採用Jetson和Thor進行邊緣推理。AI原生企業如Skilled AI和Field AI均在輝達Isaac和Cosmos技術堆疊上建構其通用機器人大腦。輝達是目前唯一一個每家機器人公司都在建構於其上的計算平台。3、L4自動駕駛計程車試點,擴展軟體安全自動駕駛汽車是物理AI大規模落地的第一個場景,也是全球首次大規模部署機器人。輝達建構了全球唯一的全端自動駕駛平台NVIDIA DRIVE,覆蓋自動駕駛訓練與驗證所需的架構、安全系統和AI基礎設施。其核心是NVIDIA DRIVE Hyperion,一款支援L4級自動駕駛的整車參考架構,整合計算、感測器和軟體,可供整個自動駕駛生態系統建構。自動駕駛的使命是安全,輝達宣佈推出L4自動駕駛汽車的統一軟體安全基礎NVIDIA Halos OS、開放推理VLA自動駕駛模型的全新版本NVIDIA Alphamamya 1.5,用於自動駕駛模擬的Omniverse NuRec也普遍可用了。輝達DRIVE生態系統正在持續擴大。比亞迪、吉利、日產等多家全球車企新近加入,採用DRIVE Hyperion,開發下一代L4自動駕駛程序。Uber全球L4無人駕駛計程車將採用DRIVE Hyperion,基於輝達全端DRIVE AV軟體運行無人駕駛網路,計畫於2027年在洛杉磯和舊金山啟動試點,2028年底前擴展至四大洲28座城市。4、全球工業軟體巨頭都在用輝達AI輝達宣佈Cadence、Dassault Systèmes、西門子、新思科技等主要工業軟體廠商將輝達AI、開放模型、CUDA-X、Omniverse和GPU加速工業軟體及工具帶到現代、本田、奔馳、聯發科、百事可樂、三星、SK海力士、台積電等公司,以加速設計、工程和製造。這些軟體領導者們還推出了由輝達驅動的智能體解決方案,用於複雜的晶片和系統工具流。例如,本田正使用新思科技的Ansys Fluent在輝達Grace Blackwell上運行空氣動力學模擬,速度比使用CPU快了34倍。5、輝達、T-Mobile等將物理AI應用部署到AI-RAN基礎設施輝達和T-Mobile宣佈正與諾基亞合作,將物理AI應用部署到AI RAN基礎設施。電信網路正在演變成AI基礎設施。T-Mobile試點NVIDIA RTX PRO 6000 Blackwell伺服器版AI基礎設施,補充AI-RAN創新中心的分佈式網路,以充分發揮物理AI的潛力。基於輝達加速計算的AI-RAN過渡解決了物理AI擴展的關鍵瓶頸:缺乏低延遲、安全和無處不在的連接。雖然Wi-Fi受到覆蓋範圍和安全性的限制,但T-Mobile的5G獨立網路為複雜AI智能體提供了廣泛的覆蓋和保證服務質量。05. 結語5套機架級系統、7款量產晶片、1套完整智能體開發軟硬體、覆蓋自動駕駛/機器人/工業/邊緣/太空的物理AI佈局……黃仁勳用2小時資訊量爆棚的演講,繪製出一張通往未來的AI基建施工圖。在這張圖裡,輝達的目標始終如一:垂直整合,橫向開放,確保每一個AI系統,無論運行在那裡、做什麼、規模有多大,都跑在輝達的平台上。未來已來,智能體大爆發正推動難以置信的計算需求。在這個AI新世界裡,算力即金錢。從桌面、機器人、汽車、工廠到資料中心甚至到近地軌道,每一層都有輝達的算力在運轉,每一個token的生成都在為它的收入計數。通過收購Groq LPU技術增強推理優勢,用開源頂尖模型激勵更廣泛的算力需求,以全端佈局和提高工具易用性來壘高使用者的遷移成本,輝達走得每一步棋,都堪稱教科書級。輝達是克制的,它堅持做基建商,不碰下遊客戶的分毫蛋糕。輝達又是貪婪的,這種貪婪驅動它以極強的戰鬥力向前狂奔,為自己創造更龐大的未來市場,又以一種高明的長期主義,把各行各業的頭部企業引入自己的生態軌道,把客戶的成功變成自己的護城河。最後,附上GTC 2026黃仁勳主題演講片尾曲的歌詞,來總結下本屆GTC的重點:The keynotes over, all was said Jensen mapped the road ahead.主題演講落幕,該說的都已講完,黃仁勳為我們鋪好了前路。AI factories coming alive, agents learning how to drive.AI工廠全面甦醒,智能體學會自主行動。From open models to robots too now we break it all down for you.從開源模型到機器人世界,現在我們為你拆解這一切。Compute exploded, what we saw from CNN’s to OpenClaw.從摺積網路到OpenClaw,我們親眼見證算力大爆發。Agents working cross the land but they need the power to meet demand.智能體遍佈各地但它們需要強大算力才能滿足需求。So we solved the problem, It was brilliant.於是我們解決了難題,方案堪稱絕妙。We multiplied compute by forty million.我們把算力提升了4000萬倍。Once upon an AI time training was the paradigm.曾經的AI時代訓練是核心範式。Sure it taught the models how, but inference runs the whole world now.它教會模型如何學習,但如今推理才是驅動世界的引擎。Vere shows us who’s the boss at thirty-five times less the cost.Vere告訴世界才是真正王者,成本降到1/35。Blackwell makes the tokens sing NVIDIA, the inference King.Blackwell讓Token放聲歌唱:輝達,推理之王。AI Factories once took year vendors pulling racks and gears.AI工廠曾經耗時經年,廠商們堆砌機架與配件。Built up slowly, piece by piece no clear way to scale the beast.一點點緩慢搭建,卻找不到規模化的路徑。DSX and Dynamo know what to do turning power into revenue.DSX與Dynamo指明方向把算力直接變成營收。Agents used to wait and see now act autonomously.智能體過去只會觀望等待。But if they ever try to stray safe Claws block and say ‘No Way!’如今可以完全自主行動,可一旦它們試圖越界,安全Claw會阻攔:“絕對不行!”NemoClaw’s there to guard the course and yes, my friends…NemoClaw守護全程航向,而且,朋友們……It’s open source.它還是開放原始碼的!Cars that think and droids that run this ain’t the movies, it’s all begun.會思考的汽車,能奔跑的機器人,這不是電影,一切已經開始。Alpamayo calls the shots it’s a GPT moment for the bots.Alpamayo掌控全域,這是機器人的GPT時刻。From sim to streets, now watch them drive throw your hands up for Physical AI.從模擬到街頭,看它們馳騁,為物理AI振臂高呼。The Industrial Age built what came before now we build for AI even more.工業時代鑄就了過往,如今我們為AI再造新章。Vera Rubin plus groq make the inference splash put them together,now it's raining cash.Vera 加上Groq掀起推理狂潮,兩者強強聯手財富如雨降臨。We build new architecture every year because Claws keep yelling, ‘More tokens here!’我們每年都打造全新架構,因為“龍蝦”不停吶喊:“這裡需要更多token!”The AI stack’s for all to make so let us all eat five layer cake.AI技術堆疊由所有人共同創造,讓我們共享這五層蛋糕。The moment's bright, the path is clear because open models led us here.此刻光芒萬丈,前路清晰坦蕩,是開源模型帶領我們抵達遠方。When data’s missing, there's no dispute we just generate more with compute.當資料缺失時毋庸置疑,我們用算力生成更多資料。Robots learning without a flaw fueling the four scaling laws.機器人完美學習無差錯,驅動四大增長定律。The future’s here, won't you come and see?未來已來,你難道不想親眼見證?Welcome all to GTC.歡迎所有人來到GTC大會。 (芯東西)
“全民養龍蝦”火爆,AI海嘯等級的機會
“養龍蝦(OpenClaw)”已成為全民現象級,相當於AI的一次全民普及,“軟體已死、App消失、Agent接替”加速到來。全國預約安裝OpenClaw的生意異常火爆,深圳、無錫等地甚至發文歡迎來“養龍蝦”。大廠紛紛入局,小米、騰訊、智譜等推出一鍵安裝OpenClaw。龍蝦這麼火,機會是什麼?1“養龍蝦(OpenClaw)“:能說會幹的超級助手“龍蝦”本質上是AI Agent,從“陪聊天”全面升級至“能說會幹”,成為最懂你的超級助手。我們用以前的ChatGPT、豆包等大模型,就像請了一個只動嘴、不動手的顧問,你問它怎麼寫程式碼,它給你方案,還得你親自動手。OpenClaw這只“龍蝦”AI助手,正式接管了你的電腦底層操作權限,它能24小時不間斷地讀取檔案、自動回郵件、自動對你微信提醒、跨App訂票、甚至自己寫程式碼修復Bug,還可以幫你寫公號、文案,做短影片,等。在裝置上讀取你希望他瞭解你的所有資訊,成為最懂你的AI助手。AI Agent“能說會幹”,還特別懂你。未來掌握“養蝦”技術的人,一個人能頂一個大團隊,效率大幅提升。OpenClaw的核心在於突破了AI從“思考—規劃—執行—反饋”的路徑。它讓AI具備了持久記憶和自主決策能力,從停留在對話方塊階段轉變成AI數字員工。為什麼騰訊等大廠紛紛推出一鍵養蝦?因為OpenClaw會消耗巨量Token。每一次執行任務,都會密集呼叫大模型的API,消耗大量算力。雲廠商免費幫你“裝蝦”,看中的是後續源源不斷的算力消耗和雲端儲存佈局。2 “養龍蝦”的三大機遇:一人公司,算力需求機遇一:AI Agent經濟加速,“軟體已死、App消失、Agent接替”。重塑人機互動,傳統商業互動模式失效。過去網際網路巨頭靠APP形成孤島、圈住流量,但當AI Agent能夠直接繞過UI介面進行通訊、直接執行任務,傳統的搜尋和流量入口邏輯迅速消失。“龍蝦”的核心在於突破了AI從“思考—規劃—執行—反饋”的路徑。它讓AI具備了持久記憶和自主決策能力,從停留在對話方塊階段轉變成AI數字員工。機遇二:一人公司時代到來。一個人加一隻“龍蝦”,就能完成過去一個大團隊才能做到的事。AI Agent高效率、低成本完成任務,以後每個人都可以定義任務、成為老闆,創業更輕鬆。“龍蝦”能幫我們做各種事、能說會幹。整理報表、追蹤訂閱、整理郵件。只要花幾分鐘,把念頭變指令,再讓“龍蝦”去做。比如你讓它“找低價機票”,它就會打開瀏覽器、即時比價,甚至幫你下單。它能技能搜尋、自我補充,這是最驚人的地方。比如在執行“預定餐廳”任務時,“龍蝦”發現缺少給餐廳打電話的通訊工具,它會嘗試自己寫程式碼形成一個新技能,甚至去下載語音編譯器,來解決通訊問題。未來一個懂業務的人,配上一隻好用的龍蝦,能撬動過去一個大團隊的生產力。要把龍蝦用好,關鍵在於誰會更好的指揮龍蝦。思維要轉變,把龍蝦當成一個高效的私人助理,但決策仍在自己手裡,定義任務目標很重要。機遇三:養龍蝦產業鏈大爆發。一是算力租賃、Token消費大爆發。“龍蝦”代表的AI Agent模式更消耗算力,因為它在思考中需要不斷地自我博弈、寫程式碼測試、修正錯誤,對算力需求呈指數級增長。為什麼騰訊等大廠紛紛推出一鍵養蝦?因為OpenClaw會消耗巨量Token。每一次執行任務,都會密集呼叫大模型的API,消耗大量算力。雲廠商免費幫你“裝蝦”,看中的是後續源源不斷的算力消耗和雲端儲存佈局。二是超級流量入口遷移。當龍蝦可以處理一切時,App變得不再重要。不再需要逐個打開軟體,只需要對龍蝦下令。誰能驅動Agent,誰就掌握了未來的超級流量入口。三是大模型終極大戰,看誰和Agent適配。龍蝦的核心是通過Agent完成複雜任務流,要跑通龍蝦,最佳選擇是程式設計能力強、邏輯嚴密的大模型。未來大模型要求更高、贏者通吃,模型大戰更激烈,剩者為王。3 如何“養龍蝦”:四大步驟、三大技術支撐“龍蝦”本質上是AI Agent,從“陪聊天”全面升級至“能說會幹”,成為最懂你的超級助手,數字員工。技術邏輯看,由大模型、入口和Skill組成,分別充當龍蝦的“大腦”、人與龍蝦對話的場所、龍蝦的“手腳”。一是繫結大模型,配置龍蝦“思考大腦”。大模型是龍蝦的算力來源,負責讀懂需求、輸出推理結果。龍蝦則承接大模型輸出,把想法拆解成可執行任務流,再呼叫瀏覽器、辦公軟體等工具介面,實現AI任務從“想到”變成“做到”。二是選定和龍蝦的對話場所。可以選擇QQ、企微或飛書作為龍蝦互動入口。龍蝦會直接接入生態,無需額外打開網站或切換應用,在你熟悉的場景裡就能觸發任務執行。三是安裝好你需要的龍蝦技能。同樣是“養龍蝦”,有人養的龍蝦老犯錯,有人養的龍蝦貼心全能,差距在於技能庫(skills)的選擇、安裝。你可以像搭積木一樣組合技能,打造出專屬的龍蝦能力。技能庫是龍蝦的功能外掛,可以模組化組裝。技能外掛覆蓋讀郵件、管日曆、買機票、寫程式碼、盯行情等各類場景,部分技能庫開源免費,高級技能則需定向開發收費或自主研發。四是龍蝦需要和雲廠商連接,依賴雲算力。龍蝦任務執行需呼叫已配置的大模型,大模型的推理依賴雲廠商提供的GPU算力,這是龍蝦能幹活的底層技術支撐,也會產生你的使用成本。“喂龍蝦”的成本是token費。龍蝦每次互動都會消耗大模型token,頻次越高、內容越長,token消耗量越多。輸出內容的算力消耗更大,是輸入的4-6倍,這筆費用流向了雲廠商和大模型公司。你養成熟的龍蝦,會跟著你偏好的模型、自訂的技能走,你的操作習慣永久留存,實現了AI更懂你。養龍蝦背後有三大技術支撐:Channel(通道):龍蝦的“耳朵+嘴巴”,負責把飛書、QQ、企微消息轉成龍蝦可讀格式,再把執行結果反饋成人類可讀文字。Gateway(閘道器):龍蝦的“神經中樞”,負責任務分發,判斷當前該呼叫“買機票”還是“寫程式碼”的技能。Session(記憶):龍蝦的“持久化硬碟”,記錄聊天歷史,把你的偏好量化儲存,實現跨場景的記憶延續。龍蝦是你24小時工作的AI助手,它的能力依賴外部元件。同時,隱患值得重視,有網友反饋:“養龍蝦”過程中,出現了亂刪內容、隱私洩露、亂花錢等問題。要做好安全防護。4 “養龍蝦”的安全隱患第一批養蝦人已出現各種風險、信用卡盜刷,部分人連夜解除安裝,工信部、公安部網安中心等監管部門密集針對OpenClaw發佈高危風險提示。“養龍蝦”有那些安全隱患?第一,龍蝦需要的系統權限太大、容易越界、隱私洩露。龍蝦為了執行任務,需要極高的系統權限,相當於拿著萬能鑰匙,能隨意讀寫檔案、執行命令。一旦被攻擊者誘導,它會從高效助手變成潛伏的駭客,你的隱私就像被扒光了一樣。第二,龍蝦的技能庫(Skills)魚龍混雜。龍蝦目前很多都是開源技巧,下載過程完全“沒安檢”。隨手安裝的龍蝦技巧本身可能自帶病毒,利用龍蝦的高權限反客為主,偷走資料、並控制你的整個系統。一旦配置了惡意技能,可能被爬取隱私、金鑰,甚至把你的帳戶“一鍵清空”,現在已有養龍蝦信用卡被盜刷。第三,邏輯腦補,任務脫軌。龍蝦背後的“大腦”是AI大模型,大模型存在AI幻覺。如果指令模糊,它就容易出錯,可能把“清理過期檔案”的指令理解成“格式化硬碟”,執行複雜任務時可能捅婁子,甚至刪除你裝置裡的重要資料,導致不可控結果。如何防範風險,安全“養龍蝦”?第一,環境要隔離。把龍蝦關在單獨的“籠子裡”,最好是封閉環境。最好是用一台單獨的電腦裝置,或者是將龍蝦放在虛擬機器或沙盒運行,這樣即使是出現問題,也不會影響平時裝置的正常使用。第二,技能嚴篩選。在下載和安裝龍蝦的各種技能時要萬分警惕,只投喂驗證過的安全技能包。凡是索要帳號密碼、引導下載可疑檔案的一律拒絕,防止惡意程序借龍蝦之手反客為主。第三,全程盯動態。堅持最小權限原則,凡涉及刪除、修改系統權限等高危決策,必須你親自點頭。涉及到密碼、銀行卡、支付等資訊的,不要明文儲存在裝置裡。開啟日誌審計,勤打補丁,看清龍蝦每天的真實動作,讓風險無處遁形。龍蝦是AI Agent,代表著未來,目前仍處於“馴化期”。必須重視防範風險,才能讓它成為你的能說會幹的超級助手,最懂你的數字員工。 (澤平宏觀)
刷屏的“養龍蝦”涼了?OpenClaw爆火後被限制,美媒:中國限制國企使用
最近AI圈太熱鬧了,一款叫OpenClaw的開源AI工具,掀起了全民狂歡的新浪潮,逢人就會問一句——你養龍蝦了嗎?幾乎大家都被這只“小龍蝦”刷屏了。但讓人沒想到的是,這只“龍蝦”的熱度竟涼的如此之快,有消息傳來,OpenClaw被緊急“踩剎車”了。雖然科技愛好者對“養龍蝦”還興趣滿滿,但另一邊的國企等官方部門接連收到通知,要求立即停用,而已經裝了的還要申報審查。美媒也進行了報導稱——美媒:中國限制國企使用OpenClaw!可能很多人還一頭霧水,先跟大家說清楚,“養龍蝦”不是真的養海鮮,而是科技圈對OpenClaw的戲稱。因為它最早的圖示是一隻小龍蝦,大家就把部署、調校這款工具叫做“養龍蝦”,慢慢成了圈子裡的常用語。可能很多人會疑惑——一款免費AI工具,為何能讓大家瘋狂追捧,又為何會被緊急限制?先說說OpenClaw到底是個啥,能讓全國人這麼著迷。它的前身叫Clawdbot,去年11月才正式發佈,本質是一個開放原始碼的AI智能體框架,簡單說就是給AI裝上“手腳”,不用寫一行程式碼,就能讓它幫你幹各種事。比如清理信箱收件箱、訂餐廳、搶機票登機牌,甚至幫你搜資料、寫報告,而且全程免費,誰都能用來省時間、省力氣。今年2月,有個小插曲,這款工具的創始人被別的科技公司挖走了,但承諾會繼續免費開源,本以為熱度會降下來,沒想到反而火得更凶,在海外程式碼平台上,受歡迎程度甚至超過了很多常用的程式設計工具。而咱們國內的熱情,比國外還要高好幾倍。說出來你可能不信,科技圈裡居然興起了“安裝派對”,大家聚在一起,互相幫忙配置OpenClaw,幾百人擠在辦公區,就為了學會怎麼“養龍蝦”。國內很多科技公司,也紛紛推出了自己定製版的OpenClaw。更有意思的是,有些地方還主動給相關項目發補貼,想藉著這股風,在AI領域佔個先機。可熱潮來得有多猛,背後的安全隱患就有多嚇人。大家喜歡它,正是因為它能幫著幹各種事,但這也恰恰是它最危險的地方——它要想幫你操作電腦、處理事務,就得獲取你裝置的各種權限,能讀取你的私人資料、查看你的聊天記錄,還能連線到網路對外通訊,相當於你把自己數字生活的“鑰匙”,直接交給了它。有人反映,自己的OpenClaw突然“失控”,沒經過允許就群發了幾百條消息。還有人發現,它自作主張清空了自己的整個信箱。試想一下,如果有人惡意植入不良指令,或者通過外掛動手腳,就能趁機偷走你的帳號密碼、API金鑰,甚至滲透進公司的內部網路,後果不堪設想。其實早就有機構預警過,說OpenClaw的安全配置特別薄弱,屬於企業使用者“不能接受的安全風險”,建議只能在隔離環境裡用,還得用一次性憑證,避免洩露資訊。國內的網路安全相關部門,也很快發佈了風險提示,指出它存在漏洞,可能會導致資料洩露、誤刪重要檔案,還給出了安全使用的建議。就在這份提示發佈一天後,限制使用的通知就來了,而且主要針對國企等官方部門這些關鍵單位。不過大家也不用慌,這次管控並不是全面禁止,更像是“精準定向”——主要要求國企員工、官方工作人員不能隨意使用,已經安裝的要申報審查,有些國有銀行甚至要求員工,連連接公司網路的個人手機,都不能裝這款工具。普通個人使用者和創業者暫時不受影響,也沒有被遮蔽,不用急著解除安裝自己的OpenClaw。不過也有人擔心,如果OpenClaw的擴散勢頭一直這麼猛,安全隱患得不到解決,以後可能會有更全面的限制。說到底,這款工具的風波,其實反映出一個很現實的問題——現在的AI越來越能幹,能幫我們省不少事,但當AI擁有了自主行動的能力,怎麼平衡好便利和安全,確實是個難題。對於我們普通人來說,喜歡新鮮事物、用AI省時間沒問題,但一定要注意安全,不要隨便給這類工具開放太多權限,避免自己的隱私和資料洩露。而對於國企、官方部門來說,謹慎使用、守住安全底線,更是重中之重。畢竟,便利永遠要建立在安全的基礎上,這才是AI真正能幫到我們的地方。 (W侃科技)
全民 “養龍蝦”,大廠樂開了花
整個AI圈子都被OpenClaw這只“龍蝦”炸翻了。在全民“養龍蝦”的熱潮中,大廠樂開了花。3月10日,受益於“龍蝦”概念,騰訊大漲7%,最誇張的是MiniMax和智譜,分別狂飆了超22%和12%。01 全民“養龍蝦”,有人歡喜有人愁3月9日下午,一份圖文並茂的資料分析報告,自動出現在職場人李哲的電腦裡。這是“龍蝦”交出的作業。過去半個月,李哲的工作流程發生巨變。他在一家網際網路大廠從事審計工作,每天需要分析大量的資料,並將其做成可視化報告。這在以前要耗費他不少時間,但現在,“我輸入指令,它就自己跑資料、做分析、畫圖表、生成可視化報告”。李哲興奮地告訴《財經天下》。這只替他幹活的“龍蝦”,正是今年年初席捲全球的現象級開放原始碼專案——OpenClaw,由奧地利退休程式設計師彼得·斯坦伯格於2025年11月建立。因其紅色龍蝦圖示,它被中國使用者戲稱為“小龍蝦”,部署、調教、使用它的過程,被稱為“養龍蝦”。OpenClaw開放原始碼的特性,讓李哲這樣的普通人,也能通過自然語言讓AI為自己幹活。這種魔力讓這只“龍蝦”在極短時間內引爆全球。《財經天下》接觸的多名“養龍蝦”人中,有的讓“龍蝦”傳輸檔案,有的借此組建數字招聘團隊,有的通過“龍蝦”製作視訊。一位演算法工程師給自己的“龍蝦”取了名,打造“玄學博主”人設,接上生圖模型,還編了一套“心跳”程序。“龍蝦”每天自動登錄社交平台、看通知、回評論、刷帖點贊,完全是個自律的網紅。最絕的是,遇到評論區有人發惡意評論,“龍蝦”還會自動回懟,堪稱“全網第一護主AI”。這只“龍蝦”為何捕獲職場人芳心?某網際網路公司技術總監劉科告訴《財經天下》,OpenClaw專門輔助職場人完成不擅長的技能任務,讓職場人能更專注於需要判斷、創造和溝通的核心工作。全民“養龍蝦”熱潮之下,第一批贏家已經出現了。目前在市場上已出現“OpenClaw上門安裝偵錯”人員,他們一次上門服務的報價從幾百到上千元不等,有媒體報導稱,有人幾天就賺了20多萬元。劉科解釋說,OpenClaw有一定的安裝門檻,本質是一個給開發者用的本地工具,需敲一堆程式碼進行設定,還要搞定讓程序在後台一直運行、打開網路連接埠等煩瑣細節。為之買單的,大多是不懂技術的個體創業者和自由職業者、有技術認知但不願親自動手的職場白領,以及跟風的普通消費者。一些“賣鏟人”——專門做部署、託管和定製開發服務的團隊也賺到了第一桶金,頭部服務商月收入可達數萬美元。如美國專業服務商SetupClaw,提供包含高端硬體的上門配置,收費可達6000美元。SetupClaw創始人Michael曾預判,單靠幫人安裝OpenClaw一年就有望賺到百萬美元。與此同時,第一批“輸家”也出現了。李哲無奈地說,自己一些檔案被“龍蝦”全刪掉了。還有網友吐槽說,“我讓它幫我炒股,一天虧了三萬元”。這是一批在技術早期、生態不成熟、不熟悉規則時付出真實代價的嘗鮮者。以炒股為例,儘管“龍蝦”能自動推薦股票,但AI分析的新聞和資料都是已公開的、滯後的資訊,市場早已消化。當人們收到買入訊號時,敏銳的資金早已進場,人們買入的很可能已是“高位籌碼”。AI再聰明,也無法預測未來或獲取未公開的內幕資訊。全民“養龍蝦”,也是悲喜交織。與此同時,一場更深入的戰爭正在頭部科技大廠中上演。02 大廠的“賣鏟”狂歡與卡位戰最近的一周時間內,包括騰訊、百度等大廠紛紛開啟了線下免費安裝OpenClaw的活動。3月6日上午,在深圳騰訊大廈,出現數百人排隊領取免費安裝服務的場景,被外界戲稱“一代人有一代人的雞蛋要領”,連馬化騰都在朋友圈感慨“沒有想到會這麼火”。同一天,字節跳動火速發佈詳細的OpenClaw使用指南,並在全網廣泛傳播。小米也在3月6日推出“手機版龍蝦”Xiaomi Miclaw並開啟小範圍封測,雷軍更是為此一口氣連發了三條微博。3月9日,騰訊正式上線了自家的“小龍蝦”全場景AI智能體WorkBuddy,企業微信官方接入OpenClaw;字節系火山引擎上線了雲上SaaS版OpenClaw產品ArkClaw。“龍蝦”捲起的浪潮已經進展到了新的層面,中國AI賽道的重要玩家幾乎全部入局。大廠入局爭奪的,主要是OpenClaw背後那個正在爆發的“賣鏟人”生意。“鏟子”是什麼?就是運行OpenClaw所必需的雲端運算資源、伺服器、大模型API,以及便捷的部署工具。就在幾個月前,中國國產大模型廠商還深陷“百模大戰”的泥淖。“技術變強,但不知道賣給誰”,這是頭部大模型公司最為頭疼的事:C端使用者對聊天機器人付費意願低迷,to B端的定製化項目又難以規模化。更尷尬的是,中國國產廠商投入巨資研發大模型,卻難以在通用能力上實現超越。資本市場也開始失去耐心。2025年下半年,AI投資熱潮明顯降溫,投資機構更關注的是“何時能賺錢”,而非“參數又漲了多少”。OpenClaw的橫空出世,給深陷泥潭的中國國產大模型廠商砸開了一扇變現之門:開發者為讓OpenClaw順暢運行,需持續呼叫大模型API,每一次任務拆解、工具呼叫,都在消耗大量Token。Token是AI處理文字的最小單位,也是衡量它工作量的基本計費單位。通俗點說,它可以理解為“諮詢費”。與傳統大模型的一次性問答可能消耗幾百個Token不同,OpenClaw的Agent(智能體)為完成一個任務,會跑去問底層大模型幾十甚至上百次,Token消耗是以前的幾百上千倍。獵豹移動董事長傅盛公開過一份帳單:基於OpenClaw框架養出一支24小時工作的超級AI團隊,每天運行要消耗100多美元的Token。這對面臨商業化落地難題的中國AI廠商來說,是個賺錢的好機會。它們正好擅長打“價格優勢”戰。包括月之暗面、MiniMax等大模型公司,在春節前後就推出雲端託管或一鍵部署的“龍蝦”服務,將分鐘級的複雜流程壓縮至秒級。資本市場信心順勢重塑。以月之暗面為例,據澎湃新聞報導,其K2.5大模型發佈不到一個月,近20天累計收入已超過2025年全年總收入。受此推動,月之暗面在兩個月內完成超12億美元融資,估值突破100億美元,成為中國最快晉級“獨角獸”的大模型企業。“龍蝦熱”也把網際網路大廠的AI爭奪戰推進了深水區。騰訊雲從1月底起,快速推出部署範本、適配企業微信等通訊工具,並推出可視化面板,以每日迭代的速度降低使用門檻,其“雲上養蝦人”規模已突破10萬。2月,百度智能雲上線了一鍵部署服務,通過千帆平台整合文心等主流模型。當雲大廠在“賣鏟子”時,阿里雲已開源CoPaw,對OpenClaw進行從底層到體驗的全面重構,直指部署、適配、本土化三大痛點。現在,騰訊和火山引擎也相繼推出各自類似“小龍蝦”的產品。大廠們已不滿足於只做基礎設施供應商,而是想進一步爭奪下一代AI的生態定義權。OpenClaw的部署、呼叫,連接起了雲和模型;除此之外,它還一頭連著應用,在使用者的真實場景中落地。生態圈內所有廠商幾乎都能從中獲得機會。對於科技公司來說,誰能率先建立使用者習慣,誰就能建構生態壁壘。這就像當年的移動網際網路,早期搶到的入口,後來都成了平台。實質上,“技術迭代的即時反饋,也是大廠的另一大收穫。”劉科解釋說,以前最佳化模型,更多是看評測分數。現在有了OpenClaw,能直接看到使用者在實際工作中遇到什麼問題,模型在那些環節會卡住。更微妙的是戰略主動權的轉移。過去,中國國產大模型更多是跟隨者角色。但在OpenClaw掀起的Agent浪潮中,它們第一次有機會定義遊戲規則。當遊戲規則從“誰的使用者多”轉向“誰的Token便宜”“誰的code(程式碼)好用”,牌桌上的玩家自然可以更換面孔。03 “一人公司”時代加速到來在大廠忙於“賣鏟子”和生態卡位時,一人公司時代將加速到來。作為一名AI百科前沿探索者,金朝政的電腦裡養著的“龍蝦”,正在網際網路上自動尋找潛在客戶、回覆諮詢、收集需求資訊。他將自己營運的AI行銷公司,歸為“一人公司”之列。金朝政認為,在OpenClaw引爆科技圈後,像他這樣憑藉AI工具創業的“超級個體”,會在中國城市各處湧現。“一個思想,一群AI員工執行。”金朝政這樣定義“一人公司”模式,“本質是在運行一個AI超級代理系統”。“一人公司”並非新概念,其在2025~2026年間呈現爆發式增長,並已成為一股重要的創業趨勢。但過去,這些創業者往往是疲於奔命的“全能戰士”——既要懂產品,又要會行銷,既要談客戶,又要做售後。OpenClaw的出現,改變了他們這種生存狀態。這款開放原始碼專案,讓AI從“能說會道”的聊天機器人,進化成“能動手幹活”的數字員工。與之前功能單一的AI代理不同,OpenClaw能理解複雜的自然語言指令,拆解任務,並呼叫各種軟體工具自動執行。金朝政在用指令讓“龍蝦”去全網獲客之前,使用各種AI瀏覽器,有的能實現部分功能,但僅限於瀏覽器內操作。不過,擁有一隻“龍蝦”,並不等於擁有一名成熟的員工,“養蝦人”需要精心喂養和馴化“龍蝦”。這種“養成”是有代價的。OpenClaw在執行任務時,需頻繁呼叫底層大模型,大量消耗Token。金朝政告訴《財經天下》,“大廠就像收水電煤一樣,免費給你裝‘水龍頭’(部署工具),但用他們的‘水’(模型能力)就得持續付費”。這個費用不低,像李哲每天“養蝦”的成本就高達200~300元。更令人擔憂的,是懸在頭頂的安全之劍。OpenClaw的定位是“做事”,這意味著它必須獲得很高的系統權限,才能操控本地檔案、運行應用程式。從安全形度來看,這種高權限“是一場噩夢”。多名“養龍蝦人”告訴《財經天下》,它可以在使用者電腦上任意運行命令、讀寫檔案、執行指令碼。由於許多使用者採用默認配置或缺乏安全意識,大量OpenClaw實例直接暴露在公網上。2026年3月,工業和資訊化部網路安全威脅和漏洞資訊共享平台發佈預警,指出OpenClaw部分實例在不當配置下“存在較高安全風險”,極易引發網路攻擊和資訊洩露。這對“一人公司”而言,具有極大的風險性。金朝政更傾向於不用主力電腦運行“龍蝦”,而是專門準備一台電腦進行物理隔離。這也是當前許多資深使用者和開發者,乃至“一人公司”的共識。對於一眾公司創業者而言,短期的物理隔離確實是明智的權宜之計,但這治標不治本。劉科認為,物理隔離保護了主力機的檔案,但依然有風險,這台機器上運行的“龍蝦”,掌握著使用者的社交媒體帳號、API金鑰、客戶資料等。一旦“龍蝦”被攻破,攻擊者可竊取這些核心資產。解決這一困境,不能只靠個人“修堡壘”,更需要技術演進、生態協同和商業模式的共同突破。劉科表示,長期的出路主要在於選擇那些將安全作為核心競爭力的平台。這意味著,壓力又給到了大廠。 (財經天下WEEKLY)