#開源
【CES 2026】突發開源!NVIDIA 宣佈推出用於物理 AI 的全新開放模型、框架和 AI 基礎設施之深度洞察!
引言:CES 2026 引爆行業革命,機器人開發的“ChatGPT時刻”正式到來太平洋時間2026年1月5日,拉斯維加斯國際消費電子展(CES)現場,NVIDIA創始人兼首席執行長黃仁勳的一句“機器人開發的ChatGPT時刻已然到來”,為全球機器人產業定下了新的發展基調。當天,NVIDIA正式宣佈推出用於物理AI的全新開放模型、框架和AI基礎設施,同時展示了Boston Dynamics、Caterpillar、Franka Robotics等全球領先企業基於其技術打造的多款新型機器人與自主機器,涵蓋移動機械臂、人形機器人、工業作業裝置等多個品類。這一系列發佈並非孤立的技術更新,而是NVIDIA對機器人產業發展瓶頸的精準突破,更是對未來“專家級通用”機器人開發範式的全面重構。長期以來,機器人產業始終面臨三大核心痛點:一是缺乏理解物理世界的通用智能,傳統機器人依賴預設程序,難以應對動態環境變化;二是開發流程分散複雜,模擬與現實存在巨大鴻溝,技術迭代效率低下;三是軟硬體協同不足,AI算力與能效難以匹配機器人輕量化、高即時性的應用需求。NVIDIA此次推出的全端技術體系——從Cosmos與GR00T開放模型,到Isaac Lab-Arena模擬框架與OSMO計算框架,再到Blackwell架構驅動的Jetson T4000硬體模組,形成了覆蓋“模型-框架-硬體-生態”的完整解決方案,旨在打通機器人開發的全生命周期,加速新一代AI驅動機器人的規模化落地。本文將從技術核心解析、產業鏈重構影響、應用場景突破、產業趨勢展望四大維度,深度拆解NVIDIA物理AI技術體系的核心價值與行業變革意義。一、技術核心解析:物理AI如何重構機器人的“認知與行動”能力黃仁勳所言的“機器人開發的ChatGPT時刻”,核心在於物理AI技術的突破性進展。不同於傳統AI聚焦數字世界的資訊處理,物理AI的核心目標是讓機器理解物理世界的運行規律,具備感知、推理、規劃與行動的閉環能力,實現從“執行指令”到“理解並決策”的跨越。NVIDIA此次發佈的技術體系,正是圍繞這一核心目標建構的全端解決方案,其技術核心可拆解為“感知-推理-行動-訓練”四大核心模組。1.1 核心模型 Cosmos與GR00T建構物理AI的“認知大腦”要實現機器人對物理世界的理解,首先需要建構能夠建模物理規律、融合多模態資訊的基礎模型。NVIDIA此次推出的Cosmos系列與GR00T N1.6模型,分別解決了“物理世界認知”與“人形機器人全身控制”兩大核心問題,共同構成了物理AI的“認知大腦”。1.1.1 Cosmos系列模型:賦予機器人“物理直覺”傳統機器人的最大短板在於缺乏“物理直覺”——無法預判環境變化對自身動作的影響,也難以理解物體的物理屬性(如重力、摩擦力、材質特性等)。這導致機器人在執行簡單任務時,一旦遇到未預設的場景(如地面油污、物體重量變化),就容易出現失穩或任務失敗的情況。Cosmos系列模型的核心價值,正是通過生成式AI技術,讓機器人內化物理世界的基本規律,具備即時預測、跨場景遷移與多步推理的能力。Cosmos系列包含三大核心模型,形成了“感知-預測-推理”的認知閉環:NVIDIA Cosmos Transfer 2.5:作為轉換模型,其核心功能是打通模擬與現實的“域鴻溝”。傳統機器人訓練依賴大量真實場景資料,成本高昂且周期漫長,而模擬資料又因與現實環境差異過大,導致訓練出的模型難以直接遷移。Cosmos Transfer 2.5支援空間條件控制的風格遷移,可將Isaac Sim中的合成資料轉換為帶有真實世界噪聲、光照幹擾、鏡頭畸變的等效資料,同時保持物理參數不變;反之,也能將真實世界的稀疏資料增強為多樣化的模擬場景,大幅提升模型從模擬到現實的零樣本遷移成功率。相較於前代模型,其體積更小、運行更快,生成質量顯著提升,域間遷移的誤差累積大幅減少。NVIDIA Cosmos Predict 2.5:聚焦物理世界的即時預測,解決機器人的“快思考”問題。該模型融合Text 2 World、Image 2 World、Video 2 World等生成能力,可根據文字、圖像或視訊輸入,生成連貫的環境演化序列。與傳統電腦視覺模型逐幀處理像素不同,Cosmos Predict 2.5直接對物理狀態的演化軌跡進行推演,能夠在毫秒級內預測環境變化對機器人動作的影響。例如在“機械臂倒水”任務中,傳統方法需要複雜的流體動力學方程求解,難以滿足即時性要求;而Cosmos Predict 2.5通過學習海量物理視訊資料,可即時預測下一時刻的流體分佈與不確定性,為控製器提供“是否會濺出”的預判依據,支撐機器人的動態微調。NVIDIA Cosmos Reason 2:作為開放推理視覺語言模型(VLM),負責機器人的“慢思考”——跨時間尺度的理解、推理與決策。該模型引入了大語言模型中成熟的思維鏈(CoT)機制,並將其擴展到視覺-動作領域,能夠直接從圖像中理解語義與空間關係,完成多步任務分解與因果推理。在“清理廚房檯面”這類複雜任務中,傳統規劃器依賴預定義的PDDL(規劃域定義語言),難以應對場景變化;而Cosmos Reason 2可自主分解任務(如“先移開水杯→再擦拭油污→最後整理餐具”),並通過反事實推理預判不同動作的後果,主動規避高風險操作(如避免碰撞易碎物品)。這種將感知、推理與決策緊密耦合的能力,有效解決了傳統模組化架構中資訊層層傳遞的損耗問題。三者的協同邏輯清晰:Cosmos Predict 2.5提供即時物理狀態預測,支撐毫秒級的動態反饋;Cosmos Reason 2負責長周期的任務規劃與風險預判;Cosmos Transfer 2.5則打通模擬與現實的資料通道,為前兩者的訓練提供高品質資料支撐,形成“預測-推理-資料迭代”的認知閉環。1.1.2 GR00T N1.6:解鎖人形機器人的“全身控制”能力如果說Cosmos系列模型解決了機器人“認知世界”的問題,那麼Isaac GR00T N1.6則聚焦於“如何行動”,特別是為人形機器人提供開放式的推理視覺語言行動(VLA)模型,實現全身動作的精準控制與上下文理解。人形機器人的控制難度遠超傳統機械臂,其擁有數十個自由度,需要兼顧平衡、協調、精準操作等多重目標,傳統控制方法難以實現複雜動作的靈活適配。GROOT N1.6的核心突破在於兩大技術創新:一是採用MoE(混合專家)架構,實現“通專融合”的控制能力。該架構包含多個獨立的“專家”子網路,在處理不同任務時啟動對應的專家模組——例如理解自然語言指令時啟動“通用語言專家”,執行精密銲接時啟動“運動控制專家”,既保證了通用任務的適應性,又提升了專項任務的精準度。二是深度整合Cosmos Reason 2模型,強化上下文理解與推理能力。通過融合視覺語言推理與動作控制,GR00T N1.6可直接將人類自然語言指令轉換為全身協調的動作序列,例如將“把桌子上的檔案遞給我”拆解為“移動至桌前→識別檔案位置→調整姿態→抓取檔案→精準遞出”的連貫動作,無需人工編寫複雜的運動控製程序。目前,Franka Robotics、NEURA Robotics、Humanoid等企業已開始利用GR00T賦能的工作流,進行機器人新行為的模擬、訓練與驗證。Salesforce則通過整合Agentforce、Cosmos Reason與NVIDIA Blueprint,對機器人採集的視訊片段進行分析,將事件解決時間縮短了50%,充分驗證了該模型在提升任務效率方面的核心價值。1.2 支撐框架 Isaac Lab-Arena與OSMO打通開發全流程物理AI模型的落地,離不開高效的開發與訓練框架支撐。長期以來,機器人開發麵臨兩大流程痛點:一是模擬評估體系分散,基準測試依賴人工操作,難以實現規模化驗證;二是端到端工作流複雜,需要跨工作站、雲端等異構計算資源,協同難度大,開發周期漫長。NVIDIA此次發佈的Isaac Lab-Arena開源模擬框架與OSMO雲原生計算框架,正是針對這兩大痛點的精準解決方案,旨在實現“模擬-訓練-評估-部署”的全流程閉環。1.2.1 Isaac Lab-Arena:標準化模擬評估的“協作平台”模擬訓練是機器人開發的核心環節,其質量直接決定了機器人在真實環境中的性能。但當前行業缺乏統一的模擬評估標準,不同開發者採用不同的測試體系,導致技術成果難以對比,且模擬場景與真實環境的差異過大,大幅降低了訓練效率。Isaac Lab-Arena的核心目標是建構一個開放原始碼的協作系統,實現大規模機器人策略評估與基準測試的標準化。該框架的核心優勢體現在三個方面:一是模組化設計,其評估層與任務層通過與光輪智能的深度合作完成建構,支援靈活配置不同任務場景與評估指標;二是多基準相容,可直接對接Libero、Robocasa等業界領先的基準測試體系,實現測試流程的標準化,確保機器人技能在部署至物理硬體前具備穩健性與可靠性;三是開源協作,現已在GitHub上公開發佈,開發者可基於該框架共享測試場景、驗證演算法效果,加速技術迭代。1.2.2 OSMO:跨環境協同的“開髮指揮中心”機器人開發涉及合成資料生成、模型訓練、軟體在環測試等多個環節,需要跨越工作站、邊緣裝置、混合雲等多種計算環境,傳統開發模式下,各環節相互獨立,資源調度複雜,嚴重影響開發效率。OSMO作為雲原生編排框架,將機器人開發整合至單一易用的命令中心,實現了全流程的高效協同。OSMO的核心功能包括:一是跨環境工作流定義,開發者可通過統一介面,定義覆蓋多計算環境的工作流,實現合成資料生成、模型訓練、測試驗證的自動化執行;二是資源智能調度,根據不同環節的算力需求,自動分配工作站、雲端等資源,提升資源利用率;三是快速整合適配,現已開放使用,並被Hexagon Robotics等企業採用,同時整合至Microsoft Azure Robotics Accelerator工具鏈中,大幅降低了開發者的接入門檻。1.3 硬體基石 Blackwell架構驅動的邊緣AI算力革命物理AI模型的即時運行,需要強大的邊緣AI算力支撐。機器人尤其是人形機器人、移動作業裝置等,對硬體的輕量化、低功耗、高即時性提出了嚴苛要求。傳統邊緣計算模組難以平衡算力與能效,無法滿足複雜物理AI模型的運行需求。NVIDIA此次發佈的Jetson T4000模組與IGX Thor工業邊緣平台,基於Blackwell架構打造,實現了算力與能效的跨越式提升,為物理AI的邊緣落地提供了核心硬體支撐。1.3.1 Jetson T4000:機器人的“高效小腦”Jetson T4000是Blackwell架構下放至邊緣端的首款機器人專用計算模組,現已正式發售,千片起訂量下單價為1999美元,為Jetson Orin客戶提供了高性價比的升級路徑。相較於上一代Jetson AGX Orin,該模組在核心性能上實現了全方位突破:Jetson T4000的核心突破在於NVFP4 4位浮點精度推理技術。對於物理AI應用而言,感知環節的精度可適當降低,但決策與控制的即時性至關重要。該技術允許機器人在邊緣端直接運行複雜的VLA模型,無需依賴不穩定的雲端網路,既保證了即時響應,又提升了運行安全性。在70瓦的可配置功率範圍內,其可提供1200 FP4 TFLOPS的算力,足以支撐Cosmos與GR00T模型的即時運行,是能耗受限型自主系統的理想選擇。1.3.2 IGX Thor:工業邊緣的“安全算力核心”除了面向通用機器人的Jetson T4000,NVIDIA還宣佈IGX Thor將於2026年1月晚些時候上市,聚焦工業邊緣場景,提供高性能AI計算與功能安全保障。該平台將機器人技術擴展到工業生產、建築採礦等複雜邊緣環境,具備企業級軟體支援能力,可滿足工業級應用對穩定性、安全性的嚴苛要求。目前,AAEON、Advantech、ADLINK等眾多合作夥伴已推出搭載Thor的系統,覆蓋邊緣AI、機器人和嵌入式應用等多個領域。1.4 生態協同 NVIDIA與Hugging Face打通開源開發鏈路技術的規模化落地離不開生態的支撐。當前,機器人已成為Hugging Face平台上增長最快的領域,而NVIDIA的開放模型與資料集在該平台的下載量持續領先。為進一步加速開源物理AI的開發,NVIDIA與Hugging Face達成深度合作,將開放原始碼的Isaac與GR00T技術整合到領先的LeRobot開源機器人框架中,建構了“軟硬體一體化”的開源開發生態。此次合作的核心價值在於打通了兩大開發者社區:NVIDIA的200萬機器人開發者與Hugging Face的1300萬全球AI開發者,實現了技術、工具與資源的雙向流動。具體來看,GR00T N系列模型與Isaac Lab-Arena已正式上線LeRobot庫,開發者可直接基於該框架進行模型微調和策略評估;同時,Hugging Face開放原始碼的Reachy 2人形機器人與NVIDIA Jetson Thor機器人電腦實現完全互操作,可運行包括GR00T N1.6在內的任何VLA模型;Reachy Mini桌面機器人則與NVIDIA DGX Spark實現相容,支援開發者基於NVIDIA大語言模型及本地運行的語音、電腦視覺開放模型打造自訂體驗。這種開源生態的協同,大幅降低了機器人開發的門檻,讓中小企業與個人開發者能夠快速接入頂尖的物理AI技術,加速了創新應用的孵化。正如Hugging Face首席技術官所言:“與NVIDIA的合作將徹底改變開源機器人開發的格局,讓更多開發者能夠聚焦應用創新,而非基礎技術建構。”二、產業鏈重構:從“碎片化”到“生態化”的全鏈路變革機器人產業鏈傳統上呈現“上游高壁壘、中游低利潤、下游分散化”的碎片化格局。上游核心零部件(控製器、伺服系統、減速器)佔據工業機器人總成本的60%以上,利潤分配比例超過40%,但技術門檻高,長期被海外企業壟斷;中游整機製造依賴上游零部件,同質化競爭激烈,毛利率普遍偏低;下游應用場景分散,不同行業的需求差異大,難以形成規模化效應。NVIDIA此次發佈的全端技術體系,將通過“技術賦能-生態整合-成本最佳化”三大路徑,重構機器人產業鏈的價值分配與協作模式。2.1 上游核心零部件 AI驅動的技術升級與國產化機遇上游核心零部件是機器人產業的“卡脖子”環節,也是利潤最集中的領域。NVIDIA的物理AI技術體系,將對上游零部件產業產生兩大關鍵影響:一是推動零部件的“智能化升級”,二是為國產零部件企業提供彎道超車的機遇。在智能化升級方面,傳統零部件以“高精度執行”為核心目標,而物理AI時代的零部件需要具備“感知-反饋-協同”的智能能力。例如,伺服電機需要即時採集運動資料,並與AI模型協同調整參數,以適應動態環境下的動作需求;減速器則需要具備更高的動態響應速度,配合機器人的即時微調動作。NVIDIA的GR00T模型與Jetson硬體平台,為零部件的智能化升級提供了標準介面與算力支撐,推動上游零部件從“被動執行”向“主動協同”轉變。在國產化機遇方面,長期以來,國內零部件企業受制於核心技術不足,難以與海外巨頭競爭。而NVIDIA的開放模型與框架,降低了零部件企業的智能化研發門檻。例如,國內控製器企業可基於NVIDIA的CUDA架構與GR00T模型,快速開發具備物理AI能力的智能控製器,無需從零建構演算法體系。伺服系統企業可借助Jetson平台的算力,實現運動資料的即時分析與參數最佳化。同時,隨著國內機器人產業政策的支援(如廣西出台的機器人產業發展政策,對核心零部件企業給予最高300萬元的年度獎勵),國產零部件企業將在技術升級與市場拓展中獲得更多助力。此外,NVIDIA Jetson T4000的量產與普及,將帶動上游晶片供應鏈的發展。該模組採用的Blackwell架構晶片,其國產化替代(如封裝測試、配套元器件)將為國內半導體企業提供新的市場機遇,進一步完善機器人產業鏈的國產化生態。2.2 中游整機製造 從“組裝整合”到“應用創新”的價值躍升中游整機製造是傳統機器人產業鏈的“薄弱環節”,長期依賴上游零部件進口,以組裝整合為主,缺乏核心技術,毛利率普遍低於20%。NVIDIA的全端技術體系,將徹底改變中游整機企業的發展模式,推動其從“組裝商”向“應用解決方案提供商”轉型。首先,降低研發成本與周期。傳統整機企業需要投入巨額資金建構AI演算法、模擬平台與硬體適配體系,研發周期長達1-2年。而基於NVIDIA的Cosmos模型、Isaac Lab-Arena模擬框架與Jetson硬體,整機企業可直接復用成熟的技術模組,聚焦行業應用場景的定製化開發,研發周期可縮短至3-6個月,研發成本降低50%以上。例如,智元機器人基於NVIDIA技術推出的面向工業和消費行業的人形機器人,以及配套的Genie Sim 3.0模擬平台,正是借助NVIDIA的技術賦能,快速實現了產品落地與迭代。其次,提升產品競爭力。借助NVIDIA的物理AI技術,中游整機企業的產品將具備“通用智能”能力,能夠適配更多場景,擺脫同質化競爭。例如,NEURA Robotics推出的第3代人形機器人(由保時捷設計),基於GR00T模型與Jetson Thor平台,具備精細化控制能力,可同時適配工業裝配、服務接待等多個場景;Richtech Robotics的移動人形機器人Dex,借助NVIDIA的導航與操作技術,能夠在複雜工業環境中實現精細操作與自主導航,大幅提升了產品的市場競爭力。最後,推動商業模式創新。隨著產品競爭力的提升,中游整機企業將從“賣裝置”向“提供服務”轉型,例如通過機器人租賃、按效果收費等模式,提升客戶粘性與長期盈利能力。例如,智元機器人推出的國內首個機器人租賃平台“擎天租”,正是基於其技術領先的機器人產品,開啟了新的商業模式探索。2.3 下游應用場景 從“單一化”到“規模化”的全面滲透下游應用場景的分散化是制約機器人產業規模化發展的關鍵因素。傳統機器人主要應用於汽車製造、電子加工等少數標準化場景,而醫療、建築、消費等領域的應用相對有限。NVIDIA的物理AI技術體系,通過提升機器人的環境適應性與任務通用性,將推動下游應用場景從“單一化”向“規模化”全面滲透,尤其是在工業、醫療、建築採礦、消費四大領域實現突破性進展。在工業領域,機器人將從“固定工位操作”向“全流程協同作業”升級。例如,富臨精工工廠引入的近百台遠征A2-W機器人(基於NVIDIA技術),已實現與AMR的協同作業,自主完成周轉箱的搬運、轉移與精準放置,覆蓋三條不同裝配線,涉及20余種物料,承載重量提升至14千克,且未發生一起物料傾倒事故。隨著NVIDIA技術的普及,更多製造企業將實現“機器人+智能製造”的升級,推動工業機器人的規模化應用。在醫療領域,物理AI技術將推動手術機器人與輔助診療裝置的精準化升級。LEM Surgical借助NVIDIA Isaac for Healthcare和Cosmos Transfer模型,訓練Dynamis手術機器人(搭載Jetson AGX Thor與Holoscan),大幅提升了手術操作的精準度;XRLabs則利用Thor平台與Isaac for Healthcare,為手術內窺鏡提供即時AI分析支援,幫助外科醫生精準判斷手術部位,降低手術風險。這些應用將推動醫療機器人從“高端試點”向“常規應用”普及。在建築採礦領域,Caterpillar與NVIDIA的深化合作將推動自主作業裝置的規模化落地。建築與採礦行業屬於典型的“危險、骯髒、枯燥”場景,對機器人的需求迫切,但環境複雜,傳統裝置難以適配。Caterpillar將借助NVIDIA的物理AI技術,開發具備自主導航、精準作業能力的重型裝置,提升作業效率與安全性。在2026年1月7日的CES主題演講中,Caterpillar CEO Joe Creed與NVIDIA高管將披露更多合作細節,預計將推出多款基於Blackwell架構的自主作業裝置。在消費領域,人形機器人將從“高端玩具”向“家庭助手”轉型。LG Electronics發佈的全新家用機器人,基於NVIDIA技術,可執行各種室內家務,具備動態環境適應能力,能夠應對家庭中的複雜場景(如躲避障礙物、處理不同材質的物品);宇樹科技推出的小型人形機器人Unitree R1,起售價僅2.99萬元,借助NVIDIA的輕量化AI技術,實現了低成本與高智能的平衡,大幅拉近了與人消費市場的距離。2.4 價值分配重構 生態主導者引領的利潤再平衡隨著NVIDIA全端技術體系的普及,機器人產業鏈的價值分配將發生重大變化:從“上游零部件企業主導”向“生態主導者+應用創新者”共同主導的格局轉變。NVIDIA作為生態主導者,將通過“模型授權+硬體銷售+生態服務”獲取穩定的利潤回報;而中游整機企業與下游應用解決方案提供商,將通過場景創新與服務增值,提升利潤佔比;上游零部件企業則需要通過智能化升級,維持其利潤優勢。這種價值分配的重構,將推動產業鏈從“零和博弈”向“共贏發展”轉變。NVIDIA通過開放模型與框架,幫助上游零部件企業實現智能化升級,提升其產品附加值;中游整機企業借助NVIDIA技術推出高競爭力產品,帶動上游零部件的需求;下游應用場景的規模化落地,又將反哺中游整機與上游零部件企業的發展,形成良性循環。據行業預測,隨著這種生態化格局的形成,2027年將成為中國機器人產業的“大規模商業化元年”,整個產業鏈的規模將突破兆級。三、應用場景突破:物理AI技術的落地案例與價值驗證技術的價值最終需要通過應用場景來驗證。NVIDIA此次發佈的物理AI技術體系,已在工業、醫療、消費、建築採礦等多個領域實現落地,通過一系列標竿案例,充分驗證了其在提升效率、降低成本、保障安全等方面的核心價值。本節將重點解析四個典型應用場景的落地案例,深入探討物理AI技術的實際應用效果。3.1 工業製造 富臨精工的“人形機器人+智能製造”升級富臨精工是國內領先的汽車零部件製造商,其生產車間涵蓋多條裝配線,物料搬運、上料等環節傳統上依賴人工操作,存在效率低、誤差率高、勞動強度大等問題。為實現智能製造升級,富臨精工與智元機器人達成合作,引入近百台基於NVIDIA Jetson Thor與GR00T模型的遠征A2-W人形機器人,建構了“智能中樞平台+人形機器人+AMR”的協同作業體系。該體系的核心優勢在於三個方面:一是全流程自動化,智能中樞平台即時監控線邊物料剩餘量,當觸及預設水位線時,自動觸發配送任務,人形機器人與AMR協同作業,自主完成周轉箱的搬運、轉移與精準放置,無需人工干預;二是動態適應性強,借助NVIDIA Cosmos Reason 2模型的推理能力,人形機器人能夠應對車間內的動態環境變化,如躲避移動的工人與裝置、調整物料放置角度等;三是規模化擴展能力,從最初的1個搬運工位擴展至4個,覆蓋三條不同裝配線,涉及物料種類從4種增至20余種,承載重量從5-6千克提升至14千克,且線邊上料場景至今未發生一起物料傾倒事故。據富臨精工相關負責人介紹,引入該體系後,物料搬運效率提升了60%,人工成本降低了40%,同時物料配送的誤差率降至0.1%以下。這一案例充分驗證了NVIDIA物理AI技術在工業製造場景的規模化應用價值,為其他製造企業的智能化升級提供了可複製的方案。3.2 醫療健康 LEM Surgical的精準手術機器人訓練體系手術機器人是醫療領域的高端裝備,其訓練需要大量的臨床資料與模擬場景,但傳統訓練方式存在資料稀缺、風險高、周期長等問題。LEM Surgical作為專注於手術機器人研發的企業,借助NVIDIA Isaac for Healthcare和Cosmos Transfer 2.5模型,建構了高效的手術機器人訓練體系,用於其Dynamis手術機器人的研發與最佳化。Dynamis手術機器人搭載了NVIDIA Jetson AGX Thor與Holoscan平台,具備高精度的手術操作能力。其訓練體系的核心的是Cosmos Transfer 2.5模型的域遷移能力:通過將Isaac Sim中的模擬手術場景,轉換為帶有真實手術環境噪聲、光照條件的等效資料,大幅提升了模擬訓練的真實性;同時,將少量真實手術資料增強為多樣化的模擬場景,解決了臨床資料稀缺的問題。借助這一體系,LEM Surgical的研發團隊能夠快速驗證手術機器人的操作策略,最佳化運動控制參數,大幅縮短了研發周期。此外,XRLabs利用NVIDIA Jetson Thor與Isaac for Healthcare,開發了智能手術內窺鏡系統。該系統通過外接手術內鏡採集即時圖像,借助Cosmos Predict 2.5模型的即時預測能力,分析手術部位的解剖結構與操作風險,為外科醫生提供即時引導,降低了手術難度與併發症風險。目前,該系統已在多家醫院開展試點應用,手術精準度提升了30%,手術時間縮短了20%。3.3 消費服務 LG Electronics的家用智慧型手機器人家用機器人是消費領域的重要增長點,但傳統家用機器人功能單一,難以應對複雜的家庭環境。LG Electronics在CES 2026上發佈的全新家用機器人,基於NVIDIA的Cosmos系列模型與Jetson T4000模組,具備全方位的家務處理能力與動態環境適應能力。該機器人的核心優勢在於其強大的物理AI能力:通過Cosmos Reason 2模型,能夠理解自然語言指令,並分解為具體的家務任務,如“清理客廳檯面”可拆解為“整理物品→擦拭灰塵→分類收納”;借助Cosmos Predict 2.5模型,能夠即時預測動作後果,如避免碰撞易碎物品、調整拖地力度以適應不同地面材質;依託Jetson T4000的高效算力,實現了即時感知與決策,響應速度提升至毫秒級。此外,該機器人還具備自主充電、故障自診斷等智能功能,能夠適應不同戶型的家庭環境。LG Electronics相關負責人表示,這款家用機器人的目標是成為“家庭助手”,而非簡單的“家務工具”,其定價將控制在萬元以內,以實現規模化普及。該產品的推出,標誌著消費級家用機器人正式進入“通用智能”時代。3.4 建築採礦 Caterpillar的自主作業裝置升級建築與採礦行業是典型的高危、高勞動強度行業,對自主作業裝置的需求迫切。Caterpillar作為全球領先的工程機械製造商,正在擴大與NVIDIA的合作,將先進的AI和自主系統引入建築和採礦領域的裝置及作業現場。基於NVIDIA的Blackwell架構與物理AI模型,Caterpillar正在開發多款自主作業裝置,包括自主挖掘機、自主礦用卡車等。這些裝置具備三大核心能力:一是自主導航,借助Cosmos模型的環境感知與推理能力,能夠在複雜的施工現場與礦區環境中精準定位,躲避障礙物;二是精準作業,通過GR00T模型的動作控制能力,實現挖掘、裝載、運輸等作業的精準執行,提升作業效率;三是協同作業,多台裝置可通過OSMO框架實現資料共享與協同調度,形成自主作業車隊。據Caterpillar透露,其自主礦用卡車已在澳大利亞某金礦開展試點應用,借助NVIDIA的技術,作業效率提升了25%,事故率降低了80%,同時減少了人工成本。在2026年1月7日的CES主題演講中,Caterpillar CEO Joe Creed將與NVIDIA高管共同披露更多合作細節,預計將推出面向建築行業的首款自主挖掘機,計畫2027年實現規模化量產。四、產業趨勢展望:物理AI驅動下的機器人產業未來圖景NVIDIA此次發佈的物理AI技術體系,不僅解決了當前機器人產業的核心痛點,更勾勒出未來機器人產業的發展圖景。結合行業發展規律與技術迭代趨勢,未來3-5年,機器人產業將呈現“通用化、輕量化、開源化、規模化”四大核心趨勢,而NVIDIA將在這一處理程序中扮演關鍵的引領角色。4.1 趨勢一 從“專用機器人”到“專家級通用機器人”的跨越傳統機器人多為“專用裝置”,針對特定場景開發,功能單一,難以跨場景應用。而物理AI技術的發展,將推動機器人從“專用”向“通用”跨越,最終實現“專家級通用”的目標——即能夠快速學習多種任務,適配不同行業場景的需求。NVIDIA的Cosmos與GR00T模型,正是這一趨勢的核心驅動力。通過內化物理世界的通用規律,機器人能夠快速適應新場景、學習新任務,無需針對每個場景進行重新程式設計。一款基於GR00T模型的人形機器人,既可以在工廠完成精密裝配,也可以在醫院協助護理,還可以在家庭處理家務,只需通過少量場景資料微調即可實現功能適配。據行業預測,到2028年,專家級通用機器人的市場佔比將超過30%,成為機器人產業的主流產品形態。4.2 趨勢二 硬體輕量化與能效比的持續提升機器人尤其是人形機器人、移動服務機器人,對硬體的輕量化、小型化、低功耗提出了嚴苛要求。隨著Blackwell架構的普及與技術迭代,邊緣AI算力模組將實現“更高算力、更低功耗”的持續突破,推動機器人硬體的輕量化發展。NVIDIA的Jetson系列模組已展現出這一趨勢:從Jetson AGX Orin到Jetson T4000,算力提升4.3倍,而功耗控制在70瓦以內;未來,隨著晶片製程的進步與架構的最佳化,Jetson系列模組的算力有望進一步提升,功耗則持續降低,甚至可能出現50瓦以下、算力突破2000 TFLOPS的產品。這將推動機器人的小型化發展,如宇樹科技的小型人形機器人、松延動力的Bumi小布米等輕量化產品將成為消費市場的主流,進一步擴大機器人的應用範圍。4.3 趨勢三 開源生態成為創新核心驅動力機器人產業的創新需要大量的技術積累與資源投入,單一企業難以完成全鏈條的創新。開源生態將成為未來機器人產業創新的核心驅動力,吸引全球開發者共同參與技術突破與應用創新。NVIDIA與Hugging Face的合作,正是開源生態發展的重要里程碑。隨著LeRobot框架的普及,越來越多的開發者將接入NVIDIA的物理AI技術體系,孵化出更多創新應用。同時,開源生態的發展將推動技術標準的統一,降低行業的協作成本,加速創新成果的轉化。預計到2027年,全球將有超過50%的機器人創新應用基於開源框架開發,開源生態將成為機器人產業競爭的核心戰場。4.4 趨勢四 規模化落地與成本快速下降隨著技術的成熟與生態的完善,機器人的規模化落地將推動成本快速下降,形成“規模效應-成本下降-需求擴大”的良性循環。據資料顯示,2025年國內人形機器人出貨量預計達1.8萬台,2026年有望攀升至6.25萬台;多位行業專家預測,2026年國內人形機器人產量將突破10萬台,2028年有望達到百萬台級。成本下降的主要驅動力包括三個方面:一是核心零部件的國產化替代,如國內企業已實現減速器、伺服系統的批次供貨,成本較海外產品降低30%以上;二是規模化生產帶來的製造費用降低,隨著產量的提升,整機製造的單位成本將大幅下降;三是開源技術的應用,降低了研發成本。預計到2030年,人形機器人的售價將降至5萬元以下,消費級市場將全面爆發。4.5 挑戰與應對 技術、倫理與政策的協同推進儘管機器人產業前景廣闊,但仍面臨技術、倫理與政策三大挑戰。在技術層面,機器人的泛化能力、安全性仍需進一步提升,尤其是在複雜動態環境中的可靠性;在倫理層面,機器人的廣泛應用可能帶來就業結構變化、隱私洩露等問題;在政策層面,相關的法律法規、標準體系尚未完善,如機器人決策失誤的責任界定、資料安全規範等。應對這些挑戰,需要政府、企業與科研機構的協同推進:一是加強核心技術研發,聚焦泛化能力、安全性等關鍵痛點,推動技術標準的統一;二是建立健全倫理規範與法律法規,平衡技術創新與社會影響;三是出台針對性的政策支援,如職業培訓、資料安全保障等,確保機器人產業的健康發展。NVIDIA作為行業引領者,已通過開放模型與框架,推動技術標準的統一;同時,其與全球企業的合作,也在積極探索機器人應用的倫理邊界。五、結語:物理AI開啟機器人產業的“黃金十年”CES 2026上NVIDIA的系列發佈,標誌著機器人產業正式進入物理AI驅動的新時代。從技術核心來看,Cosmos與GR00T模型建構了機器人理解物理世界的“認知大腦”,Isaac Lab-Arena與OSMO框架打通了開發全流程,Jetson T4000硬體模組提供了高效算力支撐,形成了覆蓋“模型-框架-硬體-生態”的全端解決方案;從產業鏈影響來看,其推動上游零部件智能化升級、中游整機企業嚮應用創新轉型、下游場景規模化滲透,重構了產業價值分配模式;從應用前景來看,工業、醫療、消費、建築採礦等多個領域的落地案例,充分驗證了技術的實用價值。黃仁勳所言的“機器人開發的ChatGPT時刻”,不僅是技術的突破,更是產業範式的變革。未來十年,隨著物理AI技術的持續迭代、開源生態的不斷完善、成本的快速下降,機器人將從“工業裝備”全面走向“生活助手”,深度融入製造業、醫療健康、家庭服務等多個領域,成為推動經濟社會轉型的重要力量。對於企業而言,接入NVIDIA的物理AI技術體系,將成為把握產業機遇的關鍵;對於行業而言,建構開放協同的生態,推動技術標準的統一,將加速產業的規模化發展;對於社會而言,擁抱機器人技術帶來的變革,做好就業轉型與倫理規範,將實現技術創新與社會福祉的共贏。我們有理由相信,在物理AI的驅動下,機器人產業將迎來前所未有的“黃金十年”,為人類社會帶來更高效、更安全、更便捷的生活與生產方式。這些新模型均可通過 Hugging Face 獲取,包括:NVIDIA Cosmos™ Transfer 2.5和NVIDIA Cosmos Predict 2.5:開放、完全可定製的世界模型,為物理 AI 實現基於物理原理的合成資料生成與機器人策略評估的模擬支援。NVIDIA CosmosReason 2:開放推理視覺語言模型(VLM),使智慧型手機器能夠像人類一樣看見、理解物理世界並採取行動。NVIDIA Isaac™ GR00T N1.6:專為人形機器人打造的開放式推理視覺語言行動(VLA)模型,可解鎖全身控制能力,並借助 NVIDIA Cosmos Reason 增強推理和上下文理解。 (AI雲原生智能算力架構)
六國15家頂媒齊轉引:中國AI開源又好又便宜
2025年12月20日,法國最大通訊社法新社發佈報導《中國AI開源模型以高性價比悄然打入美國市場》,其中引述中國人民大學重陽金融研究院院長、全球領導力學院院長王文觀點:“中國開源模型價格低廉,甚至免費,而且效果很好”。該觀點在全球科技與政策圈廣泛傳播,美國《巴倫周刊》、新加坡《海峽時報》、法國France 24、沙烏地阿拉伯《阿拉伯新聞》、印度《今日傳播》、越南《勞動報》等六國15家頂級媒體密集轉引。以下為相關報導情況:12月20日,法新社發佈題為《中美AI競賽中,中國技術悄然打入美國市場》的報導,開篇即拋出一個震撼案例:一位美國企業家因將底層模型切換至阿里巴巴千問,實現每年節省40萬美元。文章指出中國開放模型的全球使用率已從2024年底的1.2%飆升至2025年8月的近30%。中國的主流模型以實際表現證明,開源路徑完全可以兼具高性能與低成本,從而改寫了技術選擇的遊戲規則。文章重點提及了王文的觀點:“中國的開源模型價格低廉,在某些情況下甚至是免費的,而且效果很好。”來自美國、法國、新加坡、沙烏地阿拉伯、印度、越南六國的15家核心媒體轉引這一觀點。《巴倫周刊》(Barron’s)、美國線上(AOL)、雅虎財經(Yahoo Finance)、《商業時代》(New Business Age)等面向歐美精英階層的主流財經與資訊平台迅速轉引。新加坡《海峽時報》(The Straits Times),印度《今日傳播》、《印度時報》、《歐亞時報》,法國國際新聞台(France 24),阿拉伯世界頗具影響力的《阿拉伯新聞》(Arab News)亦跟進轉載,將討論推及更廣闊的歐亞大陸。▲部分報導截圖如上這是2025年中國人民大學重陽金融研究院(人大重陽)在AI領域面向國際輿論場的又一次有力發聲。早在2025年年初,當DeepSeek在全球科技市場引發震動,人大重陽就已開始聚焦其全球影響,迅速啟動相關專題研究。2月23日,在人大重陽承辦的通州·全球發展論壇(2025年春季)“DeepSeek中國人工智慧、跳躍式發展與全球2050目標”主題研討會上,首份DeepSeek高校智庫評估報告《大跳躍:美國智庫、媒體與行業論DeepSeek中國人工智慧》(該報告論文版發佈於核心期刊《智庫理論與實踐》2025年3月第10卷第2期,作者係人大重陽院長王文、副研究員申宇婧、助理研究員金臻)一經發佈,隨即引發熱烈反響。▲2025年2月23日,通州·全球發展論壇(2025年春季)“DeepSeek中國人工智慧、跳躍式發展與全球2050目標”主題研討會在中國人民大學召開報告建議,應該客觀冷靜看待中國AI的發展階段與競爭格局,在制度建設、人才培養、企業創新等各個層面,以長期主義推動中國AI可持續發展,踐行“科技為民、科技惠民”理念,在積極參與人工智慧國際治理的同時,要守住AI發展紅線,警惕技術發展失控危機,引發40余家中外媒體轉引報導。▲報告封面如上3月1日,人大重陽宏觀研究部副主任、副研究員申宇婧在“長安街知事”微信公眾號發表文章呼籲變革AI實力評價標準,批判單純堆砌參數的“冷冰冰”路徑,力主中國“降本、增效、協同、普惠”的發展哲學,將DeepSeek的普及定義為一場深刻的社會革命。11月5日,在第八屆虹橋國際經濟論壇上,王文受邀做客央視新聞直播間,以“AI上進博,未來科技有多炸”為主題,解讀在全球科技競爭加劇的前提下,創新與合作如何雙向發力:“以人工智慧為代表的新一代工業革命,中國走在了世界最前沿,中國通過一代、兩代、三代人的不懈努力,有了科技自信的資本……而進博會提供了很好的平台,讓這些真正摸得到、感知的到、享受的到的智能產品惠及到每一個普通人。”▲部分報導截圖如上11月,王文與澳門科技大學博雅學院助理教授張夢晨在學術期刊《理論建設》2025年第6期發表論文《AI時代的全球領導力重塑:範式演化、政治哲學轉向與中國路徑》。系統闡釋了AI時代全球領導力正從“控制型”霸權向“共建型”範式演化,剖析美國“領導力赤字”,並為中國提出融合頂層設計、技術自主、數字外交與“數字命運共同體”建構的完整行動路徑。 (人大重陽)
智譜就差臨門一腳了
12月19日,智譜向港交所遞交了聆訊後資料集,由中金公司擔任獨家保薦人。成立於2019年的智譜,其技術源於清華大學電腦系的技術成果轉化,專注於大模型研發,有望成為全球首家以通用人工智慧(AGI)基座模型為核心業務的上市公司。招股檔案顯示,智譜IPO前估值243.8億元,股東包括美團、騰訊等產業資本,以及君聯、紅杉等機構。雖然智譜營收快速增長,但經營壓力仍大。2022年至2025年上半年,智譜累計虧損超62億元,研發投入達44億餘元。截至2025年6月末,公司現金及現金等價物為25.52億元,現金儲備面臨較大壓力。財務資料顯示,智譜在2022年、2023年、2024年及2025年上半年分別實現營收5740萬元、1.245億元、3.124億元和1.9億元,連續三年(2022至2024年)營收翻倍,復合年增長率高達130%。同時,其毛利率分別為54.6%、64.6%、56.3%和50%。弗若斯特沙利文資料顯示,按2024年營收計算,智譜在中國獨立通用大模型開發商中排名第一,在所有通用大模型開發商中位列第二,市場份額為6.6%。然而,其高增長背後是不斷擴大的虧損。同期,智譜經調整淨虧損分別為9740萬元、6.21億元、24.656億元和17.52億元,年內虧損則分別為1.44億元、7.88億元、29.58億元和23.58億元。值得注意的是,2025年上半年,智譜月均虧損近4億元,這一數字是同期月均營收的10倍以上,智譜將虧損歸因於研發投入。2022年至2025年上半年,智譜研發開支分別為8440萬元、5.289億元、21.954億元和15.947億元,其中2024年的研發開支約為當年營收的7倍。截至2025年6月30日,智譜研發團隊共有657人,佔員工總數的74%。其核心科研團隊與學術顧問團隊已發表論文500篇,累計被引次數超過58000次。技術層面,智譜自成立以來,陸續推出了中國首個百億參數模型、首個開源千億參數模型、首個對話模型以及首個多模態模型。2025年,其推出的GLM-4.5/4.6在12項權威評測中綜合排名位列國內第一,並在全球開源模型中排名第一。GLM-4.6發佈時即適配寒武紀、摩爾線程等國產晶片,目前GLM架構已相容40餘款國產晶片。2025年6月,OpenAI在行業分析報告中將智譜列為全球主要競爭對手之一。在收入結構方面,2022年至2024年及2025年上半年,智譜本地化部署業務的營收佔比分別為95.5%、90.4%、84.5%和84.8%,而云端部署業務的營收佔比則分別為4.5%、9.6%、15.5%和15.2%。可以看出,本地化部署仍是智譜的核心收入來源,2024年貢獻了84.5%的營收。這種模式在發展初期,幫助智譜深入滿足政企客戶的定製化需求,但規模化擴張能力相對受限。為此,智譜正在推動商業模式轉型,將重心逐步轉向雲端部署與MaaS(模型即服務)模式。智譜自2021年起佈局MaaS平台,目前開放平台上已匯聚超過270萬企業及應用開發者。截至2025年9月30日,其模型服務覆蓋全球12,000家企業客戶、超8,000萬台終端裝置使用者,以及超過4,500萬名開發者。因此,日均token消耗量從2022年的5億增長至2025年上半年的4.6兆。智譜的目標是將API呼叫服務收入佔比提升至50%。據披露,面向全球開發者的模型服務業務年度經常性收入已突破1億元。2024年,智譜曾密集推出語音互動、視覺理解、視訊生成等多模態大模型,但從2025年起策略收縮,重新聚焦於基座大模型與程式碼大模型等更適配API規模化分發的核心賽道。智譜MaaS平台主要服務科技網際網路和企業客戶,國內前十的網際網路公司有九家用其模型。但隨著雲廠商紛紛入局,競爭加劇,其雲端業務能否持續增長仍存疑。客戶集中度方面,2022年至2024年及2025年上半年,智譜來自五大客戶的收入分別佔總收入的55.4%、61.5%、45.5%和40%,而來自最大客戶的收入佔比則分別為15.4%、14.7%、19%和11%。截至2025年6月末,智譜貿易及其他應收款項為4.53億元。招股檔案提示,智譜面臨客戶或第三方延期付款及違約相關的信貸風險,可能對其流動資金和財務狀況產生不利影響。從2024年起,智譜開始向海外客戶提供本地化部署服務,主要來自東南亞。2024年,中國大陸收入佔本地化部署總收入的99.5%,到2025年上半年降至88.4%,而東南亞市場佔比升至11.1%,對應收入1792.7萬元。不過,雖然智譜技術強、客戶多,但一直虧錢,研發投入又大,現金流緊張,加上大公司都在競爭,它想成功上市並持續發展,似乎還有很長的路要走。 (AI硅基未來)
小米“降維打擊”:MiMo-V2-Flash性能直逼GPT-5,成本僅零頭!
一場由科技巨頭小米掀起的AI風暴,正在全球範圍內引發震動。小米正式開源其最新一代AI模型MiMo-V2-Flash,這不僅僅是技術實力的秀肌肉,更是對現有AI市場格局的一次深度認知突圍與降維打擊。其極致的性價比和卓越性能,正以前所未有的速度衝擊著DeepSeek、Moonshot乃至OpenAI等頂尖玩家的護城河。👉 技術深度解析:性能與效率的“不可能三角”被打破MiMo-V2-Flash的發佈,核心在於它以前所未有的方式平衡了性能、成本和速度。小米稱其在推理、編碼和Agent(智能體)場景中表現尤為突出,同時也是日常任務的優秀通用助手。•極致效率與成本革命: 這款模型以每秒150個token的驚人速度進行推理,而成本更是低至每百萬輸入token 0.1美元,每百萬輸出token 0.3美元。這使得它成為市面上最具成本效益的高性能模型之一。這種“超高性價比”的策略,無疑將極大降低AI應用的門檻,為開發者和企業帶來巨大的紅利。•混合專家(MoE)架構: MiMo-V2-Flash採用MoE設計,總參數高達3090億,但實際執行階段僅啟動約150億參數。這種設計在保證強大能力的同時,顯著降低了計算資源消耗。•混合滑動窗口注意力機制: 為瞭解決長文字處理的計算複雜度問題,MiMo-V2-Flash創新性地採用了5:1的混合比例,即5層滑動窗口注意力(SWA)搭配1層全域注意力交替使用,滑動窗口大小為128個token。這項技術將KV快取儲存需求降低了近6倍,同時支援高達256k的超長上下文窗口。這意味著模型能處理相當於一本中篇小說或幾十頁技術文件的輸入,且性能不打折扣。•輕量級多Token預測(MTP): 區別於傳統模型的單token生成,MiMo-V2-Flash通過原生整合的MTP模組,能夠平行預測多個token,推理速度提升2到2.6倍。這不僅加速了生成效率,還解決了強化學習訓練中GPU空閒時間浪費的問題,實現了“一箭雙鵰”的效率提升。💡 性能對標:直逼頂尖,局部超越小米MiMo-V2-Flash的實測表現,足以讓業界震驚。•推理能力: 在大部分推理基準測試中,MiMo-V2-Flash的性能與月之暗面的Kimi K2 Thinking和DeepSeek V3.2 Thinking不相上下。在長上下文評估中,它甚至超越了Kimi K2 Thinking。•編碼與Agent能力: 在SWE-Bench Verified的Agent任務中,MiMo-V2-Flash取得了73.4%的高分,超越所有開源競爭對手,並逼近OpenAI的GPT-5-High。在多語言SWE-Bench測試中,其解決率達到71.7%。在程式設計能力評估中,它與被認為是行業最佳編碼模型的Anthropic Claude 4.5 Sonnet旗鼓相當,而成本僅為後者的一小部分。•通用能力: 除了技術型任務,MiMo-V2-Flash在通用寫作和高品質開放式響應方面也保持了競爭力。它支援深度思考和聯網搜尋,意味著它不僅能寫程式碼、解數學題,還能即時獲取最新資訊。🚀 戰略佈局:AGI路線圖與生態護城河小米此次開源MiMo-V2-Flash,並非孤立的技術展示,而是其宏大AI戰略的關鍵一步。•AGI路線圖的“第二步”: 小米MiMo團隊負責人羅福莉(前DeepSeek核心研究員)明確指出,MiMo-V2-Flash是其AGI(通用人工智慧)路線圖上的“第二步”。這預示著小米在追求超越人類認知能力的AI道路上,有著清晰且野心勃勃的長期規劃。羅福莉的加盟,本身就是小米對AI人才和AGI方向的重磅押注。•賦能“人車家全生態”: 摩根士丹利分析師指出,小米旨在通過這款高性能模型,深刻重塑其“人、車、家”的廣泛生態系統。MiMo-V2-Flash將作為小米硬體生態的強大AI基石,為智慧型手機、IoT裝置乃至電動汽車提供獨特的智能體驗,從而強化其生態護城河。•全面開源,建構生態: 小米選擇完全開源MiMo-V2-Flash,並將其權重和推理程式碼發佈到Hugging Face和SGLang等平台,這在國內大廠中實屬罕見。此舉旨在降低大模型應用門檻,加速高性能AI技術在更廣泛場景中的應用和普及,從而凝聚開發者,共同建構一個繁榮的開源AI生態。✅ AI時代的“小米時刻”MiMo-V2-Flash的發佈,猶如十年前小米手機以1999元的定價重新定義了旗艦機市場。如今,小米正以0.1美元/百萬token的超低成本和頂級的性能,重新定義開源大模型的“性價比”標準。這不僅是技術層面的突破,更是商業模式和生態理念的複利效應。在當前全球大模型競爭白熱化、成本與效率日益重要的背景下,小米正通過MiMo-V2-Flash爭奪開源生態中的關鍵位置,為全球AI開發者提供了前所未有的工具和機遇。屬於開源模型的“小米時刻”,真的來了。 (澤問科技)
小米突然發佈新模型:媲美 DeepSeek-V3.2,把手機的性價比捲到 AI
開源模型再次迎來一位重磅選手,就在剛剛,小米正式發佈並開源新模型 MiMo-V2-Flash。MiMo-V2-Flash 總參數 3090 億,活躍參數 150 億,採用專家混合架構 (MoE),性能還能和 DeepSeek-V3.2、Kimi-K2 這些頭部開源模型掰掰手腕。此外,MiMo-V2-Flash 採用 MIT 開源協議,基礎版權重也已經在 Hugging Face 上發佈。當然,除去「開源」這一標籤,新模型真正的殺手鐧在於架構設計上的激進創新,把推理速度拉到了 150 tokens/秒,成本壓到了每百萬 token 輸入 0.1 美元、輸出 0.3 美元,主打一個超絕性價比。此外 ,根據官方體驗頁面資訊,MiMo-V2-Flash 還支援深度思考和聯網搜尋功能,既能對話聊天,也能在需要即時資料、最新動態或資料核對的場景裡派上用場。附上 AI Studio 體驗地址:http://aistudio.xiaomimimo.com開源模型新標竿,MiMo-V2-Flash 跑分全線開花先來看看 MiMo-V2-Flash 的跑分。基準測試成績顯示,AIME 2025 數學競賽和 GPQA-Diamond 科學知識測試中,MiMo-V2-Flash 都排在開源模型前兩名。程式設計能力更是亮眼,SWE-bench Verified 得分 73.4%,超越所有開源模型,直逼 GPT-5-High。而這個測試是讓 AI 去修真實世界的軟體 bug,73.4% 的成功率也意味著它能搞定大部分實際程式設計問題。在多語言程式設計基準測試 SWE-Bench Multilingual 裡,MiMo-V2-Flash 的解決率為 71.7%。轉看智能體任務,MiMo-V2-Flash 在τ²-Bench 分類得分中,通訊類 95.3 分,零售類 79.5 分,航空類 66.0 分,BrowseComp 搜尋代理得分 45.4,啟用上下文管理後直接飆到 58.3。這些資料說明,MiMo-V2-Flash 不僅會寫程式碼,還能真正理解複雜任務邏輯,執行多輪智能體互動。更重要的是,寫作質量也接近頂級閉源模型,這意味著 MiMo-V2-Flash 不只是個工具,還能當個靠譜的日常助手。MiMo-V2-Flash 在保持長文字性能的同時,還降低了成本,究其原因,離不開兩項核心技術創新。混合滑動窗口注意力機制:傳統大模型處理長文字時,全域注意力機制會導致計算量二次爆炸,儲存中間結果的 KV 快取也跟著飆升。小米這次採用了 5 比 1 的激進比例,5 層滑動窗口注意力搭配 1 層全域注意力交替使用,滑動窗口只看 128 個 token。這種設計讓 KV 快取儲存量直接減少了近 6 倍,但長文字能力卻沒打折扣,最長支援 256k 上下文窗口。且模型即使在這麼激進的窗口設定下,照樣能穩住長文字性能。對此,羅福莉在社交平台上特別指出一個反直覺的發現:窗口大小 128 是「最佳甜點值」。實驗證明,盲目擴大窗口(如增至 512)反而會導致性能下降。同時她強調,在實施該機制時,sink values 是維持性能的關鍵,絕不可省略。另一個黑科技是輕量級多 Token 預測 (MTP)。傳統模型生成文字時一次只能吐一個 token,就像打字員一個字一個字敲。MiMo-V2-Flash 通過原生整合的 MTP 模組,能平行預測多個 token,一次性猜出接下來好幾個 token。實測平均能接受 2.8 到 3.6 個 token,推理速度直接提升 2 到 2.6 倍,不僅在推理時管用,訓練階段也能加速採樣,減少 GPU 空轉,屬於一箭雙鵰。羅福莉提到,在三層 MTP 設定下,他們觀察到平均接受長度超過 3,編碼任務速度提升約 2.5 倍。它有效解決了小批次 On-Policy 強化學習中「長尾樣本」帶來的 GPU 空閒時間浪費問題。啥叫長尾樣本?就是那些特別難、特別慢的任務,拖著其他任務一起等,GPU 就在那乾瞪眼。MTP 把這個問題給解了,極大提高了效率。不過羅福莉也坦誠,這次因為時間緊迫沒能把 MTP 完整整合進 RL 訓練循環,但它與該流程高度契合。小米已經把三層 MTP 開源了,方便大家在自己的項目中使用與開發。算力只用 1/50,性能如何不打折?預訓練階段,新模型使用 FP8 混合精度,在 27 兆 token 資料上完成訓練,原生支援 32k 序列長度。FP8 混合精度是一種壓縮數值表示的技術,能在保持精度的同時減少視訊記憶體佔用和加速訓練。這種訓練方式在業界並不常見,需要對底層框架進行深度最佳化。而在後訓練階段,小米整了個大活,提出了多教師線上策略蒸餾 (MOPD)。傳統的監督微調加強化學習管線,不僅訓練不穩定,算力消耗還賊高。MOPD 的思路是讓學生模型在自己的策略分佈上採樣,然後由多個專家教師在每個 token 位置提供密集的獎勵訊號。通俗點說就是,學生模型自己寫作業,老師在每個字上都給評分,不用等寫完整篇才打分。這樣一來,學生模型能快速從教師那裡學到精髓,而且訓練過程穩定得多。最誇張的是效率提升,MOPD 只需要傳統方法 1/50 的算力,就能讓學生模型達到教師性能峰值。這意味著小米能用更少的資源,更快地迭代模型。而且 MOPD 支援靈活接入新教師,學生模型成長後還能反過來當教師,形成「教與學」的閉環自我進化。今天的學生,明天的老師,後天又能教出更強的學生,套娃玩法屬實有點東西。用羅福莉的話來說,他們借鑑 Thinking Machine 的 On-Policy Distillation 方法,將多個強化學習模型進行融合,結果帶來了驚人的效率提升。這為建構一個自我強化循環系統奠定了基礎,學生模型可以逐步進化,最終成為更強的教師模型。在智能體強化學習擴展上,小米 MiMo-V2-Flash 研究團隊基於真實 GitHub issue 建構了超過 10 萬個可驗證任務,自動化流水線跑在 Kubernetes 叢集上,並行能開 10000 多個 Pod,環境部署成功率 70%。針對網頁開發任務,還專門搞了個多模態驗證器,通過錄製視訊而非靜態截圖來驗證程式碼執行結果,直接減少視覺幻覺,確保功能正確。對於開發者而言,MiMo-V2-Flash 能與 Claude Code、Cursor、Cline 等主流開發環境無縫配合,256k 的超長上下文窗口支援數百輪智能體互動與工具呼叫。256k 是什麼概念? 大概相當於一本中等篇幅的小說,或者幾十頁技術文件。這意味著開發者可以把 MiMo-V2-Flash 直接融入現有工作流,不需要額外適配,拿來就用。小米還把所有推理程式碼貢獻給了 SGLang,並在 LMSYS 部落格分享了推理最佳化經驗。技術報告公開了完整模型細節,模型權重 (包括 MiMo-V2-Flash-Base) 在 Hugging Face 上以 MIT 許可協議發佈。這種全面開放原始碼的態度,在國內大廠裡屬實少見。目前 MiMo-V2-Flash 已經在 API Platform 限時免費開放,開發者可以直接上手體驗。小米的 AI 野心,不止於手機助手MiMo-V2-Flash 的發佈,標誌著小米在 AI 賽道上的全面發力。羅福莉在社交平台上透露了更多資訊,「MiMo-V2-Flash 已正式上線。這只是我們 AGI 路線圖上的第二步。」第二步就已經這麼猛了,那後面還有啥大招?想想就有點期待。當然,小米在技術報告中也坦誠,MiMo-V2-Flash 與最強的閉源模型相比仍有差距。但他們的計畫很明確,通過擴大模型規模與訓練算力來縮小差距,同時繼續探索更穩健、更高效的智能體架構。MOPD 框架下教師模型與學生模型的迭代共進化,也為未來的能力提升留足了空間。把視角拉高來看,背後是小米對整個 AI 生態的一次戰略押注。手機、IoT、汽車,小米的硬體生態需要一個強大的 AI 底座,MiMo-V2-Flash 顯然就是小米為全硬體生態準備的那塊基石。就像十四年前小米手機用 1999 元重新定義了旗艦機的價格標準,如今 MiMo-V2-Flash 正在用白菜價的成本、73.4% 的 SWE-Bench 得分,重新定義開源大模型的性能標準。這一次,屬於開源模型的「小米時刻」真的來了。 (APPSO)
OpenAI又開源了!僅0.4B,給模型大瘦身
99.9%權重清零,大模型內部思維變“透明”。智東西12月15日報導,昨天,OpenAI開源新模型Circuit-Sparsity,模型參數量僅0.4B,99.9%的權重為零。▲Circuit-Sparsity開源(來源:Hugging Face)這個技術試圖解決模型的可解釋性問題,簡單來說就是回答“模型為什麼做出這個決策?”以及“它是如何得出這個結果的?”這兩個問題。在AI飛速發展的今天,大語言模型(LLM)雖然表現出了驚人的能力,但其內部運作機制始終像一個神秘的“黑箱”。我們不知道它為何做出某個回答,也不清楚它是如何從海量資料中提取知識的。這種不可解釋性,成為了AI在醫療、金融、法律等高風險領域落地的重大障礙。對此,OpenAI研究團隊訓練出了一個權重稀疏的Transformer模型,強制模型權重矩陣中99.9%權重為零,僅保留0.1%非零權重。在這項研究中,研究團隊在模型內部形成了緊湊且可讀的“電路”(Circuits),每個電路都僅保留了保證模型性能的關鍵節點,神經元的啟動變得具有明確的語義。有外網網友稱這一技術讓當下的MoE(混合專家模型)走到了盡頭,並說“我們一直以來都將權重隔離到‘專家’中,以此粗略地近似稀疏性,僅僅是為了滿足稠密矩陣核的要求。”▲外網評價(圖源:X)更有網友將這項研究形容為將模型“減肥到只剩骨架”,還說這項研究就好像打開了黑匣子,不試圖解開稠密模型而是直接建構稀疏模型,正是這項研究有趣的地方。▲外網評價(圖源:X)但有些網友卻不這麼認為,稱其沒有看出MoE模型為何會因此走到盡頭,並進一步解釋說這一技術是針對XAI(可解釋AI)的,它的訓練成本要高100-1000倍,回到“研究時代”並不意味著讓事情變得更複雜。▲外網評價(圖源:X)該模型目前受限於計算效率瓶頸,其運算速度較密集模型慢100至1000倍,將該技術直接應用於千億參數等級的前沿大模型,現階段尚不具備可行性。開源地址:Github:https://github.com/openai/circuit_sparsityHugging Face:https://huggingface.co/openai/circuit-sparsity01. 訓練稀疏Transformer OpenAI理清模型內部計算要理解這項研究的突破,首先需要明白傳統大模型為何難以解釋。在標準的密集模型(Dense Models)中,神經網路存在一種被稱為“超級位置”(Superposition)的現象。簡單來說,為了儲存海量的資訊,模型被迫讓單個神經元或權重矩陣同時編碼多個完全不同的概念。這種特徵糾纏導致了嚴重的後果,例如模型的決策不可追溯和邏輯混亂,當模型輸出一個結果時,我們無法確定是哪個具體的“概念”在起作用。針對以上問題,以前的研究通常從試圖拆解密集、糾結的網路開始。但OpenAI團隊採取了一種“反直覺”的策略,即訓練權重稀疏的Transformer模型,強制模型權重矩陣中99.9%權重為零,僅保留0.1%非零權重。強制模型限制了模型只能使用其神經元之間極少的可能連接,而這一簡單的更改,幾乎從根本上理清了模型的內部計算。▲每個神經元只與下一個層的幾個神經元相連(圖源:OpenAI技術部落格)具體的技術手段包括:1、動態剪枝與稀疏約束:在訓練過程中,系統會動態執行“剪枝”操作,每一步最佳化後僅保留絕對值最大的權重(Top-K稀疏化)。2、啟動稀疏化:在殘差流、注意力鍵/值矩陣等關鍵位置,研究團隊引入了AbsTopK啟動函數,強制僅保留前25%的啟動值。3、架構微調:為了配合稀疏化,研究團隊用RMSNorm替代了傳統的LayerNorm,避免歸一化操作破壞稀疏性,同時引入了“Bigram表”來處理簡單的模式匹配,從而釋放模型的主幹容量去處理複雜的邏輯推理。02. 模型內部形成緊湊可讀的“電路”規模縮減16倍這項技術的最大成果,是模型內部形成了緊湊且可讀的“電路”(Circuits)。在傳統密集模型中,完成一個任務可能需要成千上萬個節點協同工作,邏輯分散且難以捕捉。而在稀疏模型中,研究團隊觀察到了極簡的計算路徑:1、極簡的邏輯單元:例如在處理“字串閉合”任務時,模型僅用12個節點就建構了一個完美的電路,清晰地展示了它是如何檢測單引號或雙引號是否閉合的。2、可讀的特徵:神經元的啟動變得具有明確的語義。研究人員發現了一些神經元專門負責檢測“單引號”,另一些則像“計數器”一樣精確地追蹤列表的巢狀深度。3、規模縮減16倍:對比實驗顯示,在相同的任務損失下,稀疏模型的電路規模比密集模型小了16倍。這意味著解讀AI思維的難度降低了整整一個數量級。▲稀疏模型的電路規模比密集模型小了16倍(圖源:OpenAI技術論文)為了驗證這些電路的真實性,團隊進行了“均值消融”實驗。結果證明,移除非電路節點對任務幾乎沒有影響,而一旦移除電路中的關鍵節點,模型性能就會瞬間崩塌。這證實了這些電路確實是模型執行任務的“必經之路”。▲“均值消融”實驗(圖源:OpenAI技術論文)03. 稀疏模型解讀力強但速度慢千倍OpenAI提出“橋樑網路”為了測量稀疏模型計算的解耦程度。研究團隊設計了一套簡單的演算法任務。對於每個模型,他們都將其剪裁成了仍能執行該任務的最小電路,並檢查了該電路的簡潔程度。研究團隊發現,用規模更大、稀疏度更高的模型進行訓練後,就能夠依託結構更簡潔的電路,建構出性能更強的模型。▲模型的可解釋性與能力的對比圖(圖源:OpenAI技術部落格)從模型可解釋性與性能的對比圖可見,在稀疏模型規模固定的前提下,提升稀疏性,也就是將更多權重設零,雖會導致模型性能有所下降,但能顯著增強其可解釋性。儘管稀疏模型在可解釋性方面優勢突出,但其應用目前受限於計算效率瓶頸:稀疏矩陣運算無法借助Tensor Cores實現加速,運算速度較密集模型慢100至1000倍。這意味著,將該技術直接應用於千億參數等級的前沿大模型,現階段尚不具備可行性。為此,研究團隊提出了“橋樑網路”(Bridges)方案:1、編碼-解碼對應:在稀疏模型與預訓練的密集模型之間插入一個編碼器-解碼器對。2、跨模型干預:編碼器將密集模型的啟動對應到稀疏空間,解碼器則反向轉換。“橋樑網路”(Bridges)方案可以在“透明”的稀疏模型上修改某個特徵,然後通過橋樑將這種擾動對應回“黑箱”的密集模型,從而實現對現有大模型的可解釋性行為編輯。04. 結語:OpenAI提出稀疏化新路徑讓大模型從“黑箱”走向“可解釋”OpenAI研究團隊的這項研究,標誌著AI可解釋性領域的一項重要突破,也印證了理解AI並非遙不可及的目標。研究團隊在論文部落格中稱,這項工作是邁向更宏大目標的早期探索。接下來,他們計畫將相關技術擴展至更大規模的模型,同時進一步解釋更多模型的行為邏輯。為解決稀疏模型訓練效率低下的問題,團隊提出了兩個後續研究方向:一是從現有密集模型中提取稀疏電路,替代“從頭訓練稀疏模型”的傳統方式;二是研發更高效的可解釋性模型訓練技術,推動相關技術更易落地生產。“我們的目標是逐步擴大可可靠解釋的模型範圍,同時打造相關工具,讓未來的AI系統更易於分析、偵錯與評估。”研究團隊在論文部落格中寫道。 (智東西)
迪士尼為什麼能開源IP,而泡泡瑪特不能
迪士尼要解決的,是如何讓一個已經高度結構化、價值觀穩定的敘事系統,在AI時代進一步放大規模與效率。而泡泡瑪特要守住的,是如何不讓一個以留白、投射與稀缺性為核心的情緒載體,被過度表達與解釋所侵蝕。AI與娛樂內容產業的融合,早已不是要不要的問題,而是怎麼用的問題。迪士尼給出的答案是:主動開放,全面擁抱AI。迪士尼以10億美元股權投資加認股權證,成為OpenAI主要客戶,使用其API建構新產品,利用其模型改善Disney+體驗。OpenAI旗下的Sora平台獲得使用超過200個來自迪士尼、漫威、皮克斯和星球大戰角色的權利。全球頂級娛樂IP巨頭,首次對主流生成式視訊AI平台進行大規模正式授權,從控制轉向開放,意義非同反響。迪士尼的IP,有完整的世界觀,有穩定的人物關係,有可反覆演繹的普世價值主題。公主系列從《白雪公主》時代被動等待浪漫真愛與拯救,進化到《冰雪奇緣》《海洋奇緣》中強調女性獨立、自我實現與價值追尋。主題的與時俱進,保持了IP的時代生命力。漫威電影宇宙中,鋼鐵人與美國隊長等性格迥異的超級英雄,關係從分歧走向團結,深刻展現了能力與責任、團隊協作與犧牲的主題。銀河系尺度的科幻史詩《星球大戰》,圍繞天行者家族的傳承,通過經典的英雄之旅模式,探討了光明與黑暗的永恆對決,信仰與救贖,以及個人的成長與選擇。IP通過持續的主題挖掘和角色魅力,確保了長久的商業價值和文化影響力。完整的敘事體系和強勢的價值觀,讓迪士尼的IP具備極強的穩定性和抗干擾能力。無論粉絲用Sora生成多少非官方的短影片,觀眾都知道真正的權威的故事和角色個性是怎樣的。在既定世界觀下,與OpenAI合作,迪士尼可以生成無窮無盡的正統支線故事,讓IP宇宙無限膨脹。開源IP,能啟動生態,借助AI的內容工具價值,鞏固迪士尼內容宇宙的統治力。泡泡瑪特則是完全不同的另一種IP物種。從設計初衷上,泡泡瑪特就明確拒絕中心敘事、拒絕統一價值觀、拒絕官方人格設定。泡泡瑪特的IP無固定表情與內容設定。創始人王寧曾強調說,“它把自己的靈魂掏空,你可以把你的靈魂裝進去”。不管是MOLLY還是LABUBU,如果增加人設,反而變得無聊。IP與使用者的連接主要基於設計師的視覺美學、盲盒機制的不確定驚喜、以及實物收藏形成的圈層社交與展示價值。本質上,它是潮玩作為情緒載體的生意。MOLLY的噘嘴、LABUBU的狡黠眼神,並不傳遞明確意義,而只是提供一個可被投射的情緒介面。作為形象IP,泡泡瑪特的價值來自有限產量下的視覺獨特性與實體擁有感。一旦這種視覺獨特性和稀缺性被AI無限生成的內容所打破,使用者購買實物盲盒的驅動力將會大幅減弱。泡泡瑪特必須用稀缺性來保護其IP價值。對泡泡瑪特來說,IP開源,相當於將核心價值(稀缺的視覺美學)拱手讓人,風險遠高於收益。這是泡泡瑪特弱人設、強視覺的獨特IP結構所決定的。泡泡瑪特不會跟進迪士尼的“IP開源+AI內容生成”模式。它當然絕不會忽視AI,但它的路徑將截然不同。 (張大愚)