【新智元導讀】一場全球峰會在矽谷引爆!不僅有圖靈獎得主站台,更有Big Seven巨頭的頂級科學家現身。這家成立近兩年中國公司,一口氣甩出三大新品。
美西時間4月28日,具身智能行業有史以來,第一場全球性峰會在矽谷落幕!
這場大會星光熠熠——
2015年圖靈獎得主、公鑰密碼學奠基人Martin Hellman做開場主旨演講,主題是「安全、智能與物理世界的交匯」。
輝達GEAR Lab高級研究科學家、亞馬遜前沿AI研究院科學家、史丹佛大學副教授同台對談,上千名來自全球的AI學者、開發者和投資人到場。
在這場名為GEIS(全球具身智能創新大會)的峰會上,一口氣發佈三款核心產品,覆蓋世界模型、靈巧手和人形機器人。
如此豪華的陣容,硬核的發佈,倒像是矽谷本土巨頭的畫風。
誰能想到,GEIS的發起方竟是一家成立剛滿兩年的中國公司——魔法原子(MagicLab)。
在矽谷辦會、請圖靈獎得主站台,具身智能賽道還從未有過這種先例。
機器人缺的不是胳膊腿,是腦子
過去兩年,人形機器人的關節扭矩越來越大,自由度越來越多,翻跟頭的姿勢越來越花。
但一個尷尬的事實始終沒變,絕大多數機器人離開預設好的demo場景,就「不會幹活」了。
問題出在那?
目前主流的VLA(視覺-語言-動作)大模型已經能讓機器人聽懂指令、看見場景,但一旦進入真實環境,光照變了、桌面材質換了、物體擺放位置偏了幾釐米,泛化能力就開始崩。
說到底,機器人缺的不是更強的胳膊腿,是一個真正能理解物理世界的「大腦」。這才是核心瓶頸。
這正是魔法原子此次發佈的世界模型Magic-Mix要解的題。
世界模型Magic-Mix,自己教自己
Magic-Mix由兩個核心引擎協同運作。
第一個叫Magic-Mix WAM,負責物理環境理解、空間推演和動作決策。
通俗地說,它讓機器人在動手之前,先在「腦子裡」模擬一遍接下來會發生什麼。
抓一個杯子,手指接觸杯壁的瞬間會產生多大的力?杯子的重心在那?如果桌面是濕的,摩擦係數怎麼變?
這些物理常識層面的推演,是VLA模型不擅長的,而世界模型恰好補上了這塊。
第二個引擎叫Magic-Mix Creator,是一個離線資料生成器。
它的工作是大批次合成訓練資料樣本,持續喂給WAM做訓練和迭代。
以上兩個引擎組合在一起,形成了一個閉環,海量資料生成→模型訓練→訓練結果反饋→資料再生成。
換言之,Magic-Mix是一個能「自我進化」的動態系統。
機器人在真實場景中每執行一次任務,產生的資料都會回流到這個閉環裡,驅動模型持續進化。
在訓練機制上,Magic-Mix有一個很硬核的設計,視訊動作雙專家協同訓練。
一個專家負責「看」,從視訊資料中學習物理世界的運行規律;另一個專家負責「動」,把觀察到的規律轉化為具體的動作策略。
兩個專家共享底層資訊,但梯度更新彼此隔離,避免互相干擾。
這套機制還引入了目標圖像約束和失敗圖像特徵輸入。系統不僅學習「成功長什麼樣」,也學習「失敗長什麼樣」,從而在執行長線程任務時減少誤差累積。
而支撐這套系統運轉的底層基礎,是資料。
資料,恰恰是當前具身智能最大的瓶頸。真機資料採集成本高、周期長、場景覆蓋有限,這是全行業面臨的共性難題。
魔法原子給出的解法是「兩條腿走路」——
一方面,大力投入真機資料採集。日均採集約16000條,VLM層模型參數量達3B,已積累約36萬條真機資料;
另一方面,通過Magic-Mix Creator大批次合成訓練資料,實現萬倍等級的資料體量擴展。
其建構的Robot Data Pool,高品質資料集規模已超100萬小時。
這套「真機採集+合成擴展」的資料飛輪,大幅降低了對純真機資料的依賴,也為模型訓練提供了持續穩定的彈藥補給。
從行業視角看,誰能率先跑通資料閉環,誰就能在具身智能的下半場佔據先機。
一個可以想像的場景是,如果這套世界模型率先在家庭環境中跑通,機器人就能在廚房里根據檯面上食材的擺放位置自主規劃切菜、裝盤的動作序列,而不需要人類預先編排每一步。
從水龍頭出水的角度到碗碟疊放的高度,這些細碎的物理變數都在世界模型的推演範圍內。
家庭這種高度非結構化的場景都能應對,工業產線上相對標準化的任務就更不在話下。
這是世界模型真正的戰略意義:它是為所有場景提供底層能力支撐。
誰先把世界模型跑通,誰就拿到了具身智能規模化落地的「萬能鑰匙」。
靈巧手H01,比人手還「敏感」
有了「大腦」的決策能力,還需要足夠精密的執行終端。
會上,同期發佈的新一代靈巧手MagicHand H01,有幾個參數值得單獨拎出來看。
20個自由度,其中15個為主動自由度,整機重量僅1公斤,額定負載卻達到10公斤。
機器人的手越重,對整機負載的擠壓就越大,留給實際作業的有效載荷就越少。
H01把自重壓到了1公斤,幾乎不吃整機的負載預算。
44個高解析度三維觸覺感測器覆蓋手掌和指尖,力感知解析度達到0.05牛頓。
要知道,人類指尖的力感知閾值大約在0.05到0.1牛頓之間。H01在力感知精度上,已經摸到了人手的下限。
但H01最有辨識度的能力是「未觸先覺」。產品具備0到40mm的動態感知範圍,接近覺解析度達到0.5毫米,能夠在真正接觸物體之前就完成動作預判。
配合5mm級的硬體閉環響應系統,機器人的手在離物體還有幾釐米的時候就已經開始調整姿態和力度了。
這在護理、康復訓練、家庭服務這類場景中尤其關鍵。機器人跟人近距離接觸時,靠碰撞檢測做事後補救太晚了,H01能在接觸發生之前就完成力度和軌跡的調整。
1秒內完成完整開合動作,響應速度足以應對工業產線節拍。同時支援適配市面上多款人形機器人本體,不繫結自家平台。這個開放策略在靈巧手賽道並不常見。
更具實用價值的是,H01被設計為通用模組,可適配市面上多款人形機器人本體。
這是一個明確的生態化訊號:魔法原子不只想給自家機器人配上靈巧手,而是想讓H01成為行業的「標準件」。
MagicBot X1,7×24小時不下班
三款產品中的最後一塊拼圖是旗艦人形機器人MagicBot X1。
上一代Gen1,身高174cm、42個自由度、雙臂搬運負重20公斤,是魔法原子在春晚和工廠產線上驗證過的主力機型。
而這一次,X1在Gen1基礎上做了幾個關鍵升級。
第一是運動能力大幅提升。
X1身高拉到180cm,體重70kg,全身31個主動自由度(Gen1是42個總自由度,但主動自由度數未公開披露),極限關節扭矩從Gen1的體系升級到450N·m。
整機運動速度綜合提升30%以上,運動範圍提升超過50%。
更高的扭矩和更大的運動範圍組合起來,意味著X1能在更複雜的空間姿態下完成作業。
舉個栗子,工業場景中經常需要機器人彎腰探進裝置內部做檢測或取件,這類動作對軀幹和肩關節的運動範圍要求很高,Gen1在某些極限角度下會受限。
X1提升50%的運動範圍,直接拓寬了它在柔性生產場景中的適用面。
第二是續航問題的根本解法。
Gen1綜合續航最高5小時,對於需要兩班倒,甚至三班倒的工業場景來說不夠用。
X1沒有選擇堆更大的電池,而是做了雙電池熱插拔系統,支援不斷電更換電池,直接實現7×24小時連續作業。
工廠不需要等機器人「下班充電」,維運人員換塊電池就行。
這個設計思路比單純拼電池容量更務實。
第三是產品化程度。
X1一共有兩個SKU:開箱即用「標準版」,以及面向高校和開發者「科研版」,支援底層二次開發和外形定製。
Gen1在產品化層面更偏向定製項目交付,X1從一開始就是衝著標準化量產去的。
到這裡,技術拼圖閉環了。Magic-Mix世界模型是「大腦」,H01靈巧手是「雙手」,X1人形機器人是「身體」。
從感知、決策到執行,一口氣補齊。
行業拐點已至,誰在真正落地?
站在更宏觀的視角來看,GEIS上大會上的集中發佈折射出的是,整個具身智能行業正在經歷的結構性轉折。
年初,智源研究院在發佈的《2026十大AI技術趨勢》中指出,具身智能正迎來行業「出清」,中國已有超過230家具身智能企業,其中人形機器人企業超過100家。
但這一輪競爭的技術難度、資金需求遠超過往,當前企業數量遠超賽道的物理承載量與資本供給能力。
換言之,2026年,是具身智能從「百團大戰」走向「諸侯割據」的分水嶺。
誰能從實驗室走向量產交付,誰能打通從技術到產品再到商業的完整鏈路,誰就能在洗牌中存活並勝出。
從這個角度審視魔法原子的GEIS發佈,其戰略意圖更加清晰——
世界模型提供理解世界的能力,靈巧手提供精細操作的能力,人形機器人提供全場景作業的身體平台。
而「閉環」,恰恰是此次GEIS矽谷發佈會的核心敘事。
全端自研+全球押注
支撐這套閉環的底層,是魔法原子硬體自研率超過90%的全端路線。
自研關節模組峰值扭矩525N·m,專利佈局超150項,自建資料採集工廠日產真機資料16000條。
這條路線的代價是研發投入大、周期長,但回報也擺在那裡。
成立兩年內,從春晚百台群控、蘇超近300台戶外暴雨群控到香港論壇4.5小時零故障商務服務,連續完成了一條跨場景驗證鏈。拿下大健康領域1.5億元單筆訂單。業務覆蓋全球50個國家和地區,海外收入佔比超過60%。
GEIS大會上,魔法原子總裁顧詩韜首次對外披露長期目標——
2036年衝刺140億美元營收,未來五年投入10億美元打造全球開發者生態。
大會現場與矽谷AI企業Openmind、PrismaX AI、Cosmicbrain AI、Physis完成簽約,基於「千景共創」計畫向生態夥伴開放硬體樣機、開發資金和核心技術支援。
當全球具身智能行業還在為「大腦」和「身體」誰先誰後爭論不休時,魔法原子選擇了一條更樸素也更難走的路徑——
兩手都要抓,兩手都要硬。
這家從江蘇走出來的公司,正在矽谷用一場發佈會向全球宣告:中國具身智能的全端時代,已經到來。 (新智元)
