【CES 2026】老黃開源自動駕駛「安卓系統」:開箱即用,當Robotaxi像當手機一樣簡單,賓士第一個上車

One model to rule them all !

黃仁勳剛在CES上「核爆」整個車圈和自動駕駛圈:輝達最新VLA模型,完全開源

老黃嘴上沒說“rule”,但心裡最期盼的毫無疑問是這樣。

野心更是藏也藏不住:

輝達,不但要打掉自動駕駛研發門檻、砍掉車企自研預算,還要更進一步,做整個物理AI浪潮的「安卓」。



老黃CES發功:VLA大模型全開源

今日凌晨CES 2026火熱開幕,當下AI浪潮最炙手可熱的明星玩家之一-老黃代表輝達做的主題演講,順理成章成為第一日最受關注的熱點。

整體我們最後總結,先看跟智慧汽車自動駕駛緊密相關的part:

老黃宣布開源了輝達最新的自動駕駛大車型Alpamayo

Alpamayo不是常說的端到端,相反是為解決端到端缺陷而生:只會模仿駕駛行為,不理解因果關係

當然會造成一系列實際體驗上的痛點,例如迎面來車違規左轉、行人突然闖入、臨時施工、交通標誌被遮擋等等,L2+高頻用戶一定深有體會。

先看Alpamayo的療效:

規劃精度提升12%、越界率降低35%、近碰率降低25%、推理-行動一致性提升37%、端對端延遲降至99ms。

大白話:提升主要體現在以往最容易出錯的「長尾場景」—— 也就是說,它更接近「真正會判斷的駕駛者」

現場示範中,老黃給了一段Alpamayo全程零接管點到點的Demo:

留意Demo中的關鍵訊息,後面要考~

Alpamayo跟以往所有端到端、VLA完全不同的地方:具備視覺-語言-動作模型的一切要素,但核心是推理能力

核心工作3點,首先是Chain of Causation(因果鏈)資料集

創新在於全新的數據標註體系(當然離不開人工),每一段駕駛數據不僅有“做了什麼”,還有“為什麼這樣做”。

在「因果」上下功夫,基本上避免了以往資料集行為描述模糊、因果關係混淆、行為推理與因果關係脫節等等問題。

模型本體則是基於輝達的Cosmos Reason模型,去年CES上老黃首次揭幕,是專為物理AI(Physical AI)設計的推理視覺語言模型:

整體結構上最大的特點是基於因果結構化推理而非自由敘事,意思是模型必須依據歷史可觀測證據,解釋操作的安全性與合規性——這是第二個重要創新點:

第三點是軌跡輸出階段,對應動作部分,引進了基於擴散模型的軌跡解碼器,能在即時限制下產生連續、動態可行的駕駛軌跡。本模組結合語言推理輸出與物理約束,實現從推理到控制的無縫銜接:

Alpamayo當然可以算VLA模型,但又和業界現在常見的「端對端+大語言模型外掛」的VLA有根本不同,它完全原生,基礎是輝達去年CES上發布的Cosmos基礎世界模型中的Cosmos Reason。

Cosmos系列是輝達連結AI和物理世界的“中間層”,為千行百業提供最基礎的實體AI“安卓”範本—“通才”型世界模式

基座模型的訓練方法-擴散模型和自回歸模型,其中基於擴散的WFM,預訓練包括「文字到世界生成預訓練」以及「頻到世界生成預訓練」;基於自回歸的WFM,預訓練則包括「下一個token生成」以及「文字條件的影片到世界生成」。

對應到Alpamayo,預訓練其實就是CoC資料集的訓練過程。

所以Alpamayo與其說強調VLA的能力,不如說是老黃賣力吆喝這套推理模型的架構範式和訓練方法

研究真正的價值,其實是CoC資料集的全新標註體系,以及可以利用思維鏈推理場景因果關係的大模型路線

實際上在上個月的AI頂會NeurIPS上,Alpamayo就已經由輝達自動駕駛負責人吳新宙公佈同時強調了Alpamayo架構開放可以兼容各種大模型,合作方完全可以不用輝達的Cosmos Reason,換成自研大模型也一樣work

時隔一個月,老黃CES上再提Alpamayo,核心依然是更進一步開源開放:除了核心演算法、資料集之外,Alpamayo配套工具鏈同步開放。

畢竟,老黃早就多次闡述,物理AI是輝達認定的下一階段人工智慧“風口”,其中最關鍵的環節,就是建立鏈結物理世界和AI的“中間層”。



老黃一夜打掉自動駕駛門檻

與之前僅開源程式碼不同,輝達這次開源了Alpamayo從資料到部署的完整資源。

而輝達自動駕駛模式的開源,絕不僅僅是供科學研究圈參考之用,而是亮相即開源、開源即量產

剛剛說的Demo中的關鍵信息,你發現了嗎——演示車輛沒有遮擋車標,三叉星輝赫然在目

沒錯,輝達正式從一個底層算力晶片Tier 2,轉變成了自動駕駛軟硬全端供應商,類似生態位,參考國內的華為、地平線。

賓士第一個吃螃蟹,新款賓士CLA首發搭載輝達Alpamayo方案,最快明年北美上路。

這是老黃「核彈」的第一波衝擊:一夜打掉車企自研預算

多模態大模型、強推理能力世界模型,指明了一條自動駕駛「破2到3」、「破2到4」的可操作路徑,眼下正被越來越多的玩家認可、押注,自動駕駛技術、方案呈現出階段性收斂。

對車企來說,短期可能還有大廠不甘心外採,但長期看技術與體驗的細微差異,遠不如頂級供應商品牌號召力、大眾消費者認可來得強大。

畢竟AI越來越有千行百業底層「基礎建設」的性質,而基礎建設最便捷高效的投資建設方式,肯定不是各自為戰。

另一方面,既然汽車鼻祖、百年老店賓士都能放下偶像包袱,其他車企又有什麼必要再堅持呢?

老黃「核彈」的第二波衝擊,同樣從技術範式革新的底層邏輯出發,但受衝擊的,則是當下炙手可熱的Robotaxi賽道:

CES演講中,老黃講了輝達Robotaxi的的產品方案,但更強調的是Robotaxi生態。

在底層硬體層,統一晶片、感測器的驅動接口,直接適配輝達的演算法,避免硬體不相容的研發內耗。

核心演算法層面,Alpamayo提供L4級自動駕駛的基礎能力,支援玩家透過API進行客製化場景最佳化,例如在校園場景中強化行人識別,在高速場景中優化變換車道邏輯等等。

至於上層功能接口,有實力的出行平台可以介入自有APP,而輝達也可以在底層直接開放,只需接入接口就能快速上線Robotaxi服務。

借助輝達方案,大量本來沒有實力進軍Robotaxi的傳統叫車平台、計程車公司、車企,現在「開箱即用」了。

如果馬斯克力推的多模態大模型路線對所有傳統L4都是前所未有的技術挑戰的話,輝達開源Alpamayo,其實是一次整個Robotaxi商業模式的衝擊——

傳統L4玩家自持車隊、自建平台的成型窗口期,越來越短了。

老黃開始建造、力推車圈、自動駕駛圈的新遊戲規則:輝達成為“安卓”,相對封閉的特斯拉則是“蘋果”。



黃仁勳,物理AI時代「教父」?

One model to rule them all,代表車企造L2+、L3量產車、甚至Robotaxi,跟造手機一樣簡單。

輝達成為燃油車時代的博世角色,只要是造車、出遊相關,就繞不開。

甚至,老黃的野心不止在車圈、自動駕駛圈。

老黃CES演講始終有一條主線-下一階段All in實體AI

底層邏輯從質疑大語言模型的Scaling Law入手,提出模型“多思考比多看書可能更有用”,所以輝達押注了強推理理解能力的世界模型路線,即Cosmos系列模型家族。


Alpamayo只是其中一環,相當於四個輪子的機器人,而整個技術體系則涵蓋Agent/機器人/自動駕駛/AI4S。

例如具身智能領域,老黃直接丟下了一套針對實體AI(Physical AI)的開源全家桶——模型、框架及基礎設施,應有盡有。

其中Cosmos Reason 2和Alpamayo同源的,同樣是讓機器像人一樣看懂世界並進行邏輯推理。

當然少不了輝達傳統優勢專案-Vera Rubin硬體平台,第一次把CPU、GPU、網路、儲存、安全,當成一個整體來設計。

核心想法就是:不再堆卡,而是把整個資料中心變成一台AI超算,達到Blackwell GPU效能的5倍之多。

結合老黃最近的一系列動作,例如收購Groq補齊推理能力、收購AI21 Labs增強大語言模型….快速補齊輝達在GPU之外的AI能力。

連點成線,輝達所有的動作,都是為了構件式建構連結物理世界和AI的「中間層」。

千行百業,甚至沒有強AI演算法能力的公司、個人,都可以用強大的基座模型和流程工具打造屬於自己的產品。

老黃CES上前所未有直言不諱:

未來所有應用,建在AI之上」。

人類的第四次生產力革命——AI浪潮,老黃野心早就不止是“教主”,而是“教父”了。



One more thing

輝達All in物理AI,還有一個最直接的證據:

和去年發表50張顯示卡不同,今年同樣是「消費性電子展」CES,但老黃壓根沒提顯卡的事。

畢竟,PC玩家為輝達貢獻的營收,怎麼能和千行百業投資實體AI基礎設施相比呢?(智慧車參考)