#Alpamayo
【CES 2026】輝達全面入局,自動駕駛將迎來“蝶變時刻”?
台北時間1月6日凌晨,拉斯維加斯CES 2026,當輝達CEO黃仁勳身著標誌性的黑色皮衣,站在聚光燈下宣佈“物理AI的ChatGPT時刻已然到來”時,整個科技圈與汽車行業都感受到了強烈震動。這場發佈會上,輝達並非推出一款簡單的晶片,而是一套名為Alpamayo的完整自動駕駛生態體系——包含開源大模型、全球駕駛資料集與高保真模擬框架。在此之前,自動駕駛行業始終深陷99%與1%的博弈,解決絕大多數常規駕駛場景早已不是難題,但極端天氣、突發路況等“長尾場景”的安全應對,始終是橫亙在L4級自動駕駛規模化落地前的天塹。而Alpamayo的出現,被行業普遍視為輝達全面吹響自動駕駛攻堅號角的訊號,更讓行業重新審視:2026年,能否成為自動駕駛從測試營運走向商業普及的“蝶變時刻”?Alpamayo到底是什麼?要理解Alpamayo為自動駕駛行業帶來的影響力,首先需要打破一個認知誤區:它並非單一的技術產品,而是輝達建構的“自動駕駛研發工具箱”,核心由三大類股構成,形成了從模型訓練、資料支撐到模擬驗證的全鏈路閉環。作為整個生態的核心,Alpamayo-R1模型是一款擁有100億參數的“視覺-語言-行動(VLA)”模型,其最大的突破在於實現了從“感知預測”到“推理規劃”的範式躍遷。傳統自動駕駛系統更像是“條件反射式”的反應——通過感測器識別前方有障礙物,便執行減速或避讓動作,背後依賴的是海量標註資料與預設規則。但Alpamayo搭載的“思維鏈”技術,讓車輛具備了類人思考能力。黃仁勳在發佈會上展示的宣傳片直觀呈現了這一優勢:當自動駕駛車輛行駛至一個交通訊號燈失靈的路口時,系統並非陷入混亂,而是通過多步驟推理做出決策:“前方訊號燈失效,左側有來車,右側有行人等待,應減速觀察,確認安全後緩慢通過”,整個過程無需人類介入,且能清晰輸出決策依據。這種對未知場景的處理能力,正是解決“長尾難題”的關鍵。為了讓全球開發者都能基於這一核心能力迭代創新,輝達選擇將Alpamayo-R1的底層程式碼在Hugging Face平台開源。這意味著無論是頭部車企、初創公司還是科研機構,都能直接獲取基礎模型,或根據自身需求微調生成輕量化版本,極大降低了高等級自動駕駛的研發門檻。資料是自動駕駛模型的“燃料”,輝達同步發佈了自動駕駛資料集,包含1727小時的駕駛資料,覆蓋全球25個國家、2500多個城市的各類路況,捕捉了不同交通流、天氣狀況、障礙物與行人的動態特徵,共拆分出310,895個20秒時長的場景片段。更重要的是,開發者還能借助輝達的Cosmos生成式世界模型製造合成資料,與真實資料結合使用,解決了極端場景資料採集難的行業痛點。而AlpaSim模擬框架的開源,則為自動駕駛測試提供了“無限虛擬試驗場”。這款已在GitHub開放的工具,可以高精度還原感測器資料、交通流等真實駕駛要素,開發者可在虛擬環境中對基於Alpamayo開發的系統進行大規模安全測試,大幅降低實車路測的成本與風險。Alpamayo的核心價值,是讓自動駕駛系統從“會開車”升級為“會思考、能解釋”。其不僅能接收感測器輸入訊號,進而控制方向盤、剎車與油門,更能對即將採取的行動進行推理。它會明確告知使用者即將執行的操作、做出該決策的依據,以及車輛後續的行駛軌跡。發佈會上的另一則重磅消息,讓Alpamayo的商業落地有了明確時間表。首款搭載輝達全端DRIVE系統的梅賽德斯-奔馳CLA車型將於2026年第一季度在美國上路。這標誌著輝達的AI技術首次完整地應用於量產汽車。從“感知”到“認知”Alpamayo的發佈,本質上標誌著自動駕駛AI的研發範式,從過去“手工作坊式”的演算法堆砌,轉向“工業化、標準化”的平台協作。這種範式革命的背後,是物理AI技術在真實場景的首次大規模落地嘗試。回顧自動駕駛的技術演進,行業先後經歷了感知AI、生成式AI、物理AI三個階段。感知AI階段解決的是“看清世界”的問題,通過攝影機、雷射雷達等感測器實現環境感知;生成式AI階段實現了“生成內容”的突破,但尚未與物理世界深度結合;而當前的物理AI階段,核心是讓智能走入真實世界,理解物理規律,並從物理感知中直接生成行動。黃仁勳認為,自動駕駛將是物理AI的第一個大規模應用場景。因為自動駕駛系統需要同時滿足“理解現實世界、做出決策、執行動作”三大核心需求,對安全性、模擬能力和資料規模的要求遠超其他場景。而Alpamayo的技術架構,正是圍繞物理AI的核心邏輯建構。支撐這一架構的,是輝達的“三台電腦”戰略:以DGX訓練電腦打造AI模型,以車載推理電腦實現即時決策執行,以Omniverse模擬電腦生成合成資料、驗證物理邏輯。Alpamayo作為核心模型,深度依託這三台電腦形成的能力閉環,實現了對傳統自動駕駛技術的全方位超越。傳統自動駕駛系統普遍採用“感知-預測-規劃-控制”的分段式架構,各模組獨立工作,一旦遇到未訓練過的場景,很容易出現銜接斷層。例如在暴雨天氣下,攝影機感知精度下降,可能導致預測模組誤判,進而讓規劃模組做出錯誤決策。而Alpamayo的端到端架構,通過100億參數的大模型實現了全鏈路協同,能直接將感測器輸入轉化為駕駛動作,且憑藉思維鏈推理能力,在感知資訊不完整的情況下仍能做出合理判斷。如果將傳統自動駕駛系統比如成一個死記硬背的學生,只能應對做過的題目;那麼Alpamayo則像是掌握解題邏輯的學生,能應對從未見過的新題型。這種能力的差異,正是L4級自動駕駛能否規模化落地的核心關鍵。誰將受益?誰將被重塑?輝達開源Alpamayo的舉動,就像一顆巨石投入自動駕駛產業的湖面,激起的漣漪將覆蓋整個產業鏈。從車企、晶片廠商到初創公司,行業格局正在被重新定義,一場圍繞生態協同與場景深耕的新競爭已然開啟。對於車企而言,最大的變化是從“全端自研”的內卷轉向“生態競合”的新賽道。在此之前,頭部車企為建構技術壁壘,普遍追求從晶片到演算法的全端自研,投入巨大但收效甚微。Alpamayo開源後,二線車企和新興品牌獲得了“彎道超車”的機會。它們無需再耗費數年時間打磨基礎模型,只需基於Alpamayo聚焦自身擅長的場景,最佳化資料閉環與使用者體驗即可。事實上,發佈會上已有多家車企明確表達了合作意向。Lucid Motors高級駕駛輔助系統副總裁Kai Stepper直言:“向物理AI的轉變,凸顯了對能推理現實世界行為的AI系統的需求,Alpamayo的模擬環境、資料集和推理模型正是關鍵要素。”捷豹路虎產品工程執行總監Thomas Müller也表示,開源模式將加速行業創新,幫助開發者安全應對複雜場景。對於晶片與算力產業,Alpamayo的落地將推動需求從“暴力計算”轉向“高效推理”。千億參數模型的即時運行,對車載計算平台的算力、能效提出了極致要求,但這並非簡單堆砌算力單位就能實現。Alpamayo的思維鏈推理模式更複雜、更動態,將倒逼晶片廠商最佳化架構設計,比如強化Transformer引擎、探索存算一體技術,同時推動計算框架與編譯最佳化工具的創新。模擬與資料服務商則迎來了從“輔助工具”到“核心生產力”的升維。AlpaSim的開源看似搶佔了傳統模擬軟體廠商的市場,實則抬高了整個行業的天花板。當模擬成為模型訓練和驗證的標配流程,市場對高保真度、大規模平行、能生成極端場景的模擬平台需求將爆發式增長。同時,多模態時序資料的生成、管理與標註,也將成為新的黃金賽道。更深遠的影響在於,行業將催生新的職業物種,比如自動駕駛AI訓練師、場景定義工程師。未來,行業不再僅僅需要傳統的演算法工程師,更需要大量懂駕駛場景、交通規則和人類行為的複合型人才,他們的核心工作是設計長尾場景的提示詞、建構思維鏈推理任務、評估修正模型決策邏輯。這種人才需求的轉變,將深刻影響整個行業的人才結構。而對於中國市場而言,Alpamayo的進入既有挑戰也有機遇。當前中國已開啟L3級自動駕駛試點,北京、重慶等地已批准車企開展商業化試點,核心零部件國產化替代也進入加速期,星宸科技的車規級SPAD晶片、導遠科技的ASIL D級IMU晶片等產品已實現突破。Alpamayo的開源,將幫助中國車企更快對接全球先進技術,結合中國複雜的道路場景最佳化方案;但同時,也將加劇國內企業在資料閉環與場景深耕能力上的競爭。開源真能破解“長尾難題”嗎?儘管行業對Alpamayo寄予厚望,但特斯拉CEO馬斯克的“潑冷水”卻道出了行業的核心焦慮:“他們會發現,達到99%很容易,但要解決分佈的長尾問題卻非常困難。”馬斯克的評論精準點出了自動駕駛商業化的最後一公里困境——Alpamayo提供了強大的工具,但並未自動解決所有問題。首先,99%與1%的本質差異並未消失。解決99%的常規場景依靠的是巨量資料和統計規律,而1%的長尾場景(如極端天氣、罕見交通參與者行為、複雜施工路段),依賴的是泛化能力、常識推理和臨場判斷。Alpamayo提供了更好的基礎模型,但要將這些能力安全可靠地固化到產品中,仍需海量針對性的場景工程和測試驗證。中國市場的情況更具代表性。2025年第四季度,北京、重慶開啟L3試點後,車企發現中國的道路場景遠比海外複雜,非機動車逆行、行人隨意橫穿馬路、施工路段無規範標識等場景頻繁出現,這些都是Alpamayo的全球資料集難以覆蓋的。這意味著,中國車企要真正落地Alpamayo,必須投入大量精力補充本地化資料,建構適配中國場景的推理邏輯。其次,開源是把雙刃劍,在加速技術普及的同時可能導致同質化競爭。當所有企業都基於Alpamayo開發系統,底層能力的差異將逐漸縮小,最終的競爭焦點將回歸到資料,誰能更快、更低成本地獲取和處理那些決定性的長尾資料,誰能建構更高效的資料閉環,誰就能建立真正的壁壘。資料,而非模型,將成為新的核心競爭力。倫理與法規的“慢變數”更是不容忽視。技術可以快速迭代,但社會接受度、保險體系調整、法律法規完善卻需要漫長的過程。儘管Alpamayo實現了決策可解釋性,但在實際事故中,責任如何劃分?AI的推理過程能否作為法律證據?這些問題比訓練千億參數模型更為複雜。當前中國的L3試點雖明確了“系統啟動期間車企承擔主要責任”的原則,但全國性的事故認定標準仍未統一,跨城市行駛時的資料存證、責任劃分要求差異較大,給規模化推廣帶來合規挑戰。保險機制也存在空白,儘管北京要求車企購買每車不低於500萬元的責任險,但專屬保險產品仍在探索階段,EDR資料追溯與理賠流程的銜接尚未完善。此外,使用者認知偏差也可能引發安全風險。部分消費者對自動駕駛的“脫手脫眼”存在誤讀,過度依賴系統而忽視接管義務。此前測試顯示,36款車型在15個場景的平均通過率僅35.74%,高速場景通過率低至24%,極端天氣下的感測器誤報、非常規障礙物識別率不足等問題仍突出。Alpamayo雖能提升系統能力,但使用者教育與認知引導仍是行業必須跨越的門檻。不同玩家該如何破局?Alpamayo的發佈不是自動駕駛行業的終點,而是更激烈競爭的開始。面對這一全新格局,產業鏈上的不同玩家需要找準自身定位,制定差異化的破局策略。對於自動駕駛創業者與科技公司,核心策略需要從“再造輪子”轉向“站在巨人肩膀上創新”,組織技術團隊深入研究Alpamayo的開放原始碼和資料集,評估與自身技術堆疊的融合可能性。同時,要明確自身的核心優勢——是特定區域的地圖與資料,是獨特的商業場景(如礦區、港口、末端配送),還是極致的使用者體驗?將資源聚焦於這些差異化優勢,而非底層技術重複研發,才能在競爭中突圍。傳統車企與Tier1供應商則需要重新評估軟體戰略。是全面擁抱開源生態,還是堅持可控的自研路線?無論選擇那種路徑,建立一支能理解和運用大模型、擅長場景定義與資料治理的團隊已成為必需。此外,車企應加強與本地基礎設施商的協同,結合中國L3試點的政策優勢,積累本地化長尾場景資料,最佳化Alpamayo模型的中國化適配,避免“水土不服”。對於投資者與行業觀察者,關注點應實現三大轉變:從“誰的自動駕駛里程最長”轉向“誰的資料飛輪轉得最快”,從“誰的技術最炫酷”轉向“誰的場景工程能力最強”,從“誰的融資額最高”轉向“誰的商業化路徑最清晰”。那些能利用開源生態,在幹線物流、RoboBus、RoboTaxi等特定區域等垂直領域快速實現閉環盈利的公司,將更具投資價值。個人開發者與研究者則迎來了黃金時代。Alpamayo的開源打破了技術壁壘,提供了前所未有的起跑線。可以嘗試為鄉村道路、冰雪天氣等特定場景微調模型,或開發創新的模擬測試用例。個人創新的槓桿效應被無限放大,或許會催生出更多顛覆性的應用方案。而對於行業監管機構,當前最緊迫的任務是推進政策協同。在區域試點的基礎上,推動多城聯動試點,統一事故責任認定與資料存證標準;加快出台全國性的資料隱私保護與跨境儲存法規,解決資料共享的合規難題;同時引導保險機構推出適配L3及以上等級自動駕駛的創新產品,完善EDR資料追溯與理賠銜接機制,為行業發展提供明確的制度保障。關鍵時刻,更需腳踏實地從技術邏輯上看,Alpamayo為行業提供了破解長尾難題的全新思路,其開源模式也加速了技術普惠,讓自動駕駛的“蝶變時刻”有了堅實的技術支撐。但我們更需要清醒地認識到,自動駕駛的商業化落地並非單一技術的勝利,而是技術、法規、生態、使用者認知多維度協同的結果。Alpamayo解決了“工具”的問題,但要讓自動駕駛真正走入尋常百姓家,還需要全行業共同攻克場景工程、資料閉環、法規適配等一系列難題。2026年,隨著Alpamayo的落地、中國L3試點的推進,自動駕駛行業站在了一個關鍵的十字路口。這一年,行業將真正從“硬體之爭”轉向“軟體生態之爭”,從“技術演示”轉向“商業驗證”。黃仁勳看到了物理AI的曙光,馬斯克則提醒我們腳下的荊棘。最終的勝利者,不會是擁有最炫酷技術的公司,而是那些能用技術最踏實、最安全、最經濟地解決現實世界中無數個“最後一公里”難題的實幹家。對於普通消費者而言,或許不用等到遙遠的未來,在2026年的美國街頭,在2027年的中國城市道路上,我們就能親身感受到自動駕駛帶來的改變。當自動駕駛車輛能從容應對突發路況,能清晰解釋自己的決策時,智能出行的美好願景,才真正照進了現實。而對於整個行業而言,輝達的全面入局,不是競爭的終點,而是更精彩的開始。從技術積累到質變爆發,自動駕駛的關鍵節點已至,接下來,就看行業如何攜手破局,讓技術從“可用”走向“好用”,真正服務於人、造福於社會。 (極智GeeTech)
【CES 2026】黃仁勳炸場:全新Rubin平台量產,AI推理成本降至十分之一,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作
黃仁勳 CES 2026主題演講:全新Rubin平台正式量產,AI推理成本降至十分之一,推進機器人和自動駕駛生態,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作1. Nvidia與奔馳合作推出Level 2自動駕駛系統,2026年大規模商用要點一:舊金山路測表現出色,可與特斯拉FSD競爭Nvidia在CES 2026上展示了其全新的點對點Level 2駕駛輔助系統,在舊金山約40分鐘的實際道路測試中,該系統搭載在2026款奔馳CLA轎車上,成功應對了複雜的城市交通場景,包括交通訊號燈、四向停車標誌、雙排停車車輛和無保護左轉等情況。Nvidia汽車部門負責人Xinzhou Wu透露,該系統在城市駕駛中的人工接管次數與特斯拉FSD相當,但特斯拉用了約8年才實現城市駕駛功能,而Nvidia預計在約1年內就能達成同樣目標。The Verge要點二:2026年分階段推出,2027-2028年推進L4自動駕駛根據Nvidia的產品路線圖,2026年上半年將發佈支援高速公路和城市駕駛的Level 2系統,包括自動變道、停車標誌和交通訊號識別等功能;下半年將增加自動泊車能力,年底前將覆蓋整個美國。該系統基於Drive AGX Orin晶片,2026年計畫開展小規模L4等級試點,2027年將實現合作夥伴機器人計程車部署,2028年將進入個人擁有的自動駕駛汽車。奔馳CEO Ola Kallenius表示,與Nvidia合作的核心在於安全性,強調"駕駛一個重達4000磅、時速50英里的物體,抱歉是不夠的,必須要有更高的確定性和安全性。"The Verge2. Nvidia發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作要點一:推出業內首個開源推理型自動駕駛AI模型Nvidia在CES 2026上宣佈推出Alpamayo系列自動駕駛AI模型、工具和資料集,這是專為Level 4自動駕駛設計的推理型視覺-語言-行動(VLA)模型,能夠讓車輛像人類一樣感知、推理和行動。該系列包括Alpamayo-1(一個擁有100億參數的鏈式思考VLA模型,已在Hugging Face開源)、AlpaSim(開源端到端模擬框架)以及超過1,700小時駕駛資料的物理AI開放資料集。該模型不僅能接收感測器輸入並控制方向盤、剎車和加速,還能對即將採取的行動進行推理。Constellation Research要點二:奔馳成為首個商用合作夥伴,2026年一季度上路Nvidia CEO黃仁勳宣佈,搭載Alpamayo的首款乘用車將是全新奔馳CLA,該車將採用Nvidia DRIVE全端自動駕駛平台,預計2026年第一季度在美國道路上推出。這一合作歷時至少5年,投入數千名工程師,建構了完整的垂直整合系統。奔馳CLA最近獲得了EuroNCAP五星安全評級。黃仁勳表示:"Nvidia將長期支援這些模型和自動駕駛系統,因為自動駕駛工作是通向機器人技術的橋樑。"此外,Lucid、捷豹路虎、Uber和伯克利DeepDrive也對Alpamayo表示出濃厚興趣。Nvidia Blog | Constellation Research3. 波士頓動力與GoogleDeepMind達成AI合作,Gemini機器人模型將整合至Atlas人形機器人要點一:雙方聯合研發,提升人形機器人物體操控和工業任務能力波士頓動力和GoogleDeepMind在CES 2026上宣佈建立新的AI合作夥伴關係,旨在將DeepMind的Gemini Robotics基礎模型整合到波士頓動力的新一代Atlas人形機器人中。該合作將結合波士頓動力的運動智能與DeepMind的基礎AI能力,重點使人形機器人能夠完成各種工業任務,預計將成為製造業轉型的驅動力,首先從汽車行業開始。聯合研究工作預計將在未來幾個月內在兩家公司同時展開。Boston Dynamics要點二:利用多模態基礎模型,讓機器人具備感知、推理和人機互動能力波士頓動力Atlas項目機器人行為總監Alberto Rodriguez表示:"我們正在打造世界上最強大的人形機器人,我們需要一個能夠幫助我們建立新型視覺-語言-行動模型的合作夥伴,用於這些複雜的機器人。在全世界範圍內,沒有人比DeepMind更適合建構可以安全、高效地部署在各種任務和行業的可靠、可擴展模型。"DeepMind機器人技術高級總監Carolina Parada表示,Gemini Robotics模型基於大規模多模態Gemini模型建構,旨在讓任何形狀和大小的機器人都能感知、推理、使用工具並與人類互動。該合作由波士頓動力的大股東現代汽車集團支援。Boston Dynamics4. Nvidia CES 2026主題演講:發佈Rubin平台,AI算力提升5倍,推進機器人和自動駕駛生態要點一:全新Rubin平台正式量產,AI推理成本降至十分之一Nvidia CEO黃仁勳在CES 2026主題演講中宣佈,公司首個極致協同設計的六晶片AI平台Rubin已進入全面量產。該平台包括Rubin GPU(提供50 petaflops的NVFP4推理性能)、Vera CPU(專為資料移動和智能體處理設計)、NVLink 6擴展網路、Spectrum-X乙太網路光子學、ConnectX-9 SuperNIC和BlueField-4 DPU。Rubin平台承諾將AI token成本降低到原來的十分之一,訓練混合專家模型所需的GPU數量減少至四分之一,並推出AI原生儲存平台,將長上下文推理的每秒token數提高5倍。黃仁勳強調:"你訓練AI模型越快,就能越快將下一代前沿技術推向世界。這關乎你的上市時間,這關乎技術領導力。"Nvidia Blog要點二:發佈Cosmos世界基礎模型和開源物理AI生態系統黃仁勳展示了Nvidia Cosmos開放世界基礎模型,該模型在視訊、機器人資料和模擬資料上訓練,能夠從單張圖像生成逼真視訊、合成多攝影機駕駛場景、從場景提示建模邊緣案例環境,並執行物理推理和軌跡預測。演講中還展示了個人AI智能體在Nvidia DGX Spark桌面超級電腦上本地運行,並通過Reachy Mini機器人具身化的演示。黃仁勳宣佈Nvidia在六個領域建構開源前沿AI模型:Clara(醫療健康)、Earth-2(氣候科學)、Nemotron(推理和多模態AI)、Cosmos(機器人和模擬)、GR00T(具身智能)和Alpamayo(自動駕駛),並強調與西門子擴大合作,將Nvidia全端與西門子工業軟體整合。Nvidia Blog5. 阿里巴巴高德地圖推出AI 3D餐廳展示工具,對標美團爭奪本地生活市場要點一:基於通義萬相視覺模型,餐廳上傳照片或視訊即可生成3D圖像據彭博社報導,阿里巴巴旗下地圖和本地生活服務部門高德地圖即將推出一項AI功能,允許餐廳通過上傳視訊或照片來渲染3D圖像。該技術基於阿里巴巴的通義萬相(Wan)視覺模型,旨在降低商戶的行銷和推廣成本。熟悉該事項的人士透露,阿里巴巴計畫向部分商家免費提供這項技術一段時間。這一舉措是阿里巴巴在中國餐飲和外賣領域與美團競爭的更廣泛努力的一部分。Bloomberg要點二:強化本地生活服務佈局,挑戰美團市場主導地位此次推出3D餐廳展示工具,是阿里巴巴利用AI技術加強與美團在本地生活服務市場競爭的最新動作。美團目前在中國外賣市場、餐廳預訂和本地服務領域佔據主導地位。通過提供更具視覺吸引力的餐廳展示方式,高德地圖希望吸引更多商戶和使用者,擴大其在本地生活服務領域的市場份額。這一策略體現了阿里巴巴將AI技術應用於實際商業場景,以技術創新推動業務增長的思路。Bloomberg6. MiniMax香港IPO定價觸頂至21美元,AI熱潮推動估值達65億美元要點一:定價HK$165觸及區間上限,提前一天停止接受訂單據彭博社報導,上海AI初創公司MiniMax計畫將其香港IPO定價定在每股HK約美元達到其營銷區間的頂部151-HK。知情人士透露該公司通知投資者將以165的價格出售股票,並計畫在當地時間下午5點停止接受機構投資者的訂單,比預期提前一天。MiniMax於2025年12月31日啟動IPO路演,計畫發行2,538.92萬股新股。按最高定價計算,此次IPO將籌集至少42億港元(約5.38億美元),對MiniMax的估值約為65億美元。Bloomberg | Reuters要點二:獲阿里巴巴和騰訊支援,AI熱潮下需求強勁MiniMax得到了阿里巴巴集團和騰訊控股的支援,在AI熱潮的推動下,其IPO展現出強勁的訂單勢頭。該公司專注於生成式AI技術,提供包括文字生成、對話系統等多項AI服務。此次頂格定價和提前停止認購,反映出投資者對中國AI企業的強烈興趣。分析師指出,MiniMax的成功上市將為香港資本市場帶來活力,也體現了全球投資者對中國AI創新能力的認可。該IPO預計將於2026年1月初完成定價。Seeking Alpha7. 富士康Q4營收同比增長22%至827億美元,AI和雲端運算需求強勁創紀錄要點一:Q4營收超預期,12月單月營收同比增長32%創歷史新高台灣富士康(鴻海精密)於2026年1月5日公佈,2025年第四季度營收達到新台幣2.6兆元(約827億美元),同比增長22.07%,環比增長26.51%,創下季度營收歷史新高,超過路孚特SmartEstimate預測的2.418兆新台幣。12月單月營收達到新台幣8,628.6億元(約274.2億美元),同比增長31.77%,創下該月份歷史紀錄。富士康表示,第四季度營收增長顯著超出預期,為2026年第一季度創造了較高的對比基數。Reuters要點二:雲端運算和網路產品業務強勁,AI伺服器需求持續旺盛富士康稱,增長主要由雲端運算和網路產品部門的強勁表現驅動,這得益於AI產品需求的激增。作為輝達最大的伺服器製造商和蘋果最大的iPhone組裝商,富士康2025年全年銷售額首次突破新台幣8兆元大關。該公司表示,儘管2026年第一季度資訊通訊技術產品將進入季節性放緩期,但AI伺服器機架產品的強勁需求預計將使業績處於過去五年區間的高端。富士康還指出,智能消費電子產品部門(包括iPhone)由於匯率不利影響,營收出現小幅下降。Reuters8. 阿里巴巴PANDA AI工具助力醫院發現24例胰腺癌,自2024年11月分析超18萬例CT掃描要點一:AI在常規CT掃描中發現早期胰腺癌,提前挽救患者生命據《紐約時報》報導,中國寧波大學附屬人民醫院自2024年11月作為臨床試驗開始使用阿里巴巴達摩院開發的PANDA(Pancreatic Cancer Detection with Artificial Intelligence,胰腺癌人工智慧檢測)AI工具以來,已分析超過18萬例腹部或胸部CT掃描,幫助醫生檢測出約24例胰腺癌病例,其中14例處於早期階段。該院胰腺科主任朱克雷醫生表示:"我認為可以百分之百地說,AI拯救了他們的生命。"PANDA工具被訓練用於在非對比CT掃描中尋找胰腺癌,這些患者最初因腹脹或噁心等症狀就診,並未直接看胰腺專科醫生,部分CT掃描在被AI工具標記之前並未引起警報。New York Times要點二:通過深度學習突破非對比CT侷限,獲FDA突破性裝置認證PANDA工具利用深度學習技術,通過演算法將2000多名已知胰腺癌患者的對比CT掃描中的病灶位置對應到同一患者的非對比CT掃描上,訓練AI模型在清晰度較低的圖像中檢測潛在癌症。在超過2萬例非對比CT掃描的測試中,該工具正確識別了93%的胰腺病變患者,研究結果發表在2023年《自然醫學》雜誌上。2025年4月,阿里巴巴宣佈PANDA獲得美國FDA"突破性裝置"認證,意味著其審查將被加速以幫助其進入市場。胰腺癌是最致命的癌症之一,五年生存率約為10%,早期檢測極其困難。在寧波醫院,非對比CT檢查費用約為25美元(保險前),該系統正在分析醫生已為其他原因訂購的掃描,因此不會給醫院或患者增加額外檢查成本。New York Times9. Instagram Reels年化收入達500億美元,成為Meta最大增長引擎要點一:五年從零到500億,超越可口可樂和耐克年收入據《華爾街日報》報導,Meta旗下Instagram的短影片功能Reels在2025年第三季度實現了超過500億美元的年化收入營運率(annual run rate)。Meta CEO馬克·祖克柏在2025年10月的財報電話會議上表示:"隨著視訊在我們的應用中持續增長,Reels現在的年化收入已超過500億美元。"這一數字令人震驚,因為Reels於2020年推出時僅是對TikTok的模仿,當時沒有任何收入。五年後,其收入規模已經接近可口可樂和耐克的年收入水平,成為Meta最重要的增長業務之一。WSJ要點二:使用者參與度超越YouTube Shorts,AI推薦系統功不可沒報導指出,Instagram使用者在Reels上花費的時間已經超過YouTube Shorts的觀眾觀看時長。Meta第三季度總營收為512.4億美元,同比增長26%,其中Family of Apps(應用家族)收入達到508億美元,Reels的貢獻佔比可觀。祖克柏將Reels的成功歸功於推薦系統的改進和AI技術的應用,這些技術提高了內容的相關性和使用者參與度。分析師認為,Reels已經從簡單的TikTok複製品轉變為Meta的戰略性AI資產,推動了整個平台的廣告收入增長。創作者經濟的蓬勃發展和AI驅動的變現能力是Reels取得成功的關鍵因素。AInvest10. DeepSeek為聊天機器人新增"交錯思考"功能,月活使用者激增90%至1.315億要點一:推出"交錯思考"深度研究模式,提升複雜查詢處理能力據《南華早報》報導,總部位於杭州的AI初創公司DeepSeek對其旗艦聊天機器人的使用者介面進行了更新,新增了名為"交錯思考"(interleaved thinking)的高級功能。這一功能類似於OpenAI的深度研究(Deep Research)產品,可以執行多步驟研究,在整個過程中穿插"思考"步驟。此前,聊天機器人在生成響應之前會"思考"使用者提供的提示,而"交錯思考"允許模型在每個操作之間進行"思考",增強其研究能力。例如,在打開網頁後,模型可能需要"思考"所讀資訊的可信度,然後決定是否查閱另一份檔案來驗證發現。這一過程對於處理複雜查詢至關重要。South China Morning Post要點二:12月月活使用者暴增90%,新一代模型備受期待報導指出,DeepSeek在2025年12月的月活躍使用者數激增90%,達到近1.315億。《南華早報》測試顯示,DeepSeek的聊天機器人並非總是部署"深度研究"模式,除非收到複雜的查詢提示。一旦該功能被啟動,使用者能夠看到"交錯思考"過程的每一步。這些升級標誌著DeepSeek在消費端的罕見改進,正值業界對其下一代模型的期待不斷升溫之際。分析師指出,隨著DeepSeek在AI模型性能和使用者體驗上的持續最佳化,該公司正在中國AI市場中鞏固其領先地位,並對國際競爭對手構成越來越大的挑戰。South China Morning Post11. 中國量化基金幻方推出iQuest-Coder AI模型,僅400億參數擊敗GPT-5.1和Claude Sonnet 4.5要點一:開放原始碼AI模型在多項基準測試中超越美國競爭對手據《南華早報》報導,總部位於北京的量化交易公司幻方量化(Ubiquant)於2026年1月初發佈了一系列開放原始碼專注型大語言模型iQuest-Coder-V1系列,該系列模型在多項基準測試中聲稱能夠匹敵甚至超越美國競爭對手如OpenAI的GPT-5.1和Anthropic的Claude Sonnet 4.5,儘管使用的參數數量遠少於後者。iQuest-Coder-V1系列專為程式碼智能設計,擅長自動程式設計、偵錯和程式碼解釋等任務,包括70億、140億和400億參數的模型,遠小於GPT-5.1和Claude Sonnet 4.5等領先閉源系統的參數規模(通常在4000億至8000億參數之間)。South China Morning Post要點二:基準測試成績亮眼,400億參數模型比肩國際頂尖水平根據自報資料,iQuest-Coder-V1-40B-Loop-Instruct在SWE-bench Verified基準測試中得分76.2%,接近Claude Sonnet 4.5的77.2%和GPT-5.1的76.3%。該基準測試衡量AI模型解決真實世界軟體工程問題的能力。在BigCodeBench測試中(該測試評估LLM在解決實際且具有挑戰性的程式設計任務方面的表現,不存在污染),該模型得分49.9%,超過Gemini 3 Pro Preview的47.1%和GPT-5.1的46.8%。此外,在LiveCodeBench v6測試中,該模型也展現出色表現。幻方量化繼DeepSeek之後成為中國量化基金進軍AI領域的又一案例,展示了中國金融科技公司在AI研發方面的強大實力和創新能力。South China Morning Post (AI Daily Insights)
【CES 2026】黃仁勳罕見提前宣佈:新一代GPU全面投產
輝達2026年的首場重頭戲比以往來得更早。當地時間1月5日,在美國CES上,黃仁勳出乎意料地提前發佈了下一代AI晶片平台“Rubin”,打破了輝達通常在每年3月GTC大會上集中公佈新一代架構的傳統。AI競賽進入推理時代,輝達決定加速出擊。Vera Rubin已投產Rubin並非空降。早在2025年3月的GTC大會上,黃仁勳就已預告了代號“Vera Rubin”的超級晶片,並明確其將於2026年量產。此次在CES上,黃仁勳對Rubin平台進行了系統性發佈,Rubin成為輝達最新GPU的代號。“Rubin的到來正逢其時。無論是訓練還是推理,AI對計算的需求都在急劇攀升。”黃仁勳表示,“我們堅持每年推出新一代AI超級電腦,通過六顆全新晶片的極致協同設計,Rubin正在向AI的下一個前沿邁出巨大一步。”Rubin平台採用極端協同設計理念,整合了6顆晶片,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6交換晶片、ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-6乙太網路交換晶片,覆蓋了從計算、網路到儲存與安全的多個層級。相比前代Blackwell架構,Rubin加速器在AI訓練性能上提升3.5倍,運行性能提升5倍,並配備擁有88個核心的新款中央處理器(CPU)。相比輝達Blackwell平台,Rubin平台實現推理token成本最高可降低10倍,訓練MoE(專家混合)模型所需GPU數量減少4倍。同時,Vera Rubin NVL72機櫃級系統和平台同步發佈,命名上非外界預計的NVL144。對此,輝達高管在溝通會上向21世紀經濟報導等記者指出,NVL72指的是72個GPU封裝單元,每個封裝內部包含2個Rubin Die,因此系統中實際包含144個Rubin Die,這並不意味著系統規模變化。在生態層面,Rubin已獲得頭部雲廠商和模型公司的集中響應。AWS、Microsoft、Google、OpenAI、Anthropic、Meta、xAI、CoreWeave等均被列入首批採用名單。Rubin在CES的提前亮相,也引發了外界對輝達產品發佈節奏變化的關注。對此,輝達高管回應稱,目前構成Vera Rubin平台的六顆晶片已經全部到位,相關系統已在運行真實應用負載,並取得了積極結果。此次在CES上提前披露Rubin,主要是為了儘早向生態夥伴提供工程樣品,方便其為後續部署和規模化應用做準備。輝達同時強調,Rubin仍將按照既定節奏推進,計畫在今年下半年進入量產爬坡階段,這一時間安排與此前披露的路線圖保持一致。全端AI佈局隨著AI進入推理階段,黃仁勳展示的不只是Rubin平台。在CES演講中,輝達還發佈了一系列AI體系產品,包括開源模型、AI儲存、物理AI等。這是輝達的全端AI佈局,同時也是其在繼續釋放訊號:AI重心繼續從“訓練規模”轉向“推理系統”。具體來看,輝達發佈了推理上下文儲存平台(Inference Context Memory Storage Platform),這是一個專為推理場景設計的AI原生儲存平台。該平台由BlueField-4 DPU與Spectrum-X乙太網路支撐,在GPU與傳統儲存之間引入新的儲存層,用於高效管理和共享KV Cache,減少重複計算帶來的算力浪費。同時,黃仁勳特別強調了物理AI。在更長期的佈局上,輝達圍繞物理AI推進,發佈了一系列開源模型、開發框架和硬體平台,將AI能力從資料中心延伸至機器人、自動駕駛與工業邊緣場景。黃仁勳表示:“AI已經不再是一次性問答的聊天機器人,而是能夠理解物理世界、進行長期推理、使用工具完成真實工作,並同時保有短期和長期記憶的智能協作者。”面向機器人領域,輝達發佈了Cosmos與GR00T系列開源模型,用於機器人學習、推理與動作規劃。其中,Cosmos Reason 2是一款推理型視覺語言模型(VLM),使機器能夠“看見、理解並在物理世界中行動”;GR00T N1.6 則是一款面向類人機器人的推理型視覺-語言-動作(VLA)模型,用於解鎖全身控制能力。“機器人領域的ChatGPT時刻已經到來,”黃仁勳表示,“能夠理解現實世界、進行推理並規劃行動的物理AI模型,正在解鎖全新的應用場景。輝達覆蓋Jetson、CUDA、Omniverse 以及開源物理AI模型的完整技術堆疊,正在賦能全球合作夥伴,通過AI驅動的機器人重塑各個行業。”在自動駕駛領域,輝達發佈了Alpamayo開源模型家族,定位為面向“長尾場景”的推理型自動駕駛基礎模型。該體系配套發佈了AlpaSim高保真模擬框架以及覆蓋1700多小時駕駛資料的開源資料集,用於訓練和驗證基於推理的自動駕駛系統。黃仁勳表示,輝達的首款AV車將於第一季度在美國推出,其他地區緊隨其後。從Rubin平台的提前亮相,到推理儲存與物理AI的同步推進,輝達正在將AI基礎設施的競爭推向“系統工程能力”。在這一階段,真正拉開差距的,已不只是晶片算力本身,而是從架構、系統到生態的整體交付。 (21世紀經濟報導)
輝達開源最新VLA,能否破局L4自動駕駛?
隨著大模型深度融入汽車行業,行業競爭正從功能實現轉向高階智駕能力的比拚,而VLA(Vision-Language-Action Model,視覺語言行動模型)被視為下一代技術競爭的關鍵變數。圖片由AI生成當地時間12月1日,輝達(NVIDIA)宣佈正式開源其最新自動駕駛“視覺—語言—行動”(VLA)模型 Alpamayo-R1,該模型能夠同時處理車輛攝影機畫面、文字指令,並輸出行車決策,已在GitHub和Hugging Face平台開源,並同步推出Cosmos Cookbook開發資源包。這是行業內首個專注自動駕駛領域的開源VLA模型,輝達此舉旨在為L4級自動駕駛落地提供核心技術支撐。值得注意的是,輝達Alpamayo-R1相較於傳統黑盒式自動駕駛演算法,主打“可解釋性”,能夠給出自身決策的理由,有助於安全驗證、法規審查與事故責任判定。而輝達同時發佈“Cosmos Cookbook”等配套工具,能夠支援企業和開發者快速訓練、評估與部署。業內認為,輝達試圖通過開放核心技術,降低自動駕駛開發門檻,加速軟體棧標準化,打破原來Robotaxi昂貴的“全端自研”模式,從而轉變為可快速組裝的“Android式”生態。不過也有業內人士向筆者表示,此次輝達Alpamayo-R1開源與百度Apollo開源類似,對自動駕駛領域的入門選手來說有價值,但對專業公司來說意義不大。目前,VLA正成為智能駕駛領域公認的下一代核心技術,相關企業都在加碼佈局。國內理想汽車、小鵬汽車、長城汽車(已搭載於魏牌藍山)、元戎啟行等都已在VLA上實現量產落地。解決傳統“端到端”模型痛點傳統的端到端模型像一個“黑盒”,可能“看得見但看不懂”,在面對違規左轉、行人闖入等長尾場景時容易“翻車”。而相較於傳統“端到端”模型,VLA通過引入語言模態作為中間層,將視覺感知轉化為可解釋的邏輯鏈,從而具備了處理長尾場景和複雜突發狀況的潛力,讓機器像人類一樣“觀察、推理、決策”,而不僅僅是海量資料的簡單對應。自動駕駛領域的VLA(視覺-語言-動作)大模型,代表了將視覺感知、語言理解與決策控制深度融合的技術方向。它能直接輸出車輛的駕駛動作,其核心好處是,讓機器有了更強的環境理解與推理能力、更高效的一體化決策、更強大的長尾場景應對、更透明的人機互動與信任建構、更自然的車控方式等。此次輝達開放原始碼的VLA模型Alpamayo-R1,基於全新的 “因果鏈”(Chain of Causation, CoC) 資料集訓練。每一段駕駛資料不僅標註了車輛“做了什麼”,更註明了“為什麼這樣做”。例如,“減速並左變道,是因為前方有助動車等紅燈,且左側車道空閒”。這意味著模型學會的是基於因果關係的推理,而非對固定模式的死記硬背。同時,基於模組化VLA架構,輝達Alpamayo-R1將面向物理人工智慧應用預訓練的視覺語言模型Cosmos-Reason,與基於擴散模型的軌跡解碼器相結合,可即時生成動態可行的規劃方案;以及多階段訓練策略,先通過監督微調激發推理能力,再利用強化學習(RL)最佳化推理質量——借助大型推理模型的反饋,並確保推理與動作的一致性。輝達公佈的資料顯示:Alpamayo-R1在複雜場景下的軌跡規劃性能提升了12%,近距離碰撞率減少25%,推理質量提升 45%,推理-動作一致性增強37%。模型參數從0.5B擴展至7B的過程中,性能持續改善。車載道路測試驗證了其即時性表現(延遲99毫秒)及城市場景部署的可行性。也因此,輝達Alpamayo-R1有望給L4自動駕駛帶來能力的躍遷,Robotaxi有望安全地融入真實、混亂的公開道路。成為自動駕駛賽道的“Android”從這次開源Alpamayo-R1,可以再次看出輝達在自動駕駛領域的野心,已經不滿足於只是“硬體供應商”,而是要做成自動駕駛賽道的“Android”。其實,早在今年10月份,輝達就對外低調發佈了Alpamayo-R1大模型。而在華盛頓GTC大會上,輝達發佈了自動駕駛平台——NVIDIA DRIVE AGX Hyperion 10。Hyperion 10被認為是輝達自動駕駛的“身體”,而Alpamayo-R1則是自動駕駛的大腦。值得注意的是,Hyperion 10實現了“從模擬到實車”的閉環:在雲端,DGX超級電腦使用DRIVE Sim生成高保真模擬資料,用於訓練DRIVE AV模型;在車端,Hyperion 10的感測器資料與Thor晶片無縫對接。因此,如果一家車企想快速推出具備L4級能力的車型,不需要再分別組建龐大的硬體整合、軟體演算法和資料訓練團隊,採用輝達的整套方案可以快速實現上車。同時,輝達也在建構一個“Android式”的Robotaxi生態,並對外公佈了明確的落地時間表:2027年起部署10萬輛Robotaxi。目前,輝達已宣佈與Uber、奔馳、Stellantis、Lucid等公司合作,共同打造“全球最大L4級自動駕駛車隊”。截至2025年10月,輝達的雲端平台已積累超過500萬小時的真實道路資料。輝達的入場,正在將Robotaxi的競爭從單一的技術比拚,引向生態模式的對決。封閉模式除了導致重複的研發投入,更深刻的弊端是形成了“資料孤島”。Waymo的美國道路經驗難以惠及中國車企,每個玩家都在獨立而緩慢地跨越技術曲線。輝達的開放生態,有機會在確保資料隱私和安全的前提下,推動生態內玩家共享經過匿名化處理的特徵資料。例如,A車企在特定路口遇到的極端場景資料,可以轉化為脫敏後的訓練特徵,幫助B車企的模型更快地識別類似風險。如果輝達能夠成為自動駕駛領域的“Android”,將有望帶動整個生態的技術迭代速度從線性轉變為指數級提升。這不僅是技術共享,更是成本共擔。共同應對長尾場景這一行業最大難題的邊際成本,將隨著生態的擴大而持續降低。元戎啟行CEO周光預測,VLA帶來的可能是 “斷層式的領先”,並成為下一代競爭的關鍵變數。DeepWay深向CTO田山告訴筆者,VLA是目前自動駕駛行業非常火的一項技術,研究者眾多,能極好地提高自動駕駛模型的泛化能力及推理能力,輝達開源Alpamayo-R1,使得這項很火且很有前途的自動駕駛技術有更多的人可以參與研究並做出貢獻,能積極推進VLA技術的發展和落地,而這項技術也能應用在具身智能等物理AI的場景中。隱形門檻仍在前方不過,Alpamayo-R1目前要滿足車規級時延,還需要在RTX A6000 ProBlackwell等級的卡上運行——這張卡的INT8算力高達4000T,是Thor的6倍左右。輝達的商業模式決定了,其開源是為了更好地銷售其硬體和全端解決方案。Alpamayo-R1模型與輝達的晶片(如Thor)及開發平台(如Drive)深度繫結,能實現更高的算力利用率。這意味著,選擇輝達生態在獲得便利的同時,也意味著在核心算力上與其深度繫結。另外,DeepWay深向CTO田山向筆者指出,VLA是不是最佳的自動駕駛技術,目前還在實踐過程中,而Alpamayo-R1模型工具鏈基於輝達的平台,對很多開發者來說也是一種限制,所以也有很多其他的技術和其他的計算平台在推進自動駕駛技術發展。在田山看來,多數公司應該更聚焦技術落地,也就是技術的工程化實現,解決實際場景的問題,早日實現智駕技術的商業化閉環更有益於行業的長久健康發展。此外,L4自動駕駛的落地或者說Robotaxi的規模化商業化,還與政策與法規息息相關。同時,如何在合規框架內營運、如何通過安全評估、如何在資料利用與隱私保護間取得平衡,這些能力的重要性,並不亞於技術本身。輝達的黃仁勳一直將Robotaxi視為“機器人技術的首個商業化應用”,輝達一直要做的不是一輛無人計程車,而是讓所有玩家都能做出無人計程車的技術底座。如今,他正試圖通過開源VLA,為這個應用打造一條可以快速複製的生產線。但最終能否通過開源降低准入門檻,加速推動L4自動駕駛到來,讓技術的潮水湧向更廣闊的商業海岸,輝達Alpamayo-R1模型的開源,只是遊戲的開始,後面還有門檻要邁,還需要市場來驗證。 (鈦媒體AGI)