#CES2026
【CES 2026】AMD放大招,4年AI晶片性能漲1000倍,MI455X來了
剛剛,AMD首席執行長蘇姿丰博士亮相CES展會,重磅發佈了:Helios全液冷設計面向人工智慧時代的機架級平台;MI455GPU,3200億個電晶體,包含432GB HBM4 記憶體;新的AMD路線圖,2027年推出2nm製程MI500;鎖定2026 AI PC賽道,首批採用Ryzen AI 400 系列處理器的AI PC Q1推出;全新的AMD品牌迷你 PC,AMD Ryzen AI Halo預計Q2上市;自ChatGPT推出以來,使用AI的活躍使用者已經從100萬人增加至10億人,這是網際網路花了幾十年才達到的里程碑,預計2030年使用AI的活躍使用者將達到50億人。蘇姿丰表示,現在的計算能力“遠遠不足以應對創新速度”。蘇姿丰希望在未來五年內將計算能力提升至10YottaFlops以上。YottaFlops是一個1後面跟24個0的整數。對於每個工作負載,需要配備合適的計算資源,比如CPU、GPU、NPU和定製加速器。AMD是唯一一家擁有全系列計算引擎的公司,能夠將這一願景變為現實。蘇姿丰從雲端運算開始談起。她表示,如今大多數人都是在雲端體驗人工智慧。真正的挑戰在於如何將人工智慧擴展到 Yotta 等級。這就是 AMD 打造其下一代平台 Helios 的原因。蘇姿丰當場展示了最新的AI電腦架Helios。Helios重達近 7000 磅。Helios機架採用全液冷設計,每一層計算托架都由四款AMD核心硬體驅動:AMD全新Instinct MI455X GPU、全新EPYC“Veince”CPU、AMD Pensando“Vulcano”800 AI網路卡以及AMD Pensando“Salina”400 DPU。從性能參數來看,Helios擁有2.9 exaflops的AI計算能力,配備31TB HBM4視訊記憶體,提供43TB/s的橫向擴展頻寬,並採用2nm和3nm工藝製造。該機架擁有4600個“Zen 6”CPU核心和18000個GPU計算單元。同時,蘇姿丰展示了MI445X GPU。MI455X GPU配備了兩個巨大的 GCD(圖形計算晶片)、兩個 MCD(記憶體控製器晶片)以及總共 16 個 HBM4 視訊記憶體位點。擁有3200 億個電晶體,AMD 聲稱 MI455X 的性能比 MI355X 提高了 10 倍。另一款晶片是EPYC VeniceZen 6CPU,它配備了8個大型Zen 6C CCD和兩個IOD,以及包含管理控製器的微型晶片。AMD表示,EPYC Venice CPU的性能和效率將提升70%以上,線程密度也將提高30%以上。該晶片還將推出標準的192核Zen 6版本,配備16個CCD,每個CCD包含12個Zen 6核心,以及768MB的L3快取。AMD 還準備推出基於其 EPYC Venice、MI400 和 Vulcano 互連技術的全套資料中心解決方案。這些解決方案包括用於超大規模 AI 的 72 GPU 機架、配備 Instinct MI440X GPU 的 8 GPU 企業級 AI 解決方案,以及用於混合計算的 EPYC Venice-X CPU(配備升級的 3D 垂直快取)和 MI430X(FP64 最佳化 GPU)。01AMD更新路線圖AMD計畫在2027年推出MI500,該系列處理器基於CDNA 6架構,採用HBM4E視訊記憶體,並採用2奈米製程工藝。過去四年中,其人工智慧性能將提升1000倍,AMD正在按計畫實現1000倍的目標。02首批搭載 Ryzen AI 400 系列處理器的AI PC,Q1推出今日,蘇姿丰宣佈推出全新的Ryzen AI 400系列,業界最廣泛、最先進的AIPC處理器系列。採用12 個 Zen 5 架構 CPU 核心和 24 個線程、16 個 RDNA 3.5 架構 GPU 核心、一個 60 TOPS 的 XDNA 2 NPU,以及 8,533 MT/s 的記憶體速度。AMD 表示,與 Intel Core Ultra 9 288V 相比,Ryzen AI 400 系列在內容創作方面速度提升 1.7 倍,在多工處理方面速度提升 1.3 倍。首批搭載 Ryzen AI 400 系列處理器的AI PC 將於2026年第一季度開始出貨。應用於眾多主流PC品牌,包括宏碁、華碩、戴爾、惠普、聯想、Beelink、七彩虹、技嘉、LG、Mechrevo、微星和NEC。全年將推出超過 120 款超薄遊戲本和商用PC,涵蓋各種AIPC形態。搭載 Ryzen AI 400 系列處理器的桌上型電腦將於 2026 年第二季度晚些時候推出。AMD 發佈了 RyzenAI Max+ 392 和 Ryzen AI Max+ 388,這兩款 Ryzen AI Max+ 系列新成員將高性能 AI 計算、整合桌面級顯示卡和統一記憶體架構擴展到高端超薄筆記型電腦、工作站和迷你 PC。搭載全新 AMD Ryzen AI Max+ 系列處理器的系統將於2026 年第一季度開始通過包括宏碁和華碩在內的主要 OEM 合作夥伴供貨,預計年內將有更多產品上市。03AMD新迷你PC發佈,預計Q2上市同時,蘇姿丰發佈了AMD Ryzen AI Halo,全新的 AMD 品牌迷你 PC。能夠在本地運行參數高達2000億的模型,搭載旗艦級Ryzen AI Max處理器和128GB高速統一記憶體,最高可達 60 TFLOPS 的 AMD RDNA 3.5 圖形性能,並支援 Windows 和 Linux 系統。預裝了領先的開源開發工具,並且開箱即可運行數百種模型。AMD Ryzen AI Halo將於今年第二季度上市。 (半導體產業縱橫)
【CES 2026】黃仁勳炸場:全新Rubin平台量產,AI推理成本降至十分之一,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作
黃仁勳 CES 2026主題演講:全新Rubin平台正式量產,AI推理成本降至十分之一,推進機器人和自動駕駛生態,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作1. Nvidia與奔馳合作推出Level 2自動駕駛系統,2026年大規模商用要點一:舊金山路測表現出色,可與特斯拉FSD競爭Nvidia在CES 2026上展示了其全新的點對點Level 2駕駛輔助系統,在舊金山約40分鐘的實際道路測試中,該系統搭載在2026款奔馳CLA轎車上,成功應對了複雜的城市交通場景,包括交通訊號燈、四向停車標誌、雙排停車車輛和無保護左轉等情況。Nvidia汽車部門負責人Xinzhou Wu透露,該系統在城市駕駛中的人工接管次數與特斯拉FSD相當,但特斯拉用了約8年才實現城市駕駛功能,而Nvidia預計在約1年內就能達成同樣目標。The Verge要點二:2026年分階段推出,2027-2028年推進L4自動駕駛根據Nvidia的產品路線圖,2026年上半年將發佈支援高速公路和城市駕駛的Level 2系統,包括自動變道、停車標誌和交通訊號識別等功能;下半年將增加自動泊車能力,年底前將覆蓋整個美國。該系統基於Drive AGX Orin晶片,2026年計畫開展小規模L4等級試點,2027年將實現合作夥伴機器人計程車部署,2028年將進入個人擁有的自動駕駛汽車。奔馳CEO Ola Kallenius表示,與Nvidia合作的核心在於安全性,強調"駕駛一個重達4000磅、時速50英里的物體,抱歉是不夠的,必須要有更高的確定性和安全性。"The Verge2. Nvidia發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作要點一:推出業內首個開源推理型自動駕駛AI模型Nvidia在CES 2026上宣佈推出Alpamayo系列自動駕駛AI模型、工具和資料集,這是專為Level 4自動駕駛設計的推理型視覺-語言-行動(VLA)模型,能夠讓車輛像人類一樣感知、推理和行動。該系列包括Alpamayo-1(一個擁有100億參數的鏈式思考VLA模型,已在Hugging Face開源)、AlpaSim(開源端到端模擬框架)以及超過1,700小時駕駛資料的物理AI開放資料集。該模型不僅能接收感測器輸入並控制方向盤、剎車和加速,還能對即將採取的行動進行推理。Constellation Research要點二:奔馳成為首個商用合作夥伴,2026年一季度上路Nvidia CEO黃仁勳宣佈,搭載Alpamayo的首款乘用車將是全新奔馳CLA,該車將採用Nvidia DRIVE全端自動駕駛平台,預計2026年第一季度在美國道路上推出。這一合作歷時至少5年,投入數千名工程師,建構了完整的垂直整合系統。奔馳CLA最近獲得了EuroNCAP五星安全評級。黃仁勳表示:"Nvidia將長期支援這些模型和自動駕駛系統,因為自動駕駛工作是通向機器人技術的橋樑。"此外,Lucid、捷豹路虎、Uber和伯克利DeepDrive也對Alpamayo表示出濃厚興趣。Nvidia Blog | Constellation Research3. 波士頓動力與GoogleDeepMind達成AI合作,Gemini機器人模型將整合至Atlas人形機器人要點一:雙方聯合研發,提升人形機器人物體操控和工業任務能力波士頓動力和GoogleDeepMind在CES 2026上宣佈建立新的AI合作夥伴關係,旨在將DeepMind的Gemini Robotics基礎模型整合到波士頓動力的新一代Atlas人形機器人中。該合作將結合波士頓動力的運動智能與DeepMind的基礎AI能力,重點使人形機器人能夠完成各種工業任務,預計將成為製造業轉型的驅動力,首先從汽車行業開始。聯合研究工作預計將在未來幾個月內在兩家公司同時展開。Boston Dynamics要點二:利用多模態基礎模型,讓機器人具備感知、推理和人機互動能力波士頓動力Atlas項目機器人行為總監Alberto Rodriguez表示:"我們正在打造世界上最強大的人形機器人,我們需要一個能夠幫助我們建立新型視覺-語言-行動模型的合作夥伴,用於這些複雜的機器人。在全世界範圍內,沒有人比DeepMind更適合建構可以安全、高效地部署在各種任務和行業的可靠、可擴展模型。"DeepMind機器人技術高級總監Carolina Parada表示,Gemini Robotics模型基於大規模多模態Gemini模型建構,旨在讓任何形狀和大小的機器人都能感知、推理、使用工具並與人類互動。該合作由波士頓動力的大股東現代汽車集團支援。Boston Dynamics4. Nvidia CES 2026主題演講:發佈Rubin平台,AI算力提升5倍,推進機器人和自動駕駛生態要點一:全新Rubin平台正式量產,AI推理成本降至十分之一Nvidia CEO黃仁勳在CES 2026主題演講中宣佈,公司首個極致協同設計的六晶片AI平台Rubin已進入全面量產。該平台包括Rubin GPU(提供50 petaflops的NVFP4推理性能)、Vera CPU(專為資料移動和智能體處理設計)、NVLink 6擴展網路、Spectrum-X乙太網路光子學、ConnectX-9 SuperNIC和BlueField-4 DPU。Rubin平台承諾將AI token成本降低到原來的十分之一,訓練混合專家模型所需的GPU數量減少至四分之一,並推出AI原生儲存平台,將長上下文推理的每秒token數提高5倍。黃仁勳強調:"你訓練AI模型越快,就能越快將下一代前沿技術推向世界。這關乎你的上市時間,這關乎技術領導力。"Nvidia Blog要點二:發佈Cosmos世界基礎模型和開源物理AI生態系統黃仁勳展示了Nvidia Cosmos開放世界基礎模型,該模型在視訊、機器人資料和模擬資料上訓練,能夠從單張圖像生成逼真視訊、合成多攝影機駕駛場景、從場景提示建模邊緣案例環境,並執行物理推理和軌跡預測。演講中還展示了個人AI智能體在Nvidia DGX Spark桌面超級電腦上本地運行,並通過Reachy Mini機器人具身化的演示。黃仁勳宣佈Nvidia在六個領域建構開源前沿AI模型:Clara(醫療健康)、Earth-2(氣候科學)、Nemotron(推理和多模態AI)、Cosmos(機器人和模擬)、GR00T(具身智能)和Alpamayo(自動駕駛),並強調與西門子擴大合作,將Nvidia全端與西門子工業軟體整合。Nvidia Blog5. 阿里巴巴高德地圖推出AI 3D餐廳展示工具,對標美團爭奪本地生活市場要點一:基於通義萬相視覺模型,餐廳上傳照片或視訊即可生成3D圖像據彭博社報導,阿里巴巴旗下地圖和本地生活服務部門高德地圖即將推出一項AI功能,允許餐廳通過上傳視訊或照片來渲染3D圖像。該技術基於阿里巴巴的通義萬相(Wan)視覺模型,旨在降低商戶的行銷和推廣成本。熟悉該事項的人士透露,阿里巴巴計畫向部分商家免費提供這項技術一段時間。這一舉措是阿里巴巴在中國餐飲和外賣領域與美團競爭的更廣泛努力的一部分。Bloomberg要點二:強化本地生活服務佈局,挑戰美團市場主導地位此次推出3D餐廳展示工具,是阿里巴巴利用AI技術加強與美團在本地生活服務市場競爭的最新動作。美團目前在中國外賣市場、餐廳預訂和本地服務領域佔據主導地位。通過提供更具視覺吸引力的餐廳展示方式,高德地圖希望吸引更多商戶和使用者,擴大其在本地生活服務領域的市場份額。這一策略體現了阿里巴巴將AI技術應用於實際商業場景,以技術創新推動業務增長的思路。Bloomberg6. MiniMax香港IPO定價觸頂至21美元,AI熱潮推動估值達65億美元要點一:定價HK$165觸及區間上限,提前一天停止接受訂單據彭博社報導,上海AI初創公司MiniMax計畫將其香港IPO定價定在每股HK約美元達到其營銷區間的頂部151-HK。知情人士透露該公司通知投資者將以165的價格出售股票,並計畫在當地時間下午5點停止接受機構投資者的訂單,比預期提前一天。MiniMax於2025年12月31日啟動IPO路演,計畫發行2,538.92萬股新股。按最高定價計算,此次IPO將籌集至少42億港元(約5.38億美元),對MiniMax的估值約為65億美元。Bloomberg | Reuters要點二:獲阿里巴巴和騰訊支援,AI熱潮下需求強勁MiniMax得到了阿里巴巴集團和騰訊控股的支援,在AI熱潮的推動下,其IPO展現出強勁的訂單勢頭。該公司專注於生成式AI技術,提供包括文字生成、對話系統等多項AI服務。此次頂格定價和提前停止認購,反映出投資者對中國AI企業的強烈興趣。分析師指出,MiniMax的成功上市將為香港資本市場帶來活力,也體現了全球投資者對中國AI創新能力的認可。該IPO預計將於2026年1月初完成定價。Seeking Alpha7. 富士康Q4營收同比增長22%至827億美元,AI和雲端運算需求強勁創紀錄要點一:Q4營收超預期,12月單月營收同比增長32%創歷史新高台灣富士康(鴻海精密)於2026年1月5日公佈,2025年第四季度營收達到新台幣2.6兆元(約827億美元),同比增長22.07%,環比增長26.51%,創下季度營收歷史新高,超過路孚特SmartEstimate預測的2.418兆新台幣。12月單月營收達到新台幣8,628.6億元(約274.2億美元),同比增長31.77%,創下該月份歷史紀錄。富士康表示,第四季度營收增長顯著超出預期,為2026年第一季度創造了較高的對比基數。Reuters要點二:雲端運算和網路產品業務強勁,AI伺服器需求持續旺盛富士康稱,增長主要由雲端運算和網路產品部門的強勁表現驅動,這得益於AI產品需求的激增。作為輝達最大的伺服器製造商和蘋果最大的iPhone組裝商,富士康2025年全年銷售額首次突破新台幣8兆元大關。該公司表示,儘管2026年第一季度資訊通訊技術產品將進入季節性放緩期,但AI伺服器機架產品的強勁需求預計將使業績處於過去五年區間的高端。富士康還指出,智能消費電子產品部門(包括iPhone)由於匯率不利影響,營收出現小幅下降。Reuters8. 阿里巴巴PANDA AI工具助力醫院發現24例胰腺癌,自2024年11月分析超18萬例CT掃描要點一:AI在常規CT掃描中發現早期胰腺癌,提前挽救患者生命據《紐約時報》報導,中國寧波大學附屬人民醫院自2024年11月作為臨床試驗開始使用阿里巴巴達摩院開發的PANDA(Pancreatic Cancer Detection with Artificial Intelligence,胰腺癌人工智慧檢測)AI工具以來,已分析超過18萬例腹部或胸部CT掃描,幫助醫生檢測出約24例胰腺癌病例,其中14例處於早期階段。該院胰腺科主任朱克雷醫生表示:"我認為可以百分之百地說,AI拯救了他們的生命。"PANDA工具被訓練用於在非對比CT掃描中尋找胰腺癌,這些患者最初因腹脹或噁心等症狀就診,並未直接看胰腺專科醫生,部分CT掃描在被AI工具標記之前並未引起警報。New York Times要點二:通過深度學習突破非對比CT侷限,獲FDA突破性裝置認證PANDA工具利用深度學習技術,通過演算法將2000多名已知胰腺癌患者的對比CT掃描中的病灶位置對應到同一患者的非對比CT掃描上,訓練AI模型在清晰度較低的圖像中檢測潛在癌症。在超過2萬例非對比CT掃描的測試中,該工具正確識別了93%的胰腺病變患者,研究結果發表在2023年《自然醫學》雜誌上。2025年4月,阿里巴巴宣佈PANDA獲得美國FDA"突破性裝置"認證,意味著其審查將被加速以幫助其進入市場。胰腺癌是最致命的癌症之一,五年生存率約為10%,早期檢測極其困難。在寧波醫院,非對比CT檢查費用約為25美元(保險前),該系統正在分析醫生已為其他原因訂購的掃描,因此不會給醫院或患者增加額外檢查成本。New York Times9. Instagram Reels年化收入達500億美元,成為Meta最大增長引擎要點一:五年從零到500億,超越可口可樂和耐克年收入據《華爾街日報》報導,Meta旗下Instagram的短影片功能Reels在2025年第三季度實現了超過500億美元的年化收入營運率(annual run rate)。Meta CEO馬克·祖克柏在2025年10月的財報電話會議上表示:"隨著視訊在我們的應用中持續增長,Reels現在的年化收入已超過500億美元。"這一數字令人震驚,因為Reels於2020年推出時僅是對TikTok的模仿,當時沒有任何收入。五年後,其收入規模已經接近可口可樂和耐克的年收入水平,成為Meta最重要的增長業務之一。WSJ要點二:使用者參與度超越YouTube Shorts,AI推薦系統功不可沒報導指出,Instagram使用者在Reels上花費的時間已經超過YouTube Shorts的觀眾觀看時長。Meta第三季度總營收為512.4億美元,同比增長26%,其中Family of Apps(應用家族)收入達到508億美元,Reels的貢獻佔比可觀。祖克柏將Reels的成功歸功於推薦系統的改進和AI技術的應用,這些技術提高了內容的相關性和使用者參與度。分析師認為,Reels已經從簡單的TikTok複製品轉變為Meta的戰略性AI資產,推動了整個平台的廣告收入增長。創作者經濟的蓬勃發展和AI驅動的變現能力是Reels取得成功的關鍵因素。AInvest10. DeepSeek為聊天機器人新增"交錯思考"功能,月活使用者激增90%至1.315億要點一:推出"交錯思考"深度研究模式,提升複雜查詢處理能力據《南華早報》報導,總部位於杭州的AI初創公司DeepSeek對其旗艦聊天機器人的使用者介面進行了更新,新增了名為"交錯思考"(interleaved thinking)的高級功能。這一功能類似於OpenAI的深度研究(Deep Research)產品,可以執行多步驟研究,在整個過程中穿插"思考"步驟。此前,聊天機器人在生成響應之前會"思考"使用者提供的提示,而"交錯思考"允許模型在每個操作之間進行"思考",增強其研究能力。例如,在打開網頁後,模型可能需要"思考"所讀資訊的可信度,然後決定是否查閱另一份檔案來驗證發現。這一過程對於處理複雜查詢至關重要。South China Morning Post要點二:12月月活使用者暴增90%,新一代模型備受期待報導指出,DeepSeek在2025年12月的月活躍使用者數激增90%,達到近1.315億。《南華早報》測試顯示,DeepSeek的聊天機器人並非總是部署"深度研究"模式,除非收到複雜的查詢提示。一旦該功能被啟動,使用者能夠看到"交錯思考"過程的每一步。這些升級標誌著DeepSeek在消費端的罕見改進,正值業界對其下一代模型的期待不斷升溫之際。分析師指出,隨著DeepSeek在AI模型性能和使用者體驗上的持續最佳化,該公司正在中國AI市場中鞏固其領先地位,並對國際競爭對手構成越來越大的挑戰。South China Morning Post11. 中國量化基金幻方推出iQuest-Coder AI模型,僅400億參數擊敗GPT-5.1和Claude Sonnet 4.5要點一:開放原始碼AI模型在多項基準測試中超越美國競爭對手據《南華早報》報導,總部位於北京的量化交易公司幻方量化(Ubiquant)於2026年1月初發佈了一系列開放原始碼專注型大語言模型iQuest-Coder-V1系列,該系列模型在多項基準測試中聲稱能夠匹敵甚至超越美國競爭對手如OpenAI的GPT-5.1和Anthropic的Claude Sonnet 4.5,儘管使用的參數數量遠少於後者。iQuest-Coder-V1系列專為程式碼智能設計,擅長自動程式設計、偵錯和程式碼解釋等任務,包括70億、140億和400億參數的模型,遠小於GPT-5.1和Claude Sonnet 4.5等領先閉源系統的參數規模(通常在4000億至8000億參數之間)。South China Morning Post要點二:基準測試成績亮眼,400億參數模型比肩國際頂尖水平根據自報資料,iQuest-Coder-V1-40B-Loop-Instruct在SWE-bench Verified基準測試中得分76.2%,接近Claude Sonnet 4.5的77.2%和GPT-5.1的76.3%。該基準測試衡量AI模型解決真實世界軟體工程問題的能力。在BigCodeBench測試中(該測試評估LLM在解決實際且具有挑戰性的程式設計任務方面的表現,不存在污染),該模型得分49.9%,超過Gemini 3 Pro Preview的47.1%和GPT-5.1的46.8%。此外,在LiveCodeBench v6測試中,該模型也展現出色表現。幻方量化繼DeepSeek之後成為中國量化基金進軍AI領域的又一案例,展示了中國金融科技公司在AI研發方面的強大實力和創新能力。South China Morning Post (AI Daily Insights)
【CES 2026】老黃All in物理AI!最新GPU性能5倍提升,還砸掉了智駕門檻
剛剛,輝達CEO黃仁勳穿著鱷魚皮夾克,在全球最大消費電子展CES 2026上發佈AI新品。這是五年來,輝達首次來到CES卻沒有發遊戲顯示卡,態度很明確:全力搞AI。全力搞出來的結果也讓圍觀群眾直呼:競爭對手如何追上輝達?下一代Rubin架構GPU推理、訓練性能分別是Blackwell GB200的5倍和3.5倍(NVFP4資料格式)。除此之外,老黃還帶來了五大領域的全新發佈,包括:面向Agentic AI的NVIDIA Nemotron模型家族面向物理AI的NVIDIA Cosmos平台面向自動駕駛開發的全新NVIDIA Alpamayo模型家族面向機器人領域的NVIDIA Isaac GR00T面向生物醫學的NVIDIA Clara同時,輝達宣佈持續向社區開源訓練框架以及多模態資料集。其中資料集包括10兆語言訓練token、50萬條機器人軌跡資料、45.5萬個蛋白質結構、100TB車輛感測器資料。這次的核心主題,直指物理AI。用網友的話來說:這是輝達將護城河從晶片層進一步拓展到全端平台層(模型+資料+工具)的體現,通過這種方式可以持續拉動更多GPU與基礎設施投入,並顯著增強使用者與生態的鎖定。值得一提的是,咱國產開源模型又雙叒被cue到了。老黃在演講開篇便提及了DeepSeek,Kimi K2、Qwen也出現在PPT展示頁上。正式推出Vera Rubin NVL72老黃正式推出輝達下一代AI資料中心的機櫃架構Vera Rubin,披露架構細節。六大核心組件共同構成Vera Rubin NVL72機架:Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4資料處理單元(DPU)、Spectrum-6 Ethernet switch。在NVFP4資料類型下,Rubin GPU推理性能可達50 PFLOPS,是Blackwell GB200的5倍;NVFP4訓練性能為35 PFLOPS,是Blackwell的3.5 倍。為支撐這些計算能力,每顆Rubin GPU封裝了8組HBM4記憶體,提供288GB容量和22 TB/s的頻寬。隨著主流大模型轉向MoE架構,模型得以相對高效地進行規模擴展。然而,這些專家模組之間的通訊,對節點間頻寬提出了極高要求。Vera Rubin引入了用於規模內擴展網路的NVLink 6。它將單GPU的互連頻寬提升至3.6 TB/s(雙向)。每顆NVLink 6交換晶片提供28 TB/s的頻寬,而每個Vera Rubin NVL72機架配備9顆這樣的交換晶片,總規模內頻寬達到260 TB/s。NVIDIA Vera CPU整合了88個定製的Olympus Arm核心,採用輝達稱為“spatial multi-threading”設計,最多可同時運行176個線程。用於將Vera CPU與Rubin GPU進行一致性連接的NVLink C2C互連,其頻寬提升了一倍,達到1.8 TB/s。每顆Vera CPU可定址最多1.5 TB的SOCAMM LPDDR5X記憶體,記憶體頻寬最高可達1.2 TB/s。為將Vera Rubin NVL72機架擴展為每組8個機架的DGX SuperPod,輝達推出了一對採用共封裝光學(CPO)的Spectrum-X乙太網路交換機,均基於Spectrum-6晶片建構。每顆Spectrum-6晶片提供102.4 Tb/s的頻寬,輝達基於該晶片推出了兩款交換機。SN688提供409.6 Tb/s的總頻寬,支援512個800G乙太網路連接埠或2048個200G連接埠。SN6810則提供102.4 Tb/s的頻寬,可配置為128 個800G或512個200G乙太網路連接埠。這兩款交換機均採用液冷設計,輝達表示,與不具備矽光子技術的硬體相比,它們在能效、可靠性和執行階段間方面表現更優。隨著上下文窗口擴展到數百萬token,輝達還指出,儲存AI模型互動歷史的鍵值快取(KV cache)相關操作,已成為推理性能的瓶頸。此前黃仁勳曾表態:沒有HBM,就沒有AI超算。為突破這一限制,輝達推出新硬體BlueField-4 DPU,建構了一個新的記憶體層級,稱為推理上下文記憶體儲存平台(Inference Context Memory Storage Platform)。輝達表示,這一儲存層旨在實現鍵值快取資料在AI基礎設施中的高效共享與復用,從而提升系統響應速度和吞吐能力,並實現Agentic AI架構可預測、能效友好的規模擴展。這是Vera Rubin首次將輝達的可信執行環境擴展至整個機架等級。整體來看,每個Vera Rubin NVL72機架可提供:3.6exaFLOPS的NVFP4推理性能2.5exaFLOPS的NVFP4訓練性能54 TB的LPDDR5X記憶體(連接至Vera CPU)20.7 TB的HBM4記憶體,頻寬達1.6 PB/s為保障機架系統的持續高效運行,輝達在機架層面引入了多項改進,包括無纜化模組托盤設計,使元件更換速度顯著快於此前的NVL72機架;增強的NVLink彈性能力,實現零停機維護;以及第二代RAS引擎,可在不中斷服務的情況下完成健康檢測。另外,輝達表示,與Blackwell相比,Vera Rubin在訓練MoE模型時所需的GPU數量僅為四分之一;在MoE推理場景下,其每token成本最高可降低10倍。反過來看,這也意味著Rubin能在相同機架空間內,大幅提升訓練吞吐量,並生成遠多於以往的token數量。據介紹,目前用於建構Vera Rubin NVL72所需的六類晶片已全部從晶圓廠交付,輝達預計將在2026年下半年啟動Vera Rubin NVL72的規模化量產。自動駕駛全新開源模型系列發佈再來看輝達重磅推出的全新開源模型系列——Alpamayo,面向安全推理的自動駕駛。全球首款開源、大規模的自動駕駛視覺-語言-行動(VLA)推理模型Alpamayo 1,參數100億。它能夠讓自動駕駛車輛理解周圍環境,並對自身的決策行為做出解釋。模型接收車輛自身的運動歷史資料、多攝影機採集的即時視訊畫面、使用者指令三類輸入資訊,然後進行推理,之後生成具體的駕駛決策、因果推理結果、規劃出的行駛軌跡。配套推出的還有一款開源模擬框架——AlpacaSim。它支援在各種不同的環境與邊緣場景中,對基於推理的自動駕駛模型進行閉環訓練與評估。此外,輝達還發佈了一個包含1700小時駕駛資料的開源資料集。這些資料採集於全球最廣泛的地理區域與環境條件下,涵蓋了推進推理架構發展所必需的罕見及複雜真實邊緣場景。落地方面,據介紹,Alpamayo將率先搭載於2025年第二季度歐洲上市的梅賽德斯-奔馳CLA車型,後續將通過OTA升級逐步推送高速公路脫手駕駛、城市全場景自動駕駛、端到端自動泊車等功能,並計畫登陸美國市場。輝達基於自身技術建構的全球L4級自動駕駛與Robotaxi生態系統全景也亮相了,通過連接軟體開發商、整車廠/出行平台、硬體供應商,覆蓋全產業鏈。Nemotron再推專項模型NVIDIA Nemotron在AI智能體領域的新拓展,核心是在已發佈的Nemotron 3開放模型與資料基礎上,進一步推出針對語音、RAG以及安全三大場景的專項模型。其中,Nemotron Speech包含新的自動語音識別(ASR)模型,不僅語音識別性能強,而且能支援即時字幕生成這樣的即時低延遲場景,速度比同類模型快10倍。輝達表示,目前博世已採用該模型實現司機與車輛之間的互動。Nemotron RAG則搭載新的視覺語言模型,能精準處理多語言、多模態資料,有效提升文件搜尋效率。Nemotron Safety系列模型專注於增強AI應用的安全性與可信度,具體包括支援更多語言的Llama Nemotron內容安全模型,以及高精度檢測敏感資料的Nemotron PII模型。機器人推理大腦Cosmos升級活動現場,老黃宣佈輝達為機器人推出的懂推理的“大腦”Cosmos再度升級。Cosmos主要被用來生成符合現實世界物理規律的合成資料,自發佈以來,已被Figure、Agility Robotics、通用汽車等一眾知名機器人和自動駕駛公司採用。這次全新發佈了:Cosmos Reason 2:一款全新的、排名領先的視覺-語言推理模型(VLM)。它能夠幫助機器人與AI智能體更精準地感知、理解並與物理世界進行互動。Cosmos Transfer 2.5與Cosmos Predict 2.5:兩款領先的模型,可在各種不同的環境與條件下,生成大規模的合成視訊。輝達還基於Cosmos模型,為各類物理AI應用推出了專用的開源模型與參考藍圖:Isaac GR00T N1.6:一款專為類人機器人打造的開源視覺-語言-行動(VLA)推理模型。它支援機器人的全身控制,並整合了輝達Cosmos Reason模型,以實現更強大的推理能力與上下文理解能力。NVIDIA AI Blueprint for Video Search and Summarization:作為輝達Metropolis平台的一部分,該藍圖提供了一套參考工作流,可用於建構視覺AI智能體。這些智能體能夠分析大量的錄播及直播視訊,從而提升營運效率並保障公共安全。據瞭解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord等企業正採用Cosmos Reason模型,開發麵向交通與職場生產力提升的AI智能體。Franka Robotics、Humanoid和NEURA Robotics則利用Isaac GR00T模型,在機器人大規模量產前,對其全新行為進行模擬、訓練與驗證。針對醫療健康與生命科學的AINVIDIA Clara是專門針對醫療健康與生命科學領域的AI技術工具。核心目標是降低行業成本、加速治療方案落地,打通數字科研與實際醫療應用之間的壁壘。該系列中的多款專項模型各有側重:La-Proteina能設計原子級精度的大型蛋白質;ReaSyn v2在藥物發現階段就開始考慮“如何生產”的問題;KERMT可以預測潛在藥物進入人體後的反應,提前排查安全問題;RNAPro用來預測RNA分子複雜的3D結構,推進個性化醫療方案。模型之外,老黃表示輝達還將為研究者提供含45.5萬個合成蛋白質結構的資料集。總之,老黃的2026開年第一講,真是讓人眼花繚亂了…… (創業邦)
【CES 2026】黃仁勳罕見提前宣佈:新一代GPU全面投產
輝達2026年的首場重頭戲比以往來得更早。當地時間1月5日,在美國CES上,黃仁勳出乎意料地提前發佈了下一代AI晶片平台“Rubin”,打破了輝達通常在每年3月GTC大會上集中公佈新一代架構的傳統。AI競賽進入推理時代,輝達決定加速出擊。Vera Rubin已投產Rubin並非空降。早在2025年3月的GTC大會上,黃仁勳就已預告了代號“Vera Rubin”的超級晶片,並明確其將於2026年量產。此次在CES上,黃仁勳對Rubin平台進行了系統性發佈,Rubin成為輝達最新GPU的代號。“Rubin的到來正逢其時。無論是訓練還是推理,AI對計算的需求都在急劇攀升。”黃仁勳表示,“我們堅持每年推出新一代AI超級電腦,通過六顆全新晶片的極致協同設計,Rubin正在向AI的下一個前沿邁出巨大一步。”Rubin平台採用極端協同設計理念,整合了6顆晶片,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6交換晶片、ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-6乙太網路交換晶片,覆蓋了從計算、網路到儲存與安全的多個層級。相比前代Blackwell架構,Rubin加速器在AI訓練性能上提升3.5倍,運行性能提升5倍,並配備擁有88個核心的新款中央處理器(CPU)。相比輝達Blackwell平台,Rubin平台實現推理token成本最高可降低10倍,訓練MoE(專家混合)模型所需GPU數量減少4倍。同時,Vera Rubin NVL72機櫃級系統和平台同步發佈,命名上非外界預計的NVL144。對此,輝達高管在溝通會上向21世紀經濟報導等記者指出,NVL72指的是72個GPU封裝單元,每個封裝內部包含2個Rubin Die,因此系統中實際包含144個Rubin Die,這並不意味著系統規模變化。在生態層面,Rubin已獲得頭部雲廠商和模型公司的集中響應。AWS、Microsoft、Google、OpenAI、Anthropic、Meta、xAI、CoreWeave等均被列入首批採用名單。Rubin在CES的提前亮相,也引發了外界對輝達產品發佈節奏變化的關注。對此,輝達高管回應稱,目前構成Vera Rubin平台的六顆晶片已經全部到位,相關系統已在運行真實應用負載,並取得了積極結果。此次在CES上提前披露Rubin,主要是為了儘早向生態夥伴提供工程樣品,方便其為後續部署和規模化應用做準備。輝達同時強調,Rubin仍將按照既定節奏推進,計畫在今年下半年進入量產爬坡階段,這一時間安排與此前披露的路線圖保持一致。全端AI佈局隨著AI進入推理階段,黃仁勳展示的不只是Rubin平台。在CES演講中,輝達還發佈了一系列AI體系產品,包括開源模型、AI儲存、物理AI等。這是輝達的全端AI佈局,同時也是其在繼續釋放訊號:AI重心繼續從“訓練規模”轉向“推理系統”。具體來看,輝達發佈了推理上下文儲存平台(Inference Context Memory Storage Platform),這是一個專為推理場景設計的AI原生儲存平台。該平台由BlueField-4 DPU與Spectrum-X乙太網路支撐,在GPU與傳統儲存之間引入新的儲存層,用於高效管理和共享KV Cache,減少重複計算帶來的算力浪費。同時,黃仁勳特別強調了物理AI。在更長期的佈局上,輝達圍繞物理AI推進,發佈了一系列開源模型、開發框架和硬體平台,將AI能力從資料中心延伸至機器人、自動駕駛與工業邊緣場景。黃仁勳表示:“AI已經不再是一次性問答的聊天機器人,而是能夠理解物理世界、進行長期推理、使用工具完成真實工作,並同時保有短期和長期記憶的智能協作者。”面向機器人領域,輝達發佈了Cosmos與GR00T系列開源模型,用於機器人學習、推理與動作規劃。其中,Cosmos Reason 2是一款推理型視覺語言模型(VLM),使機器能夠“看見、理解並在物理世界中行動”;GR00T N1.6 則是一款面向類人機器人的推理型視覺-語言-動作(VLA)模型,用於解鎖全身控制能力。“機器人領域的ChatGPT時刻已經到來,”黃仁勳表示,“能夠理解現實世界、進行推理並規劃行動的物理AI模型,正在解鎖全新的應用場景。輝達覆蓋Jetson、CUDA、Omniverse 以及開源物理AI模型的完整技術堆疊,正在賦能全球合作夥伴,通過AI驅動的機器人重塑各個行業。”在自動駕駛領域,輝達發佈了Alpamayo開源模型家族,定位為面向“長尾場景”的推理型自動駕駛基礎模型。該體系配套發佈了AlpaSim高保真模擬框架以及覆蓋1700多小時駕駛資料的開源資料集,用於訓練和驗證基於推理的自動駕駛系統。黃仁勳表示,輝達的首款AV車將於第一季度在美國推出,其他地區緊隨其後。從Rubin平台的提前亮相,到推理儲存與物理AI的同步推進,輝達正在將AI基礎設施的競爭推向“系統工程能力”。在這一階段,真正拉開差距的,已不只是晶片算力本身,而是從架構、系統到生態的整體交付。 (21世紀經濟報導)
【CES 2026】在拉斯維加斯,看見中國智造的“靈魂”
2026年1月,拉斯維加斯,內華達沙漠的冷風吹不散這座不夜城的燥熱,舉辦了近60年的國際消費電子展(CES)即將開幕。作為全球科技界的風向標,CES向來不缺新鮮事,但今年,來自中國的智造,更亮眼了。在這個全球競技場上,中國科技企業已經有了實力標籤。聯想、TCL、阿里等大廠的實力自不必多說,新起之秀也不遑多讓。CES官網上,“Top Trends”的代表展商裡,赫然出現了中國的宇樹、追覓。如果說幾年前,中國硬體公司出海還帶著“性價比”和“供應鏈溢出”的標籤,現在,這種刻板印象正在被徹底粉碎。全球化風潮下,中國科技企業的硬核技術產品,已經在各處開花。21世紀經濟報導記者在正式開展前,採訪了四家頗具代表性的中國科技公司——星動紀元、傲鯊智能、追覓科技和九號公司。作為觀察樣本,他們分別代表了具身智能、外骨骼、智能清潔領域和智能短交通領域的全球頭部戰力。通過與他們的高管對話,試圖拆解出中國硬科技出海的2026新圖景:一次關於“系統能力”與“全球本土化”的深度躍遷。具身智能跨過“秀場”,進入“考場”早幾年,人形機器人還是CES上的“吉祥物”,但在2026年,它們開始接受實際場景考驗。星動紀元(RobotEra)是第二次參展,其國際業務負責人告訴21世紀經濟報導記者,感觸最深的變化是:“具身智能已跨過‘秀場’,進入‘考場’。”21世紀:過去一年,在你關注的領域,感觸最深的洞察是什麼?(技術進展、AI應用、落地進展及行業瓶頸等等)星動紀元國際業務負責人:最深的洞察是,具身智能已跨過“秀場”,進入“考場”。過去一年,我們見證了三大拐點:技術融合拐點:VLA不再是簡單的視覺-語言-動作對應,VPP世界模型與iRe-VLA線上強化學習的結合,讓機器人首次具備了“預判後果、自主進化”的能力,這是從“模仿”到“理解”的質變。場景落地拐點:市場不再追捧單純的技術炫技,而是錨定真實場景的生產力價值。星動紀元全尺寸雙足人形機器人從刷新跳高世界紀錄的 “運動員”,轉型為海關智能查驗員、物流倉儲分揀員,輪式人形機器人星動 Q5 也落地海爾、聯想、大貓熊基地等多場景實訓;我們推出首個具身智能物流倉儲解決方案並拿下物流場景近5000萬元單筆最大訂單,2025全年累計訂單超5億元,用實打實的商業化成果證明具身智能的產業價值。行業瓶頸:當前行業最大短板仍是模型魯棒性、跨場景泛化能力,以及真實場景的資料閉環效率。硬體層面已基本達到人類操作水平,但 “大腦” 的泛化能力提升難度更高,這也是星動持續深耕端到端具身模型、打造 “學術研發-場景落地-資料反哺” 閉環的核心原因。21世紀:中國科技企業“出海”已進入“深水區”,公司的出海和全球化現在處於什麼狀態,過去一年有那些新認知?星動紀元國際業務負責人:星動紀元的全球化已實現50%海外訂單佔比,業務覆蓋北美、歐洲、中東、日韓核心市場,全球TOP10 市值科技巨頭中9家都是我們的客戶,累計超5億元訂單中,海外業務貢獻“半壁江山”。學術合作是全球化“先手棋”。與MIT、Stanford、伯克利、卡內基梅隆、清華、北大、上海期智研究院等學術頂流共研具身前沿,並與PI團隊聯合研發Ctrl-World可控世界模型,用 “學術前沿突破 + 產業場景驗證” 的模式,建立全球技術話語權。21世紀:2026年,科技技術與全球形勢都將繼續變化,你對行業技術進展與出海有何展望?星動紀元國際業務負責人:技術方面,2026年將是“具身智能世界模型元年”。VLA會進化為VLA-World,機器人將從“執行指令”升級為“理解物理規律並預測未來”。同時,我們的全尺寸雙足人形機器人、全直驅五指靈巧手也將進一步提升適配性與性價比,鞏固全球具身科研標配地位。出海方面,2026年,星動紀元將從 “全球客戶合作” 升級為全球具身智能生態的核心共建者,讓星動的人形機器人,靈巧手成為全球具身智能研究者、開發者的標配工具;深化學術生態持續聯合全球頂尖學府開展核心技術攻關,讓星動的技術體系成為全球具身智能研究的核心底座。AI重構家庭智能,告別“爆點式創新”階段追覓(Dreame)已經連續多次參加CES,今年是規模最大的一年,展館面積超過1800平方米。追覓科技掃地機事業部總裁孟佳告訴21世紀經濟報導記者,AI快速發展,具身智能在掃地機上的應用加速,這給掃地機行業帶來了新的發展機會。“掃地機行業已經告別'爆點式創新'的階段,正在進入系統能力持續進化的周期。”21世紀:過去一年,在你關注的領域,感觸最深的洞察是什麼?追覓科技掃地機事業部總裁孟佳:更清晰地看到掃地機給使用者帶來的便利和滿足。使用者對掃地機的需求正在上升,這背後,是對一個更有秩序、更安心的家的嚮往。隨著掃地機滲透率持續提升,它正在從“可選電器”轉變為家庭空間的基礎設施。我們在裝修場景中看到一個細節變化:越來越多家庭在裝修房子時,會提前為掃地機預留位置,比如將基站主動融入櫃體設計之中。此外,AI快速發展,具身智能在掃地機上的應用加速,這給掃地機行業帶來了新的發展機會。追覓掃地機在行業率先開啟了具身智能的嘗試,我們沿著機械臂技術路線不斷推出機械足、機械手、爬樓機等技術。同時,軟體層面,追覓掃地機也在深化技術探索,在具身智能上不斷探索。我們在CES上,也即將帶來一個智能新物種。21世紀:中國科技企業“出海”已進入“深水區”,公司的出海和全球化現在處於什麼狀態,過去一年有那些新認知?追覓科技掃地機事業部總裁孟佳:追覓掃地機的全球化在加速發展中,目前我們已經在全球120個國家落地,同時在22個國家的市場佔有率第一。過去一年,我們加速了在全球市場開設旗艦店的步伐,更加注重與使用者的情感連結。21世紀:2026年,科技技術與全球形勢都將繼續變化,你對行業技術進展與出海有何展望?追覓科技掃地機事業部總裁孟佳:掃地機行業已經告別“爆點式創新”的階段,正在進入系統能力持續進化的周期。在具身智能、多模態感知和長期記憶能力的加持下,掃地機產品會出現可感知的體驗提升。掃地機不只是把一次清潔任務完成得更好,而是逐漸具備“理解家庭、適應家庭、服務家庭”的能力。這意味著產品形態、互動方式甚至家庭角色,都會被重新定義。從“工具”到“夥伴”,外骨骼技術跨界破圈如果是機器人是為了替代人類的勞動,那麼另一類硬體則是為了延伸人類的潛能。傲鯊智能(ULS Robotics)市場合夥人、董事張華,帶著他們首款消費級產品VIATRIX來到了拉斯維加斯。這家以外骨骼技術著稱的公司,正在做一件極具挑戰的事:把外骨骼從工廠流水線搬到普通人的日常生活中。21世紀:過去一年,在你關注的領域,感觸最深的洞察是什麼?傲鯊智能(ULS Robotics)市場合夥人、董事張華:過去一年,外骨骼技術正跨界破圈,從專業工業場景走向大眾消費市場,通過輕量化、智能化的革新,外骨骼產品正從單純提供助力的功能型工具,轉變賦能普通人日常生活的智能夥伴。這一轉變的核心驅動力,正源於AI與硬體載體的深度融合,傲鯊VIATRIX即是這一趨勢下的代表性創新成果。在軟體端,VIATRIX內建傲鯊獨家AI步態學習系統,僅需4-6步即可精準識別步態並智能匹配,自適應不同環境與運動方式;在硬體端,它採用了業內首創的Float360浮動式髖關節架構,與腿部電機系統高效配合。軟體和硬體層面的雙重創新,使得VIATRIX成功打破了傳統外骨骼的機械拖曳感,實現了真正的人機隨動。21世紀:《21世紀》:中國科技企業“出海”已進入“深水區”,公司的出海和全球化現在處於什麼狀態,過去一年有那些新認知?傲鯊智能(ULS Robotics)市場合夥人、董事張華:自2023年啟動出海佈局以來,傲鯊已成功切入德國、加拿大、阿聯等多個不同區域的重點市場,業務覆蓋全球25個以上的國家和地區。我們深刻意識到,全球化競爭力的核心始終在於技術與產品 —— 憑藉突破性的技術創新與產品體驗,傲鯊構築起了獨特的技術壁壘,更打造出符合使用者核心需求的極致產品,VIATRIX在國內市場的亮眼表現便是最有力的佐證。21世紀:2026年,科技技術與全球形勢都將繼續變化,你對行業技術進展與出海有何展望?傲鯊智能(ULS Robotics)市場合夥人、董事張華:2026年,外骨骼行業技術與出海將圍繞 “使用者需求” 核心穩步推進:技術上,會更智能、更普惠,場景從工業向戶外、日常進一步拓寬,貼合人類突破體能限制、從容生活的本質渴望;出海方面,我們將以核心技術為基礎,做本地化適配與服務,讓 “賦能人類潛能” 的初心跨越國界。說到底,技術創新與全球化佈局,都是為了讓外骨骼真正成為賦能普通人的可靠夥伴。“單純堆砌硬體或功能已無法建構壁壘”作為CES的“老兵”,九號公司(Segway-Ninebot)今年不想只談“車”,而是談“端”。“單純堆砌硬體或功能已無法建構壁壘,”九號公司相關負責人直言,行業競爭已從單一參數的“軍備競賽”,全面轉向 “系統能力躍遷” 的全新周期。21世紀:過去一年,在你關注的領域,感觸最深的洞察是什麼?九號公司相關負責人:過去一年,技術迭代的速度正以前所未有的節奏重塑行業,行業競爭已從單一參數的“軍備競賽”,全面轉向 “系統能力躍遷” 的全新周期。單純堆砌硬體或功能已無法建構壁壘,真正的決勝點在於能否通過底層軟硬體一體化的架構創新,為使用者提供穩定、流暢且智能的整體體驗。例如在電動兩輪車領域,九號去年發佈的行業首個全域作業系統凌波OS,正是這一洞察的實踐——加速推動行業從“通勤代步工具”到“智能出行夥伴”的改變。它讓車輛從“功能疊加”進化為“系統協同”,實現了動力、安全與人機互動體驗的系統性協同與持續進化。21世紀:中國科技企業“出海”已進入“深水區”,公司的出海和全球化現在處於什麼狀態,過去一年有那些新認知?九號公司相關負責人:中國企業的全球化角色正在發生積極的變化。大家從原來單純的供應鏈的製造角色變得更多元了,我們不再僅僅是產品的出海,而是通過技術、設計、品牌及本土化營運綜合實力進行的全球化整合。全球化競爭的本質是本地化創新的深度,為此,我們分為中國、歐洲、美洲事業部,通過深度洞察不同地區使用者的使用習慣、氣候以及對於產品性能、價格的需求來打磨產品,做到產品本土化。這不僅僅是將中國產品賣向全球使用者,更是基於對本地使用者習慣、法規乃至文化的深度洞察,進行從產品定義到市場策略的“再創造”,此外,我們亦積極投身於全球短交通技術標準與安全規範的討論與制定中,致力於將我們的技術實踐助力行業進步。目前,九號公司的全球使用者已超過3400萬,海外營收佔比常年穩定在40%左右。21世紀:2026年,科技技術與全球形勢都將繼續變化,你對行業技術進展與出海有何展望?九號公司相關負責人:面對全球科技迭代與形勢變化,我們的全球化戰略以“設計體驗”和“技術創新”驅動,持續投入,通過創造持續提升的使用者體驗來建構穿越周期的核心競爭力,在技術層面,我們認為以作業系統為核心的軟硬體一體化能力,將成為科技產品的“新基座”;同時,生成式AI等技術與公眾出行、服務場景的結合將催生更自然、更主動的智能體驗。全球化深水區的航海術當技術壁壘被逐漸攻克,全球化這道必答題,中國企業答得如何?“中國企業的全球化角色正在發生積極的變化,”九號公司相關負責人總結道,“大家從原來單純的供應鏈製造角色變得更多元了。”資料佐證了這一趨勢:九號公司的全球使用者超過3400萬,海外營收佔比常年穩定在40%;追覓已在全球120個國家落地,在22個國家市場佔有率第一;星動紀元的海外訂單佔比更是達到了50%,全球前十的科技巨頭中有9家是他們的客戶。但數字背後的“航海術”變了。首先是技術話語權的爭奪。 星動紀元選擇了“學術外交”,與MIT、史丹佛等頂尖學府聯合研發,用學術前沿突破帶動產業驗證,試圖在全球建立技術話語權。其次是本地化的深度洞察。 追覓加速開設海外旗艦店,注重與使用者的情感連結;九號公司則針對不同地區的氣候、習慣打磨產品,甚至參與全球短交通標準的制定。最後是品牌的文化滲透。 正如傲鯊智能所言,全球化競爭力的核心始終在於技術與產品,但出海的本質是讓“賦能人類潛能”的初心跨越國界。站在CES 2026的展館內,可以看到,不僅是中國硬體的集體突圍,更是一種全新技術價值觀的輸出,科技的終極形態,不是讓機器更像機器,而是讓機器更懂人。出海已入深水區,風浪雖大,但航向已定。對於這些中國硬體企業先鋒而言,拉斯維加斯不是終點,而是通向下一個“全球本土化”時代的起跑線。 (21世紀經濟報導)
【CES 2026】輝達 Vera Rubin 晶片問世,算力暴漲5倍,我看傻了...
一年一度的 CES 來了,和往年一樣,我最期待的是輝達老黃的演講。那麼今年他還能帶來什麼重磅嗎?話不多說,直接進正題。那個穿皮衣的男人沒有廢話,直接扔出了一枚足以讓整個 AI 行業重新洗牌的“終極武器”——Vera Rubin 平台。為了不浪費大家時間,90 分鐘的發佈會,我提煉了最核心的 2 個“核彈級”重點,讓大家快速瞭解一下。01|算力暴漲 5 倍:Vera Rubin 架構有多變態?老黃這次徹底不裝了。面對 AI 對算力近乎變態的渴求,他給出的方案簡單粗暴:推倒重來。全新的 Vera Rubin 晶片,架構極其激進:1 個 Vera CPU + 2 個 Rubin GPU。圖:Vera 和 Rubin 晶片圖:NVIDIA Rubin Boxes這一改,資料直接嚇人:推理性能:相比上一代(Grace Blackwell)直接暴漲 5 倍。訓練性能:提升 3.5 倍。能效控制:以前還是風冷液冷混合,現在直接上 100% 全液冷。圖:Rubin GPU光有算力沒用,資料傳不過去也是白搭。這也是這次發佈會被很多人忽視、但極其重要的升級——網路。老黃這次掏出了壓箱底的寶貝:NVLink 6: 採用了 400G SerDes 技術,速度直接比上一代翻倍。圖:NVLink 6這意味著 GPU 之間聊天基本沒有延遲,所有晶片像連體嬰一樣工作。矽光技術(Silicon Photonics): 配合 Spectrum-X 交換機,輝達終於大規模應用了光互連。圖:Spectrum-X圖:Spectrum X switchBlueField 4: 現在的 Vera Rubin 計算節點,出廠就標配這塊 DPU,專門負責處理那些繁雜的資料搬運工作。圖:Bluefield 4最離譜的是那個 NVL72 機架。NVL72 的推理性能將提高 5 倍,訓練性能將提高 3.5 倍。圖:NVL72圖:NVL72 系統老黃在現場透露,這一個櫃子裡塞進了足足 2 英里(約 3.2 公里) 的銅纜!這意味著什麼?意味著以前需要蓋一座機房才能跑的大模型,現在可能塞進這一個櫃子就能搞定。算力成本將斷崖式下跌,AI 的“智商”上限被強行拉高了。02|物理 AI 的覺醒:這一次,AI 真的走出螢幕了如果說第一部分的硬體是“秀肌肉”,那這部分才是老黃真正的野心所在:Physical AI(物理 AI)。什麼叫物理 AI?簡單說,就是 AI 不再只是陪你聊天的 ChatGPT,它長了手腳,有了軀體,開始在現實世界裡幹活了。這一段老黃展示了一套完整的“造物主”系統。1. Alpamayo:會思考的“老司機”以前的自動駕駛,看到紅燈停,看到人讓,那是“規則”。但今天發佈的 Alpamayo 模型,是真正的思考與推理 AI。是全球首款具備思考和推理能力的汽車人工智慧。圖:Alpamayo它不再死板。現場演示中,它能解釋自己的行為: “我剛才減速了,因為我注意到那個人雖然還在路邊,但他的一隻腳已經邁出來了,我推測他要橫穿馬路。”圖:自動駕駛視訊這不僅是開車,這是在理解人類世界。而且,老黃直接宣佈:Alpamayo 開源!(輝達研發自動駕駛已經 8 年了,這是老黃對自動駕駛汽車最熱情的一次。)這一招,基本是要把自動駕駛行業的門檻踏平了。老黃還回顧了 NVIDIA 為此提供的各種模型/框架,包括已經推出幾年的 Cosmos 和 Gr00t。2. Cosmos:給機器人造一個“駭客帝國”機器人怎麼學會走路、拿杯子?去現實裡練太慢了,還容易摔壞。於是,輝達發佈了 Cosmos——一個物理級精度的“世界模擬器”。這是一個瘋狂的閉環:計算即資料: 用算力生成海量的、符合物理定律的虛擬視訊和場景。圖:計算即資料母體特訓: 機器人和汽車在這個虛擬世界裡,一天能跑幾百萬公里,摔倒幾億次。下載大腦: 練成了,直接把“腦子”下載到現實的機器人身上。圖:COSMOS老黃說了一句很玄乎的話:“Cosmos 把算力轉化成了資料。”這解決了機器人行業最大的痛點:資料不足。以後,不需要再去現實裡採集資料了,資料是可以被“算”出來的。3. 機器人的未來:L4 級生態有了腦子(Alpamayo),有了訓練場(Cosmos),再加上輝達的硬體(Thor晶片)。老黃終於湊齊了最後一塊拼圖。圖:L4 生態系統他在現場放出的畫面裡,舊金山不再是那個只有車的城市,而是一個“機器之城”。從奔馳剛剛量產的 CLA,到人形機器人,所有這一切,共享同一個大腦,共享同一套訓練邏輯。圖:全端 AV這真的不是科幻片了。輝達已經把路鋪好了,接下來,就是一大波機器人走進我們生活的時刻。輝達再次展示了他們過去幾年一直在開發的概念驗證機器人,包括他們是怎麼在物理上精確的模擬環境中訓練這些機器人。如何學會成為機器人?一切都在《宇宙全能》中完成。圖:合作夥伴機器人03|寫在最後看完這場發佈會,我的結論只有一個:AI 進化的速度,已經遠遠超過了我們的想像。當算力不再是瓶頸(Vera Rubin),當 AI 能夠理解物理世界的因果關係(Alpamayo),當虛擬世界可以完美反哺現實(Cosmos),我們要面對的,可能真的是一個“新物種”的爆發。正如老黃最後說的:“這是最大的機器人產業。”那個穿著皮衣的男人已經把車門焊死了,車速越來越快。 (AI范兒)
【CES 2026】黃仁勳最新演講:三個關鍵話題,一台“晶片怪獸”
台北時間1月6日,輝達CEO黃仁勳身著標誌性皮衣再次站在CES2026的主舞台上。2025年CES,輝達展示了量產的Blackwell晶片和完整的物理AI技術堆疊。在會上,黃仁勳強調,一個“物理AI時代”正在開啟。他描繪了一個充滿想像力的未來:自動駕駛汽車具備推理能力,機器人能夠理解並思考,AI Agent(智能體)可以處理百萬級 token 的長上下文任務。轉眼一年過去,AI行業經歷了巨大的變革演進。黃仁勳在發佈會上回顧這一年的變化時,重點提到了開源模型。他說,像DeepSeek R1這樣的開源推理模型,讓整個行業意識到:當開放、全球協作真正啟動後,AI的擴散速度會極快。儘管開源模型在整體能力上仍比最前沿模型慢大約半年,但每隔六個月就會追近一次,而且下載量和使用量已經呈爆發式增長。相比2025年更多展示願景與可能性,這一次輝達開始系統性地希望解決“如何實現”的問題:圍繞推理型AI,補齊長期運行所需的算力、網路與儲存基礎設施,顯著壓低推理成本,並將這些能力直接嵌入自動駕駛和機器人等真實場景。在本次黃仁勳在CES上的演講,圍繞三條主線展開:●在系統與基礎設施層面,輝達圍繞長期推理需求重構了算力、網路與儲存架構。以Rubin平台、NVLink 6、Spectrum-X乙太網路和推理上下文記憶體儲存平台為核心,這些更新直指推理成本高、上下文難以持續和規模化受限等瓶頸,解決AI多想一會、算得起、跑得久的問題。●在模型層面,輝達將推理型 AI(Reasoning / Agentic AI)置於核心位置。通過Alpamayo、Nemotron、Cosmos Reason 等模型與工具,推動 AI 從“生成內容”邁向能夠持續思考、從“一次性響應的模型”轉向“可以長期工作的智能體”。●在應用與落地層面,這些能力被直接引入自動駕駛和機器人等物理AI場景。無論是 Alpamayo 驅動的自動駕駛體系,還是GR00T 與 Jetson的機器人生態,都在通過雲廠商和企業級平台合作,推動規模化部署。01從路線圖到量產:Rubin首次完整披露性能資料在本次CES上,輝達首次完整披露了Rubin架構的技術細節。演講中,黃仁勳從Test-time Scaling(推理時擴展)開始鋪墊,這個概念可以理解為,想要AI變聰明,不再只是讓它“多努力讀書”,而是靠“遇到問題時多想一會兒”。過去,AI 能力的提升主要靠訓練階段砸更多算力,把模型越做越大;而現在,新的變化是那怕模型不再繼續變大,只要在每次使用時給它多一點時間和算力去思考,結果也能明顯變好。如何讓“AI多思考一會兒”變得經濟可行?Rubin架構的新一代AI計算平台就是來解決這個問題。黃仁勳介紹,這是一套完整的下一代AI計算系統,通過Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4、Spectrum-6的協同設計,以此實現推理成本的革命性下降。輝達Rubin GPU 是Rubin 架構中負責 AI 計算的核心晶片,目標是顯著降低推理與訓練的單位成本。說白了,Rubin GPU 核心任務是“讓 AI 用起來更省、更聰明”。Rubin GPU 的核心能力在於:同一塊 GPU 能幹更多活。它一次能處理更多推理任務、記住更長的上下文,和其他 GPU 之間的溝通也更快,這意味著很多原本要靠“多卡硬堆”的場景,現在可以用更少的 GPU 完成。結果就是,推理不但更快了,而且明顯更便宜。黃仁勳現場給大家複習了Rubin架構的NVL72硬體參數:包含220兆電晶體,頻寬260 TB/秒,是業界首個支援機架規模機密計算的平台。整體來看,相比Blackwell,Rubin GPU在關鍵指標上實現跨代躍升:NVFP4 推理性能提升至 50 PFLOPS(5 倍)、訓練性能提升至 35 PFLOPS(3.5 倍),HBM4 記憶體頻寬提升至 22 TB/s(2.8 倍),單 GPU 的 NVLink 互連頻寬翻倍至 3.6 TB/s。這些提升共同作用,使單個 GPU 能處理更多推理任務與更長上下文,從根本上減少對 GPU 數量的依賴。Vera CPU是專為資料移動和Agentic處理設計的核心元件,採用88個輝達自研Olympus核心,配備1.5 TB系統記憶體(是上代Grace CPU的3倍),通過1.8 TB/s的NVLink-C2C技術實現CPU與GPU之間的一致性記憶體訪問。與傳統通用CPU不同,Vera專注於AI推理場景中的資料調度和多步驟推理邏輯處理,本質上是讓“AI多想一會兒”得以高效運行的系統協調者。NVLink 6通過3.6 TB/s的頻寬和網路內計算能力,讓Rubin架構中的72個GPU能像一個超級GPU一樣協同工作,這是實現降低推理成本的關鍵基礎設施。這樣一來,AI 在推理時需要的資料和中間結果可以迅速在 GPU 之間流轉,不用反覆等待、複製或重算。在Rubin架構中,NVLink-6負責GPU內部協同計算,BlueField-4負責上下文與資料調度,而ConnectX-9則承擔系統對外的高速網路連線。它確保Rubin系統能夠與其他機架、資料中心和雲平台高效通訊,是大規模訓練和推理任務順利運行的前提條件。相比上一代架構,輝達也給出具體直觀的資料:相比 NVIDIA Blackwell 平台,可將推理階段的 token 成本最高降低10倍,並將訓練混合專家模型(MoE)所需的 GPU 數量減少至原來的1/4。輝達官方表示,目前微軟已承諾在下一代Fairwater AI超級工廠中部署數十萬Vera Rubin晶片,CoreWeave等雲服務商將在2026年下半年提供Rubin實例,這套“讓AI多想一會兒”的基礎設施正在從技術演示走向規模化商用。02“儲存瓶頸”如何解決?讓AI“多想一會兒”還面臨一個關鍵技術挑戰:上下文資料該放在那裡?當AI處理需要多輪對話、多步推理的複雜任務時,會產生大量上下文資料(KV Cache)。傳統架構要麼把它們塞進昂貴且容量有限的GPU記憶體,要麼放到普通儲存裡(訪問太慢)。這個“儲存瓶頸”如果不解決,再強的GPU也會被拖累。針對這個問題,輝達在本次CES上首次完整披露了由BlueField-4驅動的推理上下文記憶體儲存平台(Inference Context Memory Storage Platform),核心目標是在GPU記憶體和傳統儲存之間建立一個“第三層”。既足夠快,又有充足容量,還能支撐AI長期運行。從技術實現上看,這個平台並不是單一元件在發揮作用,而是一套協同設計的結果:BlueField-4 負責在硬體層面加速上下文資料的管理與訪問,減少資料搬移和系統開銷;Spectrum-X 乙太網路提供高性能網路,支援基於 RDMA 的高速資料共享;DOCA、NIXL和Dynamo等軟體元件,則負責在系統層面最佳化調度、降低延遲、提升整體吞吐。我們可以理解為,這套平台的做法是,將原本只能放在GPU記憶體裡的上下文資料,擴展到一個獨立、高速、可共享的“記憶層”中。一方面釋放 GPU 的壓力,另一方面又能在多個節點、多個 AI 智能體之間快速共享這些上下文資訊。在實際效果方面,輝達官方給出的資料是:在特定場景下,這種方式可以讓每秒處理的 token數提升最高達5倍,並實現同等水平的能效最佳化。黃仁勳在發佈中多次強調,AI正在從“一次性對話的聊天機器人”,演進為真正的智能協作體:它們需要理解現實世界、持續推理、呼叫工具完成任務,並同時保留短期與長期記憶。這正是 Agentic AI 的核心特徵。推理上下文記憶體儲存平台,正是為這種長期運行、反覆思考的 AI 形態而設計,通過擴大上下文容量、加快跨節點共享,讓多輪對話和多智能體協作更加穩定,不再“越跑越慢”。03新一代DGX SuperPOD :讓576個GPU協同工作輝達在本次CES上宣佈推出基於Rubin架構的新一代DGX SuperPOD(超節點),將Rubin從單機架擴展到整個資料中心的完整方案。什麼是DGX SuperPOD?如果說Rubin NVL72是一個裝有72個GPU的“超級機架”,那麼DGX SuperPOD就是把多個這樣的機架連接起來,形成一個更大規模的AI計算叢集。這次發佈的版本由8個Vera Rubin NVL72機架組成,相當於576個GPU協同工作。當AI任務規模繼續擴大時,單個機架的576個GPU可能還不夠。比如訓練超大規模模型、同時服務數千個Agentic AI智能體、或者處理需要數百萬token上下文的複雜任務。這時就需要多個機架協同工作,而DGX SuperPOD就是為這種場景設計的標準化方案。對於企業和雲服務商來說,DGX SuperPOD提供的是一個“開箱即用”的大規模AI基礎設施方案。不需要自己研究如何把數百個GPU連接起來、如何配置網路、如何管理儲存等問題。新一代DGX SuperPOD五大核心元件:○8個Vera Rubin NVL72機架 - 提供計算能力的核心,每個機架72個GPU,總共576個GPU;○NVLink 6擴展網路 - 讓這8個機架內的576個GPU能像一個超大GPU一樣協同工作;○Spectrum-X乙太網路擴展網路 - 連接不同的SuperPOD,以及連接到儲存和外部網路;○推理上下文記憶體儲存平台 - 為長時間推理任務提供共享的上下文資料儲存;○輝達Mission Control軟體 - 管理整個系統的調度、監控和最佳化。這一次的升級,SuperPOD的基礎以DGX Vera Rubin NVL72機架級系統為核心。每一台 NVL72本身就是一台完整的AI超級電腦,內部通過NVLink 6 將72塊Rubin GPU 連接在一起,能夠在一個機架內完成大規模推理和訓練任務。新的DGX SuperPOD,則由多台NVL72 組成,形成一個可以長期運行的系統級叢集。當計算規模從“單機架”擴展到“多機架”後,新的瓶頸隨之出現:如何在機架之間穩定、高效地傳輸海量資料。圍繞這一問題,輝達在本次 CES 上同步發佈了基於 Spectrum-6 晶片的新一代乙太網路交換機,並首次引入“共封裝光學”(CPO)技術。簡單來看,就是將原本可插拔的光模組直接封裝在交換晶片旁邊,把訊號傳輸距離從幾米縮短到幾毫米,從而顯著降低功耗和延遲,也提升了系統整體的穩定性。04輝達開源AI“全家桶”:從資料到程式碼一應俱全本次CES上,黃仁勳宣佈擴展其開源模型生態(Open Model Universe),新增和更新了一系列模型、資料集、程式碼庫和工具。這個生態覆蓋六大領域:生物醫學AI(Clara)、AI物理模擬(Earth-2)、Agentic AI(Nemotron)、物理AI(Cosmos)、機器人(GR00T)和自動駕駛(Alpamayo)。訓練一個AI模型需要的不只是算力,還需要高品質資料集、預訓練模型、訓練程式碼、評估工具等一整套基礎設施。對大多數企業和研究機構來說,從零開始搭建這些太耗時間。具體來說,輝達開源了六個層次的內容:算力平台(DGX、HGX等)、各領域的訓練資料集、預訓練的基礎模型、推理和訓練程式碼庫、完整的訓練流程指令碼,以及端到端的解決方案範本。Nemotron系列是此次更新的重點,覆蓋了四個應用方向。在推理方向,包括Nemotron 3 Nano、Nemotron 2 Nano VL等小型化推理模型,以及NeMo RL、NeMo Gym等強化學習訓練工具。在RAG(檢索增強生成)方向,提供了Nemotron Embed VL(向量嵌入模型)、Nemotron Rerank VL(重排序模型)、相關資料集和NeMo Retriever Library(檢索庫)。在安全方向,有Nemotron Content Safety內容安全模型及配套資料集、NeMo Guardrails護欄庫。在語音方向,則包含Nemotron ASR自動語音識別、Granary Dataset語音資料集和NeMo Library語音處理庫。這意味著企業想做一個帶RAG的AI客服系統,不需要自己訓練嵌入模型和重排序模型,可以直接使用輝達已經訓練好並開源的程式碼。05物理AI領域,走向商業化落地物理AI領域同樣有模型更新——用於理解和生成物理世界視訊的Cosmos,機器人通用基礎模型Isaac GR00T、自動駕駛視覺-語言-行動模型Alpamayo。黃仁勳在CES上聲稱,物理AI的“ChatGPT時刻”快要來了,但面對挑戰也很多:物理世界太複雜多變,採集真實資料又慢又貴,永遠不夠用。怎麼辦呢?合成資料是條路。於是輝達推出了Cosmos。這是一個開放原始碼的物理AI世界基礎模型,目前已經用海量視訊、真實駕駛與機器人資料,以及3D模擬做過預訓練。它能理解世界是怎麼運行的,可以把語言、圖像、3D和動作聯絡起來。黃仁勳表示,Cosmos能實現不少物理AI技能,比如生成內容、做推理、預測軌跡(那怕只給它一張圖)。它可以依據3D場景生成逼真的視訊,根據駕駛資料生成符合物理規律的運動,還能從模擬器、多攝影機畫面或文字描述生成全景視訊。就連罕見場景,也能還原出來。黃仁勳還正式發佈了Alpamayo。Alpamayo是一個面向自動駕駛領域的開源工具鏈,也是首個開放原始碼的視覺-語言-行動(VLA)推理模型。與之前僅開放原始碼不同,輝達這次開源了從資料到部署的完整開發資源。Alpamayo最大的突破在於它是“推理型”自動駕駛模型。傳統自動駕駛系統是“感知-規劃-控制”的流水線架構,看到紅燈就剎車,看到行人就減速,遵循預設規則。而Alpamayo引入了“推理”能力,理解複雜場景中的因果關係,預測其他車輛和行人的意圖,甚至能處理需要多步思考的決策。比如在十字路口,它不只是識別出“前方有車”,而是能推理”那輛車可能要左轉,所以我應該等它先過”。這種能力讓自動駕駛從“按規則行駛”升級到“像人一樣思考”。黃仁勳宣佈輝達DRIVE系統正式進入量產階段,首個應用是全新的梅賽德斯-奔馳CLA,計畫2026年在美國上路。這款車將搭載L2++級自動駕駛系統,採用“端到端AI模型+傳統流水線”的混合架構。機器人領域同樣有實質性進展。黃仁勳表示包括Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics和XRlabs在內的全球機器人領軍企業,正在基於輝達Isaac平台和GR00T基礎模型開發產品,覆蓋了從工業機器人、手術機器人到人形機器人、消費級機器人的多個領域。在發佈會現場,黃仁勳背後站滿了不同形態、不同用途的機器人,它們被集中展示在分層舞台上:從人形機器人、雙足與輪式服務機器人,到工業機械臂、工程機械、無人機與手術輔助裝置,展現出一版“機器人生態圖景”。從物理AI應用到RubinAI計算平台,再到推理上下文記憶體儲存平台和開源AI“全家桶”。輝達在CES上展示的這些動作,構成了輝達對於推理時代AI基礎設施的敘事。正如黃仁勳反覆強調的那樣,當物理 AI 需要持續思考、長期運行,並真正進入現實世界,問題已經不再只是算力夠不夠,而是誰能把整套系統真正搭起來。CES 2026 上,輝達已經給出了一份答卷。 (騰訊科技)