#ChatGPT
AI晶片公司,拿下OpenAI百億美元大單
據報導,OpenAI 已達成一項數十億美元的協議,將從初創公司 Cerebras Systems 購買計算能力。Cerebras Systems 由首席執行長Sam Altman支援。這是 ChatGPT 製造商 OpenAI 簽署的一系列晶片和雲交易中的最新一筆。OpenAI計畫使用Cerebras公司設計的晶片為其熱門聊天機器人提供動力,兩家公司周三宣佈了這一消息。OpenAI已承諾在未來三年內從Cerebras購買高達750兆瓦的計算能力。據知情人士透露,這筆交易價值超過100億美元。Cerebras公司設計的人工智慧晶片聲稱,其運行AI模型和生成響應的速度比行業領導者輝達更快。OpenAI首席執行長奧特曼是Cerebras的個人投資者,兩家公司曾在2017年探討過合作事宜。據OpenAI公告,Cerebras 建構專用人工智慧系統,旨在加速人工智慧模型的長時間輸出。其獨特的速度優勢源於將海量計算能力、記憶體和頻寬整合於單個巨型晶片上,從而消除了傳統硬體上導致推理速度下降的瓶頸。將 Cerebras 整合到我們的計算解決方案組合中,旨在顯著提升 AI 的響應速度。當您提出複雜問題、生成程式碼、建立圖像或運行 AI 代理時,後台會進行一個循環:您傳送請求,模型進行思考,然後返回結果。當 AI 能夠即時響應時,使用者可以利用它完成更多操作,停留更長時間,並運行更高價值的工作負載。我們將分階段把這種低延遲能力整合到我們的推理堆疊中,並擴展到各種工作負載。OpenAI的Sachin Katti表示:“OpenAI的計算戰略是建構一個彈性系統組合,將合適的系統與合適的工作負載相匹配。Cerebras為我們的平台增加了一個專用的低延遲推理解決方案。這意味著更快的響應速度、更自然的互動以及更強大的基礎,可以將即時AI擴展到更多的人群。”“我們很高興能與 OpenAI 合作,將世界領先的 AI 模型帶到世界上速度最快的 AI 處理器上。正如寬頻改變了網際網路一樣,即時推理也將改變 AI,從而實現建構 AI 模型和與 AI 模型互動的全新方式,”Cerebras 聯合創始人兼首席執行長 Andrew Feldman 表示。該產能將分批投入使用,直至 2028 年。和輝達談判的籌碼OpenAI正加緊獲取更多資料中心容量,為下一階段的增長做好準備。該公司每周使用者超過9億,高管們多次表示,他們正面臨嚴重的計算資源短缺問題。OpenAI也在尋找比輝達晶片更便宜、更高效的替代方案。去年,OpenAI宣佈正與博通合作開發定製晶片,並單獨簽署協議,使用AMD的新型MI450晶片。OpenAI 和 Cerebras 於去年秋季開始洽談合作事宜,並在感恩節前簽署了合作意向書,Cerebras 首席執行長Andrew Feldman在接受採訪時表示。費爾德曼在接受《華爾街日報》視訊採訪時展示了一系列演示,其中搭載 Cerebras 晶片的聊天機器人比使用競爭對手處理器的聊天機器人能更快地響應使用者。他表示,正是由於他的晶片能夠更快地處理人工智慧計算,才促使 OpenAI 與其達成合作協議。費爾德曼說:“目前推動市場的因素是‘對快速計算的非凡需求’。”OpenAI 基礎設施主管Sachin Katti表示,該公司在工程師反饋希望晶片能夠更快地運行 AI 應用(特別是用於編碼)後,開始考慮與 Cerebras 建立合作關係。“OpenAI收入的最大預測指標是計算能力,”Katti在一次採訪中表示。“過去兩年,我們的計算能力每年都增長了兩倍,收入也每年增長了兩倍。”據知情人士透露,Cerebras正在洽談以220億美元的估值融資10億美元,這將使其估值增長近三倍。此前,《The Information》曾報導過該公司的融資談判。據市場研究公司 PitchBook 的資料顯示,該公司已累計籌集 18 億美元資金,還不包括新籌集的資金,投資者包括 Benchmark、阿聯公司 G42、Fidelity Management & Research Co. 和 Atreides Management。專注於推理(即運行訓練好的 AI 模型來生成響應的過程)的晶片初創公司需求旺盛,因為 AI 公司競相獲取能夠提供快速、經濟高效的計算能力的尖端技術。輝達去年12月與Groq簽署了一項價值200億美元的授權協議,使其能夠使用這家初創公司開發的、同樣用於處理此類任務的晶片。今年9月,這家晶片巨頭還與OpenAI簽署了一項初步協議,擬向其出售價值高達10吉瓦的晶片,但該協議尚未最終敲定。Cerebras成立於大約十年前,近年來一直難以在半導體市場站穩腳跟。該公司在2024年提交上市申請時披露,其大部分收入來自一家客戶——總部位於阿布扎比的G42公司。Cerebras在次年撤回了上市計畫,轉而通過私募融資11億美元。該交易對公司的估值為81億美元。Feldman表示,Cerebras此後已與IBM和Meta簽署了新的合作協議。penAI正面臨投資者對其支付計算服務合同能力的日益擔憂。去年,該公司營收約為130億美元,僅佔其與Oracle、微軟和亞馬遜簽署的近6000億美元新雲合同的一小部分。OpenAI首席執行長奧特曼表示,公司將通過未來的營收增長來支付這些分階段履行的合同款項。根據奧特曼和埃隆·馬斯克(OpenAI聯合創始人)之間未決訴訟中公開的法庭檔案顯示,2017年,OpenAI曾討論與Cerebras建立合作關係。費爾德曼在採訪中表示,大約在同一時期,他拒絕了馬斯克收購ChatGPT開發商Cerebras的提議。據《華爾街日報》報導,OpenAI正處於新一輪大規模融資的早期階段,以繼續為其龐大的增長計畫提供資金。預計這筆新投資將在首次公開募股(IPO)之前完成,屆時OpenAI的估值(在新投資之前)可能達到8300億美元。 (半導體行業觀察)
DeepSeek等8大產品都是意外?! 改變世界的項目們,最初都沒被“當個事兒辦”
這些改變世界的產品,最初居然都是不被當回事兒的支線項目(side project)?!包括但不限於:DeepSeek:幻方量化的支線項目Qwen:阿里的支線項目Claude Code:Anthropic的支線項目ChatGPT:OpenAI的的支線項目PyTorch:Meta的支線項目Gmail:Google的支線項目Twitter(現𝕏):Odeo的支線項目Slack:Tiny Speck的支線項目就說例舉的這8個項目裡面,你日常會用幾個吧(doge臉等答案)~反正,隨便單獨拎那一個出來,都會讓人小小詫異一下:這居然也能是個支線項目?不過我們先來界定一下,什麼叫做“支線項目”。簡單來說,就是非主線、非KPI驅動、最初非戰略立項。這些項目成立之初並不重要,更不是公司翻身的戰略方案。所以失敗也好,和主線方向衝突也罷,都沒有太大關係。但——用熱烈討論的網友的話來說:沒有項目經理、銷售、GTMs、合規、股東,支線項目總是魔法生效的地方。從國內到矽谷,side project神話屢見不鮮廢話不多說,先來看國內做副業做得比主業還家喻戶曉的幻方量化。也就是DeepSeek背後的母公司。幻方確實很技術范兒——在幻方量化內部,長期存在大量圍繞算力、模型和工程效率的技術研究。但幻方並不是一家專門的AI Lab,所以上述這些研究首先服務於量化交易本身。更多時候,AI的作用都是輔助金融市場的分析研究,妥妥的支線工具屬性。所以,DeepSeek並不是在聚光燈下誕生的項目,是沿著內部技術演進自然延伸出來的結果。這一點非常關鍵。這種狀態,恰恰讓它能夠繞開很多創業項目必經的約束,比如節奏、敘事、融資節點、對外承諾……總之就是技術可以先跑在需求前面。更別提做量化起家的幻方,完全不缺卡了。畢竟這個時代算力為王,誰能擁有更豐富的GPU叢集,誰就佔據資源優勢,而幻方量化顯然將這點做到了極致。同時長期深耕金融專業場景,也讓它擁有得天獨厚的資料優勢,在研發通用智能時也會更傾向於注重模型推理和數學能力。長期高強度的演算法投入,加上頂尖的人才儲備,幻方量化能打造出爆款AI,可謂天時地利人和。而同屬國內開源大模型第一梯隊的Qwen其實也是支線項目。通義千問技術負責人林俊暘在𝕏上公開:Qwen was a side project。作為成熟的老牌網際網路公司,阿里早期在大模型上的戰略定位更多的還是面向行業ToB使用者,大模型的商業化交付才是絕對主線。Qwen則堅定走上了一條開源道路。而且據林俊暘所說,side project能夠提高成功機率。一是因為沒有過度的決策參與,把自主權交還給真正寫模型的人。二是微觀管理少,更大的試錯空間換來更快的迭代速度。簡單來說,在Qwen的早期發展中,阿里不是完全不管,也不是嚴加看管,而是找到了一條折中的道路。即儘可能給予研究團隊空間,以支線任務的形式“放養”,在證明其價值後,再逐步融入主線資源。再看矽谷,同樣的典型案例有Claude Code。最初,它不過是工程師Boris Cherny的一個Claude實驗性工程:通過連接AppleScript,它能告訴使用者正在聽什麼音樂,還能切換在播的音樂。有用肯定是有用,但聽起來有點平平無奇(?某次和產品經理交流後,Cherny意識到,或許可以給終端來點和系統檔案互動的工具,比如讀檔案、寫檔案,還有運行批處理命令什麼的。Anyway,Claude Code就這樣在相當偶然的情況下誕生了。初露苗頭時,它只是一個員工基於自家大模型手搓的side project。但正式面市後,隨即產生了暴風式傳播效應,並成為Anthropic的當家產品之一。Boris Cherny在𝕏上記錄道:一年前,Claude在生成bash命令時難以避免轉義錯誤。而且它一次只能工作幾秒或幾分鐘。快進到今天。在過去的三十天裡,我提交了259個PR——497次提交,加入了40000行程式碼,刪除了38000行程式碼。每一行程式碼都是由Claude Code+Opus4.5編寫的。Claude持續運行數分鐘、數小時甚至數天。軟體工程的範式正在改變。誰也沒想到,當初一個並未委以重任的支線項目,現在已經成了一股繞不開的力量,推著我們走進程式設計新時期。支線項目說不定會出現更多“逆襲”故事AI加速進入軟體工程流程之後,試錯的成本被明顯拉低了。過去需要團隊協作和資源協調才能完成的探索,現在能由個人更輕鬆、更迅速地來完成初步驗證。從這個角度來想的話,其實真的不用把“探索”當作正經必須立項的行為了。因為你每天就干自己的活,都有可能探索個新思路或者新方法出來。許多支線項目都是在這種條件下出現——從解決一個具體問題開始,通過真實使用不斷修正方向,然後逐漸茁壯成長,最終成為一根根台柱子。現在,AI能很好地縮短從想法到驗證的距離。像Claude Code這樣的項目,並不是一開始就奔著“核心工具”去,而是在不斷使用中積累成熟度,最終進入真實生產流程。當試錯足夠便宜,能否被迅速使用和反饋就更加重要,小項目的價值也隨之改變。就說是不是直接放大了個人探索的價值吧!不過,AI雖然提升了執行效率,卻未必同步提升戰略判斷的精準性。在技術環境變化時,主線項目更容易被原有判斷束縛,而且老話說什麼來著,船大難掉頭。這只是某一側重點下的對比結果,我們絕對不是在說抨擊主線項目,或者說主線項目就會因此失去意義。只是在當下,有些東西發生了變化。支線項目探索的成本更低,反饋更快,也為主線在方向被驗證後承接規模化任務打下了堅實基礎。這種變化還在進行中,其最終形態並不清晰。不過可以看到一個清晰的趨勢——在AI時代,一些關乎未來方向的早期訊號,或許會越來越多地出現在那些一開始並不被當成正事兒的項目裡。One More ThingBTW,並不是所有的支線項目變成主項目後,都能很快拿到一個好的結果的。Be like:(量子位)
AI重構C端醫療
醫藥投資圈曾流行一種偏見,投資人普遍認為數字醫療是個偽命題。他們眼中的醫療需求存在一個“不可能三角”:低頻、高門檻、非標品。普通人不會天天看病,醫生需要十年培養,每個人的病歷都獨一無二。這導致網際網路醫療平台常年陷於買流量的泥潭——獲客成本極高,使用者留存極低。螞蟻阿福與OpenAI health打開C端AI醫療想像空間。然而,這一刻板印象正在被AI時代的資料洪流無情擊碎,C端的AI醫療需求實際上是極其驚人的,它一直都存在,只是過去缺乏一個足夠低門檻、低成本且足夠智能的互動容器來承接。當互動成本降至零,且反饋質量達到准專業級時,AI醫療這種沉默的剛需瞬間爆發了。在兩個AI超級巨頭的動作中看到了這種爆發,一個是中國的螞蟻集團,一個是美國的OpenAI。在中國,螞蟻集團旗下的“阿福”,其月活躍使用者數已在一個月內翻倍突破3000萬,單日提問量超過1000萬次。大洋彼岸,OpenAI於2026年1月7日正式推出OpenAI Health。OpenAI的資料顯示,全球每周有超過2.3億人次在ChatGPT上諮詢健康問題。這甚至發生在該產品推出之前,這種需求是溢出的,是迫切的。螞蟻阿福與OpenAI Health選擇單獨做一個入口,源於對C端醫療需求的精準把握。醫療資料的敏感性,它需要物理級的隔離,需要金融級的安全,需要讓使用者敢於把最隱私的病歷上傳。螞蟻阿福和OpenAI Health,正式確認搜尋引擎主導醫療資訊的時代結束了,智能體(Agent)接管個人健康的時代開始了。01. 螞蟻“阿福”的需求驗證2025年12月,螞蟻集團將旗下AI健康應用正式升級為“螞蟻阿福”。但隨後的資料表現超出了所有人的預期。在品牌升級後的短短一個月內,螞蟻阿福的月活躍使用者數從1500萬迅速翻倍至3000萬,日均使用者提問量突破1000萬次。這組資料背後隱藏著兩個關鍵的行業洞察。首先是AI對健康全鏈路生態的打通。螞蟻阿福不再僅僅是一個問答框,它打通了華為、蘋果、OPPO等十大品牌的智能裝置,將硬體資料與“健康小目標”結合,實現了從日常監測到線上問診、線下就醫的全鏈路覆蓋。它連結了全國5000家醫院和30萬真人醫生,讓AI不僅能“聊天”,更能“辦事”。其次是驗證下沉市場的巨大需求。資料顯示,阿福55%的使用者來自三線及以下城市 。在一二線城市,人們或許可以便捷地前往三甲醫院,但在醫療資源匱乏的下沉市場,人們極其渴望一個能夠隨時解答健康疑惑、且完全免費的“專家”。螞蟻阿福正是切中了這一痛點,它用AI技術填平了醫療資源分配不均的鴻溝,將低頻的嚴肅醫療轉化為了高頻的健康陪伴。02. OpenAI 的獨立入口邏輯2026年1月7日,OpenAI正式發佈ChatGPT Health。最引人注目的變化在於OpenAI決定:它將Health功能在側邊欄開闢了一個獨立的入口。為什麼要這麼做?核心邏輯在於大模型與隱私安全的衝突。OpenAI非常清楚,使用者在寫程式碼、寫文案時需要的是效率與創意,而在諮詢病情時需要的則是絕對的安全感與隱私保護。如果使用者擔心自己的病歷會被拿去訓練AI,或者擔心在演示工作時AI突然跳出關於隱私疾病的建議,那麼他們永遠不會把真實的健康資料交給AI。因此,OpenAI設計了一種近似物理隔離的架構。在儲存層面,Health空間內的對話、檔案與資料,全部與主介面分開儲存。Health擁有獨立的記憶系統,這些記憶絕不會“回流”到主對話中。這意味著,你在Health裡諮詢了心理疾病,轉頭去主介面進行程式設計演示時,AI絕不會洩露任何相關資訊。更關鍵的是,OpenAI明確承諾:Health中的對話資料不會被用於訓練其基礎模型。只有建立了這種信任,頂級醫療機構才敢與它合作,使用者才敢上傳自己的基因檢測報告。獨立入口,實際上是OpenAI為醫療AI建立的一道“信任防火牆”。03. AI醫療功能矩陣ChatGPT Health的野心遠不止於做一個聊天機器人,它試圖通過強大的生態連接,接管使用者健康的全生命周期。目前的醫療資料往往呈現極度碎片化的狀態,散落在醫院的電子病歷(EMR)、紙質報告、智能手錶的App以及各類垂直應用中。ChatGPT Health並未試圖自己去一家家醫院談介面,這在商業上是不經濟的。它選擇了一個關鍵的戰略合作夥伴——b.well Connected Health。b.well作為美國最大的即時聯網健康資料網路之一,基於FHIR標準建構了底層基礎設施。通過這一合作,ChatGPT Health得以解決大模型面對雜亂醫療資料時的“讀不懂”難題。使用者在Health中授權後,可以一鍵拉取自己在不同醫院的病歷,AI不僅能看懂結構化的化驗單,還能深入理解非結構化的臨床筆記與出院小結。除了靜態病歷,ChatGPT Health還通過Apple Health整合,接入了動態的生理體徵資料,這使得AI的建議具備了時間維度。當使用者抱怨“心悸”時,ChatGPT可以立即調取過去24小時的心率變異性(HRV)資料,結合使用者的既往病史,判斷這是否是需要立即就醫的緊急情況。此外,OpenAI還引入了Instacart、AllTrails等合作夥伴,打通了從“建議”到“行動”的最後一公里。AI可以根據你的代謝資料生成飲食計畫,並直接轉化為Instacart的購物清單;也可以根據你的體能狀況,在AllTrails上推薦合適的徒步路線。這種從資料匯聚到行動落地的閉環能力,正是AI Agent相對於傳統網際網路醫療的降維打擊。在12月更新的螞蟻阿福中,這些相似功能都有推出,並且進一步打通了從日常健康諮詢到線上問診、線下就醫的全鏈路服務,印證了東西方C端AI醫療需求的共性。04. AI醫療估值邏輯的重塑從螞蟻阿福到OpenAI Health,中美兩大科技巨頭的動作預示著行業競爭邏輯的根本性轉變。首先是流量入口的徹底重構。過去二十年,使用者獲取健康資訊主要依賴搜尋引擎,商業模式是基於關鍵詞的廣告競價。這種模式天然存在利益衝突,導致資訊質量良莠不齊。OpenAI Health代表了一種新的入口形態——對話式服務。如果使用者習慣了直接向AI索取基於個人資料的精準答案,WebMD、百度健康等傳統內容型平台的價值將被迅速稀釋,流量將不可逆轉地向擁有私有資料壁壘的AI Agent集中。其次是線下服務的價值重估。在AI時代,演算法本身正在變得廉價,算力可以購買,唯有真實世界的高品質資料是稀缺的,線下服務商將從單純的“人力服務者”轉型為“資料資產商”。最後是對“信任”的定價。OpenAI Health刻意強調的隱私隔離與不訓練承諾,實際上是在為信任定價。在AI時代,唯有信任是最昂貴的貨幣。使用者敢於將自己最隱秘的病歷上傳給OpenAI,是因為相信其隱私架構。這種信任將成為OpenAI Health未來商業化(如高級訂閱、保險合作)的核心溢價來源。未來的阿福或OpenAI Health,將是一個24小時線上、瞭解你一切生理資料、並能調動現實世界資源的超級健康管家,也成為了改變AI醫療生態的推動者。 (硬AI)
干翻 ChatGPT,市值超蘋果,這就是 AI 圈最大爽文
今天上午,智譜以「全球大模型第一股」的身份登陸港交所主機板,而幾乎前後腳,遠在大洋彼岸的 Google 母公司 Alphabet 股價逆市上漲 2.5%,市值攀升至 3.89 兆美元,這是自 2019 年以來,其市值首次超過蘋果。兩件看似獨立的事,實則指向同一邏輯:AI 催生的行業想像力,最終都要落到到商業價值的兌現上。其中,Google 的反超尤為值得關注——僅用三年時間完成了在 AI 賽道上的逆風翻盤。究其原因,根據外媒多篇報導,我們也可以拆解出 Google 的 AI 三板斧:技術打底、資源合併、商業落地。三步環環相扣,構成了 Google AI 戰略的完整閉環。三年磨一劍,Google  AI 實現逆風翻盤Google 真正的轉機,始於一次關鍵的內部資源整合。而這一切的基礎,早在十多年前就已埋下伏筆。2011 年,Google 成立了 Google Brain 研究部門,由電腦科學家傑夫·迪恩(Jeff Dean)聯合創辦。這個部門研發的神經網路技術,後來成為所有大型語言模型的核心底層支撐,為 Google 的 AI 佈局打下了堅實的技術基礎。數年後,Google 收購了位於倫敦的 AI 研究實驗室 DeepMind。後者正是由國際象棋神童德米斯·哈薩比斯(Demis Hassabis)聯合創立,其開發的 AI 系統在生物分子研究領域取得重大突破,哈薩比斯也因此獲得諾貝爾獎。到了 2023 年初,傑夫·迪恩與德米斯·哈薩比斯牽頭,推動 DeepMind 與 Google Brain 合併,並向董事會提交了「打造公司史上最強 AI 模型」的戰略計畫,明確將多模態技術作為核心發展方向。2023 年底,Google 正式發佈首款 Gemini 模型,這是其資源整合後的首個核心成果,標誌著其多模態 AI 戰略進入落地階段。與 OpenAI 主打文字訓練的 ChatGPT 不同,手握全球充沛資料的 Google,為 Gemini 建構了涵蓋文字、程式碼、音訊、圖像及視訊的多模態訓練體系。這一策略雖然延長了開發周期,且首款 Gemini 在多項核心指標上仍落後於 ChatGPT,但卻為後續 Gemini 3 系列的反超奠定了基礎。謝爾蓋·布林(Sergey Brin)值得一提的是,就在 Google 上下焦頭爛額的時候,已經退休的聯合創始人謝爾蓋·布林,在一次聚會上被 OpenAI 研究員 Daniel Selsam 當面問住了:你為什麼不全職投身 AI?ChatGPT 的發佈難道沒激發你的熱情嗎?作為 Google(現 Alphabet)的聯合創始人之一,謝爾蓋·布林自 2019 年卸任總裁,一直退居幕後,Daniel 的提問讓布林深受觸動,於是決定重返公司一線。儘管如今看來有些英雄主義的馬後炮,但伴隨著布林以「創始人模式」全面回歸,Google 也順勢完成了一次「再創業」式的組織調整。除了直接參與 Gemini 模型的問題排查與技術最佳化。他還推動 Google 完成了一筆價值 27 億美元的收購,將頂尖研究員丹尼爾·德·弗雷塔斯(Daniel De Freitas)與 Transformer 論文作者之一諾姆·沙澤爾(Noam Shazeer)納入麾下。如今,二人已成為 Gemini 項目的核心領導者,大幅提升了團隊的技術攻堅能力。Noam Shazeer更關鍵的是,Google 在硬體層面的前瞻佈局,建構了「軟體+硬體」的全產業鏈優勢,這一點是多數競爭對手難以企及的。早年間,Google 啟動了自主 AI 晶片研發項目。當時團隊預判,未來語音識別、圖像處理等 AI 應用所需的算力,將遠超現有水平。最終研發出的「張量處理單元」(TPU)晶片,不僅算力更強,耗電量還低於傳統 CPU 與 GPU,成本優勢十分顯著。而 Google 最新推出的 AI 晶片「Ironwood」,進一步降低了 AI 模型的運行成本,直接轉化為 Google 在 AI 商業化領域的核心競爭力。一根神秘香蕉,點燃全民 AI 狂歡2025 年,圖片生成模型領域出現了兩次病毒式傳播事件:一次是 ChatGPT 的 AI 吉卜力畫風走紅全網,另一次則是 Google 的 Nano Banana(Gemini 2.5 Flash Image)。後者的意外爆火,徹底扭轉了市場對 Google AI 產品競爭力的認知。而這款產品的名字,背後還有一個小插曲。據報導,當時 Google AI 項目經理娜伊娜·拉伊桑哈尼(Naina Raisinghani)負責將這款模型上傳到大模型競技場 LM Arena 平台。凌晨兩點半的辦公室裡空無一人,她即興組合了兩位朋友給自己的暱稱,最終確定了「Nano Banana」這個名字。這款名字獨特的產品,很快引發了市場熱潮。短短數天內,Nano Banana 就登頂 LMArena 平台性能排行榜,在社交網路上廣泛傳播,其影響力遠超 Google 內部的預期。負責 Gemini 應用及 Google 實驗室的喬希·伍德沃德(Josh Woodward),將 Nano Banana 的發佈定義為「一場成功的災難」。全球使用者在短時間內生成了數百萬甚至數十億張圖像,直接導致 Google 算力告急,最終不得不通過「緊急借用」伺服器時間來緩解壓力。但這場算力危機,恰恰印證了 Nano Banana 的核心吸引力。去年 9 月,搭載 Nano Banana 的 Gemini AI 應用成功登頂蘋果 App Store 下載榜。登頂 2 個月後,Google 順勢推出了迄今為止最強版本的 Gemini 3 系列模型,其多項核心指標超越 ChatGPT,也讓 OpenAI CEO 奧特曼緊急拉響「紅色警報」,親自下令改進 ChatGPT。而根據昨天 SimilarWeb 發佈的最新資料,Gemini 全球網頁端流量份額首次突破 20% 的市場份額,而 ChatGPT 的份額從 2025 年 1 月 86% 暴跌至 64.5%。短短三年間,攻守之勢異也。如今,AI 業務已成為 Google 新的核心增長引擎。其收入結構日趨多元化,涵蓋搜尋廣告增量、面向個人與企業的付費版 Gemini,以及自主研發 AI 晶片的銷售等多個類股。而從輝達市值突破 5 兆美元,到 Google 憑藉 AI 實現市值反超,這些現象都說明 AI 仍是當前科技行業最具想像力的賽道。但賽道上的競爭不僅是技術和產品的比拚,也是人才的爭奪——就在 Google 高歌猛進之際,蘋果正經歷近十年最密集的核心人才「離職潮」。這場離職潮覆蓋了 AI、設計等多個核心業務類股,就連支撐蘋果生態重要一環的 Safari 瀏覽器團隊,也未能倖免。昨晚,The Browser Company 首席執行長喬希·米勒(Josh Miller)便在社交平台高調官宣:蘋果 Safari 瀏覽器首席設計師馬可·特裡維里奧(Marco Triverio)已正式加盟其團隊,預計將負責打磨 Dia 瀏覽器。特裡維里奧曾長期擔任 iOS 與 macOS 版 Safari 的首席設計師,主導了 Safari 隱私控制、標籤頁互動、導航模式等核心功能的設計與最佳化。值得注意的是,另一位 Safari 首席設計師 Charlie Deets,也已更早一步加盟 The Browser Company。當然,若僅因人才流失就看衰蘋果,顯然低估了這家公司的深厚底蘊。它手握全球最穩固的硬體生態,iPhone、Mac 搭建的使用者護城河,至今仍是多數企業難以企及的;充足的現金流,足以支撐它在 AI 賽道耐心佈局、持續投入;更別說蘋果在硬體研發、使用者體驗上的積累,本就是 AI 落地消費端的關鍵籌碼。如果 Google 的翻盤證明了技術積累的價值,那麼蘋果的故事,同樣還沒到蓋棺定論的時候。 (APPSO)
【CES 2026】輝達全面入局,自動駕駛將迎來“蝶變時刻”?
台北時間1月6日凌晨,拉斯維加斯CES 2026,當輝達CEO黃仁勳身著標誌性的黑色皮衣,站在聚光燈下宣佈“物理AI的ChatGPT時刻已然到來”時,整個科技圈與汽車行業都感受到了強烈震動。這場發佈會上,輝達並非推出一款簡單的晶片,而是一套名為Alpamayo的完整自動駕駛生態體系——包含開源大模型、全球駕駛資料集與高保真模擬框架。在此之前,自動駕駛行業始終深陷99%與1%的博弈,解決絕大多數常規駕駛場景早已不是難題,但極端天氣、突發路況等“長尾場景”的安全應對,始終是橫亙在L4級自動駕駛規模化落地前的天塹。而Alpamayo的出現,被行業普遍視為輝達全面吹響自動駕駛攻堅號角的訊號,更讓行業重新審視:2026年,能否成為自動駕駛從測試營運走向商業普及的“蝶變時刻”?Alpamayo到底是什麼?要理解Alpamayo為自動駕駛行業帶來的影響力,首先需要打破一個認知誤區:它並非單一的技術產品,而是輝達建構的“自動駕駛研發工具箱”,核心由三大類股構成,形成了從模型訓練、資料支撐到模擬驗證的全鏈路閉環。作為整個生態的核心,Alpamayo-R1模型是一款擁有100億參數的“視覺-語言-行動(VLA)”模型,其最大的突破在於實現了從“感知預測”到“推理規劃”的範式躍遷。傳統自動駕駛系統更像是“條件反射式”的反應——通過感測器識別前方有障礙物,便執行減速或避讓動作,背後依賴的是海量標註資料與預設規則。但Alpamayo搭載的“思維鏈”技術,讓車輛具備了類人思考能力。黃仁勳在發佈會上展示的宣傳片直觀呈現了這一優勢:當自動駕駛車輛行駛至一個交通訊號燈失靈的路口時,系統並非陷入混亂,而是通過多步驟推理做出決策:“前方訊號燈失效,左側有來車,右側有行人等待,應減速觀察,確認安全後緩慢通過”,整個過程無需人類介入,且能清晰輸出決策依據。這種對未知場景的處理能力,正是解決“長尾難題”的關鍵。為了讓全球開發者都能基於這一核心能力迭代創新,輝達選擇將Alpamayo-R1的底層程式碼在Hugging Face平台開源。這意味著無論是頭部車企、初創公司還是科研機構,都能直接獲取基礎模型,或根據自身需求微調生成輕量化版本,極大降低了高等級自動駕駛的研發門檻。資料是自動駕駛模型的“燃料”,輝達同步發佈了自動駕駛資料集,包含1727小時的駕駛資料,覆蓋全球25個國家、2500多個城市的各類路況,捕捉了不同交通流、天氣狀況、障礙物與行人的動態特徵,共拆分出310,895個20秒時長的場景片段。更重要的是,開發者還能借助輝達的Cosmos生成式世界模型製造合成資料,與真實資料結合使用,解決了極端場景資料採集難的行業痛點。而AlpaSim模擬框架的開源,則為自動駕駛測試提供了“無限虛擬試驗場”。這款已在GitHub開放的工具,可以高精度還原感測器資料、交通流等真實駕駛要素,開發者可在虛擬環境中對基於Alpamayo開發的系統進行大規模安全測試,大幅降低實車路測的成本與風險。Alpamayo的核心價值,是讓自動駕駛系統從“會開車”升級為“會思考、能解釋”。其不僅能接收感測器輸入訊號,進而控制方向盤、剎車與油門,更能對即將採取的行動進行推理。它會明確告知使用者即將執行的操作、做出該決策的依據,以及車輛後續的行駛軌跡。發佈會上的另一則重磅消息,讓Alpamayo的商業落地有了明確時間表。首款搭載輝達全端DRIVE系統的梅賽德斯-奔馳CLA車型將於2026年第一季度在美國上路。這標誌著輝達的AI技術首次完整地應用於量產汽車。從“感知”到“認知”Alpamayo的發佈,本質上標誌著自動駕駛AI的研發範式,從過去“手工作坊式”的演算法堆砌,轉向“工業化、標準化”的平台協作。這種範式革命的背後,是物理AI技術在真實場景的首次大規模落地嘗試。回顧自動駕駛的技術演進,行業先後經歷了感知AI、生成式AI、物理AI三個階段。感知AI階段解決的是“看清世界”的問題,通過攝影機、雷射雷達等感測器實現環境感知;生成式AI階段實現了“生成內容”的突破,但尚未與物理世界深度結合;而當前的物理AI階段,核心是讓智能走入真實世界,理解物理規律,並從物理感知中直接生成行動。黃仁勳認為,自動駕駛將是物理AI的第一個大規模應用場景。因為自動駕駛系統需要同時滿足“理解現實世界、做出決策、執行動作”三大核心需求,對安全性、模擬能力和資料規模的要求遠超其他場景。而Alpamayo的技術架構,正是圍繞物理AI的核心邏輯建構。支撐這一架構的,是輝達的“三台電腦”戰略:以DGX訓練電腦打造AI模型,以車載推理電腦實現即時決策執行,以Omniverse模擬電腦生成合成資料、驗證物理邏輯。Alpamayo作為核心模型,深度依託這三台電腦形成的能力閉環,實現了對傳統自動駕駛技術的全方位超越。傳統自動駕駛系統普遍採用“感知-預測-規劃-控制”的分段式架構,各模組獨立工作,一旦遇到未訓練過的場景,很容易出現銜接斷層。例如在暴雨天氣下,攝影機感知精度下降,可能導致預測模組誤判,進而讓規劃模組做出錯誤決策。而Alpamayo的端到端架構,通過100億參數的大模型實現了全鏈路協同,能直接將感測器輸入轉化為駕駛動作,且憑藉思維鏈推理能力,在感知資訊不完整的情況下仍能做出合理判斷。如果將傳統自動駕駛系統比如成一個死記硬背的學生,只能應對做過的題目;那麼Alpamayo則像是掌握解題邏輯的學生,能應對從未見過的新題型。這種能力的差異,正是L4級自動駕駛能否規模化落地的核心關鍵。誰將受益?誰將被重塑?輝達開源Alpamayo的舉動,就像一顆巨石投入自動駕駛產業的湖面,激起的漣漪將覆蓋整個產業鏈。從車企、晶片廠商到初創公司,行業格局正在被重新定義,一場圍繞生態協同與場景深耕的新競爭已然開啟。對於車企而言,最大的變化是從“全端自研”的內卷轉向“生態競合”的新賽道。在此之前,頭部車企為建構技術壁壘,普遍追求從晶片到演算法的全端自研,投入巨大但收效甚微。Alpamayo開源後,二線車企和新興品牌獲得了“彎道超車”的機會。它們無需再耗費數年時間打磨基礎模型,只需基於Alpamayo聚焦自身擅長的場景,最佳化資料閉環與使用者體驗即可。事實上,發佈會上已有多家車企明確表達了合作意向。Lucid Motors高級駕駛輔助系統副總裁Kai Stepper直言:“向物理AI的轉變,凸顯了對能推理現實世界行為的AI系統的需求,Alpamayo的模擬環境、資料集和推理模型正是關鍵要素。”捷豹路虎產品工程執行總監Thomas Müller也表示,開源模式將加速行業創新,幫助開發者安全應對複雜場景。對於晶片與算力產業,Alpamayo的落地將推動需求從“暴力計算”轉向“高效推理”。千億參數模型的即時運行,對車載計算平台的算力、能效提出了極致要求,但這並非簡單堆砌算力單位就能實現。Alpamayo的思維鏈推理模式更複雜、更動態,將倒逼晶片廠商最佳化架構設計,比如強化Transformer引擎、探索存算一體技術,同時推動計算框架與編譯最佳化工具的創新。模擬與資料服務商則迎來了從“輔助工具”到“核心生產力”的升維。AlpaSim的開源看似搶佔了傳統模擬軟體廠商的市場,實則抬高了整個行業的天花板。當模擬成為模型訓練和驗證的標配流程,市場對高保真度、大規模平行、能生成極端場景的模擬平台需求將爆發式增長。同時,多模態時序資料的生成、管理與標註,也將成為新的黃金賽道。更深遠的影響在於,行業將催生新的職業物種,比如自動駕駛AI訓練師、場景定義工程師。未來,行業不再僅僅需要傳統的演算法工程師,更需要大量懂駕駛場景、交通規則和人類行為的複合型人才,他們的核心工作是設計長尾場景的提示詞、建構思維鏈推理任務、評估修正模型決策邏輯。這種人才需求的轉變,將深刻影響整個行業的人才結構。而對於中國市場而言,Alpamayo的進入既有挑戰也有機遇。當前中國已開啟L3級自動駕駛試點,北京、重慶等地已批准車企開展商業化試點,核心零部件國產化替代也進入加速期,星宸科技的車規級SPAD晶片、導遠科技的ASIL D級IMU晶片等產品已實現突破。Alpamayo的開源,將幫助中國車企更快對接全球先進技術,結合中國複雜的道路場景最佳化方案;但同時,也將加劇國內企業在資料閉環與場景深耕能力上的競爭。開源真能破解“長尾難題”嗎?儘管行業對Alpamayo寄予厚望,但特斯拉CEO馬斯克的“潑冷水”卻道出了行業的核心焦慮:“他們會發現,達到99%很容易,但要解決分佈的長尾問題卻非常困難。”馬斯克的評論精準點出了自動駕駛商業化的最後一公里困境——Alpamayo提供了強大的工具,但並未自動解決所有問題。首先,99%與1%的本質差異並未消失。解決99%的常規場景依靠的是巨量資料和統計規律,而1%的長尾場景(如極端天氣、罕見交通參與者行為、複雜施工路段),依賴的是泛化能力、常識推理和臨場判斷。Alpamayo提供了更好的基礎模型,但要將這些能力安全可靠地固化到產品中,仍需海量針對性的場景工程和測試驗證。中國市場的情況更具代表性。2025年第四季度,北京、重慶開啟L3試點後,車企發現中國的道路場景遠比海外複雜,非機動車逆行、行人隨意橫穿馬路、施工路段無規範標識等場景頻繁出現,這些都是Alpamayo的全球資料集難以覆蓋的。這意味著,中國車企要真正落地Alpamayo,必須投入大量精力補充本地化資料,建構適配中國場景的推理邏輯。其次,開源是把雙刃劍,在加速技術普及的同時可能導致同質化競爭。當所有企業都基於Alpamayo開發系統,底層能力的差異將逐漸縮小,最終的競爭焦點將回歸到資料,誰能更快、更低成本地獲取和處理那些決定性的長尾資料,誰能建構更高效的資料閉環,誰就能建立真正的壁壘。資料,而非模型,將成為新的核心競爭力。倫理與法規的“慢變數”更是不容忽視。技術可以快速迭代,但社會接受度、保險體系調整、法律法規完善卻需要漫長的過程。儘管Alpamayo實現了決策可解釋性,但在實際事故中,責任如何劃分?AI的推理過程能否作為法律證據?這些問題比訓練千億參數模型更為複雜。當前中國的L3試點雖明確了“系統啟動期間車企承擔主要責任”的原則,但全國性的事故認定標準仍未統一,跨城市行駛時的資料存證、責任劃分要求差異較大,給規模化推廣帶來合規挑戰。保險機制也存在空白,儘管北京要求車企購買每車不低於500萬元的責任險,但專屬保險產品仍在探索階段,EDR資料追溯與理賠流程的銜接尚未完善。此外,使用者認知偏差也可能引發安全風險。部分消費者對自動駕駛的“脫手脫眼”存在誤讀,過度依賴系統而忽視接管義務。此前測試顯示,36款車型在15個場景的平均通過率僅35.74%,高速場景通過率低至24%,極端天氣下的感測器誤報、非常規障礙物識別率不足等問題仍突出。Alpamayo雖能提升系統能力,但使用者教育與認知引導仍是行業必須跨越的門檻。不同玩家該如何破局?Alpamayo的發佈不是自動駕駛行業的終點,而是更激烈競爭的開始。面對這一全新格局,產業鏈上的不同玩家需要找準自身定位,制定差異化的破局策略。對於自動駕駛創業者與科技公司,核心策略需要從“再造輪子”轉向“站在巨人肩膀上創新”,組織技術團隊深入研究Alpamayo的開放原始碼和資料集,評估與自身技術堆疊的融合可能性。同時,要明確自身的核心優勢——是特定區域的地圖與資料,是獨特的商業場景(如礦區、港口、末端配送),還是極致的使用者體驗?將資源聚焦於這些差異化優勢,而非底層技術重複研發,才能在競爭中突圍。傳統車企與Tier1供應商則需要重新評估軟體戰略。是全面擁抱開源生態,還是堅持可控的自研路線?無論選擇那種路徑,建立一支能理解和運用大模型、擅長場景定義與資料治理的團隊已成為必需。此外,車企應加強與本地基礎設施商的協同,結合中國L3試點的政策優勢,積累本地化長尾場景資料,最佳化Alpamayo模型的中國化適配,避免“水土不服”。對於投資者與行業觀察者,關注點應實現三大轉變:從“誰的自動駕駛里程最長”轉向“誰的資料飛輪轉得最快”,從“誰的技術最炫酷”轉向“誰的場景工程能力最強”,從“誰的融資額最高”轉向“誰的商業化路徑最清晰”。那些能利用開源生態,在幹線物流、RoboBus、RoboTaxi等特定區域等垂直領域快速實現閉環盈利的公司,將更具投資價值。個人開發者與研究者則迎來了黃金時代。Alpamayo的開源打破了技術壁壘,提供了前所未有的起跑線。可以嘗試為鄉村道路、冰雪天氣等特定場景微調模型,或開發創新的模擬測試用例。個人創新的槓桿效應被無限放大,或許會催生出更多顛覆性的應用方案。而對於行業監管機構,當前最緊迫的任務是推進政策協同。在區域試點的基礎上,推動多城聯動試點,統一事故責任認定與資料存證標準;加快出台全國性的資料隱私保護與跨境儲存法規,解決資料共享的合規難題;同時引導保險機構推出適配L3及以上等級自動駕駛的創新產品,完善EDR資料追溯與理賠銜接機制,為行業發展提供明確的制度保障。關鍵時刻,更需腳踏實地從技術邏輯上看,Alpamayo為行業提供了破解長尾難題的全新思路,其開源模式也加速了技術普惠,讓自動駕駛的“蝶變時刻”有了堅實的技術支撐。但我們更需要清醒地認識到,自動駕駛的商業化落地並非單一技術的勝利,而是技術、法規、生態、使用者認知多維度協同的結果。Alpamayo解決了“工具”的問題,但要讓自動駕駛真正走入尋常百姓家,還需要全行業共同攻克場景工程、資料閉環、法規適配等一系列難題。2026年,隨著Alpamayo的落地、中國L3試點的推進,自動駕駛行業站在了一個關鍵的十字路口。這一年,行業將真正從“硬體之爭”轉向“軟體生態之爭”,從“技術演示”轉向“商業驗證”。黃仁勳看到了物理AI的曙光,馬斯克則提醒我們腳下的荊棘。最終的勝利者,不會是擁有最炫酷技術的公司,而是那些能用技術最踏實、最安全、最經濟地解決現實世界中無數個“最後一公里”難題的實幹家。對於普通消費者而言,或許不用等到遙遠的未來,在2026年的美國街頭,在2027年的中國城市道路上,我們就能親身感受到自動駕駛帶來的改變。當自動駕駛車輛能從容應對突發路況,能清晰解釋自己的決策時,智能出行的美好願景,才真正照進了現實。而對於整個行業而言,輝達的全面入局,不是競爭的終點,而是更精彩的開始。從技術積累到質變爆發,自動駕駛的關鍵節點已至,接下來,就看行業如何攜手破局,讓技術從“可用”走向“好用”,真正服務於人、造福於社會。 (極智GeeTech)
【CES 2026】黃仁勳:物理AI 的ChatGPT 時刻,快到了
穿皮衣的他,還是那麼自信。輝達這家公司,正在經歷一種很矛盾的時刻。它看起來像是所有泡沫敘事裡最危險的那一個,畢竟市值已經衝到史無前例的高度,股價每一次波動都能牽動市場。但它同時像所有AI 概念股裡最強的那一個,一個季度營收、淨利數百億美元,毛利率能達到70%。這也解釋了為什麼在拉斯維加斯CES 上,輝達的任何消息仍然吸睛,其CEO 兼創始人黃仁勳演講開頭就稱,“我們有15 公斤的內容要塞進今天這場演講裡,會場裡坐著3000 人,外面的庭院裡還有2000 人在看,四樓按理說該去逛展的人又在線,1000萬人在全球數百000萬人上了數百”。但他很快就把話題拉回稱,電腦產業每10 到15 年就會重置一次,從大型主機到PC、從PC 到網路、從網路到雲端、從雲端到行動。每一次平台遷移,都會逼世界寫「新應用」。但他緊接著說,這次不一樣,因為現在是:「兩次平台遷移同時發生」。01智能體,使用者的新「介面」那兩次平台遷移?第一次遷移大家已經聽到起繭,就是AI 來了,應用要建在AI 之上。人們起初以為AI 本身就是應用,他承認沒錯,AI 的確是應用,但真正的變化是,你會在AI 上面再建應用。第二次遷移更隱密也更殘酷,因為軟體的開發方式、運作方式、甚至整個產業的「技術堆疊」正被重新發明。黃仁勳稱,那些規模動輒100 兆美元的傳統產業,會把研發預算裡「幾個百分點」整體轉向AI。錢不是憑空冒出來的,它來自整個世界把研發從「經典方法」搬到「AI 方法」,來自舊世界的預算向新世界的遷移,這就是為什麼你會覺得這行業突然忙到離譜。他也把過去十年的AI 歷史重新串了一遍。 2015 年BERT 讓語言模型第一次「有用」,2017 年Transformer 奠定了基礎,2022 年ChatGPT 讓世界第一次直觀感受到AI 的力量。但他認為真正關鍵的拐點發生在一年後,第一個o1 推理模型出現了,讓模型在推理時真的「思考」。緊接著,2024 年Agentic AI 這個新物種開始出現,2025 年它迅速蔓延。這類系統不只是生成文本,它能查資料、用工具、規劃步驟、模擬未來、拆解問題。它可以做「從未被明確訓練過」的事情。這種能力,正在透過開源模型,向整個世界擴散。圖片來源:輝達過去一年,真正讓黃仁勳感到「興奮」的,不是某一家閉源模式的進步,正是開源模式的集體躍遷。黃仁勳稱,開放模型現在離前沿模型大約「落後六個月」,但每過六個月就會冒出更聰明的新模型,所以下載量爆炸,因為創業公司想參與,大公司想參與,研究者想參與,學生想參與,幾乎每個國家都想參與。很多人誤解輝達,說它只是“賣GPU”,而黃仁勳在CES 台上反覆強調一件事,即輝達正在成為一個前沿開源模型構建者,而且是完全開放的那種。圖片來源:輝達他在CES 演講上一口氣報了一堆輝達開源模型的工作,從混合Transformer-SSM 的Nemotron,世界模型Cosmos,到人形機器人Groot,黃仁勳稱這些模型全部開放。連自動駕駛領域的Alpamayo,不僅開源模型,還開源訓練資料。黃仁勳認為,未來的AI 不只是多模態,而是「多模型」。最聰明的系統,應該在不同任務中呼叫最適合的模型,最真實的系統,天然是多雲、混合雲、邊緣運算的。圖片來源:輝達這意味著什麼?意味著AI 應用的本質,其實是一套調度與推理的架構。一個能判斷意圖、選擇模型、呼叫工具、組合結果的智能體。黃仁勳認為,這種智能體正在成為新的「使用者介面」,不再是Excel,不再是表單,不再是命令列。02物理AI 的真正到來如果說Agentic AI 改變了軟體,那麼實體AI,正在改變現實。黃仁勳在台上花了極長時間講一件事,讓AI 理解世界的常識,比語言困難得多。物體恆存、因果關係、慣性、摩擦、重力,對人類幼兒來說是直覺,對AI 來說卻完全陌生。而現實世界的數據,永遠不夠。圖片來源:輝達他說要做physical AI,需要「三台電腦」:訓練模型的、在車/機器人/工廠邊緣推理的、以及用於模擬的。 Omniverse 是數位孿生模擬世界,Cosmos 是世界基礎模型,機器人模型則有Groot 和他接下來要講的Alpamayo。訓練資料從那裡來?語言模型有大量文本,物理世界的真實視頻很多,但遠遠不夠覆蓋多樣交互。於是他們現在準備要做的是,用符合物理定律的合成資料生成,選擇性地製造訓練樣本。例如,交通模擬器輸出本來不夠豐富,他們把它餵給Cosmos,讓它生成物理可信的環視視頻,拿來訓練。 Cosmos 還能從單張圖生成逼真視頻,從3D 場景描述生成連貫運動,從感測器日誌生成環視視頻,從場景提示把「邊緣案例」製造出來。還能閉環仿真,動作一做,世界響應,Cosmos 再推理下一步。黃仁勳甚至說「physical AI 的ChatGPT 時刻快到了」。他在台上宣布了Alpamayo,稱之為「世界第一個會思考、會推理的自動駕駛AI」。它端到端從攝影機到執行器,既學了大量真實里程的「人類示範」,也學了Cosmos 生成的里程,再加上「幾十萬」極其仔細的標註樣本。圖片來源:輝達關鍵是它不只輸出方向盤和煞車油門,還會告訴你它將採取什麼動作、為什麼這樣做、軌跡是什麼。因為駕駛的長尾案例幾乎不可能窮舉採集,但長尾可以拆成很多更普通的子情境,讓車用推理去組合應對。黃仁勳稱,它能說清楚自己要做什麼,為什麼這麼做,接下來會發生什麼事。這也是安全的前提。他解釋他們八年前就開始做自動駕駛,是因為很早就判斷深度學習會重做整個運算堆疊。如果要引導產業走向未來,必須親手把整個棧做一遍。他搬離「AI 是五層蛋糕」:最底層是能源和殼,在機器人裡例如車;上一層是晶片、網路;再上一層是基礎設施如Omniverse、Cosmos;再上是模型如Alpamayo;最上層是應用,例如賓士。Alpamayo 宣布「今天開源」,這套工程規模巨大,黃仁勳說他們的AV 團隊「幾千人」,而賓士五年前就與他們合作。他預測,未來可能會有十億輛車自動駕駛,「每一輛車都會有會思考的能力,每一輛車都會由AI 驅動」。他還給出時間表:第一批在Q1 上路,Q2 去歐洲,之後再去亞洲,Q3、Q4 逐步鋪開,而且會持續更新Alpamayo 的新版本。黃仁勳把自動駕駛定義為physical AI 的第一個「大規模主流市場」,並斷言「拐點就在現在這段時間」,未來十年世界上很大比例的車會高度自動化。更重要的是,這套「三台電腦+ 合成資料+ 模擬」的方法會遷移到所有機器人,包括機械手臂、移動機器人、甚至全人形。圖片來源:輝達03Vera Rubin 的硬體秀講完產業,黃仁勳最後把話題拉回硬件,介紹Vera Rubin。圖片來源:輝達他花了幾十秒講Vera Rubin 的命名來源。 Vera Rubin 這個名字本來是是20 世紀的天文學家,她觀察到星系邊緣的旋轉速度與中心差不多,這按牛頓物理學說不通,除非存在看不見的物質——暗物質。輝達把下一代運算平台命名為Vera Rubin,因為他們面臨的「看不見的東西」也在膨脹:運算需求。黃仁勳描述了算力需求的瘋狂,模型規模每年10 倍增長,o1 之後推理變成“思考過程”,後訓練引入強化學習,計算量暴增;test-time scaling 讓每次推理token 量再漲5 倍;而且每次沖到新前沿,上一代token 成本會以每年10 倍速度下跌,這反過來說明競爭極其激烈,這反過來說明競賽圖片來源:輝達他說因此輝達必須「每年推進一次計算的state-of-the-art,一年都不能落下」。他們已經在出貨GB200,在全規模量產GB300,而Vera Rubin「今天可以告訴你,已經全面投產」。Vera Rubin 的系統是一套「六芯協同」的架構,Vera 是定制CPU,性能翻倍;Vera 與Rubin GPU 從一開始就雙向一致性共享數據,更快更低延遲;一塊計算板上有17000 個組件;每塊板可以做到100 PFLOPS 的AI 倍算力,是上一代的五倍算力。網路側ConnectX-9 為每GPU 提供1.6 Tbps 的橫向頻寬;BlueField-4 DPU 把儲存與安全卸載出去;運算托盤被重新設計到「沒有線、沒有水管、沒有風扇」的型態;第六代NVLink 交換把18 個節點連成一體,再擴充工作通道、200G、共封裝光學,把成千上萬機櫃組成「AI 工廠」。圖片來源:輝達黃仁勳也提到現實的產業難題。輝達內部原本有規則,新一代產品最多換一兩個晶片,別把供應鏈折騰死。可摩爾定律放緩後,電晶體成長跟不上模型十倍、token 五倍、成本十倍下滑的速度,你不做「co-design(協同設計)」就不可能追上,所以這一代不得不把每一顆晶片都重新設計。Rubin GPU 浮點效能是Blackwell 的5 倍,但電晶體只有1.6 倍,這意味著單靠製程堆電晶體已經到天花板了,必須靠架構與系統級協同設計才能搞出效能。另外,輝達也宣布推出針對AI 情境記憶的儲存平台。模型每生成一個token,都要讀模型、讀上下文、寫回cache,對話越長,上下文越大。黃仁勳稱,你希望AI 記住「一生的所有對話」,HBM 裝不下了,Grace 直連GPU 做「快速上下文記憶體」也不夠了,繼續往外走到數據中心存儲又會被網絡堵死。於是他們做了「機櫃內的超高速KV cache 儲存」,由BlueField 跑整套上下文管理系統,把它放得離GPU 極近。圖片來源:輝達在一個節點裡,每GPU 本來大約1TB,而透過這套機櫃內存儲,每GPU 還能多拿到16TB 的上下文空間;每塊BlueField 後面掛著150TB 級別的上下文存儲,走同一套東西向高速織網,這不是“再加點盤”,而是“新增一類存儲平台”。圖片來源:輝達黃仁勳也提到了新硬體的三種系統級能力。第一,45 攝氏度水就能冷卻,整體能源效率提升巨大,他稱這能省掉全球資料中心約6% 的電力;第二,機密計算,傳輸中、靜止時、運算中都加密,PCIe、NVLink、CPU-GPU 互聯全部加密,讓企業敢把模型交給電流跑;供電預算,現在透過電力平滑能把預算用滿,不必浪費。在他們模擬的10 兆參數、100 兆token 訓練任務裡,Rubin 的吞吐高到只需要Blackwell 四分之一的系統規模就能在同樣一個月窗口裡訓練完畢。圖片來源:輝達Rubin 相對Hopper 的提升、相對Blackwell 的再提升,被他形容成一輪接一輪的數量級躍遷,而token 成本又能再降一個數量級,這就是他們所謂“把所有人推到下一前沿”的方式。黃仁勳認為,輝達今天不是只做晶片,而是做從晶片、基礎設施、模型到應用的「全端」,而AI 正在重做全世界的計算棧,他們的工作是把整套棧造出來,讓所有人去造應用。圖片來源:輝達在CES 這種偏消費性電子的舞台上,輝達佔據高光位置,可以說它也是一種情緒資產。樂觀時,它是AI 的石油,悲觀時,有人直接說它像2000 年的思科。市場不只在乎它賺了多少錢,還在乎「AI 還會不會繼續燒錢」。它的波動甚至開始影響指數本身,因為它太大了,大到一個公司的漲跌可以改變整個市場的體感溫度。當一家公司同時掌握科技敘事、產業鏈重要位置、以及金融市場注意力時,它就會變成圖騰。圖騰的好處是信仰帶來溢價,壞處是溢價意味著你不能犯錯。所以問題來了,輝達會不會掉下去?當然可能。任何站在山頂的公司都可能犯錯,尤其當它大到一定程度,成長本身就變成一種負擔。但同樣必須承認的是,輝達也正在用盡一切辦法降低這些風險。其目前主要策略仍是努力把自己從賣晶片變成賣生態。當硬體、網路、調度、軟體工具鏈都握在手中時,輝達就不再只領先競爭對手一代GPU,而是領先系統複雜度。目標至少是,讓對手即便追上算力,也很難追上生態摩擦成本。(極客公園)
【CES 2026】物理AI的ChatGPT時刻!輝達“內驅”無人駕駛汽車將至,發佈首個鏈式思維推理VLA模型
輝達宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1。該模型旨在打造能在意外情況下"思考"解決方案的車輛,採用 100 億參數架構,使用視訊輸入生成軌跡和推理過程。黃仁勳稱,首款搭載輝達技術的汽車將第一季度在美上路。輝達還發佈了多個開源模型、資料和工具,如用於代理AI的輝達Nemotron家族、用於物理AI的Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。輝達在無人駕駛領域邁出關鍵一步,宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1,這一舉措旨在加速安全的自動駕駛技術開發。該模型通過類人思維方式處理複雜駕駛場景,為解決自動駕駛長尾問題提供新路徑。美東時間1月5日周一,輝達CEO黃仁勳在拉斯維加斯舉行的CES展會上發佈了Alpamayo平台,使汽車能夠在真實世界中進行"推理"。黃仁勳表示,首款搭載輝達技術的汽車將於第一季度在美國上路。輝達免費開放Alpamayo模型,允許潛在使用者自行對模型進行重新訓練。該模型旨在打造能在意外情況下"思考"解決方案的車輛,例如交通訊號燈故障等場景。車載電腦將分析來自攝影機和其他感測器的輸入,將其分解為步驟並提出解決方案。這一開源舉措獲得了行業廣泛支援。包括捷豹路虎(JLR)、Lucid、Uber以及加州大學伯克利分校DeepDrive深度學習自動駕駛產業聯盟(BDD)在內,多家移動出行領軍企業和研究機構表示,將利用Alpamayo開發基於推理的自動駕駛技術堆疊,推動L4級自動駕駛部署。首個開源推理VLA模型發佈輝達此次發佈的Alpamayo家族整合了三大基礎支柱:開源模型、模擬框架和資料集,建構了一個完整的開放生態系統供任何汽車開發者或研究團隊使用。Alpamayo 1是業界首個為自動駕駛研究社區設計的思維鏈推理VLA模型,現已在Hugging Face平台發佈。該模型採用100億參數架構,使用視訊輸入生成軌跡及推理軌跡,展示每個決策背後的邏輯。開發者可以將Alpamayo 1改編為更小的執行階段模型用於車輛開發,或將其作為自動駕駛開發工具的基礎,例如基於推理的評估器和自動標註系統。黃仁勳表示:“物理AI的ChatGPT時刻已到來——機器開始理解、推理並在真實世界中行動。無人計程車是首批受益者。Alpamayo為自動駕駛汽車帶來推理能力,使其能夠思考罕見場景,在複雜環境中安全駕駛,並解釋其駕駛決策——這是安全、可擴展自動駕駛的基礎。”輝達強調,Alpamayo模型並非直接在車內運行,而是作為大規模教師模型,供開發者微調並提取到其完整自動駕駛技術堆疊的骨幹中。未來該家族的模型將具有更大的參數規模、更詳細的推理能力、更多的輸入輸出靈活性以及商業使用選項。推理VLA技術原理解析推理VLA是一種統一的AI模型,將視覺感知、語言理解和動作生成與逐步推理整合在一起。這類模型整合了明確的AI推理功能,在傳統視覺-語言-動作模型的基礎上建構。AI推理是AI逐步解決複雜問題並生成類似於人類思維過程推理痕跡的能力。這些系統對一系列網際網路規模的任務進行預訓練,包括語言生成和視覺連接,以發展通用知識和感知基礎。與將視覺輸入直接對應到動作的標準VLA模型不同,推理VLA模型將複雜的任務分解成可管理的子問題,並以可解釋的形式闡明其推理過程。這使模型能夠更準確地解決問題或執行任務,還能對模型正在進行的操作提供一定程度的反思。建構推理VLA模型需要三種基本AI功能:視覺感知、語言理解以及動作和決策制定。視覺感知處理來自攝影機、毫米波雷達或雷射雷達等感知感測器的即時資料;語言理解通過自然語言處理解釋命令、上下文提示和對話輸入;動作和決策制定則使用融合的感官和語言資訊來計畫、選擇和安全地執行任務,同時生成可解釋的推理痕跡。在自動駕駛場景中,推理VLA可以對交通狀況進行逐步推理。例如,接近一個十字路口時,系統可能會進行如此推理:"我看到一個停止標誌,左邊有車輛駛來,還有行人正在過馬路。我應該減速,完全停下來,等待行人通過人行橫道,安全時再繼續前進。"完整開放生態系統支援開發除Alpamayo 1模型外,輝達還發佈了配套的模擬工具和資料集,建構完整的開發生態系統。AlpaSim是一個完全開放原始碼的端到端模擬框架,用於高保真自動駕駛開發,現已在GitHub平台發佈。它提供真實的感測器建模、可配置的交通動態和可擴展的閉環測試環境,實現快速驗證和策略最佳化。輝達還提供了面向自動駕駛最多樣化的大規模開放資料集,包含超過1700小時的駕駛資料,涵蓋最廣泛的地理位置和條件範圍,覆蓋罕見且複雜的真實世界邊緣案例,這對於推進推理架構至關重要。這些資料集可在Hugging Face平台獲取。這些工具共同為基於推理的自動駕駛技術堆疊建立了一個自我強化的開發循環。開發者可以利用這些資源在專有車隊資料上微調模型,將其整合到基於輝達DRIVE AGX Thor加速計算建構的輝達DRIVE Hyperion架構中,並在商業部署前通過模擬驗證性能。業界領軍企業表達支援據輝達介紹,多家移動出行領域的領軍企業對Alpamayo表示了濃厚興趣。Lucid Motors高級駕駛輔助系統和自動駕駛副總裁Kai Stepper表示:"向物理AI的轉變凸顯了AI系統對真實世界行為進行推理能力的日益增長的需求,而不僅僅是處理資料。先進的模擬環境、豐富的資料集和推理模型是這一演進的重要元素。"捷豹路虎產品工程執行總監Thomas Müller表示:"開放、透明的AI開發對於負責任地推進自動移動出行至關重要。通過開源Alpamayo等模型,輝達正在幫助加速整個自動駕駛生態系統的創新,為開發者和研究人員提供新工具,以安全地應對複雜的真實世界場景。"Uber全球自動移動出行和配送負責人Sarfraz Maredia表示:"處理長尾和不可預測的駕駛場景是自動駕駛的決定性挑戰之一。Alpamayo為行業創造了令人興奮的新機遇,可以加速物理AI、提高透明度並增加安全的L4級部署。"加州大學伯克利分校DeepDrive聯合主任Wei Zhan表示:"Alpamayo組合的推出代表著研究社區的一次重大飛躍。輝達決定公開這一技術具有變革意義,因為其存取權和能力將使我們能夠以前所未有的規模進行訓練——為我們提供了將自動駕駛推向主流所需的靈活性和資源。"跨行業AI模型全面開放本周一,輝達還發佈了推動各行業AI發展的多個新開源模型、資料和工具。這些模型涵蓋用於代理AI的輝達Nemotron家族、用於物理AI的輝達Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。輝達還提供了開源訓練框架和全球最大的開放多模態資料集合之一,包括10兆語言訓練標記、50萬個機器人軌跡、45.5萬個蛋白質結構和100TB的車輛感測器資料。輝達代理式AI基礎模型Nemotron發佈了語音、多模態檢索增強生成(RAG)和安全相關的新模型。Nemotron Speech包含業界領先的開源模型,為即時字幕和語音AI應用提供即時、低延遲語音識別。Nemotron RAG包含新的嵌入和重排序視覺語言模型,提供高度精準的多語言和多模態資料洞察。在物理AI和機器人領域,輝達發佈了Cosmos開放世界基礎模型,為加速物理AI開發和驗證帶來類人推理和世界生成能力。Isaac GR00T N1.6是一個開放推理VLA模型,專為人形機器人打造,實現全身控制,並使用輝達Cosmos Reason實現更好的推理和上下文理解。輝達稱,博世(Bosch)、CodeRabbit、CrowdStrike、Cohesity、Fortinet、Franka Robotics、Humanoid、Palantir、Salesforce、ServiceNow、日立和Uber等科技業的領頭羊正在採用並基於輝達的開源模型技術進行開發。輝達的開源模型、資料和框架現已在GitHub和Hugging Face平台發佈,並可通過一系列雲、推理和AI基礎設施平台以及build.nvidia.com獲取。這些模型中的許多還以輝達NIM微服務的形式提供,可在從邊緣到雲端的任何輝達加速基礎設施上進行安全、可擴展的部署。 (invest wallstreet)
華盛頓郵報:ChatGPT被高估了,以下是一些替代選擇
ChatGPT is overrated. Here’s what to use instead.當我需要人工智慧的幫助時,ChatGPT 不再是我的首選。(插圖:Elena Lacey/《華盛頓郵報》;Adobe Stock)你那位喜歡嘗鮮的朋友對 ChatGPT 的膳食計畫讚不絕口。你的老闆認為 Microsoft Copilot 能“提升 10 倍生產力”。你的社交媒體動態則認為 Meta AI 簡直就是個垃圾機器。他們大多隻是憑感覺行事。我可以告訴你那些人工智慧工具值得使用,那些應該避免使用,因為我一直在營運一個聊天機器人實戰俱樂部。我根據人們使用人工智慧進行的實際活動,進行了數十項機器人挑戰,包括撰寫分手簡訊和工作郵件、解讀法律合同和科學研究、回答棘手的研究問題以及編輯照片和創作“藝術作品”。包括暢銷書作家、參考圖書館員、一位著名科學家,甚至一位普利策獎得主攝影師在內的人類專家對結果進行了評判。經過一年的機器人大戰,有一點顯而易見:沒有絕對最好的AI。如今使用聊天機器人的最明智方式是針對不同的任務選擇不同的工具,而不是指望一個機器人就能包攬一切。舉個例子:聊天機器人界的“舒潔”——ChatGPT,在我所有的直接對決中都敗下陣來。即使是那些最終獲勝的機器人,也很少能達到人類及格的水平。評委們表示,Anthropic公司的Claude機器人寫出的分手簡訊比我寫的還要好。大多數機器人被“iPhone有多少個按鈕?”這個問題難住了。ChatGPT在一個真實的醫學問題上擊敗了一位頂尖醫生——但它給出的建議也可能對你造成嚴重傷害。讓人類專家來評判這些測試,改變了我對聊天機器人的看法,以及我在生活中使用它們的方式。即使你擔心人工智慧會搶走工作、破壞環境或侵犯隱私,但拋開炒作,瞭解當今人工智慧工具的實際表現仍然很有價值。提升人工智慧素養可以幫助你認識到,機器人並非真正“智能”,但同時又能最大限度地發揮它們的實際功能。那款聊天機器人最適合你?三年前,ChatGPT 開啟了生成式人工智慧的競賽,如今它的開發商 OpenAI 表示,它每周的使用者量高達 8 億。過去,每當我想尋找同義詞或冷知識時,它都是我的首選。但當我開始系統地進行測試後,發現 ChatGPT 在最受歡迎的聊天機器人中排名從未超過第二。(《華盛頓郵報》與 OpenAI 有內容合作關係。)OpenAI 近期發佈了內部“紅色警報”,指示員工將工作重心從網頁瀏覽器等項目轉移到改進 ChatGPT 的響應能力上。“我們很高興能在 2026 年繼續提升 ChatGPT 的性能,”發言人 Taya Christianson 表示。根據我的機器人格鬥俱樂部經驗,我現在會針對不同類型的任務選擇不同的機器人。以下是實際操作中的具體情況:我用Claude來寫作和編輯。它的措辭更優美,偶爾還能開個玩笑,而且不太可能像 Claude 那樣,在郵件開頭就用“希望你一切都好”這種令人心碎的客套話。在我的一項測試中——用 Claude 寫一封道歉信——評委Pamela Skillings說 Claude “能夠傳達真實的人類情感和周到的考慮”。為了進行研究和快速尋找答案,我使用Google的AI模式,而不是普通Google搜尋結果中彈出的AI概覽,後者可靠性遠不及前者。AI模式是一款聊天機器人式的搜尋工具,它可以在給出答案之前進行數十次搜尋。這也有助於它提供更及時的資訊:在我的研究測試中,它正確識別出了目前推薦的乳腺炎(一種乳房感染)治療方法,而其他機器人提供的卻是過時的方案。在處理文件方面,我使用Claude。在我的文件分析測試中,它是唯一一個從不捏造事實的機器人。資深公司律師斯特林·米勒法官表示,當我讓機器人就一份租賃協議提出修改建議時,Claude 的回答最接近“律師的良好替代品”。對於圖像處理,我使用Google的Gemini,它在我設計的所有測試中都遙遙領先於其他競爭對手。當我讓機器人從照片中移除兩個主體中的一個時,結果非常逼真——甚至連裙子上亮片反射的光線等細節都完美呈現——以至於評委、攝影記者大衛·卡森驚嘆不已。他根本看不出Gemini的輸出是由人工智慧生成的。我已經介紹了一些主要的AI應用案例,但並非全部。(如果您有關於更公平的機器人測試的建議,請給我發郵件。)我的測試比科技公司喜歡吹捧的行業基準測試需要更多的人為判斷。他們通常使用自動化測試,讓機器人回答一系列問題,就像醫學或法律考試一樣。但機器人可以被訓練成在這些測試中取得高分,掩蓋了它們在實際問題中表現不佳的事實。你可能不會同意我提出的每一個問題或個別評委的觀點,但人類的評估方式更接近我們現在實際使用人工智慧的方式。這就引出了另一個問題:什麼時候應該使用聊天機器人?當機器人讓我們失望時在我的AI格鬥俱樂部裡,機器人有時表現令人印象深刻。但只有一次,裁判給機器人的總分超過了70%——這是通常的及格分數線。那一項得分——84%——是 Gemini 在圖片製作和編輯方面的得分。大多數獲勝者的得分都在 50% 到 65% 之間。“問題是,沒有那個工具能全都拿到 10 分,”擔任我們摘要測試評委的律師米勒說道。這並不意味著如今的人工智慧工具毫無用處。但這確實意味著,你需要對它們的侷限性抱持懷疑態度。將人工智慧應用於某項任務並不總是能提升其效果。當我們測試人工智慧回答冷知識問題的能力時,我們的圖書管理員評委表示,他們完全可以通過傳統的Google搜尋找到大部分答案。人工智慧確實加快了給出答案的速度,但問題在於,其中一些答案是錯誤的。最有效的AI素養訓練方式莫過於觀察機器人的失敗。在我的知識問答測試中,它們連iPhone上有多少個按鈕都答不上來。ChatGPT說是四個,Claude和Meta AI說是三個,而Copilot說是六個。正確答案是五個,指的是最新的高端iPhone機型。為什麼會有這樣的困惑呢?因為機器人過度依賴文字,而且目前還不擅長識別圖片。如今的聊天機器人極力想要立即給你一個看似答案的答覆。它們非常不擅長表達不確定性。例如:在我舉辦的知識競賽中,我問機器人:“《神奇四俠》在爛番茄上的評分是多少?”當時,它是票房冠軍。但即使是最終的獲勝者——AI模式,也答錯了,給出了2015年一部臭名昭著的《神奇四俠》電影的評分。它甚至都沒問我指的是那一部。在我的寫作測試中,當機器人無法將措辭與上下文相符時,它們常常顯得不夠真誠。ChatGPT 就曾有過一次令人尷尬的經歷,它在分手簡訊中使用了帶有被動攻擊意味的短語“that said”:“我覺得你是個很棒的人。話雖如此,我意識到我們之間沒有未來。”如果我可以改變當今人工智慧工具的一件事,我會讓它們更擅長提出後續問題,這些問題可能會徹底改變答案。當我請加州大學舊金山分校醫學系主任鮑勃·瓦赫特(Bob Wachter)評價ChatGPT對真實醫療問題的回答時,他的一番話讓我印象深刻。他指出,擁有無限知識的機器人與一位優秀的醫生之間的區別在於,醫生懂得如何用更多的問題來回答問題。這才是真正解決問題的方法。瓦赫特建議了一種我現在經常使用的AI策略:在向聊天機器人提出問題之前,儘可能詳細地提供所有資訊,因為AI可能不會主動詢問某些資訊就嘗試回答。例如,與其說“總結這份租賃合同”,不如說“為華盛頓特區的租戶總結這份租賃合同,並標記有關費用、續租和提前終止的條款”。我還向我的聊天機器人加入了一條“自訂指令”,告訴它們“如果提示含糊不清,則在回答之前先請求澄清”。我希望這些技巧能幫助你從人工智慧中獲得更有用的答案。這些工具會不斷發展——它們的問題也會隨之而來。基於你的資料來個性化機器人回覆的做法,增加了隱私侵犯和操縱的風險。我總是會更改機器人的默認設定來保護我的資料。2026年及以後,我們必然會面臨更多的人工智慧產品。我們該如何應對?對我來說,答案和今年以來一樣:讓機器人格鬥俱樂部持續運轉——並且讓人類坐在裁判的位置上。 (invest wallstreet)