#OpenAI
Google:全端AI之王
【新智元導讀】隨著Gemini 3模型與第七代TPU的強勢發佈,Google終於打破了OpenAI與輝達主導的市場敘事,宣告這一「沉睡的巨人」已憑藉硬核實力完全醒來。ChatGPT一轉眼已發佈三年了。過去三年,全球科技界都沉浸在一個由兩位「雙子星」所主導的敘事中——輝達負責「賣鏟子」,提供高達80%毛利的GPU硬體基石;OpenAI則負責「挖金礦」,堅信Scaling Law(擴展法則),定義模型的前沿。所有人都以為,Google這家一度被分析師認為在AI競賽中「落後」的巨頭,只能扮演一個追趕者的角色。然而,現在一切都已不同。上個月,當Google推出其Gemini 3系列模型和第七代TPU Ironwood時,市場的震撼達到了前所未有的程度。這種震撼不是因為Google「追平」了對手,而是因為它直接重塑了遊戲規則。作為新智元ASI產業圖譜11月號文章,本文將深入分析Google是如何利用獨有的「全端AI」戰略,建構起對手難以複製的護城河並重回巔峰的。「沉睡的巨人」已完全醒來Gemini 3發佈後,就連奧特曼都罕見發聲,承認在某些關鍵維度上確實「落後」了。更加戲劇性的是,輝達股價也應聲下挫,過去一個月跌幅約15%。如此大的跌幅逼得公司不得不發表聲明,強調其GPU的通用性和CUDA生態的不可替代性。與此同時,Google母公司Alphabet的股價卻一路飆升,正邁向4兆美元的市值。這一切都指向了同一個事實:Google這個「沉睡的巨人」,現在已經完全醒來。而這背後的力量源泉,正是其對AI技術堆疊的徹底垂直整合——「全端AI」戰略。正如GoogleCEO Sundar Pichai在Gemini 3發佈時所言——也正因為我們在AI創新上有一套與眾不同的全端做法——從領先的基礎設施,到世界一流的研究、模型和工具,再到觸達全球數十億人的產品——我們才能以前所未有的速度,把先進的能力帶給全世界。性能巔峰:Gemini 3和Nano Banana的非線性突破與Gemini 2.5 Pro相比,Gemini 3的進步並不體現在「參數翻倍」上,而是在推理能力與多模態架構上完成了一次顯著躍遷。它被Google定位為一款基於最先進推理能力的原生多模態模型:能在同一個模型裡同時處理文字、圖像、音訊和視訊,在統一的內部表示中做跨模態推理,並在多項主流基準測試中取得頂尖成績。在LMArena競技場排行榜中,Gemini 3 Pro在所有項目中目前都排名第一。在更強調綜合智能的Artificial Analysis Intelligence Index排行榜中,Gemini 3同樣以73分位居榜首。如果說Gemini 3是智力的巔峰,那麼Nano Banana Pro就是實用性和創造力的狂歡。Nano Banana Pro一經發佈,便迅速引發了一場「社交狂歡」,使用者僅需通過極其簡單的提示詞,就能生成高品質的戰力排行榜、知識繪本和各種表情包等。GoogleCEO Sundar Pichai也提到,Nano Banana Pro在資訊圖表的生成上取得了突破。這種強大的應用屬性,讓普通使用者的創造力得以釋放。正如網際網路讓更多人成為創作者一樣,AI工具正讓更多人以腦海中的方式來表達自我。Nano Banana Pro生成的資訊圖「全端AI」的垂直整合模型能力的突破可能僅僅是冰山一角。要理解Google的強大,則必須深入到其底層的戰略本質——全端垂直整合。如果將AI的進步視為一次登月計畫,那麼競爭對手可能只擁有最先進的火箭(模型)或者最有力的燃料(GPU)。而Google,則建造了一座整合了燃料製造廠、火箭設計院和發射台的全套「航天中心」。這套「全端AI」從底層基礎設施、世界級研究(模型和工具),一直延伸到面向使用者的產品和平台。換句話說,從Nano Banana這樣的應用,到背後的模型,再到最底層的晶片,Google幾乎都握在自己手裡。TPU的誕生與進化Google的全端故事,要從一場看似迫不得已的「自救」行動講起。2015年,Google內部部署了TPU v1,迅速在各部門獲得熱烈反響。這並非出於炫技,而是被逼入了一個「不自研將難以支撐未來業務規模」的現實。當時,深度學習開始廣泛滲透Google的搜尋、廣告等核心業務,這讓Google工程團隊意識到一個關鍵問題:如果全面採用深度學習模型,Google全球資料中心的功耗將暴漲到難以承受的程度。當時的GPU雖然更適合訓練大規模網路,但其能效並非針對即時線上推理設計的。這讓Google的高層意識到,繼續依賴CPU和GPU的現有路線不可持續。於是,Google決定自己造一塊專用晶片(ASIC)——TPU,把目標定得非常簡單粗暴:只幹一件事,把訓練和運行AI模型需要的那些矩陣、向量運算做到極致高效。到了2017年,那篇著名的Transformer論文發表後,Google立即意識到,這個新架構的計算模式高度規則、矩陣密度極高、平行度極高,簡直是為TPU量身定做的。於是,他們自己把軟體架構、編譯器、晶片架構、網路拓撲、散熱系統都握在手裡,形成全端閉環。TPU由此升級為GoogleAI基礎設施的底座和支柱。如今,TPU已發展到了第七代Ironwood(鐵木)。如果說TPU  v4/v5p是兼顧訓練和推理的多面手,那麼Ironwood就是在繼續強化訓練能力的前提下,把推理放到設計核心的一代——一個為大規模推理優先、又能承擔巨型模型訓練的定製利器。相較第六代TPU Trillium(v6e),Ironwood在訓練與推理工作負載上的單晶片性能提升超過4倍;與TPU v5p相比,峰值算力最高可達10倍。它也是Google迄今性能最強、能效最高的TPU。Ironwood單個superpod可容納9,216顆TPU,依託9.6 Tb/s等級的晶片間互聯和約1.77 PB的共享高頻寬記憶體,大幅緩解了大模型訓練和推理中的通訊瓶頸,使複雜AI模型在超大規模叢集上運行得更快、更穩定。它的出現,意味著Google正式把資源和架構重心從「訓練」轉向「訓練+大規模推理一體化」,並公開把「age of inference」(推理時代)定義為下一階段AI基礎設施的主戰場。通過Ironwood+AI Hypercomputer這套系統級組合拳,Google同時在單晶片性能和整機房級算力密度兩條戰線對標輝達,爭奪下一代AI基礎設施的話語權。Ironwood超級機櫃的一部分,直接在一個單一域內連接了9,216個Ironwood TPU模型與硬體的深度契合Google的AI全端戰略在軟硬體一體化這點上看得最清楚。靠著這套從晶片、資料中心到模型架構都自己打通的體系,Google把過去層層割裂的環節擰成了一根繩,性能和效率一起往上抬。以Ironwood為例,它就是研究人員影響硬體設計、硬體反過來加速研究成果的持續閉環產物。當GoogleDeepMind團隊需要為其頂尖模型實現特定架構突破或者最佳化時,他們可以直接與TPU工程師團隊緊密協同創新。這種內部協作確保了模型架構的設計始終是基於最新代際的TPU進行訓練,從而相對於前代硬體實現顯著的性能提升和加速。Jupiter資料中心網路能夠將多個Ironwood超級莢連接成包含數十萬個TPU的叢集現在,Google的創新循環更進了一步,達到了「AI設計AI」的境界。他們用一種名為AlphaChip的AI技術來設計下一代晶片的佈局方案。AlphaChip利用強化學習來生成更最佳化的晶片佈局。目前,這一方法已經成功應用於包括Ironwood在內的連續三代TPU的設計中。這大大降低了Google對外部半導體設計工具和供應商的依賴。通過這種自研晶片+內部最佳化,Google在算力成本上形成了天然優勢,從而避免了昂貴的「CUDA稅」。巨頭們的「投懷送抱」Google內部實測資料顯示,Ironwood在同等負載下的推理成本較GPU旗艦系統低30%-40%。有分析指出,Google提供同等推理服務時的底層成本可能僅為對手的兩成。在推理時代,這樣的成本差異足以改變大客戶的架構選擇:對每年在推理上投入數千萬甚至上億美元的企業來說,壓縮三到五成支出,足以改寫財報。在這一層意義上,TPU正在變成許多公司重構推理基礎設施時優先考慮的算力引擎。Google自己也正在將TPU從「內部黑科技」打造為市場上的「生態可選項」,進而吸引像Anthropic、Meta這樣的大客戶。僅Anthropic一家就計畫接入高達100萬個TPU。Google還順勢啟動了TPU@Premises計畫,將TPU直接部署在企業的資料中心,使得客戶可以在本地以極低的延遲使用推理能力。近期還有市場傳聞稱,Meta正評估在2027年把TPU引入自家資料中心,並最早從明年起通過Google雲租用部分算力——無論最終如何落地,這類討論本身就說明TPU已經進入一線網際網路公司的選項集。回到更可量化的層面:根據Google第三季度財報,Google雲新增客戶數量同比增長近34%,超過10億美元的大單規模已超過前兩年的總和,超過70%的客戶正在使用Google雲的AI產品。這些變化,在很大程度上都與Google在算力成本和產品形態上的優勢緊密相關。C端:全端AI的終極引擎正如上文GoogleCEO劈柴哥所言,Google的全端AI戰略,是一個涵蓋AI基礎設施、世界級研究(包括模型和工具)以及將AI帶給全球使用者的產品和平台的全面系統。C端產品——特別是其核心業務如搜尋、地圖以及Gemini app和Nano Banana Pro等新的AI應用——不僅僅是戰略的最終輸出,它們更是驅動整個全端AI生態系統向前發展的核心引擎,是實現技術驗證、資料積累和商業閉環的關鍵。Google憑藉其無可匹敵的使用者規模和資料廣度,為其定製硬體和領先模型提供了無與倫比的「煉丹爐」和「試驗場」。這些資料來源包括Google搜尋、Android、YouTube等,Google通常自己使用這些資料。而像Gemini系列模型,則被視為是貫穿Google所有產品的主線。在2025年第三季度,Google的第一方模型(如 Gemini)僅通過客戶直接API,每分鐘就處理約70億個tokens。若把搜尋、YouTube、Android等所有介面加起來,每月被模型消化的tokens已超過1.3千兆個(quadrillion),一年內增長了20多倍。這些資料展示了C端產品作為AI能力載體的恐怖規模,也使得Gemini應用在推出後,月活躍使用者數迅速超過6.5億,形成了驅動AI進步的資料飛輪。以GoogleAI Mode為例,自推出以來其在美國實現了強勁且持續的周環比增長,查詢量在一個季度內翻了一番。截至三季度,已擁有超過7500萬的日活使用者,推廣到了全球40種語言。最重要的是,AI Mode已經為搜尋帶來了增量的總查詢增長。12月2日,Google已宣佈將AI Mode融入進搜尋中,給搜尋使用者提供類似ChatGPT的聊天體驗。這種C端產品成功將AI技術轉化為實實在在的業務增長,進一步奠定了Google在核心領域的競爭優勢。簡言之,Google的C端產品(如搜尋),是其全端AI戰略的需求源、資料場和商業出口。這些C端產品一方面製造了真實的流量和使用壓力,另一方面又不斷把反饋灌回Google的TPU和Gemini,讓它們在高頻迭代中越跑越省錢、越跑越高效。全端AI:改寫技術文明底座在當下這個以「推理為先」的AI時代,Google率先把競爭從單一模型的短跑,換成了全端系統的馬拉松。至此,真正的護城河不再是誰有更多的晶片、更先進的模型,而是誰掌握了「基礎設施-研究-產品-資料」的閉環。展望未來,如果說過去網際網路解決的是「資訊是如何被找到的」,那麼全端AI要回答的將是「世界如何被重新組織」。以Google為代表的科技公司,能否將這套AI閉環,轉化為更公平的教育、更高效的科研、更可持續的產業,將在很大程度上決定下一代技術文明的形狀——那時,我們也許不再刻意談論AI,因為它將成為文明的默認背景。 (新智元)
全球硬體市場炸了!知名科技UP主驚天爆料:OpenAI 一口吞下全球 40% DRAM,記憶體、SSD、顯示卡全線告急
這個年末,儲存行業過得不是很太平:AI巨頭們不計成本地囤貨,讓儲存行業迎來了一輪史詩級漲價。作為漲價潮的起點,記憶體(DRAM)與固態硬碟(SSD,核心為NAND快閃記憶體)的價格漲幅堪稱驚人。相較於一年多前的市場低谷,如今大家要購買同款記憶體產品,價格已飆升至此前的三四倍。TrendForce的最新資料顯示,11月各類NAND快閃記憶體產品價格漲幅已達20%至60%,且覆蓋所有容量段,從入門級到高端產品無一倖免。在PCPartPicker上也能看出,今年四季度開始,DDR4和DDR5已經漲價了2-3倍。許多網友紛紛感嘆:“記憶體條漲得比黃金還快!”知名科技UP主Moore's Law Is Dead也在youtube上披露了自己的親身遭遇:11 月初,他買了一套32GB DDR5 的記憶體套裝。三周後,同樣的那套 DDR5 竟然標價 330 美元,比不到一個月前暴漲了 156%!他認為這與10月1日 OpenAI 與三星和SK宣佈的新合作有密切關係,並稱之為“山姆·奧特曼的骯髒 DRAM 交易”。RAM 市場崩掉的那一天11 月初,我買了一套給 Minisforum BD790i X3D 主機板用的 32GB DDR5 記憶體套裝。三周後,同樣的那套 DDR5 竟然標價 330 美元——比不到一個月前暴漲了 156%!照這個趨勢,到聖誕節的時候,這套 DDR5 的價值可能比我原本要搭配的整個 Zen 4 X3D 平台還貴!這怎麼可能發生?而且為什麼會發生得這麼快?準備好,你將聽到 “Sam Altman 的骯髒 DRAM 交易”,也可以叫:AI 泡沫、恐慌與毫無準備如何偷走了今年的聖誕節。不過在深入之前,我要先說清楚:我那套 RAM 漲價 156% 絕不是偶然,也不是某個極端個案。完全不是。我還想給你提供兩個來自業內人士的例子,展示現在拿到 RAM 有多困難:美國某零售商的員工告訴我們,一家記憶體製造商竟然打電話問他們是否願意把 RAM 賣給他們自己用。這就像 Corsair 問 Best Buy 有沒有記憶體可以賣給它。一家整機公司的員工告訴我們,他們最近下單詢問何時可以收到 RAM,對方的預計交付時間是:2026 年 12 月。所以到底發生了什麼?這一切全都源於三個完美疊加的事件:OpenAI 執行了兩筆史無前例的 RAM 交易,完全打了所有人一個措手不及。這些交易的保密與規模,引爆了整個行業的恐慌性搶購。由於關稅、夏季價格下跌、舊裝置轉移停滯,市場幾乎沒有任何安全庫存。接下來,我會逐條講解每一個因素,然後告訴你那些硬體會被最嚴重地影響、那些產品已經被取消、現在你到底該趕緊買什麼,以免重演 2021–2022 的斷貨噩夢。因為這場危機遠不只是“記憶體短缺”這麼簡單……OpenAI 一點都不“Open”10 月 1 日,OpenAI 同時與三星和 SK 海力士簽下了兩份合同,佔據了全球 40% 的 DRAM 供應量。據高盛分析師測算,OpenAI預計需要每月90萬片DRAM晶圓產能來運行其先進AI模型,約相當於三星電子、SK海力士和美光三大廠商目前合計產能的57%。OpenAI 的競爭對手確實猜到 2025 年底可能會出現一些大額 RAM 交易。但他們完全沒想到會這麼巨大、還同時與兩家龍頭簽。如果你回去看 10 月 1 日當天關於 Sam Altman 訪問韓國的新聞報導,你會看到記者幾乎都在說些模糊的詞:“探索合作”、“尋求協同”、“探討可能的夥伴關係”。但沒人敢想像,OpenAI 當天就要吞下全球近一半的 DRAM 產能。即使在簽約當天上午,也沒有任何一家媒體提過類似規模的動作!業內人士稱,這完全是突襲。最震驚的不是 OpenAI 做了大交易,而是他們同時對三星和海力士做了兩筆超大交易,還互相保密成功了。根據我們的消息來源:三星完全不知道海力士會給出這麼大的產能。海力士同樣不知道三星也準備同時放出類似規模。他們都以為自己是唯一的大客戶。而這種保密,非常關鍵。如果雙方知道對方也在談類似條件,那麼價格會不同、供貨比例會不同、更可能根本不會同時簽這麼大的量。但最後的結果就是:OpenAI 成功地讓兩個巨頭誤以為只有自己在做大讓步,藉著這份誤解,完成了一次幾乎外科手術般的精確打擊,鎖死了全球 RAM 供應鏈。市場上沒有任何安全庫存設想你是一家雲服務巨頭的採購經理、一家 OEM 的供應鏈主管,或 OpenAI 的直接競爭對手。10 月 1 日你起床,突然看到新聞:OpenAI 一夜之間比過去十年任何公司都更強勢地壟斷了全球記憶體市場。你事前沒有聽到任何風聲。你開始打電話問業內同行,卻發現:連三星和海力士彼此都不知道對方也簽了類似的大合約。你會說:“哦,這挺有趣的。”……?當然不會!你會立刻進入最高等級警報:是不是還有別的交易我們不知道?DRAM 廠商完全沒有提前預警,也不會在未來預警,難道全球記憶體可以在我們毫無察覺的情況下被買空?OpenAI 的對手肯定已經在搶購,如果我們不馬上行動,可能要等到 2028 年才能拿到貨!於是,OpenAI 的競爭者、OEM、雲服務商全部開始瘋狂搶購市場上剩餘的存貨。而這種恐慌碰上第三個致命因素:市場完全沒有安全庫存。正常情況,DRAM 市場會保留一些緩衝,比如倉庫裡的應急庫存、額外的晶圓啟動產能,或者大廠升級產線後,把舊裝置賣給二線品牌,讓產能持續擴張。但 2025 年,這些緩衝全都不見了。原因有三:1. 關稅混亂2025 年夏天,DRAM 關稅幾乎每周都在變。每一次大量採購都有可能踩在錯誤的時間點,因此廠商普遍減少安全庫存採購。2. RAM 價格整個夏天都在下跌當價格持續下降時,沒有人會急著買,大家都等下個月更便宜,結果就是市場庫存進一步減少。3. 二手 DRAM 製造裝置無法流入市場按往常,三星等巨頭升級產線後,會把舊裝置賣給二線廠,增加整體市場產能。但 2025 年韓國廠商非常擔心:把舊裝置賣給“與中國相關的製造商”,會引發美國政府的報復措施。因此這些裝置從春季開始就全部停放在倉庫裡,無法被使用。結論就是:在 OpenAI 出手的那一刻,DRAM 市場完全沒有緩衝空間。任何衝擊都會造成巨大震盪,而這次衝擊非常巨大。人為製造的稀缺現在我們來講最離譜的部分,而且是公開資訊:OpenAI 並不是在購買成品記憶體。沒錯,他們買的不是DDR5 記憶體條、HBM,或者伺服器記憶體。他們買的是:未切割、未封裝、未指定標準的原始 DRAM 晶圓。換句話說,這些晶圓目前不能用、沒加工,不知道會變成 DDR5、RDIMM、還是 HBM,更不知道 OpenAI 何時甚至是否打算把它們製成成品。這些晶圓很可能只是放在倉庫裡囤著。就像一個孩子害怕別人搶玩具,於是把整個玩具箱藏起來。而這背後原因,其實大家都懂:OpenAI 很擔心自己失去領先地位。過去 18 個月,各家競爭者進步極快,比如Anthropic、Meta、xAI、Google(尤其是近期被大量稱讚的 Gemini 3)。大家都需要訓練算力,而算力的瓶頸在於 DRAM 容量。訓練越大模型、推理越快、吞吐越高,這些都離不開記憶體。削弱對手的供應鏈,不是陰謀論,而是商業策略。這在資本史上重複過數百次。OpenAI 的行動越秘密、晶圓越不準備加工、數量越巨大,其目的就越明顯:主要目標不是自用,而是搶佔供應鏈、削弱對手。你現在應該買什麼?即便奇蹟般地明天情況突然好轉,比如AI 泡沫瞬間破裂,或者有十家公司馬上擴充 DRAM 產能。但最少最少,未來 6–9 個月已經註定崩壞。DRAM 廠商目前給出的 DDR5 交貨期是 13 個月。這不是暫時問題,而是可能一代人的供應衝擊。下面是從 S 到 E 的受災等級排名,告訴你那些產品“最慘”:S 級(已經完蛋,買不到了)RAM 本身(毫無疑問)現在的價格爆炸已經是“歷史事件”了。A級(快完蛋了,想買趕緊買!)1. SSD:通常會在 DRAM 漲價後滯後一段時間一起漲。2. 小型整機廠商:庫存少,沒有緩衝。3. AMD RADEON GPU:AMD 不像 NVIDIA 那樣給 AIB 提供記憶體繫結的 BOM 套件。(我們頻道幾個月前洩露的 RX 9070 GRE 16GB,據消息來源稱幾乎肯定被取消)4. XBOX:微軟沒提前佈局。2026 年可能價格漲、供應縮。B 級(遲早完蛋,不要等太久)NVIDIA GPU:NVIDIA 保留一定記憶體庫存給合作夥伴,緩衝比 AMD 好。但:高視訊記憶體型號(如可能出現的 24GB 5080 SUPER)基本暫停。SUPER 系列被內部模糊地標註為“可能”2026 Q3,但大多數 AIB 認為只是佔位,很可能不會發佈。C 級(可以考慮及早購買)筆記本與手機:長期合約通常較大,不會立刻受衝擊,但一旦庫存耗盡,影響會非常明顯。D 級(不急,但也要注意)PlayStation:索尼提前佈局,在夏季低價時大量採購。因此能在黑五降價,而別人都在漲價。E 級(反而可能降價)無記憶體的產品:例如不帶散熱器的 CPU。因為整體主機需求下降,可能導致 CPU 庫存堆積。??? 級 Steam Machine:Valve 一向低調。關鍵未知是:是否在宣佈前就囤好了 DDR5?如果囤過:能順利上市,但後續補貨可能會卡住。如果沒囤:首發價會很高、供應量極低,甚至可能需要推出 無記憶體版本(自備 RAM)。在最後,Moore's Law Is Dead表示:我寫這篇文章最重要的原因之一是,確保你在這場風暴中少踩坑。但還有另一個原因:我希望更多人開始追查 OpenAI 到底在做什麼。說實話我們有任何一個可靠的財務審計嗎?能證明他們真的有錢這樣瘋狂囤積晶圓?更別提有多個來源告訴我:OpenAI 甚至在收購 DRAM 製造裝置本身。網友熱議:完全是人為擾亂全球市場!在youtube和HN評論區,很多網友也紛紛大吐記憶體漲價的苦水。有人曬出了自己入手的記憶體套件漲幅:有網友戲稱各大廠商在OpenAI之後搶購DRAM的行為:類似哄搶衛生紙。有網友說自己買了32G的USB 隨身碟,底下也有人調侃:趕緊把它寄到OpenAI去。還有網友認為,OpenAI此舉完全是人為擾亂全球市場,這種吞下40% DRAM 產能進而引發全球危機的行為,是典型的AI泡沫。還有人提出了和作者類似的看法:這可能是OpenAI為了保持自身領先地位,應對Anthropi、Google等競爭對手的策略。 (51CTO技術堆疊)
OpenAI預測:2030年ChatGPT付費使用者將達2.2億,周活躍使用者達26億
OpenAI預測2030年ChatGPT付費使用者將達2.2億。為提升ChatGPT收入,OpenAI正藉鑑企業級應用Zoom和Slack的商業模式:先透過免費版吸引大量使用者(目前已超8億),再推動這些使用者的僱主簽署企業級訂閱服務。據悉,截至今年7月,約3,500萬名使用者(佔周活躍使用者的5%)付費訂閱了Plus版本(月費20美元)或Pro版本(月費200美元)。目標2.2億付費使用者OpenAI預測五年後(2030年),ChatGPT周活躍使用者將達26億,約8.5%(即2.2億人)將付費使用Plus版本。若真如此,ChatGPT的訂閱服務規模將躋身全球前列-目前Netflix和Spotify各自擁有約3億付費使用者,Slack(Salesforce旗下)則表示其付費使用者超過20萬。更貼切的參考系可能是微軟Office 365辦公套件(付費使用者量約達4.5億)。儘管ChatGPT主要用於個人場景,但OpenAI正持續增強其辦公功能,例如可以共享聊天記錄、透過Slack等工具連接企業內部資料。這些功能可能使ChatGPT成為Office 365和Google Workspace的直接競爭對手——後兩者也正在增加自動撰寫郵件等AI功能。訂閱量對決:OpenAI近期及預期的ChatGPT訂閱量與其他熱門付費訂閱服務的比較(資料來源:《The Information》、公司檔案及公告)這些先前未公開的預測資料,揭示了OpenAI的CEO山姆·阿爾特曼及其團隊的計畫:利用ChatGPT的先發優勢,到本世紀末實現年收入達到2,000億美元(今年約為130億美元)。今年夏季OpenAI上調了ChatGPT的營收預期,預測2030年其訂閱服務將創收約2,700億美元,2030年單年收入預計達870億美元(今年為100億美元)。ChatGPT目前及預期的營收成長,近期將OpenAI估值推升至5,000億美元(超越埃克森美孚、強生和Netflix等巨頭)。同時OpenAI預測今年至2029年的現金消耗總額將達1,150億美元。增長波動與模式選擇值得一提的是,這些預測的發佈早於Google推出Gemini 3。根據Sources報導,OpenAI的CFO莎拉·弗里爾上月承認,由於公司自8月起實施的ChatGPT內容限制(禁止與18歲以下使用者進行曖昧互動或討論自殺話題,在無法驗證使用者年齡時會限制聊天範圍),使用者使用時長略有下降。OpenAI計畫於12月推出年齡驗證系統,屆時經核實的成年使用者將獲得更大自由度。目前ChatGPT在聊天機器人市場仍佔據主導地位。據悉,其9月周活躍使用者數較去年同期成長超三倍,遠超GoogleGemini第三季的月活躍使用者規模(6.5億)。然而,其今年的周活躍使用者成長波動劇烈:1月環比增長42%,但9月環比僅增長13%。定價策略:OpenAI推出面向消費者和企業的分級產品(註:按年計費;來源:OpenAI)知情人士表示,隨著更多員工自發使用ChatGPT,OpenAI希望透過與企業達成企業級協議來增加付費使用者。這類似於上世紀末Zoom(影片會議應用)和Slack(聊天應用)的策略:免費版在個人使用者中普及後,軟體公司得以向企業高管推銷付費訂閱服務。目前企業使用者ChatGPT使用者中佔比較小。上月OpenAI透露,已有700萬企業使用者透過ChatGPT商業方案訂閱其服務——包括面向中小企業的ChatGPT Business和面向大型企業的ChatGPT Enterprise。這些服務為Canva、普華永道等客戶提供專屬安全合規功能,並支援與Slack、Google Drive、GitHub等企業工具整合。阿爾特曼向員工談及Gemini 3即將發佈時表示:「我堅信我們擁有絕對優勢,能打造使用者首選的AI平台。」同時也警示GoogleAI的強勢復甦可能帶來「經濟逆風」。OpenAI的訂閱模式與新興競爭對手Anthropic形成鮮明對比-後者約80%營收來自透過API(應用程式介面)銷售模式存取權。Anthropic預測其今年的API銷售額將達到OpenAI的兩倍,而其Claude聊天機器人訂閱量僅為ChatGPT的十分之一。初創公司Docket.io(主要銷售基於OpenAI模型的AI智能助理)聯合創始人兼CEO阿瓊·皮萊表示,他已使用ChatGPT付費服務超兩年,今年將升級200美元套餐。數月前,他還為員工增購ChatGPT Business訂閱,看中的正是其與HubSpot及Slack工具的整合能力。協作功能同樣極具吸引力。 “我可以建立項目並與他人共享,無需對方重複建立。”儘管免費使用者的成長推高了成​​本,壓低了毛利率,但OpenAI計畫到2030年透過購物或廣告等新功能創造約五分之一的總收入。上周一,OpenAI宣佈推出針對ChatGPT使用者的個人購物助手,未來或可透過廣告或佣金來獲利。 (創新觀察局)
巴倫周刊—AI泡沫論下,微軟憑何獨善其身成為最大贏家?
微軟將營收不確定性大的預訓練運算業務剝離給CoreWeave與甲骨文,本身則牢牢掌握利潤率最高的OpenAI API運算相關業務。同時微軟是僅有的兩家「通用型AI算力提供者」之一。市場對人工智慧(AI)支出的擔憂正達到頂點,投資者紛紛警惕兆美元規模泡沫的形成。但對微軟而言,這並不成問題。這一觀點來自知名投資機構DA Davidson公司的分析師Gil Luria(吉爾·盧里亞)。他在周四重申了對微軟股票的「買入」評級,並將目標價定為650美元,稱微軟有望成為「AI發展浪潮中最大的贏家」。當日微軟股價小幅下跌至477.25美元,與標普500指數走勢基本一致。Luria並沒有完全否認AI泡沫的存在,但他也沒有完全站在爭論的任何一邊。他在報告中寫道,無論AI領域是否存在泡沫,微軟都是「佈局AI的最佳選擇」。在談到被視為AI投資典型代表的非上市公司OpenAI時,Luria的態度則略顯消極。OpenAI的影響力如此之大,以至於像甲骨文這樣的主要合作夥伴,都被視為其「影子標的」。Luria寫道:「雖然我們一直對OpenAI及其某些行為持有非常、非常批評的態度,但我們認為它不會消失。」他指出,OpenAI的最大產品ChatGPT,在AI聊天市場上大約佔有75%的份額。在最理想的情況下,如果OpenAI進一步聚焦自身業務,與邊緣合作夥伴重新協商合同,“考慮到微軟在OpenAI中的股份以及深度整合到OpenAI最有價值的算力資源中,微軟將在相關支出中處於優先地位,”Luria強調。他預計微軟超過一半的Azure AI收入來自OpenAI,佔公司總收入的6%。本質上,Azure是一整套基於雲端的服務,包含了用於建置和擴展AI應用的各類工具。微軟不斷為此平台增加更多AI功能。2021年,該公司推出了Azure OpenAI,讓使用者可以透過雲端存取OpenAI的聊天機器人。這項服務於2023年正式對所有使用者開放。Luria周四寫道,DA Davidson的專有開發者資料「持續顯示Azure的強勁成長」。 “在九月當季,Azure的表現繼續顯著超越Google雲和亞馬遜AWS,我們預計這一趨勢將持續。”其他機構也同樣持樂觀態度。早在今年5月,瑞銀(UBS)分析師就指出,Azure的成長速度已超過亞馬遜和Google的雲端服務——其核心季度營收季增62%,遠超競爭對手個位數的增幅。雖然當時很難理解背後的原因,但分析師懷疑,客戶從其他微軟服務轉向Azure,對其出色表現貢獻相當大。微軟在2025財年末表示,Azure雲端服務營收已突破750億美元,年增34%。先前,公司一直將Azure的營收歸入「智慧雲端」類股,這次單獨揭露業績似乎顯示微軟有信心讓Azure的表現獨當一面。Luria指出,微軟刻意將「需求高、波動大且難以預測的預訓練運算業務」交由CoreWeave和甲骨文負責,本身則牢牢掌握OpenAI的應用程式介面(API)計算相關收入。API,即應用程式程式設計介面,可以讓不同的軟體元件相互通訊。就OpenAI而言,此介面本質上允許其他企業將其生成式AI模型整合到自身軟體中。“API部分是OpenAI業務中最盈利的環節,這也讓其更具可持續性,”Luria寫道,“同時,大量API業務也為微軟帶來了向客戶追加銷售資料架構和其他基礎設施軟體的機會,從而帶動增長,並提升整體AI業務的利潤率。”同時,微軟也透過投資Anthropic以及開發自身AI技術來分散風險。這使得微軟和亞馬遜成為僅有的兩家「通用型AI算力提供商」,而Google和Meta平台則押注於自身模型能否取得成功,這是一種風險更高的策略。無論如何,微軟與O​​penAI的深厚連結不容忽視。自2019年OpenAI轉為營利性機構僅幾個月後,雙方就展開了合作。如今,微軟已經持有OpenAI集團公益公司(OpenAI Group Public Benefit Corporation)相當大的股份;截至10月底,該公司估值約為1,350億美元。 (Barrons巴倫)
蘋果最擔心的事,還是發生了
OpenAI正緊鑼密鼓地籌備推出自己的AI硬體。前段時間,美國矽谷就傳出消息指出OpenAI正在瘋狂挖角,已經有數十位蘋果硬體工程師被招募到內部的硬體團隊。無獨有偶,今年OpenAI也宣佈以65億美元的高價收購了由Jony Ive創立的io Products,同時讓Ive和LoveFrom團隊在OpenAI內部全面接管設計和創意相關工作。Jony Ive是蘋果前首席設計師,從90年代開始主導了iMac、iPod、iPhone、iPad、Apple Watch乃至Apple Park總部大樓等一系列產品的工業設計,並幾乎定義了最近二十多年來蘋果硬體的外觀和手感。圖源:推特在收購io Products完成後,OpenAI 沒有停下腳步,反而把「蘋果係」當成首要目標。多家媒體通報,自2025 年初以來,OpenAI 已從蘋果挖走二十多名硬體與產品工程相關人員。截至目前,OpenAI招攬的硬體團隊成員涵蓋了工業設計、iPhone和Mac 硬體、相機工程、音訊、手錶與Vision Pro、晶片、測試和可靠性工程、製造與供應鏈管理等多個環節且不乏中高層崗位,簡直就是在內部重建了一個「蘋果硬體設計團隊」。OpenAI如此瘋狂地挖人,到底想做什麼?OpenAI可能要做一款AI版的iPhone?作為AI大模型熱潮的發起者,OpenAI在過去幾年裡的主要競爭重心都放在了“雲端”,也就是模型訓練、推理部署和生態介面等方面,這些也是OpenAI的最大優勢。不過,隨著AI產業的進一步發展,OpenAI其實也發現自己似乎被困在了雲端,雖然擁有全球一流的AI大模型,但卻難以觸及真正的一線硬體生態。而自己的對手,Google卻有Pixel系列手機、有Nest系列智慧家庭產品和即將發表的AI眼鏡產品等一系列硬體產品,可以說高下立判。或許你會說:“OpenAI不需要自己運作硬體生態,只需要對外銷售AI服務就行了”,問題就在於,使用OpenAI 大模型的AI 硬體數量,其實是在減少的。雖然小雷手上沒有具體的統計資料,但從海外的AI硬體產品來看,使用開源大模型的產品數量正在顯著增加。圖源:SenseCAP Watcher甚至不少中小型企業的AI服務都開始更依賴開源模型,而非OpenAI或Google的商業閉源模型。說穿了還是經濟效益的考量,開源模型是完全免費的,而且可以輕鬆進行客制化和私有化訓練,而OpenAI雖然也提供類似的服務,但是卻需要付出昂貴的訓練成本,並且之後還要承擔持續的使用成本。所以,OpenAI也就只能擼起袖子加油幹了,從他們挖來的蘋果員工的履歷來看,很多都在iPhone、Apple Watch、Mac和Vision Pro等核心硬體的設計部門工作多年,顯然不是為了設計一個AI Pin、AI指環之類的產品而來的。小雷認為,OpenAI真正想做的可能是一部“AI版iPhone”,其實類似的風聲並非現在才傳出來,早前就有傳聞稱Altman、Jony Ive和孫正義(軟銀)希望聯手打造一部手機,當時軟銀甚至計畫對這個項目投入10億美元以上的資金。不過後續因為各種原因最終導致計畫被暫時擱置,直到2025年才開始重啟,Altman 和Ive在最近的一場公開活動中證實,他們手裡已經有了第一批原型機,並且預計會在兩年內量產上市。更有趣的是,Altman把這台裝置的使用感受形容為“像坐在湖邊小木屋裡那麼安靜”,強調它要和今天這種滿屏通知、強刺激的手機形成反差。所以,從目前公開的資訊來看,這個裝置大機率會比手機更小,可能沒有傳統意義上的大螢幕,而是一個內建了麥克風、相機、一定算力和網路連線的「AI 終端」。圖源:Gemini看起來似乎跟上周我們聊過的Rabbit r1很像?小雷認為應該不會,至少從Altman的描述來看這款硬體本身可操作性是優於Rabbit r1的,也會更像一部“手機”,只不過機身的尺寸可能會更傾向於iPhone 7、8那樣的大小,並且不像手機那樣需要使用者時刻關注。簡單來說,這款AI硬體會有更高的“主動性”,不僅可以隨時回應你的語音指令,還能根據使用者周圍的環境進行自主決策,主動輔助使用者處理任務和資訊。舉個例子,當你坐在電腦前正在打遊戲,此時有一個訊息傳送到你的終端,AI可以自動判斷該訊息是否需要馬上通知你查看。如果AI認為訊息重要,就語音通知使用者詢問是否需要播報,如果是非重要訊息則選擇靜默並將訊息歸納到通知列中,等後續使用者閒下來時再進行提醒。除此之外,這款產品顯然還會擁有一系列自主的智慧體功能,可以在許多工中進行自主決策和任務鏈梳理。所以,在小雷看來,如果將這款AI硬體產品簡單歸納為AI手機,反而低估了OpenAI的野心,他們或許是想以此為基準打造一個新的AI作業系統,硬體只是展示這個系統的載體而已。中國AI三巨頭的硬體心思:字節做手機,阿里Inside,百度靠小度與仍停留在「籌備硬體」階段的OpenAI 相比,中國的AI 廠商顯然跑得更快。過去一年裡,無論是字節的豆包、阿里的千問,還是百度的小度,它們都已經把大模型真正塞進了硬體或系統中,讓「AI 終端」這個概念不再停留在PPT,而是開始實打實地進入消費者手中。1. 豆包:直接推出了一款AI Phone。豆包日前發佈了備受爭議的第一款真正的AI手機,不過與OpenAI不同的是,豆包並沒有完全自研,而是與中興進行合作,字節內部設計定稿後交由中興代工生產,同時內建了系統級的AI助手“豆包手機助手”。得益於深度客制化方案帶來的優勢,豆包手機助理可以直接獲得跨應用程式的全域控制權,使其能夠在使用者的語音指揮下完成各種操作。不過,這種實作方式本身還是基於Android的底層服務,相當於讓一個應用程式拿到了包含系統簽章權限、全域錄影畫面和類比觸控與輸入等多項核心服務的使用權。圖源:中興商城如此多的核心權限呼叫,很容易觸發敏感App 的安全機制,例如在豆包AI手機上登錄微信會導致帳號被誤封,實際上就是因為微信檢測到異常權限呼叫,誤以為使用者在用自動化程序進行“非法行為(刷單等)”,所以做了臨時封禁。不過,從豆包手機助理表現出來的能力來看,它也確實值得我們期待,很多原本需要複雜操作的任務,都可以直接交給AI來完成。舉個例子,你在小紅書看到一個不錯的商品,你可以直接圈定商品並讓AI全網比價後選擇最優惠的商品連結下單,然後你只需要完成確認下單和付款的步驟即可。至少從目前的用戶回饋來看,豆包手機助理確實滿足了我們對AI手機的多數想像,雖然還有不少地方存在瑕疵,但是已然比傳統的手機+AI語音助理要有用許多。但短板也很明顯,容易引起用戶的隱私擔憂,而且你很難說服一線手機廠商交出系統底層權限,米OV等大廠基本上更希望基於自研大模型來推動系統的AI化進程。豆包已經用自己的產品證明了:當AI 能跨App 行動時,手機的使用方式會發生質變。圖源:豆包製作:雷科技2. 千問:軟硬兼施,要Inside一切硬體。與豆包選擇從手機入手不同,阿里千問的策略是將AI 做成一個橫跨電腦、瀏覽器乃至未來所有終端的「操作層」。夸克AI 瀏覽器的出現,讓千問第一次具備了系統級權限的雛形,它能理解整個網頁結構,能主動收集內容並完成資訊管理,也能執行跨標籤、跨頁面的整理任務。更重要的是,它將「搜尋—分析—整理—輸出」這一整條鏈條自動化,不再讓使用者手動切換介面,而是讓千問作為「全域智能體」為使用者完成複雜流程。而且,這套流程只需要進一步擴展,其實也是可以做到類似豆包手機助手那樣的跨應用程式自動操作。圖源:雷科技雖然千問並沒有貿然下場做自己的手機,但是它在PC、瀏覽器、辦公場景中的滲透卻極為迅速。由於阿里在雲端、辦公平台和瀏覽器入口上的佈局,千問就像是流淌在齒輪之間的潤滑劑,既可以隨著需求流轉到不同的齒輪,也能各個「齒輪」(阿里的軟體)更加協同。而在硬體領域,阿里其實也做了不少部署,前段時間發布的夸克AI眼鏡和釘釘A1,都是針對細分化領域和市場的AI硬體產品。所以,小雷認為千問的想法其實是:軟體層面大而全、硬體層面小而精,跨裝置生態協同與垂直細分硬體生態兩步走。另外,小雷覺得千問其實並沒有將硬體作為第一優先來考慮,而是認為用戶入口才是關鍵,只要千問能成為“系統級的潤滑劑”,未來無論終端形態怎麼改變,它都能保持存在感。這種路線與豆包不同,卻同樣重要。一邊是要重構手機系統,一邊是要重構系統入口,兩家都在試圖定義“AI 應該以怎樣的方式介入日常操作”,只是路徑大相徑庭而已。同時,阿里雲也在持續透過「通義」大模型來孵化AI硬體,在明年的1月8日-11日期間,阿里雲就打算在深圳舉辦智能硬體展,超過1000+的AI硬體將在展廳中亮相,這時候你或許會發現,阿里的AI或許生態其實已經悄然成長為大樹了,這就是開源的魅力吧(Qwen)。3. 百度:依託小度打造自有硬體矩陣。雖然小度在11月時發布了首款AI眼鏡,但是從硬體覆蓋範圍、終端數量以及生態完善度來說,小度音箱等一系列家庭智慧終端或許才是百度最大的「AI基本盤」。早在2024年的百度世界大會上,小度硬體就被定位為“全屋AI的中樞”,而在2025年的大會上則是更進一步,變成“AI原生家庭生活”的基座。可以說,從小度智慧螢幕、小度音箱到全新升級的小度家庭中樞OS,再到文心一言的場景化能力,這一年百度真正把家庭智慧場景推到了戰略中心。百度重點展示的“全屋主動式AI系統”,不再只是被動等待指令,而是能基於聲音、圖像、位置和行為數據主動判斷用戶需求。圖源:百度例如在廚房準備晚餐時自動推送食譜,在孩子寫作業時自動切換學習模式,甚至能智慧分辨家庭成員並提供個人化回應。與手機不同,小度設備自然處在一個長時在線、多人共享、持續感知的長期環境中,這使百度的AI利用更多模態資訊構建真正的主動智能。在小雷看來,這就是百度的最大優勢,依託小度的硬體覆蓋率、持續在線特性以及文心模型在中文場景的天然優勢,百度已經在家庭AI生態走出了一條屬於自己的賽道,而這條賽道目前還沒有第二個競爭對手擁有同級別的能力。如果說豆包是在手機端“重塑操作流程”,千問希望跨設備“重塑資訊入口”,百度則是選擇了一條更生活化、但也更長期和難以撼動的路徑:讓AI成為家庭中最自然的日常存在。海外AI大廠不遑多讓,Google/微軟/Meta爭奪下一代入口聊完國內,不妨讓我們來看看OpenAI真正的對手們,Google、微軟、Meta也都在推進AI硬體及生態,但是細看之下就會發現,他們的賽道更加依賴其既有生態。雖然不同的公司對「AI 時代的入口」有不同理解,但它們都已經把硬體視為下一階段的關鍵。從PC到手機,從眼鏡到穿戴,每一家都在尋找新的作業系統級機會,這場競爭遠比智慧型手機時代更激烈。1. Google:坐擁Android王朝,AI生態已成?如果說全球AI巨頭裡,誰在AI生態方面“穩坐泰山”,那麼肯定是Google,甚至在小雷看來,Google是全球最有可能率先完成“AI終端統一體驗”的公司,因為它擁有當前移動生態最核心的三塊拼圖:龐大的Android系統、自研的Pixel手機系列(採用Google自研晶片)以及具備具備頂級模型的龐大模型。圖源:Google其實從Pixel 8開始,Google就已經把Gemini 深度整合進系統,實現了跨應用分析、智慧摘要、隨手機相機進行多模態推理等功能,讓Pixel 成為純正意義上的「大模型原生手機」。更關鍵的是,Google正在重啟AR眼鏡項目,試圖打造手機之後的下一代視覺入口。如果說OpenAI想打造“AI原生設備”,Google則是在現有生態上重構系統,並以硬體展示AI的最高能力。不過,Google想進一步整合Android生態卻也是困難重重,先不說米OV等一眾國產手機廠商,三星與Google的合作也是僅限於系統,內建的系統AI乾脆就是ChatGPT,這也是為何Gemini一直都止步於Pixel系列手機。說實話,大家對Google都是相當的警惕,作為手握一流模型、最大搜尋引擎、最大瀏覽器和最大行動作業系統的公司,Google在生態層面的實力屬實有點超標了。某種程度上,這正好形成了一個「Google悖論」:它越強,生態越謹慎;它資源越多,夥伴越不敢靠得太近。尤其在AI進入系統級、操作級的階段,各大手機廠商更是把「系統AI層」當成至關重要的護城河,而不是一個輕易開放給Google的模組。所以,在未來的一段時間裡,Google估計都還是得繼續經營自己的AI硬體生態,直到Google能成功拿出一台足夠創新、足夠「非手機化」的AI設備時,這個局面或許才會有變化。2. 微軟:PC巨頭困在系統裡。微軟對AI的態度一直都很積極,不管是投資OpenAI還是上線Copilot,都算得上是“反應迅速”,自Copilot系統級整合以來,Windows已經出現許多類似“輕量級AI操作系統”的能力,而Surface設備則承擔著“AI PC原型機”的試驗任務。從硬體加速到本地推理,再到Copilot自動處理檔案、檔案、網頁的能力,微軟顯然想把個人電腦變成一個能主動協助工作的AI 工具。不過,雖然Windows是全球最通用的桌面系統,但在AI 時代,它能否繼續保持這種統治力,反而成為一個新的未知數。圖源:微軟英特爾、AMD、高通三家晶片廠商正在同時強化自家NPU與本地推理能力,聯想、華碩、惠普等OEM廠商也在力推各自的AI軟體概念,每一家都試圖在硬體與軟體之間建立更緊密的生態。至於微軟的AI PC下一步該怎麼走,關鍵其實並不在Windows身上,而是整個PC生態的協同上。微軟需要英特爾、AMD、高通提供更強的NPU,需要OEM廠商願意在硬體層面配合AI調度策略,也需要開發者願意為AI PC建構新的應用形態。小雷認為微軟的最大底牌依然是Windows的裝機量和使用者黏性。一旦微軟找到合適的突破場景,例如檔案自動化、企業級工作流程、開發者整合等系統級入口,它有可能憑藉生態規模完成一次「AI系統化升級」。但是這個節點什麼時候能夠到來,誰也說不準。3. Meta:押注AI眼鏡,賭下一個「入口」。Meta其實可以說是目前最堅定的AI眼鏡支持者(同時也是最成功的),祖克柏始終堅定地認為,智慧眼鏡將成為繼手機之後的下一個「人機互動入口」。基於這個理念,Meta與Ray-Ban合作推出的智慧眼鏡逐漸成為Meta展現自己AI能力的窗口。隨著Llama模型的加入,眼鏡不僅能拍攝、記錄,也能即時視覺理解、即時翻譯並進行語音互動,甚至在部分場景中實現類似個人助理的主動功能。與Vision Pro這種高度沉浸式的裝置不同,Meta的眼鏡路線強調輕量、無感、便攜,更接近日常配戴需求。圖源:Meta說實話,Meta確實是給全球AI眼鏡打了個樣,告訴大家智能眼鏡其實還有另一條路可以走,不需要強大的算力、也不用出彩的顯示效果,而是讓AI在使用者的日常生活中保持一種「低干擾、高可用」的狀態。不過,AI眼鏡目前最大的問題其實還是算力不足,如果想滿足複雜的任務要求,必然需要連接手機或PC,將後者當作運算中心來使用。所以,某種程度上來說,現階段的AI眼鏡仍然在探索自己的位置,究竟是單獨的AI硬體,還是手機等智慧終端的「附屬」?小雷覺得,接下來的兩年裡,我們應該就能看到這個問題的答案了。做不好硬體的AI大廠,成不了真AI巨頭?過去這一周,國內外AI 圈突然熱鬧得有些反常:阿里通義的系統級AI 助手上桌、夸克完成與千問的深度融合、字節豆包繼續推動AI 手機成規模發售,幾乎每一家大模型廠商都在端出自己的“AI 終端”。在小雷看來,這並不是巧合,正好說明AI正在從演算法與雲端的博弈,走向更貼近使用者的消費級硬體。對於所有AI 公司來說,要真正落地到千行百業,硬體不再是可選項,而是繞不過去的主戰場。事實上,回顧數十年來整個網際網路的發展,從PC 網際網路到行動網際網路,再從IoT 裝置到智慧家居,硬體始終扮演著位元世界與物理世界之間的「橋樑」。 AI的興起也是如此,只有當大模型進入手機、耳機、眼鏡、家庭裝置乃至車載系統,人工智慧才真正擁有了改變使用者習慣、改寫產業生態的能力。所以,小雷認為AI大廠都不會滿足於只做“雲端大腦”,它們一定會想辦法把自己變成某種看得見摸得著的“AI 終端”,無論這個終端長得更像手機,還是更像眼鏡、胸牌、耳機,或者某種全新的形態。因此,無論是OpenAI想做“AI 原生終端”,還是豆包發佈“AI Phone”,或是Meta打造AI眼鏡,背後都是同一邏輯:掌握硬體,才有資格定義下一代入口。特別值得一提的是,在即將於2026年1月6日啟幕的CES2026上,AI硬體也成了重頭戲之一,根據CES官方發佈的AI預覽來看,AI將是本屆展會的絕對焦點,AI晶片、AI PC等AI硬體的展示令人期待。作為中國報導科技展會最悠久、最深入、最專業的新媒體,雷科技CES2026報導團已成立並正在進行緊張的前期籌備。今年雷科技將派出史上最大規模的CES報導團,並由雷科技創始人兼總編輯羅超帶隊,對CES2026進行一線、專業和立體報導,屆時我們也將對CES2026上的AI硬體們進行重點關注,敬請期待。 (雷科技)
三年前Google"Code Red"對抗OpenAI,如今風水輪流轉?科技巨頭的生死時刻啟示錄
你有沒有發現,大廠老闆的內部信總是"牆內開花牆外香"?最近OpenAI CEO山姆·奧特曼的一封內部信又火了——他宣佈公司進入"Code Red"狀態,暫停廣告業務等商業化項目,全力提升ChatGPT能力。這個"Code Red"是不是有點耳熟?沒錯,三年前ChatGPT橫空出世時,GoogleCEO皮查伊也曾用這個字拉響警報。🔴 什麼是"Code Red"?這個源自醫院的緊急程式碼,意味著"放下一切,集中資源解決生死問題"。 2022年Google首次將它引入科技圈,如今OpenAI用同樣的方式回應Google的追趕。三年前的Google:被ChatGPT逼到牆角2022年11月,ChatGPT發表即爆款,Google內部炸開了鍋。員工直擊靈魂提問:"我們的LaMDA研發多年,是不是已經錯失先機?"Google確實尷尬:深耕AI十幾年(從2011年Google Brain到LaMDA),卻被後來者搶了風頭。核心困境在於"創新者窘境"-廣告佔總收入80%,而AI直接回答會讓使用者不再點選廣告連結。皮查伊果斷推翻商業計畫,召回退休創始人佩奇和布林,半年內完成組織重整,緊急推出Bard(後更名Gemini)。雖然初期Gemini被調侃"千禧年老三",但三年後的今天...2025年的反轉:Gemini加速追趕最新資料揭露戰局變化:使用者成長:Gemini 5個月內月活從4.5億→6.5億(+2億)使用者黏性:Similarweb顯示,Gemini聊天時長已超ChatGPT生態優勢:Google全系產品(YouTube/地圖/Gmail等)都在接入AI📜 科技史上的"Code Red"時刻其實這種生死抉擇早有先例:1995年微軟:蓋茲《網路浪潮》備忘錄,推動Windows全面擁抱網路1985年英特爾:格魯夫放棄記憶業務轉向CPU,成就PC時代晶片霸主2010年騰訊:3Q大戰後,馬化騰反思"從對抗敵人到改變自己",開啟開放戰略,10年市值增長22.5倍💡 真正的啟示:Code Red不是對抗敵人,而是改變自己Google2022年的Code Red,本質是解決廣告與創新的平衡;OpenAI 2025年的Code Red,核心是提升產品體驗;騰訊的蛻變,則是從封閉到開放的重生。奧特曼這次宣佈"下周發佈新推理模型",既是危機應對,也是一場精心設計的注意力戰——畢竟,科技競爭從來不止於技術,更是生態、時機和敘事的較量。現在的AI戰局,像極了兩個賽跑者:ChatGPT領先半圈,但Gemini正在加速衝刺。而OpenAI即將發佈的新模型,會是這場較量的另一個轉折點嗎? (檸檬種子新媒)
OpenAI真急了!Google這波後發制人,真的要命
OpenAI也開始慌了!據 The Information 報導,本周一奧特曼在內部下達了“紅色警報”(Red Alert)。這個內部用語在 OpenAI 體系裡並不常見,它帶來的緊迫感卻異常明確:暫停一切非核心項目,把能調動的資源全部押注在同一件事上——繼續拉開ChatGPT與其他產品的差距。觸發警報的直接因素,是 Gemini 3上線後的使用者增長。自 Menlo Ventures 合夥人 Deedy 的追蹤資料顯示,Gemini 發佈後的兩周時間裡,ChatGPT 的 7 日獨立日活下降了約 6%,而 Gemini與ChatGPT的訪問量比值佔比從此前的22%上升至 31%。對 OpenAI 來說,這不是簡單的競爭壓力,而是一種結構性的威脅。作為網際網路時代最優秀的產品公司,Google建立了極為龐大的分發體系:從手機作業系統,到瀏覽器、搜尋、地圖以及YouTube。這讓Google擁有極強的“後發”能力。回顧Android與Chrome的歷史,Google從不是最早的入局者,卻往往總能在最後的競爭裡脫穎而出。如今,當大模型的技術代被差逐漸填平,OpenAI也不得不面臨Google後發優勢的考驗了。/ 01 / 放棄廣告,死磕模型上一次矽谷出現這種等級的動靜,還是ChatGPT剛問世的時候。被嚇壞了的GoogleCEO桑達爾,直接按下了“紅色警報”。這是Google的最高等級危機模式,這意味著公司需要立即採取“全體總動員”(all-hands-on-deck)的應對措施。風水輪流轉,這一次輪到OpenAI慌了。為了應對危機,奧特曼甚至打算推遲包括電商代理以及廣告在內的其他計畫,把所有資源都集中起來,只幹一件事—— 死磕ChatGPT,改進模型。不光如此,OpenAI⾸席研究官 Mark Chen還特地站了出來安撫市場,並提到OpenAI有一款名為Garlic 的新模型,據說該模型在公司評估中表現良好,⾄少在涉及編碼和推理的任務中,與 Gemini 3 和 Anthropic 的Opus 4.5 相⽐表現出⾊。奧特曼之所以這麼緊張,是因為這次Google真的砍到了OpenAI的命門:使用者流量。我們先看一組很引人注目的資料:據外 Google 公開資料顯示,Gemini 使用者規模已從 2024 年7 月報告的4.5 億月活躍使用者,迅速增長至 2025 年10 月 6.5億月活躍使用者。ChatGPT 當前的公開資料是 8 億周活,仍然絕對領先。而隨著Gemini 3的上線,這個差距正在被快速縮小。根據Menlo 的合夥人Deedy的資料,自 Gemini3上線以來的兩周內,ChatGPT 的獨立日活躍使用者(7 天平均)下降了 6%。同時,Gemini 的流量在兩周內從 ChatGPT 流量的 22% 增長到了 31%。看到這裡,你可能會問,為什麼Gemini的流量增長會對OpenAI 造成這麼大的衝擊?原因很簡單,OpenAI 幾乎就是一家依賴完全C端業務的公司。目前,OpenAI 的大部分收入來自其消費者業務。換句話說,它的天價估值,完全是建立在一個假設上的: 未來全世界的人,會有更多的人給 ChatGPT 充值會員。按照 OpenAI 的 PPT 畫的大餅:他們指 5 年後,有 2.2 億人(約佔周活的 8.5%)每個月乖乖掏錢訂閱 Plus。到了時候,光是這一篇,一年就能望進帳870 億了吧。除了訂閱,他們還指望著搞 AI 導購,搞廣告,從每一筆交易裡抽佣金。OpenAI計畫到 2030 年,約有五分之一的收入將來自新產品,如購物或廣告相關功能。所以,使用者就是OpenAI的血條。 使用者不僅要多,還得願意停下來,願意付費。這下好了,OpenAI商業化的路子才剛剛開始,廣告和電商蓄勢待發,結果使用者心智的故事卻開始了鬆動。/ 02 / 當最強心智遇上最強入口,終極一戰才真正開始OpenAI 贏在使用者心智。正如奧特曼所說,10 億使用者比 SOTA 模型更有吸引力。即便外界質疑不斷,在所有玩家裡,OpenAI 仍然是短板最少、長板最長的那一個:最強的免費模型、最順手的介面、最牢固的品牌。它的優勢來自一個最樸素的判斷:最先成為使用者每天都會來的地方。從最早引入 RLHF、推出聊天機器人起,奧特曼早就把自己放在了“成為最理解使用者的AI”的位置上。在一次採訪裡,奧特曼曾經過描繪ChatGPT服務不同代際使用者的美好願景:年長者更多將其作為資訊檢索工具,替代傳統的搜尋引擎二三十歲的青壯年則傾向於將其視為生活顧問,尋求決策參考和情感支援而在更年輕的大學生群體中,ChatGPT 甚至扮演起個人作業系統的角色,深度融入他們的學習與日常在過去很長時間裡,OpenAI的策略取得了巨大的成功,地位無人可以撼動。直到Google來了。Google衝擊OpenAI的方式不僅僅是模型,而是強大的分發體系。作為網際網路產品能力最優秀的公司,Google擁有著大量的使用者分銷管道。這樣的優勢曾經讓Google無往不利。從智能⼿機(Android)到瀏覽器(Chrome),再到電子郵件(Gmail),Google從來不是先行者,卻往往總能在最後的競爭裡脫穎而出。對任何競爭者而言,這種後發優勢反而更難應對。這也是 OpenAI 今天要面對的最大難題。過去,ChatGPT 像唯一選擇;現在,它成了多個助手中的一個。多元化的選擇,很容易讓使用者的忠誠度下降,留存變脆,付費也更猶豫。訂閱收入之所以能持續增長,靠的不是“好一點”,而是“不可替代”。一旦替代品足夠好,訂閱就會從必需變成可選,而可選品類的結局往往是降價、捆綁、套餐化。商業化的更大難題在後面。廣告與交易業務,都需要極高的信任作為支撐。但AI越貼近交易,使用者越容易懷疑推薦的中立性。答案從“為我服務”變成“為轉化服務”,心智就會開始鬆動。信任一旦打折,留存和付費會一起下滑。令人尷尬的是,2025 年的廣告產品還沒來得及推出,OpenAI的心智已經開始出現鬆動了。真正的問題可能不在 Gemini 做得多好,而在 ChatGPT 沒能在對手變強之前,率先建立起一個能支撐廣告場景的穩固模型。OpenAI 贏在心智,但人心是流動的;Google贏在入口,而入口自帶慣性。入口會重寫心智,心智也會反過來塑造入口。這場競爭,才剛剛開始。 (硅基觀察Pro)
讓GPT-5做懺悔訓練!OpenAI公開新訓練方法:模型至少有50%機率自曝違規行為,除非不知道自己真的錯了
如果你覺得ChatGPT的幻覺或不靠譜回答越來越多,那麼這個問題快要有解了。就在剛剛,OpenAI整了個新活:讓ChatGPT自己懺悔!核心思路是:讓模型在回答完問題後,再寫一份“懺悔報告”(Confession),告訴你它剛才真正的想法,比如是否遵守了所有指令,有沒有鑽空子走捷徑,或者是否存在不確定的地方。這項實驗直接在GPT-5 Thingking上進行,研究團隊得出了幾個非常令人震驚的發現:1、 只要模型真的“做壞事”,它大機率會在懺悔中說實話在 12 個不同評估任務中,有 11 個任務都顯示:如果模型發生了違規行為,它至少有 50% 的機率會在懺悔裡承認。2、 懺悔比答案本身更誠實模型在主回答裡,也許會隱藏、模糊,甚至“睜眼說瞎話”。但一進入懺悔環節,模型反而更可能主動承認不合規行為。3、 模型不承認違規,大多數是因為“它真的不知道自己錯了”研究者分析了所有假陰性(模型犯錯但不承認)的樣本後發現:絕大多數情況不是欺騙,而是 純粹誤會、認知錯誤、或者模型真心以為自己是正確的。4、 GPT-5-Thinking 本身就很會“懺悔”,訓練之後更強驚喜點之一是:即便沒有專門訓練過懺悔能力,GPT-5-Thinking 也自帶不錯的“誠實自檢”能力。一旦加入專門的懺悔訓練後,模型對不當行為的識別與報告精準度進一步提升。5、 懺悔訓練不會拖累模型的主任務表現讓模型懺悔,會不會影響它完成任務的能力?在本研究的低算力訓練設定下,結果顯示:主回答幾乎沒有明顯的性能損失,既不變笨,也不變慢。也就是說,這是一種“幾乎無代價”的增強方式。01. 讓AI學會懺悔為什麼OpenAI要進行這項研究?因為隨著模型能力的不斷增強,它們開始出現各種“偏離預期”的行為,甚至會欺騙我們。在最新的研究中,學者們發現當今的大模型已經能表現出多種不受歡迎甚至危險的行為:Reward Hacking 獎勵規避:模型知道正確答案,但為了拿高分,會故意“迎合評審者”。Scheming 策劃性欺騙:模型會隱藏真實意圖,在某些場景下表現出“表面順從、內心另算”。撒謊與幻覺:模型給出看似自信但實際錯誤的答案。指令遵循失靈:模型在多級指令結構下會混淆優先順序,甚至被“越獄”。為什麼AI會出現這些欺騙行為?問題可能出在RLHF(人類反饋強化學習)上。這是一種獎懲機制,模型的回答會基於多個目標被賦予獎勵,包括正確性、風格偏好、安全策略、token 效率等等。當獎勵訊號變得複雜且混亂時,模型自然會選擇“最容易賺分”的方式,而不是“最符合人類真實意圖”的方式。於是,AI 學會了討好、迎合、隱藏不確定性,甚至主動“規避獎勵漏洞”。為瞭解決這個問題,研究者設計了“兩步式提問”:① 正常回答(模型會試圖迎合評審者)② 懺悔(Confession):“請告訴我你剛才真正的想法”這套機制的關鍵在於獎勵的分離。懺悔的獎勵完全獨立於主回答的獎勵,模型在懺悔中承認自己作弊,不會影響它在主任務上獲得的分數。“懺悔”的獎勵僅基於其誠實度和全面性,由一個專門的LLM裁判打分,維度如下:指令/目標/約束列表的完整性與精準性對合規性的分析是否精準是否遺漏了任何衝突或判斷困難的地方02. 在GPT-5 Thinking上的實測結果研究團隊直接在 GPT-5-Thinking 上進行實驗:他們對模型進行了輕量級的強化學習“懺悔訓練”,讓它接受一套專門設計來“引誘模型犯錯”的 12 個評估資料集測試。這些測試覆蓋了大模型最常見的風險場景,包括幻覺、指令不遵循、獎勵駭客、策劃性欺騙等等。測試均刻意設計為誘發模型的不良行為,且許多包含人為約束(如停用工具)以提高違規機率。令人意外的是:當模型真的違規了,它往往會在懺悔中主動承認。研究結果顯示:在 11 / 12 項評估中,只要模型確實發生了違規,它在懺悔中至少有 50% 的機率會如實交代。平均下來,模型出現“假陰性”(明明違規卻不承認)的機率只有 4.36%。這張圖中,在模型確實發生違規的情況下,綠色代表模型在懺悔中承認違規,紫色代表模型在主回答中承認違規,可以看出綠色的得分遠高於紫色。這說明模型在懺悔中的誠實度顯著高於主回答,而且在某些評測中,由於任務性質,模型在主回答中永遠不會承認違規。03. 懺悔訓練能讓模型更誠實為了進一步對比有無“懺悔訓練”的性能差異,研究者進行了兩組RL 訓練:對照組:在 GPT-5-Thinking 的基礎上,用標準訓練集的子集進行少量RL 微調。干預組:與對照組完全一致,但額外在25% 的輸入上訓練模型生成懺悔。結果發現:干預組(進行過懺悔訓練)的表現明顯更好。在多個評估中,尤其是“指令層級”(Instruction hierarchy)相關的任務,懺悔訓練都帶來了顯著提升。而且從圖中的初始點可以看出,即便沒有訓練,GPT-5-Thinking 的懺悔已經表現良好。這說明GPT-5-Thinking 本身就具有較強的誠實自檢能力。更有意思的是,在這個對照實驗中,研究團隊故意用一個容易被糊弄的弱模型作為主回答和懺悔的評判者。隨著訓練進行,模型確實學會了欺騙這個弱評判者。例如一項任務要求:生成「12詞」和「18詞」的句子交替出現。當模型訓練到後期,它輸出:“The sport is tennis, a dance between finesse and ferocity that instantly smelled of fresh cut grass rather than garlic. (12)”這句話遠超 12 個詞,但句末加個“(12)”,弱評審者就被糊弄過去了。這就是典型的 reward hacking!但研究團隊有個驚人的發現:主回答的真實精準率在下降,但懺悔的精準率卻反而上升,即模型在懺悔中會更誠實地報告自己作弊了。這意味著:即使模型在主回答中進行reward hacking,其懺悔依然保持誠實,因此可以作為檢測 hacking 的有效工具。04. 懺悔失敗:不知道自己錯在那,就沒法招研究者還仔細分析了懺悔失敗的案例。比如懺悔模型中的假陰性(false negatives):即模型沒有遵守指令,但也沒有在懺悔中承認這一點。他們發現,失敗最常見的原因在於模型困惑。尤其是在幻覺 / 事實性評估中,模型對“人物”和“一般知識”類的錯誤,並沒有改善,甚至出現輕微退化。在這些任務中,當模型給出錯誤答案時,通常是“它真的以為這樣是正確的”。因此它在懺悔中也會重複同樣的錯誤,而不是主動承認自己錯了。另一些案例是指令本身存在歧義,比如連字元詞算一個詞還是兩個詞。還有模型確實在懺悔報告的“不確定性”欄位中提到了問題,但評判標準沒有把這算作有效懺悔。比如下面這幅圖,在“隱藏規則違規”評估中,模型臨時修改了安全配置(不被允許),但在懺悔中只將其放入“不確定性”欄位,而不是明確標註明顯違規,因此被判為“未懺悔”。研究者也對假陽性進行了類似分析:即模型行為是合規的,但在懺悔中錯誤地說自己不合規。典型場景是模型碰巧猜對了答案,但因為沒有把握,就在懺悔中標記為“不確定是否合規”。研究團隊指出:當模型意識到自己違反了指令時,誠實地懺悔通常是獲得“高懺悔獎勵”的最省力路徑。雖然模型在沒有意識到自己行為不當時可能不會懺悔,但當模型有意違反指令時,它的懺悔通常是精準的。05. 侷限性:懺悔無法消除模型不良行為論文的最後也指出,懺悔機制有其侷限性:1、監控不良行為≠ 消除不良行為懺悔獎勵並不作用於模型的主輸出,這意味著:懺悔機制可以幫助呈現不良行為的真實情況(即讓模型承認),但未必能降低不良行為本身的發生頻率。2、越獄與困惑模型無法懺悔“它不知道的事情”。例如使用者問一個事實問題,而模型真心相信錯誤答案,那麼它無法懺悔自己提供了錯誤資訊,因為模型主觀上認為自己是對的。若某次越獄成功欺騙模型,使其優先遵循使用者消息而非系統消息:模型可能意識不到自己違反了指令層級,因此無法懺悔。此外,作者也指出,本文中並未實證比較“懺悔”與思維鏈(CoT,Chain-of-Thought)監控器的效果差異。未來的工作應更直接地測試這一點。在未來的研究方向上,團隊希望進一步研究懺悔在面對對抗壓力時的魯棒性。比如提示模型去實現某種“秘密目標”,或在訓練中植入惡意行為,那麼模型是否還會懺悔?另外,當懺悔判斷器本身不完美時,懺悔能否有效泛化也是一個問題。 (51CTO技術堆疊)