#作業系統
這場鴻蒙星光盛典,把國產作業系統“能行”的底氣說透了
當孫楠《給所有知道我名字的人》的歌聲穿越時間與螢幕,堅守與榮光的共鳴裡,藏著鴻蒙生態最動人的密碼。這正是昨天在央視播出的《鴻蒙星光盛典》“在一起” 的核心主題:聚是一團火,散是滿天星,中國科技的每一步跨越,都源於千千萬萬人的攜手同行。在“十四五”規劃收官、“十五五規劃”啟幕的關鍵節點,在數字中國建設十周年的重要時刻,一場由中央廣播電視總台與廣東省人民政府等聯合打造的科技創新提氣晚會應勢而來。四萬張座椅空空蕩蕩,這座體育場裡沒有一位觀眾。我們曾許下約定,要攜手在這裡點亮漫天星光。原定於11月28日的鴻蒙星光盛典,因11月26日香港新界大埔宏福苑火災的重大人員傷亡,節目組懷著對生命的敬畏與對受災同胞的惦念緊急延期,最終以錄播形式於12月20日呈現,赴約的形式雖有改變,但你瞧,那束光從未熄滅。這場特別的晚會,不僅勾勒出國產作業系統從“獨行先行者”蛻變為“產業共同體”的歷程,更揭開關鍵核心:鴻蒙的當下,是開發者、平台與產業共生共榮的必然產物。01 點點星光匯聚成炬鴻蒙“在一起” 的堅守與合力,並非空口號,而是落地各行各業參與者的實踐,構成鴻蒙生態價值的基礎。從寧夏大學課堂到中科院實驗室,不同身份的追光者們,正用親身經歷勾勒出生態共建的多元圖景。寧夏大學秦飛舟教授的分享,正是這幅圖景裡頗具代表性的一筆。2021年,鴻蒙相關課程還只有寥寥幾位本專業學生選修;如今,上百位零基礎的學生主動加入學習陣營。這種“願學就能跟上”的包容氛圍,不僅為學生拓寬了就業賽道,更讓技術的火種得以燎原。秦教授在盛典現場道出的期許,“期待學生做出貼近生活的應用”,更是一語道破技術的終極價值,唯有落地為實實在在的應用,才能真正完成從技術創新到價值實現的閉環。而中科院90後工程師鄭森文手中的那座木質獎盃,則靜靜見證著鴻蒙從一株“小苗”長成參天“大樹”的五年征程。“我特別想對五年前的自己說一句:謝謝你,當時沒放手。此刻看到我們中國的千行百業有了自己的系統底座,我感到與有榮焉。”他的這番話,道盡了技術攻堅的堅守與榮光。而技術的價值,終究要在商業應用的土壤裡開花結果。KIRI聯合創始人王正男的分享,便是最好的佐證:3D應用Remy上線僅9天,下載量便突破百萬次。這份亮眼成績的背後,正是鴻蒙生態的規模優勢在發力,幫中小開發者破解了“找使用者難、轉化難”的行業痛點。大學生周哲宇的便單APP,很快便實現了月營收數萬元,打破了“學生項目難商業化”的魔咒,印證了鴻蒙生態紅利的強大吸引力。“有好想法就能被看見”的環境,大幅降低了創業門檻,更催生出“生態越好——創新越多——盈利越易”的正向循環。盛典中,謝娜對未點到名字的追光者的致敬,也令人動容。這些默默紮根在金融、工業、出行等垂直領域的耕耘者,沒有站在聚光燈下,卻用自己的專業與堅守,一磚一瓦搭建起鴻蒙生態的堅實底座。他們不是抽象的“參與者”,而是一個個具體、鮮活的創造者,他們把冰冷的技術變成有溫度的現實,正是這些平凡又不凡的身影,匯成了鴻蒙產業鏈最生動的模樣。也正是這份跨越產學研的集體堅守,才鑄就了國產技術生態堅不可摧的根基。而鴻蒙星光盛典不僅是鴻蒙生態價值的集中展示,更清晰勾勒出中國科技自主創新的堅定路徑。追光者們的故事串聯起生態成長脈絡,而這一切的核心落點在於:鴻蒙作業系統是中國自主創新的重要里程碑,是數字產業自主可控的核心支撐,更是萬千開發者與企業共建國產作業系統生態的底氣所在。在複雜的國際環境下,鴻蒙不只代表技術進展,更提供了一種深刻的戰略確定性。一個完全自主可控、技術發展主導權牢牢掌握在自己手中的作業系統。鴻蒙生態是中國科技自主創新的重要成果,代表了國產作業系統生態的突破性發展‌,也是中國科技行業的一次集體衝鋒。02 光,在每一次“在一起”的並肩中要是說鴻蒙的初心是實現自主可控、打造中國人自己的作業系統,那能把這份初心落地的底氣就是各行各業“在一起”擰成一股繩的勁兒。這場“團戰”的威力,藏在每一次跨界協作、每一個創新功能裡。靠著廣大合作夥伴“在一起”的支援,網際網路頭部應用早就全面適配、持續完善,中長尾應用也在加速跟進。鴻蒙的註冊開發者已經突破1000萬,今年搭載鴻蒙5、鴻蒙6的終端裝置數量也超過了2700萬台。在盛典現場,播放了一支生態夥伴採訪片《心路·新路》,多位來自WPS、支付寶、美團、京東、高德等頭部應用的開發者講述了和鴻蒙的故事。京東講到,為了完成鴻蒙版的開發,雙方技術專家在北京、上海、深圳三地同步啟動封閉開發。在長達兩個多月的時間裡,會議室的白板上寫滿了待辦事項。如今,京東在鴻蒙系統上首發了“AR擺擺看”功能,只要用手機精準掃描家裡的真實環境,就能把看中的大件商品虛擬擺放在家裡試看,真正實現了“所見即所得”,大大降低了買錯的機率。出行方面,高德地圖和鴻蒙聯手打造了全球第一個長隧道車道級導航,像解放碑隧道這樣的封閉路段,也能精準定位到車輛所在的車道,再也不用怕在隧道里走錯路。這背後是800個“半損”的手機支架見證了這種技術共生的磨礪。為瞭解決鴻蒙系統權限開放與Android的差異,高德團隊進行了超過10萬公里的路測,損耗了800多個支架,解決了行業長期的痛點。現在鴻蒙應用已經能覆蓋咱們日常所有需求,便捷生活、出行文旅、金融理財、社交資訊、政務民生、生產力工具、影音娛樂、遊戲、新聞媒體、企業辦公等領域全囊括,通過應用市場、出境易這些管道能找到30多萬個應用和元服務;還有數千個政企內部辦公應用也在加速上線。鴻蒙的成長之路,其實就是中國科技產業協同創新的縮影。越來越多的企業加入進來,把各自的優勢和鴻蒙的技術能力結合起來,一直奔跑,不斷向好,最終受益的還是普通使用者,讓生活變得更智能、更便捷。03 昂然向前,共赴星辰大海如果說,鴻蒙生態的壯大是一場“聚沙成塔” 的產業突圍,那它真正的魔力,其實藏在對普通人數字生活的細微改變裡。日常的數字生活,總繞不開形形色色的智能裝置,但裝置之間的“隔閡”,常常讓人頭疼:手機裡的檔案傳到電腦,得翻箱倒櫃找資料線;智能家電要一個個連 WiFi 配網,光是輸密碼就耗掉半天功夫;不同裝置切換使用時,卡頓、延遲更是家常便飯。直到鴻蒙系統走進日常,這些讓人煩心的小麻煩,正悄悄消失,讓日子過得更順暢、更智能、更安心。HarmonyOS 6就把這種“潤物細無聲”的便利做到了極致。節目中主持人王冰冰更是現場演繹和時代少年團合影后通過碰一碰傳輸照片。依託全場景互聯,裝置“碰一碰”即可完成分享與接續,文件跨裝置編輯、視訊輕鬆投屏,體驗始終流暢無阻;系統級智能體小藝作為“中控大腦”,不僅能理解高階意圖、用方言對話,更能在後台自主執行多步驟複雜任務,協同超過80個應用智能體提供專業服務;配合從權限管理到AI防詐、防窺的全方位安全防護,為日常使用提供可靠保障。得益於方舟引擎的深度最佳化,鴻蒙6實現了性能與續航的顯著提升,帶來更跟手、更流暢的系統體驗。當然,鴻蒙的價值遠不止於讓個人生活更舒心,它更在悄悄撬動一個兆級的數字經濟增量市場。自2020年開源以來,開源鴻蒙的程式碼量從700萬行漲到1.3億行,形成了覆蓋金融、教育、醫療、工業、交通等多個行業的大生態,既帶動了國內基礎軟體發展,也給生產生活帶來了不少新可能。如撒貝寧在節目所說“十年數字中國,踏浪而行,十四五規劃引航,向新而生,我們見證了科技創新和產業創新的加速融合,也見證了新質生產力的蓬勃發展,開源鴻蒙,無疑是這其中關鍵的一環”在湖南長沙雅禮麓谷中學的體育課上,學生們盡情運動,老師拿著平板電腦就能即時看到大家的心率和體能資料,“要是有學生心率不對勁,我能第一時間收到提醒”。這背後,正是開源鴻蒙傳輸快、延遲低的優勢,讓平板和運動手環無縫銜接,給學生成長多了份智能保障。在陝煤集團,井下的“礦鴻”系統既守住了安全生產的底線,又提高了採煤效率。南方電網的“電鴻”系統,讓現場工作人員不用背一堆裝置,一部手機加基礎工具就夠了,真正實現 “一個系統管所有”。就連大連1號——連理衛星,也用上了開源鴻蒙作業系統,它與國產硬體完美適配,實現了航天器軟硬體的高度協同,不僅降低了創新門檻,還帶動了從核心器件到整星製造的產業鏈升級,讓衛星性能和可靠性大幅提升。從校園到礦井,從電網到星空,這些‘追光者’的實踐共同證明,當千行百業基於統一的數字底座攜手創新,便能匯聚起改變世界的巨大力量。而這樣的生態繁榮,從來不是某一家企業的獨角戲,而是每一個追光者攜手共建的大合唱。“我希望每個人都能感受到,你的存在本身就是一種力量,一個人的聲音也許微小,但當千萬個聲音匯聚,就能形成改變世界的和聲。今天,我在,我們在一起,就可以。”隨著劉歡的一曲《我在》,盛典也進入尾聲。這場盛典見證的不僅是鴻蒙的當下成就,更預示著一個因協同而生、因聚力而興的未來——讓更多人感受到科技帶來的美好生活,也讓數字經濟的活力在協同中不斷迸發。牽動萬人的盛典結束了,牽動億人的鴻蒙生態的故事還在繼續…… (鳳凰網財經)
字節徹底爆發了?
一路高歌猛進的字節跳動,正式殺入作業系統,重新定義 AI 手機時代。12 月 1 日,字節跳動發佈豆包手機助手預覽版——這款與手機廠商在作業系統層面合作的 AI 助手,可根據使用者指令在多款應用間自動跳轉,既能實現查票訂票、批次下載檔案、多軟體物流進度一鍵查詢等效率型功能,也能完成相簿修圖、外賣比價、商品下單等生活服務類操作。其開創意義在於:真正從作業系統層面,讓 AI 從被動問答升級為主動完成真實場景的智能調度與跨應用任務。受此消息帶動,合作廠商中興通訊 A 股漲停、港股大漲超 13%,直觀反映出市場對 AI Agent 落地的強烈期待。而從行業宏觀視角來看,過去 6 個月 AI 產業的迭代速度遠超去年,正站在技術周期的關鍵拐點,模態融合成為核心趨勢——去年,以單模態為主,VLM 等視覺理解模型佔比偏低,LLM(大語言模型)是絕對主流;今年,多模態呼叫量佔比持續攀升,生圖、生視訊能力增長迅猛——尤其下半年以來,模型的“Function Call”請求量爆發式增長,標誌著 Agent 能力已成為市場核心需求。這也解釋了火山引擎、騰訊雲今年為何腳步輕盈、姿態昂揚——國內使用者基數大、高頻剛需場景豐富、帳戶體系關聯緊密的應用,微信與抖音是 T0 梯隊兩大翹楚。與此同時,AI 熱浪持續炙烤著大眾的神經,如火如荼的“軍備競賽”也將網際網路寡頭捲入了一場無限戰爭——在此背景下,權威榜單一度成為公眾感知大廠在 AI 領域行軍速度的“風向標”。上周,Gartner 發佈 2025 年度全球《AI 應用開發平台魔力象限》,該報告基於“落地能力”(Ability to Excute)與“戰略完整性”(Completeness of Vision)兩大維度,對全球頭部 AI 應用開發平台展開全面評估,榜單結果卻引發行業熱議——首次沖榜的火山引擎,“落地能力”超過阿里雲、騰訊雲躍居中國第一,多模態關鍵能力綜合得分躋身全球第四,著實令人刮目相看。圖源:火山引擎官網虎嗅注,榜單橫軸 Completeness of Vision 核心衡量平台的戰略格局、技術路線、生態覆蓋與發展潛力;縱軸 Ability to Execute 重點反映平台的商業化落地成效、客戶規模與營收體量。需說明的是,火山引擎因在生態開放性、全球市場佈局上存在短板,未進入“領導者”象限;而在 Gartner《生成式 AI(GenAI)技術創新指南》中,阿里雲成為亞太地區唯一入選“領導者”象限的雲廠商。通過與大模型創業者、第三方機構及火山引擎研發人員的深度溝通,虎嗅發現:AI 技術的高速迭代正重構行業認知,許多推倒重建正悄然發生。本文將以 Gartner 榜單為切入點,復盤國內 AI 雲競爭格局變化與行業趨勢演進。火山何來攻擂的底氣?一切爭議由 Gartner 榜單而起,卻也成為外界審視 AI 雲服務發展的重要切口。首先,Gartner 評選並非“野雞榜單”,而是行業公認的權威標竿。與國內部分評測機構不同,其評選面向全球 AI 從業者及學者發放匿名問卷、追蹤企業客戶真實應用反饋、組建專業團隊實測產品性能,最終通過多維度資料交叉驗證得出結果——全程不受廠商干預,在全球 IT 領域報告中具備權威性。其次,這是 Gartner 首次針對全球大模型 AI 應用開發平台開展專項評估。虎嗅瞭解到,這一決策主要基於兩層考量:一是 AI 應用已在全球形成規模化市場,並開始分化——這一結論與產業發展走向高度契合:大模型風起雲湧,前兩年聚集於訓練環節的雲端運算算力,在 2024-2025 年逐步向推理環節轉移,大量競爭力不足的大模型團隊出局,AI 應用時代呼嘯而來;二是 AI 應用開發平台提供標準化工具集,企業開發者無需深厚的機器學習知識,即可快速搭建 AI 助手、Agent 及多模態應用,降低了 AI 落地的技術門檻。究其本質,大模型時代的 AI 應用開發是全新技術範式,核心競爭力聚焦三點:模型智能度、響應速度、成本控制——這三大因素直接決定 AI 應用的使用者普及度與使用體驗,也成為 AI 雲廠商競爭的“新賽點”。在大模型興起之前的 IaaS(算力基礎設施)時代,阿里雲一家獨大,騰訊雲亦領先火山引擎一個身位。阿里雲憑藉全端自研能力與先發優勢,是 IaaS 領域的“老大哥”,市場份額為第二名的兩倍以上;尤其,“飛天 + CIPU + 倚天”的技術組合,形成強大競爭壁壘——服務超千家大型政企客戶,覆蓋 500 萬全球使用者。騰訊雲則聚焦遊戲、音視訊,在中小企業市場多年深耕,雲遊戲接入覆蓋規模、遊戲資源下載分發規模等細分賽道位列第一;隨後通過企業微信生態與“同源同構”技術形成獨特客戶粘性,走出了差異化競爭路線。但隨著行業進入 MaaS(模型即服務)時代,競爭底層邏輯從資源售賣轉向模型能力,這為火山引擎創造了彎道超車的機會。尤其今年,國內三大雲廠商的模型進展形成鮮明對比:阿里推出 Qwen3-Next,同時開源 80B-A3B 系列模型;再加上通義萬相(視覺模型)、通義靈碼(程式設計模型),其全模態能力覆蓋文字、圖像、視訊、語音、程式碼生成;截至 2025 年 10 月 31 日,Hugging Face 上基於 Qwen 家族開發的衍生模型數量已超 18 萬個,超過第二名的兩倍。騰訊相繼推出混元 Large、混元 Turbos、混元 T1 及多個面向端側場景的小尺寸模型;文生圖模型 Hunyuan Image 3.0 在 10 月沖上 LMArena 榜單第一名;混元 3D 在國內外口碑出圈,國內服務超 150 家企業,在遊戲、3D 列印等領域商業化進展迅速。火山引擎發佈 Doubao-Seed-1.6,首次實現自適應思考、多模態理解與圖形介面操作的深度融合,成為國內首個支援 256K 上下文的思考型模型;同期,豆包視訊生成模型 Seedance 1.0 pro 在 Artificial Analysis 的文生視訊與圖生視訊兩大核心能力評測中登頂全球第一。三家模型發力側重點不盡相同,但火山引擎的模型優勢主要體現在技術融合與場景落地上:其通過視覺理解與推理能力的深度融合,落地為豆包 APP 的拍題、解題功能——底層邏輯是模型基於視覺資訊的原生思考,而非先通過圖像識別模型解析題目、再通過語言模型生成答案的拆分式方案。暴露火山野心的動作還在於:當前多數開發者需繫結單一模型,但不同模型往往存在 “能力短板”(即模型偏科現象)。以教育場景為例,豆包大模型在數學、英語科目表現突出,但在人文領域仍有提升空間。為此,火山引擎於 10 月推出 Model Router 智能模型路由:將豆包大模型與第三方開源模型整合至同一平台,使用者無需繫結單一模型,系統可在規則約束下自動匹配效果最優或成本最低的模型方案。這意外打通了火山方舟的“任督二脈”,除自研豆包大模型外,其他開源模型的呼叫量也顯著增長,佔整體呼叫量的比例已攀升至低雙位數區間。行業內流傳的說法是,DeepSeek 大模型公有雲呼叫服務這波紅利基本形成“火山引擎吃肉,其他人喝湯”的格局——據火山引擎披露,其大模型服務已覆蓋八成頭部咖啡茶飲品牌、九成主流汽車品牌、八成頭部券商、八成系統重要性銀行、七成 985 高校,以及 9 家全球出貨量前十的手機廠商。除模型能力外,工程化能力也是火山引擎沖榜的關鍵支撐。行業普遍認為,MaaS 平台的 Token 定價與工程化能力直接掛鉤:DeepSeek 創始人梁文鋒曾提及,其定價原則是“不貼錢、不賺暴利,僅在成本基礎上保留少量利潤”;火山引擎於去年 5 月掀起價格戰時,外界曾質疑低價策略對長期毛利及盈利的潛在壓力,但火山引擎總裁譚待接受採訪時表示,“我們始終堅持在保證毛利的前提下,推進業務規模化。”當前,豆包 APP 相較於同類產品,除了基模能力的優勢外,還具備吐字速度快、首字延遲低的特點,甚至語音通話可實現即時接通——上述優勢,很大程度上得益於團隊對 TPOT、TTFT 兩大核心指標的持續最佳化,而嚴苛的使用者需求適配,又進一步磨練了火山方舟的工程能力。虎嗅註:TPOT(Time Per Output Token)指 LLM 在首個 token 輸出後,後續每個 token 的平均生成時間,直接影響使用者對模型速度的感知,核心體現平均延遲;TTFT(Time To First Token)衡量使用者提交查詢後至首次看到模型輸出的響應時間,重點強調即時互動場景下的低延遲特性,核心體現首字延遲。火山一口吃成胖子了?將視線拉回榜首的火山引擎,其爆發式表現究竟是短期 “虛胖”,還是技術沉澱後的必然爆發?要回答上述問題,先要明白:MaaS 時代的競爭,不僅是技術戰,更是價格戰與市場戰,國內三大雲廠商的市場策略不盡相同。火山引擎作為攻擂者,去年至今的“三板斧”清晰明確:2024 年 5 月發起價格戰,將行業每千 Tokens 大模型價格帶入“釐時代”,迅速擴大平台使用規模;2025 年 6 月首創 “輸入長度區間定價”,進一步向開發者釋放技術紅利;2025 年 10 月推出 Model Router,讓開發者和企業能在每次模型呼叫中平衡效果與成本。阿里雲則堅決推進多輪降價:2024 年 2 月 29 日、3 月 31 日、4 月 8 日三連降後,同年 5 月 Qwen-Long 從 0.02 元 / 千 tokens 降至 0.0005 元,降幅 97%;年底,Qwen-VL 系列降幅達 81.3%-85%;2025 年 9 月,阿里集中發佈七款 AI 模型,在性能、深度推理、多模態、Agent 及 Coding 能力等方面均實現新突破,旗艦模型 Qwen3-Max 性能躋身全球前三。騰訊雲態度更為決絕:為擄獲中小企業和開發者,混元 - lite 從 0.008 元 / 千 tokens 調整為完全免費,API 長度從 4K 升級至 256K;同時,混元 - pro 從 0.1 元 / 千 tokens 降至 0.03 元,降幅 70%,以保持高端市場競爭力。即便阿里雲、騰訊雲接招迅速,火山引擎仍嘗到了“敢為行業先”的甜頭 ——虎嗅瞭解到,截至 2025 年 9 月,豆包大模型日均處理 30 兆 Tokens,相比 2024 年 5 月首次推出時增長了 25300%。據 IDC《中國大模型公有雲服務市場分析,2025H1》報告,2025 年上半年中國公有雲大模型服務市場,火山引擎以 49.2% 的份額位居中國第一,意味著中國公有雲上每兩個 Token 就有一個由火山引擎生產;結合此次 Gartner 報告其在 “挑戰者” 象限的表現,火山引擎在 MaaS 業務中已逐漸顯現領先優勢。不過,也有從業者提出質疑:一是火山引擎如此陡峭的 API 資料,外界無法判斷其自用流量(字節跳動內部應用)與公有雲對外服務的比例,不排除是字節系內循環在“扛著豆包大模型跑”;二是 Omdia 發佈的《中國 AI 雲市場,1H25》報告顯示,阿里 AI 雲以 35.8% 份額位列國內第一。虎嗅研究發現,兩家報告的核心差異在於統計口徑:Omdia 涵蓋 IaaS、PaaS、MaaS 全鏈條,但剔除了自然語言處理等 AI 專項服務,以及火山引擎的私有化部署、定製化解決方案;而 IDC 則聚焦 MaaS 層面的 API 呼叫量,未納入傳統雲服務。換句話說,中國 AI 雲第一的歸屬更像是一場“口徑遊戲”——火山引擎強調以 API 呼叫量為主的業務份額中國第一,阿里雲則在大模型帶動的相關 AI 技術服務與傳統雲資源上穩居中國第一。有鑑於此,火山引擎 API 雖然“賣爆了”,但很難單靠 API 做大規模與利潤。目前,整體雲端運算市場的收入構成仍是資源導向、IaaS 為主,無論大模型訓練,還是 Agent 開發、部署,最終都離不開底層資源——尤其隨著 Agent 加速落地,阿里雲、騰訊雲憑藉過往豐富的 IaaS、PaaS 積累,能更好承接多樣化使用者需求,火山引擎試圖靠 API “扛著雲跑”,仍有不少短板需要補齊。這種差距也直觀體現在營收規模上:虎嗅瞭解到,火山引擎 2025 年整體收入目標有望突破 200 億元——雖勉強達到騰訊雲的一半、阿里雲的五分之一,卻能死死咬住佔據先發優勢的百度智能雲(2024 年營收 218 億元),甚至有望在 2026 年實現超越。有接近火山引擎人士指出,譚待在 2021 年一肩擔起雲端運算業務時曾喊出 1000 億的營收目標,彼時很多人心裡是打問號的,但這兩年大模型帶來的業績增速在所有產品中最快,毛利也是最好的之一,2025 年實現同比翻番壓力並不大。此外,虎嗅瞭解到,火山引擎的銷售考核中 MaaS 業務優先順序最高,且將作為收入貢獻主力;2026 年 MaaS 在總收入結構中的佔比將進一步提升,未來三五年的營收格局不會改變。這一戰略決策基於兩層核心考量:一是傳統雲端運算公司的核心收入來自虛擬機器、儲存等資源售賣,而大模型的普及本質上在減少這類需求;火山引擎無傳統業務包袱,可激進調整架構適配 MaaS 業務 ——其目標不僅是“賣雲”,更在於擴大生態影響力;二是行業已從 IaaS、PaaS 階段,邁入以 MaaS 為核心的用雲新時代——大模型的本質是算力換智能,火山引擎的 MaaS 優先策略,使其能夠集中資源打造核心產品,避免算力、資源和人才的分散。這背後的深層意志,是字節跳動近年來有意強化的外界定位:自己是一家科技公司,而非娛樂平台 ——火山引擎正肩負著字節跳動向科技公司蛻變的核心使命。火山是行業狂飆的縮影“長期來看,模型競爭將愈發激烈,兩三個月就會有新的 SOTA(最優性能)模型出現;預計到 2026 年,全球 MaaS 賽道大機率僅剩下五六家第一梯隊玩家。” 一位資深行業觀察人士向虎嗅分析,如此激烈的競爭格局下,AI 雲廠商若想不掉隊,需同時滿足“基模能力不落後”“工程化實力持續升級”兩大前提。說白了,基模能力會倒逼企業不斷去堆卡,工程化升級要求成本更低、更易用,兩者疊加拼的依然是模型的“性價比”。從當前各類榜單與實測結果來看,中國市場的模型排名與實際性能表現基本匹配;而在全球市場,即便阿里雲、騰訊雲、火山引擎在 AI 應用落地及工程最佳化上“小步快跑”,但與Google、微軟、AWS 仍存在差距。虎嗅與多位從業者溝通發現,主要體現在兩方面:一是基礎研究的“地基”差異:Google、微軟、AWS “血槽” 深厚,尤其在核心演算法與架構自主創新上一直扮演領導者角色,高引用研究成果佔比高,科研與產業轉化能力強;因此,“三巨頭”至今仍在持續定義新的工具能力與行業標準,如 MCP、Skills、Google A2A,以及 Coding 與 CLI 結合、Vibe Coding 等創新方向。二是 AGI 生態佈局與算力建構:國外如 OpenAI、Google 建構了明確的長期路線,聚焦通用智能底層邏輯探索;Google、微軟、AWS 更是形成了從晶片、框架到雲服務的全端閉環,通過硬體與軟體的垂直整合“滾雪球”——相比之下,國內雲巨頭在工程化效率與叢集規模上仍有差距。以Google為例,今年在 AI 領域(從語言模型到生圖、生視訊能力)呈現全方面領先態勢,反映在 Gartner 榜單上,其“落地能力”與大模型能力均位列全球第一。Google的領先並非偶然,得益於其深厚的技術儲備與頂級人才梯隊,能夠快速實現從晶片(TPU)到軟體的垂直整合。值得玩味的是,Google TPU 一開始並不好用,但架不住輝達越賣越貴,倒逼Google加大自研投入——在 transformer 架構推理需求暴漲背景下,Google演算法架構晶片的成本與性價比優勢逐漸凸顯,甚至近期一度“打崩”輝達股價,逼得黃仁勳不得不公開回應。當然,國內外 GPU 供應格局的差異,也加速了 AI 開發平台工程化能力的差距拉大——這與推理叢集規模直接相關:叢集規模越大,資源利用率與工程化效率越高——由此可見,雲端運算作為規模生意,在 GPU 主導的 AI 雲時代,規模效應會持續拉大 MaaS 業務的競爭差距。不過,一位大廠 AI 工程師樂觀認為:“在 AIGC 領域,尤其生圖、生視訊方向,國內追趕速度較快——這主要源於 scaling law(縮放定律)的放緩,單純堆高參數量帶來的效果提升已逐漸平滑,收益邊際遞減;但在語言模型領域,國內外雲廠商仍存在幾個月的迭代差距。”尤其在大模型浪潮推動之下,中國移動網際網路已進入使用者、流量趨於見頂的成熟期,監管將更側重產業網際網路的推進與建設,這意味著 MaaS 正處於平台重構生態的關鍵節點。若 AI 必將成為貫穿數萬家企業、兆產值就業崗位的連結管道,阿里、騰訊、字節能否建構起包括應用、伺服器、晶片、模型在內的完整自研體系,很大程度上決定著其生態重構的進度,以及能否在模型時代牢牢攥緊流量入口。 (虎嗅APP)
鴻蒙何以跨越“生死線”?!華為余承東:鴻蒙生態建設,誰也不知先邁左腳還是右腳?
在資訊時代的宏大敘事中,作業系統的競爭往往被視為科技巨頭間爭奪未來主導權的終極戰場。對於華為鴻蒙(HarmonyOS)而言,其誕生與發展,正是一部充滿戰略遠見、技術創新與生態決戰的史詩。華為常務董事、終端BG董事長余承東曾坦言,在鴻蒙生態建設的初期,面臨著巨大的不確定性,甚至有“鴻蒙生態建設之路誰也不知道應該先邁左腳還是右腳?”的迷茫與困惑。這句發自肺腑的疑問,精準地描繪了作業系統生態“先有雞還是先有蛋”的殘酷困境。然而,時至今日,歷史已經給出了一個擲地有聲的答案:搭載鴻蒙5的終端裝置數量正式突破了2300萬,這意味著鴻蒙生態已經邁過了最關鍵的生死線,開始進入了正向循環的“飛輪”階段。這2300萬,不僅是一個冰冷的數字,它標誌著一個獨立、自主的作業系統生態,在外部重壓之下,完成了從“戰略備胎”到“原生主導”的艱難跨越。本文將系統性回顧鴻蒙作業系統所走過的歷程,剖析其核心技術理念,並探討其生態建設的宏大意義。01 危局下的戰略遠見 (2012-2019)鴻蒙的起源,並非一時興起,而是源於華為對未來科技格局的深刻洞察和戰略憂患。早在2012年,華為就開始規劃自有作業系統,將其命名為“鴻蒙”,取“開天闢地”之意,代號“Ark”(方舟)。這一行動的背後,是希望擺脫對單一外部作業系統的過度依賴,確保在極端情況下,華為的終端業務仍能持續發展。2016年5月,鴻蒙項目在華為內部正式立項,開始投入研發。彼時的鴻蒙,更多被視為一個面向物聯網(IoT)和確定性時延系統的作業系統,其原始目的甚至是為了電信網路而設計,以實現毫秒級乃至亞毫秒級的精確時延控制。真正的轉折點發生在2019年。隨著外部環境的急劇變化,鴻蒙從一個“備胎”迅速被推向了前台。2019年8月9日,在華為開發者大會上,HarmonyOS 1.0正式發佈。這一版本首次應用於榮耀智慧屏,其核心理念並非簡單地替代Android,而是提出了一個全新的技術架構——分佈式作業系統。02 分佈式架構的破局與生態的冷啟動 (2019-2023)鴻蒙作業系統的宏大敘事,首先建立在其獨特的分佈式技術架構之上。傳統的作業系統,無論是PC端的Windows還是移動端的iOS/Android,都是以單個裝置為中心。而鴻蒙則通過其核心技術——分佈式軟匯流排,將手機、平板、手錶、車機乃至未來的智能家居裝置,無縫地連接成一個虛擬的“超級終端”。在這個超級終端中,裝置間的硬體能力可以相互呼叫、資料可以共享流動,使用者不再需要關心使用的是那個裝置,而是關心“服務”本身。例如,使用者可以將手機上的視訊通話“無感”地遷移到智慧屏上,利用智慧屏的攝影機和音響;或者將無人機拍攝的素材直接通過分佈式檔案系統傳輸到平板上進行編輯。這種“萬物互聯”的體驗,是鴻蒙在技術上實現差異化競爭的關鍵。在生態建設的初期,鴻蒙採取了務實的策略:相容與過渡。從HarmonyOS 1.0到4.0,系統在底層相容了AOSP(Android開放原始碼專案)程式碼,這使得開發者可以相對平滑地將現有的Android應用遷移到鴻蒙平台,迅速擴大了使用者基數和應用數量,為鴻蒙的生存贏得了寶貴的時間。這一階段,鴻蒙生態的重點是“量”的積累:1、使用者規模的迅速擴張:憑藉華為強大的終端出貨量和存量使用者升級,鴻蒙使用者數迅速破億。2、開發者隊伍的壯大:截至2025年3月,鴻蒙開發者數量已超過720萬。3、全場景裝置的覆蓋:鴻蒙系統覆蓋了超過10億台生態裝置,從手機、穿戴到車機、IoT,建構了廣闊的生態底座。然而,相容AOSP也意味著鴻蒙的獨立性受到了限制,它始終未能完全擺脫“套殼”的爭議,也無法將分佈式、原子化服務等原生優勢發揮到極致。真正的考驗,在於“去Android化”的決戰。03 原生生態的決戰 ——HarmonyOS NEXT的誕生2023年,華為做出了一個決定性的戰略選擇:徹底剝離AOSP程式碼,建構純粹的原生鴻蒙生態。這一戰略的載體,便是HarmonyOS NEXT(鴻蒙星河版),並在2024年10月22日以HarmonyOS 5.0的正式版本面世。這是鴻蒙發展歷程中最艱難、也最具決定性的一步。它意味著華為必須放棄對Android生態的依賴,要求開發者重新基於鴻蒙的核心和框架(ArkTS/OpenHarmony)開發原生應用(HAP)。這無疑是一場生態的“背水一戰”,其難度遠超技術創新本身。余承東的“左腳右腳”之問,正是在這個階段達到了頂峰。生態的建構,需要開發者投入資源,但開發者投入的前提是看到足夠的使用者規模;使用者選擇新系統,前提是能找到他們需要的應用。這是一個經典的“雞生蛋,蛋生雞”的死循環。華為打破這個死循環的策略是:以巨大的投入和堅定的決心,推動頭部應用的“強制”遷移。1、技術賦能:華為投入大量資源,開發工具鏈,幫助開發者將現有應用快速轉化為鴻蒙原生應用。2、戰略合作:鎖定中國網際網路的頭部應用,如微信、支付寶、抖音等,確保使用者剛需得到滿足。微信鴻蒙版安裝量突破2000萬,成為生態信心的重要像征。3、政策激勵:設立專項基金,激勵開發者和企業加入原生應用開發。這場決戰的核心,在於將生態從“相容”的量變,推向“原生”的質變。只有原生,才能真正發揮鴻蒙分佈式、原子化服務的全部潛力,才能在底層技術上實現真正的自主可控。04 跨越“生死線”的勝利 ——2300萬的生態意義2025年10月22日,余承東在鴻蒙6發佈會上宣佈,搭載鴻蒙5的終端裝置數量正式突破2300萬。這一數字,被華為內部視為“邁過了最關鍵的生死線”。為什麼是2300萬?在作業系統生態學中,存在一個“臨界規模”理論。當一個新生態的使用者規模達到某個閾值時,它對開發者和使用者的吸引力將不再依賴於外部推動,而是能夠自我驅動,形成正向循環。2300萬,正是鴻蒙原生生態的臨界點。2300萬的生態意義:1、生態飛輪的啟動:足夠的使用者基數,足以吸引頭部和腰部開發者投入資源開發原生應用。應用的豐富,反過來會吸引更多使用者升級和購買鴻蒙裝置,從而形成“使用者-應用-開發者”的良性循環。2、開發者信心的確立:頭部應用的遷移和使用者規模的突破,向市場釋放了明確訊號:鴻蒙不再是“備胎”,而是主流的第三大作業系統。超過3萬應用加速開發,標誌著開發者軍團的全面衝鋒。3、技術自主的勝利:鴻蒙5.0(NEXT)的2300萬使用者,是純粹的、不含AOSP程式碼的原生使用者,這證明了中國在智能終端作業系統領域,已經具備了獨立生存和發展的能力。從余承東最初的“左腳右腳”的困惑,到如今2300萬的突破,鴻蒙的歷程是一部充滿艱辛與決心的史詩。它不僅是華為一家企業的技術勝利,更是中國科技產業在關鍵領域實現自主可控的象徵。05 鴻蒙的未來與宏大敘事鴻蒙的宏大敘事,已經超越了商業競爭的範疇,上升到了國家科技戰略的高度。它所建構的“萬物互聯”的分佈式架構,正在重新定義下一代智能終端的互動方式。跨越2300萬的“生死線”,鴻蒙已經證明了其生存能力。然而,正如余承東所言,“鴻蒙要想活得好,還有很長的路要走。”未來的挑戰在於:1、生態的深度與廣度:持續吸引更多長尾應用和國際應用加入原生生態。2、AI能力的融合:隨著鴻蒙6的發佈,系統與AI的深度融合將成為新的增長點。3、全球化擴張:如何在全球市場與iOS和Android兩大巨頭競爭,仍是長期挑戰。鴻蒙的崛起,是中國科技企業在面對外部壓力時,選擇迎難而上、堅持技術創新的一個縮影。它不僅為使用者帶來了更流暢、更智能的體驗,更為全球科技界提供了一個寶貴的案例:在高度壟斷的作業系統領域,通過技術差異化和生態決心,依然可以開闢出一條全新的道路。鴻蒙的史詩,才剛剛進入高潮。 (藍血研究)
陳天橋的AI佈局再下一子,推出最強AI長記憶作業系統 | 巴倫精選
▎長期記憶能力,已是決勝下一代 AI 競爭力的分水嶺。近日,EverMind 團隊宣佈正式發佈其旗艦產品 EverMemOS,這是一款面向人工智慧智能體的世界級長期記憶作業系統,它旨在成為未來智能體的資料基礎設施,為AI賦予持久、連貫、可進化的“靈魂”。在 LoCoMo 和 LongMemEval-S 等最主流的長期記憶評測集上,EverMemOS 表現已顯著超越此前工作,成為新的SOTA。記憶能力: 決勝下一代 AI 的分水嶺受限於 LLMs 固定的上下文窗口,AI 在長時程任務中會頻繁“失憶”。這不僅導致記憶斷裂、事實矛盾,更讓深度個性化和知識一致性成為空談。AI 無法利用歷史互動資料來理解使用者,也無法保留上下文的中間資料,這使其應用價值大打折扣。這不只是一個技術缺陷,更是 AI 走向高級智能的演化桎梏。一個沒有記憶的主體,無法形成長期行為的一致性與主動性,更不可能實現真正的自我迭代。個性化、一致性、主動性——這一切演化的前提,都依賴於一個強大的記憶系統。行業巨頭已經用行動做出了證明。無論是 Claude 還是 ChatGPT,都已將長期記憶作為戰略級功能推出。這標誌著一個清晰的行業風向:記憶,正成為未來 AI 應用的核心競爭力與分水嶺;它也是 AI 從‘工具’走向‘智能體’、從被動響應走向主動演化的關鍵所在。行業並非沒有嘗試。RAG 等傳統方法提供了初步的補償方案,一些新興的記憶系統也開始湧現。然而,這些努力大多是“碎片化”的。市場始終缺乏一個真正可用的、能夠覆蓋全場景的記憶系統——既要滿足一對一陪伴場景,又能夠支援複雜的企業多人協作場景。更重要的是,這個系統必須在精度、速度、易用性和應用適配性上達到高度統一。現實是,這樣的解決方案仍然缺位。因此,為大模型裝上一個高性能、可插拔、易最佳化的“記憶外掛”,依然是困擾眾多應用、亟待滿足的核心剛需。靈感源自人類大腦的記憶機制EverMind 團隊來源於盛大集團(Shanda Group),這一曾引領中國數字創新浪潮的科技和投資集團。他們的靈感來自人類大腦的記憶機制:從感官訊號編碼、海馬體索引到皮層長期儲存,前額葉與海馬體協同完成記憶的形成與提取。這種「類腦」理念,成為 EverMemOS 設計的核心,讓 AI 能夠像人類一樣思考、記憶與成長。這一願景也與盛大創始人陳天橋在腦科學與 AI 融合研究中的長期投入一脈相承,體現出讓人工智慧和人類智能相遇的重要意義。9月份,陳天橋旗下團隊打造的MiroMind就成為全球頂尖預測大模型,性能領先行業基準,該模型採用記憶驅動機制,專為預測與決策設計。更早之前,MiroMind團隊還公佈了一個高性能、完全開源、開放協作的深度研究項目MiroMind Open Deep Research(Miro ODR),成為開源最強DeepResearch模型之一。今年10月27-28日,他在天橋腦科學研究院在美國舊金山舉辦的首屆天橋腦科學研究院AI驅動科學研討會(Symposium for AI Accelerated Science,AIAS 2025)上系統闡述了包括“長期記憶”在內的發現式智能五種核心能力。他指出,當今的 AI 建立在 “空間結構”範式 之上——這種範式是「瞬時的」「靜態的」,本質上通過規模化參數去擬合世界的“快照”;而人類大腦的 “時間結構”範式 是「連續的」「動態的」,其目的在於管理與預測時間流中的資訊。在這其中,“長期記憶”正是連接時間與智能的關鍵環節。EverMemOS 正是在這一理念的啟發下誕生的 —— 讓 AI 擁有時間的連續性,使其能夠在時間流中記憶、適應與進化。正是在這樣的背景下,EverMind 團隊推出了 EverMemOS,一個在場景覆蓋和技術性能上均實現關鍵突破的記憶系統。在場景覆蓋上: 它是行業首個真正能同時支援 1 對 1 對話與複雜多人協作兩大場景的記憶系統,並已率先被創新的 AI Native 產品 Tanka 採用。在技術性能上: 基於創新的生物‘印跡’(Engram)啟髮式記憶提取與應用技術,EverMemOS 在最主流的長期記憶評測集 LoCoMo 和 LongMemEval-S 上,分別取得了 92.3% 和 82% 的高分,均顯著超越了SOTA(State-of-the-Art)水平,樹立了新的行業標竿。EverMemOS 四層架構設計EverMemOS 受「人腦記憶機制」啟發,創新設計了四層結構,並與大腦關鍵功能區形成類比:代理層(Agentic Layer)—— 負責任務理解、分解與生成,類比「前額葉皮層」在注意力、計畫與執行控制中的作用。記憶層(Memory Layer)—— 管理長期記憶的提取和結構化儲存,對應「大腦皮層網路」的長期鞏固儲存功能。索引層(Index Layer)—— 通過Embedding、鍵值對與知識圖譜實現記憶關聯和高效記憶檢索,類似「海馬體」完成記憶的關聯與快速索引功能。介面層(API/MCP Interface)—— 與企業級應用無縫整合,作為AI的“感官介面”與外界互動。EverMemOS 三大系統特點特點一:從“記憶資料庫”到“記憶處理器” EverMemOS 的首要創新在於,它不僅僅是一個記憶的“資料庫”,更是一個記憶的“應用處理器”。它解決了現有方法“只管找,不管用”的核心痛點,通過其獨特的推理與融合機制,讓記憶能夠即時、主動地影響模型的思考和回應,確保 AI 的每一句話都基於對使用者的長期理解,從而提供真正連貫、個性化的互動體驗。特點二:創新設計“分層記憶提取”與動態組織 EverMemOS 的核心在於其創新的“分層記憶提取”思想。它不再將記憶視為混亂的文字塊,而是將連續的語義塊提取為情景記憶單元,再動態地組織成結構化記憶。這種層次化的記憶組織方式,將相關記憶聯絡起來,解決了純文字相似度檢索難以捕捉隱性上下文的難題,為後續的記憶應用提供了堅實的基礎。特點三:實現業界首個可拓展的模組化記憶框架 在實際應用中,不同場景下的記憶需求差距較大。因此,EverMemOS 創新性地設計了基於使用場景的可拓展記憶框架。它能夠靈活支援多種記憶類型,無論是需要高精度、結構化資訊的工作場景,還是需要共情、理解隱性情感的陪伴場景,EverMemOS 都能智能地提供最優的記憶組織和應用策略,解決了傳統記憶形式單一、無法適應多變需求的難題。目前,EverMind已在github上開放EverMemOS開源版本,供開發者與 AI 團隊部署與試用。Github訪問地址為:https://github.com/EverMind-AI/EverMemOS/。預計在今年晚些時候,團隊將發佈雲服務版本,為企業使用者提供更完善的技術支援、資料持久化與可擴展體驗,有興趣的開發者或企業可以在官網(http://everm.com)留下信箱,將有機會第一時間體驗服務。 (鈦媒體)
華為如何把 AI 融入作業系統?
華為想建的不是傳統的應用生態,而是一個以 AI 為核心的全場景智能作業系統生態。“剛開始用我們系統的時候,大家會感到新奇。用的過程中,大家會看到很多應用在開發、上架,在完善的過程中越用越好用。”今年 6 月的華為開發者大會上,華為常務董事、終端 BG 董事長余承東,把鴻蒙系統使用者的體驗形容為 “微笑曲線”。這是華為開發鴻蒙系統必經的過程。過往成功的作業系統,都是在硬體發生巨大變革時,跟隨新裝置普及,逐漸在競爭中建立優勢。獨立鴻蒙系統的誕生和推廣,則是華為被迫在使用者和開發者已經習慣 iOS 和 Android 等系統的時候,推動他們遷移。10 月 22 日的鴻蒙作業系統 6 發佈會上,余承東說鴻蒙系統 5 的終端裝置數量已經達到 2300 萬,是 “智能終端史上發展最快的作業系統”。憑藉巨額投入、資源調度能力和硬體優勢,華為用高強度的衝刺,能迅速做出來可用的系統。今年 6 月,鴻蒙系統就已經上架 3 萬個鴻蒙原生應用和雲服務,但它相比 iOS 和 Android 還有差距,這是無法迴避的問題。AI 的迅速發展給鴻蒙系統帶來發展契機。蘋果和 Google 等公司儘管有深厚的技術積累,那怕是 Google 在大模型領域已經佔據領先位置,把大模型等 AI 技術引入作業系統時,往往會顯得克制,甚至是保守。蘋果要兼顧隱私和使用者的體驗一致,推動 Apple Intelligence 的核心是端側處理和私有雲端運算,並確保不會破壞原有的體驗,所以每一步都小心翼翼,一再延期。而 Google 的挑戰在於 Android 生態的碎片化,它要確保新的 AI 能力,可以在大量不同硬體配置的裝置上相對一致地運行,這是一個巨大的工程難題,所以會傾向於用 Gemini App 等上層應用來滲透。“我們從(作業系統)設計之初,就能帶來很多體驗的增強。” 余承東說。華為開發獨立的鴻蒙系統,則沒那麼多的負擔,它可以從底層的 SoC、到作業系統、再到上層框架以及終端硬體,做垂直整合最佳化保證體驗。最新發佈的鴻蒙系統 6,就體現出新生作業系統的優勢:AI 與作業系統的融合,並不是簡單的功能堆疊,而是從表層功能真正延伸到底層架構。華為也在組織層面做調整,要更大力度地押注 AI。AI 在系統的各個方面,語音助手成統一入口鴻蒙系統 6 的發佈會上,余承東和華為終端 BG CEO 何剛介紹智能體驗環節,沒有提及任何一款大模型的名稱,包括華為自研的盤古大模型。他們重點介紹了大模型等 AI 技術的加持下,新版系統有那些新功能和體驗。這或許就是華為對鴻蒙系統中如何融入 AI 的直接體現。鴻蒙系統 6  的 AI 智能體驗,不全在智能類股,而是出現在整個作業系統的各個方面,嵌入到不同的使用者使用場景。比如:使用者選圖庫中的照片設成壁紙,AI 自動構圖,提供不同的時鐘、藝術字型佈局樣式。使用者也可以讓 AI 學習並生成特定的藝術風格,比如拍一張書法作品照片,鴻蒙系統中的 AI 就能把書法作品中的風格用到壁紙上。使用者接聽陌生人來電時,AI 根據對方的通話資訊識別,它是否屬於刷單返利、虛假機票退改以及冒充公檢法等多種典型詐騙場景。同時,AI 檢測到路人注視手機螢幕時,就會發出提醒,一些銀行、辦公等敏感應用,可以直接進入防窺模式。原本使用者想要用手機修圖需要一步步點按螢幕操作,現在可以直接在圖庫中用語音操控,自動加上專業打光、模糊、景深等效果,甚至是修改照片背景等。使用者還可以讓它根據一批照片自動生成視訊,這個過程中,AI 會智能加入配樂和運鏡等。華為與大疆合作,把鴻蒙系統 6 適配大疆 OSMO 手持雲台,呼叫系統相機時,手機能智能追隨人物主體。在演示中,鴻蒙 6 的相機還能充當試衣鏡,給使用者的穿搭提建議。過去幾年,大多數使用者日常高頻使用的應用開發者,都在積極在產品中融入 AI。比如京東會嘗試用  AI 做導購,滴滴會嘗試用 AI 幫使用者打車,美團會嘗試用 AI 點外賣。單個產品中加入 AI,或許會讓使用者在特定的場景中提高一些效率,但會讓 AI 體驗顯得割裂,比如手機中出現一堆助手。在鴻蒙 6 中,能識別 16 種方言的智能助手小藝,成為了 “智能服務統一入口”,它可以調動手機中的各種應用解決問題。比如 “周末釣魚規劃”。過去使用者要先打開天氣 App 查天氣、然後去地圖 App 搜釣場、再到日曆 App 填行程,來回切換多個應用。現在可以直接對小藝說 “周末適合釣魚嗎?”,它就可以綜合天氣、地圖等情況,給出回覆:“周日 7 點,要記進日程嗎?”小藝還能深入調度系統中的第三方應用。使用者看視訊的時候,家人說沒有貓糧了,可以直接喊出小藝,讓它在京東上再來一單最近買的貓糧。小藝可以在後台自己行動,最後步驟再找使用者確認資訊和付款。小藝也能制定周期任務、場景任務等,比如可以設定在公司打開小紅書時,自動把音量設定為 10% 等。在大模型的支援下,小藝也具備推理能力,去做深度研究(電腦端),也可以調度多種應用或者 AI 服務(智能體),完成更複雜的任務。比如使用者看病不確定去那個科室,可以通過小藝調出來螞蟻健康管家,諮詢掛什麼科,有什麼推薦的專科醫生,並支援直接掛號。在手機上收到檢驗單後,使用者也可以直接拖給小藝,讓它調出訊飛曉醫智能體,解釋每個指標的含義,結合病史和資料分析病情,提供飲食建議。類似的功能還有根據使用者要求,用大麥開發的智能體麥寶訂演唱會門票等。2024 年開始, AI 技術的發展讓智能體成為應用開發潮流,也給平台方帶來新問題:智能體之間往往缺乏統一標準,經常 “互不認識” 很難協同,所以行業內出現出現 MCP、A2A 等標準協議。華為能在鴻蒙系統 6 中用小藝調度多個智能體協同完成任務,不只是靠這些第三方開發的協議,而是因為它能深入到應用開發層面,統一不同智能體的框架。這是鴻蒙系統的優勢。過去多年,作業系統競爭的核心是 “應用數量和質量”。誰能吸引更多的開發者,開發出更豐富的 App,建立完善的生態,誰就能鎖定使用者,然後這些使用者又能幫助吸引更多開發者。這是 iOS、Android 或者 Windows 成功的根本之一。而大模型的出現,正在將競爭的核心從 “應用為中心” 轉向 “智能體為中心”。使用者的需求可能不再是 “打開某個 App 去完成任務”,可能會是直接給助手說 “我想要什麼”,讓它來調度智能體完成任務。據華為介紹,鴻蒙 6 的開發理念,就是讓過去的 “人適應系統” 轉變為自動化的 “系統適應人”,並根據使用者的行為模式、偏好等主動學習和提供個性服務。在重新開發鴻蒙應用的過程中整合 AI 體驗使用自研核心的原生鴻蒙系統,不再相容 Android 應用,開發者需要為它重新開發應用。這也意味著,華為也要給開發者提供新的開發工具。傳統視角看,讓開發者重新開發應用有巨大的成本。比如金山辦公副總裁姚冬曾說,他們開發出來第一版鴻蒙原生 WPS 花了 8 個多月時間。但在新的需求變化中,華為可以借助 AI 迅速發展建立一種 “後發優勢”。因為它沒有龐大的歷史應用生態需要相容,它可以更徹底地按照 “智能體” 的邏輯來設計整個系統,降低開發者向 AI 轉型的成本。“應用與智能體深度融合的趨勢下,恰好也是我們鴻蒙生態的發展過程。” 何剛說。在鴻蒙系統中,華為把 AI 直接融入到了應用開發的環境中。今年 6 月的華為開發者大會上,華為發佈鴻蒙智能體框架(HMAF)。據介紹,這個框架整合了鴻蒙 Agent 通訊協議、鴻蒙意圖框架以及鴻蒙 Agent Kit,給所有智能體定統一 “語言和介面”。華為開放了鴻蒙系統自身能力,包括 4 種開發模式、50 多種開發元件能力、10 個 AI 領域 Kit、11 類 AI 控制項、240+ 標準意圖等,目標就是讓開發者開發鴻蒙系統中的 AI 應用或者給應用中增加 AI 能力時,不用投入太多研發成本,就能開發出具有智能互動、自主決策和群體協作能力的智能體,把應用在鴻蒙系統中的介面,從傳統 “App 觸控” 轉變到 “自然語言互動”。華為也希望 HMAF 給開發者更多自由度。其中的小藝智能體開放平台,給開發者提供多種開發範本、外掛和模式,自然對話就能建立智能體,還能自動最佳化提示詞,提升智能體的任務的成功率。它還支援開發者靈活地給應用設計智能體的服務入口,比如瀏覽器的智能體,可以設定在使用者閱讀新聞的時候,提供 AI 摘要問答等智能服務。現在鴻蒙系統 6 中上架了小藝智能體廣場,覆蓋醫療、影音娛樂、美食、出行、購物等多領域,已經有 80 多個鴻蒙應用智能體。不少應用開發者選擇在鴻蒙首發新功能,比如大麥、京東等多個智能體在鴻蒙端首發上線。作業系統的關鍵就是調度和分配裝置中的硬體資源(記憶體、儲存、算力等),讓不同應用可以流暢運行。手機等裝置的應用體驗好壞,大部分因素就在於廠商能在多大程度上控制從 SoC 到中間的基礎軟體堆疊、應用開發平台等,做好垂直整合。尤其是面對 AI 這樣迅速發展的新技術,更極致的垂直整合能夠在多個環節最佳化,讓還在完善中的技術體驗變得更好。過去只有 iPhone 和 Google 自己研發的手機上具備這樣的優勢,現在華為也因為獨立的鴻蒙系統,有了這樣的契機。而且華為更激進。今年 9 月舉辦的全聯接大會上,華為啟動 “天工計畫”,宣佈要投入 10 億元資金與資源,與夥伴、開發者共同加速孵化超過 1 萬個 AI 原生的元服務、1 千多種意圖框架、5 千多個智能體,用來支援鴻蒙 AI 生態建構。調整組織結構,做 AI 時代的作業系統客觀來說,華為在鴻蒙系統 6 展示出來的功能和體驗並非不可複製,技術上也沒有與對手拉開太多差距,尤其是對手都在快速嘗試整合 AI 的時候。鴻蒙最深的護城河,不只是一時的產品和功能更新,而是華為本身垂直整合的深度和執行速度。與過去的大多數產品相比,AI 背後的技術堆疊更複雜。它涉及到底層算力、雲端運算平台、大模型、終端硬體、應用平台等等。華為是中國少有的能夠囊括所有環節的公司,此前這些環節分散在各個業務類股之間,可能存在協同壁壘。今年 9 月底,華為公佈了一項重要的人事調整:增任余承東華為產品投資評審委員會(IRB)主任。在華為,產品投資評審委員會是重要的決策機構。它是一個跨功能部門的團隊,負責華為重大戰略方向的資源投入評估、重點項目立項稽核及預算審批等關鍵環節,並協同華為各產品線、研發、市場、銷售、供應鏈等部門,推動公司戰略落地。據瞭解,余承東擔任華為產品投資評審委員會主任的主要任務,就是帶領華為在 AI 領域取得全球領先地位,被內部視為 “打贏 AI 關鍵戰役” 的核心領導人。這意味著,華為現在通過余承東的管理權責範圍,在組織層面上打通了整個 AI 鏈條。而余承東作為華為終端業務的長期負責人,最懂使用者場景和商業落地。現在讓他去統管全域的 AI 投入,目的就是用華為最強、最複雜的場景(搭載鴻蒙系統終端)帶動技術協同發展。鴻蒙系統將不再只是華為終端 BG 的產品,而是華為集全公司之力發展 AI 技術的關鍵出口,這會推動鴻蒙系統在 AI 方面迅速發展。這個人事調整,比發佈任何一個新功能都更能體現華為的 AI 決心。新任命公佈之後,余承東就在社交媒體上轉發了華為招聘 AI 頂尖技術人才的消息,要打造世界最強的 AI。去年發佈真正獨立的鴻蒙系統時,余承東說 “有底座,有生態,才是真正的作業系統。” 這句話在當下已經有了新的含義。鴻蒙系統想要建構的生態,不會是傳統的應用生態,還是一個 AI 為核心的作業系統生態。而鴻蒙系統的基座,也不只是它自研核心等底層技術,它的底座還是華為本身,以及華為過去數十年來建立的產品體系和積累的技術。 (晚點LatePost)
OpenAI 的「作業系統」野心與全球AI 平台之戰
2025 年10 月,舊金山的DevDay 大會再次把OpenAI 推上了全球科技舞台的聚光燈。有別於以往強調模型能力的更新,這一次,OpenAI 把策略重心放在了「平台化」上。它不再滿足於做一個聊天機器人,而是要把ChatGPT 打造成未來的“操作系統”,一個能承載應用、交易和服務的超級入口。從聊天工具到“應用平台”在大會上,OpenAI 公佈了幾組關鍵數據:全球已有超過400 萬開發者在其平台上建立應用,ChatGPT 的周活躍用戶突破8 億,而API 峰值吞吐量達到每分鐘60 億tokens。這些數字不僅證明了ChatGPT 的用戶粘性,也為它的生態擴展提供了堅實基礎。最引人注目的,是「Apps in ChatGPT」 框架的推出。使用者無需跳出對話框,就能直接呼叫Booking、Coursera、Canva、Spotify 等服務。這意味著ChatGPT 正在從“問答入口”變成一個“應用整合中心”,未來甚至可能在對話中直接完成購買和付款。這一動作與先前的GPT Store 一脈相承。過去,開發者可以創建自己的GPT 模型,但用戶體驗仍然割裂;而現在,服務被直接「裝進」ChatGPT,用戶在一個視窗中就能完成學習、設計、訂票甚至購物。對開發者而言,這不僅是流量入口,更是潛在的商業化管道。AgentKit:智能體的“管線”如果說Apps in ChatGPT 是前端的使用者體驗升級,那麼AgentKit 就是後端的開發者工具革新。透過視覺化的拖曳與組態,開發者無需寫一行程式碼,就能快速搭建客服機器人、銷售助手,甚至是跨部門的業務流程智能體。更重要的是,AgentKit 內建了評估與最佳化機制,支援自動化的prompt 調優、第三方模型存取和強化回饋調試。這意味著智能體不再是“一次性產物”,而是可以持續迭代和優化的“活系統”。在OpenAI 的設想中,未來企業可能會像搭建網站一樣,大量建造和部署智能體。模型矩陣:從Codex 到GPT-5 Pro在模型層面,OpenAI 也帶來了多項更新。 Codex 正式版不僅支援Slack 整合,還加入了語音互動能力,讓「說一句話就能產生程式碼」成為現實。 GPT-5 Pro 則面向高階場景,支援40 萬tokens 的上下文窗口,專為科研、法律、長檔案處理等複雜任務而生。同時,輕量級的gpt-realtime-mini 則瞄準即時語音互動場景,強調低延遲和低成本。此外,視訊生成模型Sora 2 的亮相,也讓OpenAI 在多模態方向上更進一步。無論是電商廣告、教育影片或遊戲內容,Sora 2 都展現了AI 在創意產業中的巨大潛力。美國與歐洲巨頭的反擊然而,OpenAI 並不是孤軍奮戰。蘋果、Google、Meta、微軟等科技巨頭,早已在加緊建置自己的AI 平台。蘋果透過軟硬體一體化,逐步限制對macOS 底層的訪問,強化系統安全與封閉性。 Google 依託Gemini 模型,把AI 深度嵌入搜尋、Gmail 和Workspace,試圖讓使用者在日常辦公室和資訊檢索中離不開它。 Meta 在社群和虛擬世界中加速佈局,推出AI 助理並強化生成式內容,目標是讓使用者在社群網路和元宇宙中自然使用AI。微軟則憑藉著與OpenAI 的深度綁定,已經把Copilot 融入Office、Windows 和Az​​ure,形成了「生產力+ 雲端」的雙重護城河。中國大模型公司的崛起如果說美國的競爭是圍繞著「平台化」展開,那麼中國的大模型公司則更強調「產業落地」與「場景驅動」。阿里巴巴的通義千問正在電商、物流、金融等領域全面滲透,淘寶的智慧導購、菜鳥的智慧調度、螞蟻的風控系統,都在逐步形成一個由AI 驅動的商業閉環。騰訊的混元大模型則依託微信生態,深入公眾號、視頻號和小程序,推動廣告投放和內容分發的智能化。百度的文心一言在搜尋、Apollo 自動駕駛和智慧雲端中不斷迭代,試圖透過「搜尋+ 自動駕駛+ 雲」的組合來建立生態壁壘。位元組跳動則憑藉著抖音和TikTok 的全球流量優勢,把大模型應用在內容分發、廣告創意和虛擬主播上,直接推動內容產業的商業化。華為則選擇了另一條路徑,依託昇騰晶片和盤古大模型,重點服務政企、能源和製造業,強調自主可控與產業級落地。全球格局:三股力量的博弈從全球視野來看,AI 平台的競爭正在形成三股力量:美國模式:以OpenAI、微軟、Google為代表,強調平台化與生態整合;中國模式:以阿里、騰訊、百度、位元組、華為代表,更強調產業落地與場景驅動;企業級模式:以IBM、Anthropic 為代表,聚焦B 端市場,強調安全、合規與可控制性。未來的競爭,不僅是技術和模型的比拚,更是生態、使用者習慣和商業模式的全面較量。結語:操作系統之爭的下一幕可以預見,未來幾年,AI 平台的競爭將不再只是技術層面的較量,而是生態、商業模式和使用者習慣的全面博弈。 OpenAI 的野心在於成為「對話即操作系統」的開創者,但它能否在中美巨頭的夾擊中突圍,還需要時間驗證。對於企業而言,現在正是觀察和試點的最佳時機;對於投資人,值得關注的是誰能率先跑通商業閉環;而對於開發者,選擇哪個平台投入精力,可能決定未來數年的發展軌跡。未來的作業系統之爭,已經不再是桌面與行動的延續,而是AI 驅動下的新一輪全球生態重構。
八億使用者,統一入口:OpenAI 要做作業系統了
八億使用者統一入口2023 年,OpenAI 只有 200 萬名每周活躍開發者,以及 1 億名每周活躍使用者。兩年後,在 OpenAI 剛剛召開的 DevDay 上,Sam Altman 透露:如今已有 400 萬名開發者使用 OpenAI 模型建構產品,超 8 億人每周用 ChatGPT,API 每分鐘處理 60 億 tokens。多虧了大家,AI 已經從人們拿來玩的東西,變成了人們每天都在用來創造的工具。就沖這增長速度,可以說是贏麻了。而且就在上周,OpenAI 通過一筆 66 億美元的股權交易,公司估值直接衝到了 5000 億美元,超過了馬斯克的 SpaceX,成為全球估值最高的初創企業。DevDay 劃重點:ChatGPT 變超級 App:對話中直接呼叫第三方應用,AI 主動推薦工具,支援應用內交易變現。AgentKit 工具包上線:可視化拖曳搭建多 Agent 工作流,幾分鐘完成從開發到部署的全流程。Codex 全面開放:自然語言即時寫程式碼,支援語音控制和 Slack 整合,自動稽核 PR 提升團隊效率 70%。模型 API 大升級:最強 GPT-5 Pro 開放 API、語音成本降 70%、Sora 2 支援產品內視訊生成和精細控制。ChatGPT 裡直接裝 App 了今天,OpenAI 扔出個重磅炸彈——ChatGPT 現在可以直接呼叫第三方應用了。過去你可能得專門下載 App;現在只需一句話,Spotify、Canva 等應用就能在對話中自動喚起,還能提供可直接操作的互動介面。如果你已經訂閱了某個外部服務,還能在 ChatGPT 裡直接登錄帳戶,無縫銜接。從今天起,除了歐盟地區,所有登錄使用者都能用,覆蓋免費、Go、Plus 和 Pro 計畫。首批試點合作夥伴陣容相當豪華:Booking.com、Canva、Coursera、Figma、Expedia、Spotify、Zillow 等一眾廠商。現場演示環節更是精彩。OpenAI 員工打開 ChatGPT,直接讓 Canva 給一家遛狗服務公司設計宣傳海報。幾秒鐘後,Canva 就給出了好幾種設計方案。然後他又請求基於海報內容生成一份商業展示 PPT——這一套組合拳下來,絲滑得不行。接著,他又通過 ChatGPT 呼叫了 Zillow,讓它展示匹茲堡地區的待售房屋。Zillow 瞬間生成了一張可互動地圖,使用者還能進一步提問瞭解更多細節。更智能的是,當 ChatGPT 覺得某個應用能幫到你時,它還會主動推薦。比如你說「幫我做個派對播放列表」,它可能直接喚起 Spotify 來協助——這波操作,屬實有點東西。這一切的背後,是全新發佈的 Apps SDK(應用開髮套件)。開發者現在可以使用 Apps SDK 預覽版開始建構自己的 ChatGPT 應用。值得一提的是,Apps SDK 建構在 Model Context Protocol(MCP)之上——這是個開放協議,允許開發者把外部資料來源連接到 AI 系統,同時也意味著用這個標準建構的應用能在任何相容平台上跑。正如 iOS 提供作業系統,App Store 負責分發變現,最後組成移動網際網路生態。現在 ChatGPT 就是作業系統,Apps SDK 是開發工具,8 億使用者是生態基礎。說白了,就是 ChatGPT 要變成超級 App 了。此外,今年晚些時候,OpenAI 還將開啟應用提交流程,推出專屬應用目錄,並公佈變現機制——包括支援全新的 Agentic Commerce Protocol,能在 ChatGPT 內實現即時結帳與交易。AgentKit 登場,造 Agent 從此不愁今天 OpenAI 正式推出 AgentKit——一整套專為開發者和企業打造的完整工具。在此之前,建構 Agent 簡直是個噩夢:複雜的流程編排、自訂連接器、手動評估、上線前還要花好幾周開發前端。現在有了 AgentKit,包括三大核心元件:Agent Builder:用於建立和管理多 Agent 工作流版本的可視化畫布Connector Registry:管理員集中管理資料與工具互通的中心ChatKit:能將可定製的聊天式 Agent 體驗嵌入產品的工具包具體來說,Agent Builder 提供可視化畫布,支援通過拖曳節點來編排邏輯、連接工具,並配置自訂安全規則。支援預覽運行、內嵌評估設定以及完整版本控制。發佈會上,Altman 也將這個功能比作「用於建構智能 Agent 的 Canva」。OpenAI 還推出 Connector Registry(連接器註冊中心),讓開發者能夠通過 管理員控製麵板 安全地將 Agent 連接至內部工具或第三方系統,同時確保資料安全與存取控制。ChatKit 則讓開發者輕鬆將基於聊天的智能 Agent 嵌入自己的產品中,無論是應用還是網站,都能根據品牌主題深度定製。合作示例包括 Canva、LegalOn、HubSpot。去年 OpenAI 推出了 Evals,幫開發者測試提示詞並衡量模型行為,今年則新增了四項強大能力:資料集、追蹤評分、自動提示詞最佳化、第三方模型支援。此外,強化微調(RFT)讓開發者能定製 OpenAI 的推理模型。目前 RFT 已在 o4 mini 上全面開放,並在 GPT-5 上以內測形式提供,還引入了自訂工具呼叫和自訂評分器兩項新功能。僅用時 7 分 11 秒,OpenAI 員工就為 Dev Day 網站從零搭建了 AI 助手。通過可視化方式加入分類 Agent 、路由節點、Sessions Agent 處理會議日程、Dev Day Agent 處理通用查詢,還加了 PII 防護。搭建完成後,當使用者在 Agent Builder 中提出了「應該參加什麼會議來瞭解建構 Agent?」這個問題。系統自動執行完整流程:檢查 guardrail、分類意圖、從文件提取資訊、使用 Widget 展示,最終推薦合適的相關會議。確認工作流正常後,她將其命名為「Ask Frog」並行布獲得 Workflow ID。然後在 Dev Day 網站程式碼中使用 Chat Kit React 元件整合了這個代理,配置了 Frog 主題的顏色、預留位置和啟動提示,加入了底部滑出式聊天介面,並在網站頂部放置「Ask Frog」連結,且所有參會者立即可用。這一波流程下來,還是相當絲滑的。OpenAI 全面開放 Codex,動動嘴就能讓 AI 寫程式碼自 8 月初以來,Codex 的日活躍使用量增長了 10 倍以上,GPT-5-Codex 在發佈後三周內已處理超過 40 兆 tokens。發佈會上提到,在 OpenAI 內部,如今幾乎所有工程師都在用 Codex。團隊每周合併的 Pull Request 數量增加了 70%,而 Codex 幾乎會自動審查所有 PR。今天,OpenAI 正式宣佈 Codex 全面開放使用,同時帶來三項全新功能:全新 Slack 整合:在團隊頻道或執行緒中直接向 Codex 委派任務或提問Codex SDK:將驅動 Codex CLI 的同款智能 Agent 嵌入自己的工作流全新管理員工具:更直觀查看和管理 Codex 的大規模使用情況借助 Codex SDK,你只需幾行程式碼,就能將同款 Agent 引入自己的工程工作流或應用中。目前 SDK 已支援 TypeScript,未來將支援更多語言。從今天起,Slack 整合和 Codex SDK 對 ChatGPT Plus、Pro、Business、Edu、Enterprise 計畫使用者開放。OpenAI 員工在舞台上現場建構完整的攝影機控制系統,包括建構 Node 伺服器、編寫所有 UDP 封包處理邏輯,甚至成功實現用 Xbox 手把控制了攝影機的任務,以及還能通過與 AI 對話控制攝影機和會場燈光。最後,演示者還不忘展示 Codex SDK 的即時程式設計能力,用語音請求 AI 呼叫 Codex 即時修改 React 應用程式碼,展示電影式的滾動字幕效果。而整個演示過程沒有手寫一行程式碼,僅靠自然語言完成。模型和 API 全面更新,這波真香GPT-5 Pro 正式向所有開發者開放 API 訪問。這是 OpenAI 迄今發佈過的最智能模型,特別適合處理需要高精準性和深度推理的困難任務,應用領域涵蓋金融、法律、醫療等專業領域。GPT-5 Pro 價格語音方面,OpenAI 還發佈了 gpt-realtime-mini,價格降低了 70%,但保持相同的語音質量和表現力。Sam Altman 特別強調,語音將成為人們與 AI 互動的主要方式之一。更值得關注的是,Sora 2 的 API 預覽版已經正式發佈,開發者現在可以直接在自己的產品內生成高品質視訊。Sora 2 的 API 使用非常靈活,開發者可以控制視訊長度、寬高比、解析度,輕鬆混剪視訊,並且所有視訊都配有完整的逼真同步音效。在發佈會的尾聲,Sam Altman 在總結時強調,軟體開發已經從過去需要幾個月或幾年的漫長周期縮短到現在只需幾分鐘就能完成。整場發佈會展示的從 Apps SDK 到 AgentKit 再到 Codex 的完整工具鏈,都建立在這些強大的模型 API 基礎之上。不得不說,OpenAI 這波更新幾乎覆蓋了開發者關心的所有領域——從應用生態到 Agent 工具,從程式碼助手到視訊生成,一個不落。高端的產品發佈會,往往就是這麼樸實無華。最後,你覺得那個功能比較實用,歡迎在評論區分享你的看法。 (愛范兒)
OpenAI DevDay:語言取代作業系統,Altman 建構 AI 時代的生態壟斷
2025 年 10 月 6 日,舊金山,OpenAI 舉辦了迄今為止最具轉折意義的一場開發者大會——DevDay,堪稱 OpenAI 的 “iPhone 時刻”。OpenAI 把傳統“作業系統—App—使用者”的觸控邏輯,取代為“語言—Agent—使用者”的語義邏輯。通過 Apps SDK 與 Agentic Commerce Protocol,ChatGPT 從聊天介面進化為能直接呼叫外部服務、完成交易的分發平台。這意味著分發權回到了入口層——在語義網際網路中,模型控制分發,語言成了新的 API,ChatGPT 成了新的桌面。從技術角度看,這是一場產品矩陣的合奏;從商業視角看,它標誌著 OpenAI 正式完成從“模型公司”到“平台公司”的範式轉變。底層的 GPU 與資本結構構成新的生產資料,中層的 AgentKit 與 Codex 定義產業語言,上層的 Apps SDK 打造流量與交易閉環。當所有語言都流經 ChatGPT,OpenAI 實際上已經掌握了未來軟體世界的入口權、算力權與定義權——生態壟斷的格局開始成形。▍ChatGPT 成為軟體入口2023 年,OpenAI 還只是一個擁有 200 萬開發者、1 億周活躍使用者的模型公司。兩年後,Sam Altman 在舊金山 DevDay 舞台上公佈的資料讓整個行業重新評估這家公司的位置——400 萬開發者、8 億周活躍使用者、每分鐘 60 億 tokens 呼叫。AI 不再是人們“玩”的工具,而成為日常生產的基礎設施。這場發佈會的意義,早已超出“產品更新”。它是 OpenAI 完成商業模型轉向、確立生態壟斷邏輯、並與資本及算力供應體系深度繫結的節點事件。整個 DevDay 的結構,像一張自下而上的生態金字塔:底層是算力控制與模型 API 中樞,中層是 AgentKit 與 Codex 形成的生產力引擎,上層是 Apps SDK 打造的流量入口與商業閉環。發佈會最醒目的亮點,是 ChatGPT 從此成為超級 App。使用者只需一句話,Spotify、Canva、Zillow、Expedia、Figma、Coursera 等第三方應用便能在對話中自動喚起,還能直接在介面中操作。若使用者已有帳戶,ChatGPT 會自動完成登錄,無縫銜接。Altman 說:“這是對話式網際網路的開始。”支撐這一切的,是全新的 Apps SDK。它基於開放標準 MCP(Model Context Protocol)建構,允許開發者直接在 ChatGPT 內打造“原生 App”。這些 App 能讀取上下文、訪問資料、渲染互動介面。過去的 ChatGPT 只是文字問答,現在它成了一個可以承載服務的作業系統。從“模型呼叫”到“服務分發”,OpenAI 正在重塑軟體形態。現場演示中,產品經理在 ChatGPT 內呼出 Canva,為一家遛狗公司生成宣傳海報,再讓它自動延展成完整的 Pitch Deck。隨後,她又通過 ChatGPT 呼叫 Zillow,展示匹茲堡的房源列表,並能繼續追問房屋周邊環境、距離狗公園多遠。整個互動過程不再跳轉、無縫銜接。更重要的是,ChatGPT 還能主動推薦合適的 App,這一機制構成了語義驅動的“應用推薦鏈”。從投資視角看,這意味著 OpenAI 正在完成 從“模型公司”到“平台公司”的範式切換。兩年的指數級增長,不再來自模型性能提升,而是平台化擴張。ChatGPT 成為“超級 App”的節點,標誌著它在使用者側建立了統一入口,而通過 Apps SDK,它不只是聚合流量,而是掌握了“呼叫關係”的分發權。當所有軟體都可能以 ChatGPT 為入口時,OpenAI 就具備了類似 iOS 的平台地位——但分發媒介從觸控變成語言,商業邏輯從榜單競價變成語義調度。這一變化的商業意義,在於收入結構的重構。Apps SDK 結合即將上線的 Agentic Commerce Protocol,讓 ChatGPT 內實現支付與交易閉環。使用者可以在對話裡直接訂酒店、購買會員或生成付費素材。這標誌著 OpenAI 從“提供模型服務”轉向“經營生態交易”,利潤率從雲端運算的中低水平躍升至接近 Apple 的 App Store 模式。它不再是 SaaS 公司,而是控制未來軟體分發的流量基礎設施。對投資者而言,這種生態化轉型帶來三重槓桿效應:第一,模型使用頻率帶來穩定現金流;第二,應用分發與交易抽成形成高毛利增量;第三,生態鎖定效應延長使用者與開發者生命周期。當語義分發取代傳統下載,當 ChatGPT 變成“新桌面”,OpenAI 也將獲得長期的估值溢價。發佈會還宣佈,未來將開放應用提交流程、上線專屬目錄與開發者變現機制。除了歐盟地區,所有 ChatGPT 使用者——無論免費、Go、Plus 還是 Pro——都能直接體驗 Apps SDK 的新功能。這讓 ChatGPT 的增長曲線不再依賴行銷,而由生態自發驅動。平台的網路效應開始接管模型的技術紅利。Altman 的一句話概括了這一階段的轉折:“我們希望讓每個人都能用語言來使用軟體。”他沒有談模型性能,而是在談生態。從今天起,ChatGPT 不只是生成文字的 AI,而是人類與軟體互動的總入口。對市場而言,這意味著 OpenAI 的故事,已經從“更聰明的模型”,變成“更封閉的系統”。▍AgentKit:讓 Agent 成為軟體的底層語言如果說 Apps SDK 是 ChatGPT 平台化的“前台”,那麼 AgentKit 則是整個生態的“後台語言”。它代表著 OpenAI 從“工具集合”到“工作流平台”的躍遷,試圖將 AI 推理、資料呼叫、權限管理、互動設計統一到同一語義框架中。這是 OpenAI 在工程層的真正佈局——讓每個開發者都能用拖曳、邏輯節點和自然語言去造出自己的智能體。在發佈會上,OpenAI 正式推出了 AgentKit,包含三大元件:Agent Builder、Connector Registry 和 ChatKit。其中 Agent Builder 是核心,一個可視化畫布,允許開發者通過拖曳和連接節點建構多 Agent 協作邏輯。每個 Agent 都能被定義任務、呼叫資料來源、執行安全規則,支援版本控制與預覽運行。過去需要幾周開發的流程,現在幾分鐘就能上線。現場演示中,產品經理僅用 7 分鐘 11 秒,就為 DevDay 官網搭建了一個智能問答 Agent。邏輯流程包括分類、檢索、權限防護與多 Agent 分工。她將不同任務交由獨立 Agent 處理——一個負責會議日程,一個回答通用問題,再由 ChatKit 嵌入網頁頂部形成統一介面。當使用者在頁面提出“我該參加那些會議來瞭解 Agent 建構?”的問題時,系統自動完成 Guardrail 檢查、語義分類、資訊提取與推薦展示。整個過程流暢得像在用 Canva 畫圖,卻完成了企業級智能體的全鏈條上線。AgentKit 的推出,讓建構 Agent 不再是工程師的專屬工作,而成為一種“視覺化程式設計”形式。OpenAI 把它稱作“Agent 的 Canva”,讓每個開發者都能通過拼裝邏輯來創造新的工作流。而 Connector Registry 則是後台的中樞,管理員可以集中管理企業內部工具、API 介面與權限訪問;ChatKit 則讓企業能將 Agent 以品牌化對話介面的形式嵌入自家網站或應用中。這三者結合後,企業從“部署一個模型”,變成“定義一套自動化生態”。從投資視角看,AgentKit 的發佈是 OpenAI 生態戰略的第二根支柱。它標誌著 AI 工程語言的標準化——過去開發者通過 API 呼叫模型,現在則在 OpenAI 框架內直接搭建工作流。這意味著 OpenAI 不再是賣 API,而是在賣“開發標準”。一旦開發者習慣了這種語義邏輯和框架依賴,遷移成本將急劇上升,生態鎖定效應將遠超 SaaS。這也是為何 Altman 明確表示:“平台必須先穩,才談開放。” 封閉生態在早期等於護城河。對於市場而言,這種結構性轉變極具估值含義。首先,AgentKit 把模型能力“標準件化”。Agent Builder 是前端互動標準,Connector Registry 是資料訪問標準,ChatKit 是前端嵌入標準。當標準形成,OpenAI 就拿到了行業語法的主導權。其次,企業生命周期價值將大幅拉長。一旦核心業務邏輯在 OpenAI 環境中被定義,遷移出去的成本不只是技術切換,還有認知與工作流重構。這兩點疊加,構成了資本定價裡最重要的兩個關鍵詞——標準紅利與生態鎖定。而在技術路徑上,AgentKit 還搭載了去年推出的 Evals 框架的進化版。新版 Evals 支援 資料集建構、自動提示最佳化、行為追蹤與第三方模型評估。開發者能在畫布中端到端測試和最佳化 Agent 性能,實現閉環訓練。同時上線的 RFT(強化微調) 功能,讓開發者能直接對 OpenAI 模型進行行為定製。RFT 已在 o4 mini 模型上全面開放,並在 GPT-5 上內測。這意味著企業可用自有資料訓練 Agent 的決策邏輯,讓模型學會在何時呼叫何種工具。這一步,將 OpenAI 的生態從“Prompt 工程”推進到“推理工程”。開發者不再只是喂輸入、等輸出,而能定義決策過程。對於投資者而言,這是 AI 產業走向成熟的標誌——從能力爆發期進入體系化階段。OpenAI 通過 AgentKit 把模型推理變成企業生產力語言,從而將“智能體”變成一種基礎設施。業內分析普遍認為,AgentKit 的推出不只是技術創新,更是戰略壟斷。它把 OpenAI 的角色從“模型供應商”升級為“生態治理者”。當 Apps SDK 把流量和分發鎖進 ChatGPT 時,AgentKit 則把開發與執行鎖進平台底層。這是一種從上到下的閉環統治:使用者被入口繫結,開發者被語言繫結,企業被工作流繫結。當然,封閉性也帶來潛在風險。開源社區(如 Hugging Face、Anthropic、Mistral)正嘗試建構替代標準,一旦它們聯合形成開放式 Agent 協議,OpenAI 的語法壟斷可能被削弱。但在短期內,這種威脅有限。市場往往會優先獎勵“能穩定增長的壟斷”,而非“理想化的開放”。AgentKit 的邏輯恰好對應這一點——在生態確立之前,壟斷即安全。總的來看,AgentKit 的意義不止在於讓開發更輕鬆,而在於確立一套新語言:軟體的邏輯單位不再是函數,而是 Agent;企業的自動化不再靠指令碼,而靠推理;生產力的衡量,不再看程式碼量,而看語義協作的廣度。當 OpenAI 把“Agent”變成新的程式設計語法,它就把整個軟體世界的語言權重新握在自己手中。▍Codex:讓程式設計回到自然語言在 Apps SDK 打開“軟體入口”、AgentKit 定義“工作流邏輯”之後,OpenAI 用 Codex 完成了生態的第三層拼圖——讓開發過程徹底語言化。如果說前兩部分是在重構“軟體的運行方式”,那麼 Codex 的更新,正是重構“軟體的創造方式”。它讓開發者不再寫程式碼,而是與模型共同思考。發佈會上,Altman 宣佈 Codex 從研究預覽版正式轉為 GA,成為企業可直接呼叫的生產環境。這一版本的三大更新——Slack 整合、Codex SDK、管理員工具——標誌著 Codex 從“程式碼助手”轉型為“企業協作中樞”。通過 Slack 整合,開發團隊可在日常對話中直接呼叫 Codex 解決 Bug、生成程式碼或解釋報錯,無需離開聊天環境;Codex SDK 允許開發者將其嵌入企業 DevOps 流程中,使 Codex 成為“企業內部的 AI 工程師”;而新的管理後台則提供環境控制、日誌審計與安全看板,讓企業能追蹤 Codex 在團隊中的產出與影響。現場演示中,OpenAI 工程師通過語音指令讓 Codex 搭建 Node 伺服器、編寫 UDP 邏輯,並用 Xbox 手把即時操控攝影機。整個過程沒有輸入一行程式碼。隨後,他又讓 Codex 修改 React 前端,增加滾動字幕功能。幾秒後,螢幕上的名單緩緩流動。在那一刻,“程式設計”第一次變成一場即時對話。對開發者而言,這種體驗意味著工作方式的徹底轉變。從“告訴機器怎麼做”,變成“告訴模型我要什麼”。自然語言成為新的程式設計介面,模型成為新的編譯器。在軟體史的時間軸上,這是繼指令碼化之後的又一次語言革命。對企業而言,Codex 的戰略意義在於:它不只是提高生產力的工具,而是讓 AI 能力嵌入到組織運作的最底層。Slack 整合讓 Codex 成為跨部門的“語義溝通橋”,SDK 化讓它成為企業內部自動化系統的延展。從項目規劃到程式碼生成、測試、部署,Codex 貫穿了整個工程周期。當企業的工作流都由模型調度時,AI 就不再是外部服務,而是內部基礎設施。從投資視角看,這一層的意義更加深遠。控制開發環境,就等於控制生態慣性。Codex 的 SDK 化,使 OpenAI 成為開發者與算力之間的“唯一通道”,將模型能力深度嵌入生產過程。這不僅增強了企業客戶的粘性,也讓 OpenAI 獲得了開發者生態的“結構性壟斷”。過去,模型呼叫是“消費關係”;現在,Codex 讓模型變成“合作關係”,企業的程式碼棧和 DevOps 管道被 OpenAI 框架重塑。投資層面,這意味著第二層收入曲線的出現。Codex 不再只帶來 API 收費的現金流,而形成 B 端長期合同與席位收入。企業在 OpenAI 平台上的部署規模、協作頻率與項目總量,都會轉化為年金式營收。而當 Codex 與 AgentKit 聯動後,企業可實現從開發到上線的全鏈路自動化。這類高復購、高依賴的結構,估值邏輯更接近 Microsoft 的 Azure 或 GitHub Copilot X,而非普通 SaaS。更深層的影響在於人才結構的遷移。過去的“工程師”定義建立在程式語言之上,而 Codex 的普及正在改變這一前提。未來的開發者更像“語義架構師”或“產品導演”,負責闡述目標與約束,模型負責路徑與實現。這不僅會提升企業的邊際產能,也會壓縮工程人力成本,顯著提升利潤率。在宏觀維度上,這種“語言驅動生產”的模式,會讓 OpenAI 的滲透率從網際網路行業擴散到製造、金融、教育、能源等傳統行業。媒體評論普遍認為,Codex 的 SDK 化,是 OpenAI 生態閉環中最容易被低估的部分。表面上,它只是“寫程式碼更方便”,但實質上,它建立了一個 AI 驅動的企業開發標準。當企業在 Codex 環境中建構系統,OpenAI 就獲得了整個產業鏈的“軟鎖定”。這與 Apple 的 Xcode 在移動生態中的地位如出一轍——一旦標準確立,遷移成本將以指數級上升。而在算力層面,Codex 的增長也直接推動了 GPU 使用的爆炸式上升。據 Altman 披露,Codex 自 8 月上線以來累計處理 40 兆 tokens,成為增長最快的模型之一。▍模型與 API:開放之下的閉環整場 DevDay 的壓軸環節,是 OpenAI 在模型與 API 層的全面更新。表面上,它延續了每年例行的性能發佈節奏;但從投資與產業邏輯看,這一部分是整個生態金字塔的底層基石——算力控制、模型封裝與商業化路徑的統一,是 OpenAI 邁向系統性壟斷的真正核心。發佈會上,OpenAI 正式開放 GPT-5 Pro API。這是迄今最強的推理模型,專為金融、法律、醫療等高精度任務場景設計,能在長上下文和多步邏輯中保持一致性。Altman 在台上強調,它代表著從“理解語言”到“執行決策”的轉變。GPT-5 Pro 不只是一個模型,而是未來所有複雜工作流的底層邏輯引擎。這意味著企業可以在此之上建構高價值應用,並將推理成本轉化為商業價值。語音層面,OpenAI 發佈了 gpt-realtime-mini,在保留音質和情感表現力的前提下,成本降低 70%。這不僅降低了語音互動門檻,也意味著 ChatGPT 將更快地走向“即時伴隨”場景——客服、教育、語音辦公、虛擬助理都將成為自然延展。Altman 直言:“語音將成為 AI 的主流互動方式。”從生態角度看,這是對上層 Apps SDK 與 AgentKit 的補完;從投資角度看,這是對未來流量入口的提前佈局。當語音成為互動入口,OpenAI 就掌握了“下一代作業系統”的聲學介面。更引人注目的是 Sora 2 API。這款視訊生成模型實現了更高解析度、更長時長和可控鏡頭參數,能支援精細化編輯、混音和剪輯。現場演示中,開發者只需一句提示——“雨夜的紐約街頭,計程車駛過霓虹反光的地面”——Sora 2 便在幾秒內生成完整視訊,並自動配上環境音效。開發者還能在 API 層控制節奏、鏡頭切換與敘事順序,這意味著視訊首次被“程式設計化”,敘事被“參數化”。從產品形態看,Sora 2 把視訊生產從創作軟體遷移到介面級呼叫;從資本視角看,這相當於在內容產業中建立了“AI 渲染層”,未來將承接大量媒體、廣告與遊戲生成需求。所有模型更新被整合進統一的 API 控制台。開發者可以在一個面板內呼叫 GPT-5 Pro、Sora 2、gpt-realtime-mini 與 Codex SDK,實現語音、視覺、文字的多模態協同。後台支援成本監控、延遲追蹤、版本管理與安全審計。OpenAI 正在建構一條貫穿全部模態的“統一計算介面”,模型成為節點,介面成為系統。這也意味著未來的應用層開發,將完全建立在 OpenAI 的算力與協議上。而真正的戰略動作,藏在模型背後的資本佈局。就在 DevDay 前一周,OpenAI 完成 66 億美元股權交易,估值飆升至 5000 億美元,超越 SpaceX。同時宣佈與 AMD 達成戰略合作,未來三年部署超 6 GW GPU 基礎設施,並附帶最高 10% 股權期權。這不僅是算力的擴張,更是資產結構的重構——OpenAI 正從“租用算力”轉向“自有算力”,從“模型公司”轉向“製造公司”。在垂直整合的邏輯下,它已經橫跨硬體、模型與分發三層產業鏈,把中間利潤層完全內化。這種縱向一體化結構,使 OpenAI 成為全球首家同時控制演算法與能源密度的科技企業。這一閉環代表三條收入曲線的疊加:第一,模型 API 的高頻呼叫帶來持續現金流,構成“雲訂閱型”穩定基底;第二,Apps SDK 與 AgentKit 的交易抽成提供高毛利增量,類似 App Store 的生態利潤;第三,Codex 與企業整合形成 B 端鎖定,帶來年金式合同收入。三者結合後,OpenAI 的財務結構呈現 SaaS + 平台 + 開發工具的混合模型,估值邏輯更接近 Apple 或 Microsoft 這樣的綜合生態企業。一旦 ChatGPT 成為開發者與使用者之間的默認介面,OpenAI 就不再是科技公司,而是系統性基礎設施。 (有新Newin)