#作業系統
西門子聯手輝達:工業 AI 作業系統,進產線了
2026 年 CES 舞台上,西門子 CEO Roland Busch 沒有講產品,而是先講了一個百年前的故事。他說,當年電力出現,把黑夜變成白晝,讓機器放大人的能力,把速度變成效率。而今天,工業正迎來另一次通用技術的代際更替。他給出了一個明確的判斷:工業 AI 不再只是功能,而是將重塑下個世紀的力量。這什麼叫“力量”?不是在傳統流程末端裝個演算法外掛、加個攝影機識別,而是從設計源頭就開始重構整個工業的運轉方式。所以這次發佈會,黃仁勳親自登台。西門子聯手輝達,這套“工業AI作業系統(Industrial AI Operating System)”,進產線了。第一節|為什麼需要作業系統?過去十年,工業 AI 一直在做的事情,本質上是“外掛式最佳化”:在傳統流程末端加個視覺識別,在生產線上裝個預測性維護演算法,在質檢環節接入缺陷檢測模型。這些都有用,但都沒有改變工業的運轉方式。設計還是用傳統軟體畫圖,模擬驗證還是要花好幾天,製造系統還是按照預設的剛性流程執行。AI 只是在最後幫你最佳化一下,而不是從一開始就參與進來。這就是為什麼工業 AI一直停留在試點階段,很難真正規模化落地。那怎麼破局?Roland Busch 這次用一個案例來說明:如果要真正破局,該從那裡下手。他選的不是工廠,不是機器人,而是晶片設計。這個選擇很關鍵。因為晶片設計是整個工業鏈條裡最複雜、最依賴模擬、最吃算力的環節之一。如果工業 AI 連這個都能改,那它確實可能改所有東西。拿 Nvidia 剛發佈的新一代 GPU Vera Rubin 來說:功率 240 千瓦,內含 220 兆個電晶體,由 6 種不同晶片、冷卻網路、互連模組組成,整整重兩噸,耗費 15 萬工程人年才設計出來。這樣的硬體,傳統方式已經跑不動了。更關鍵的是,傳統方式是“設計完→驗證→發現問題→人工修改”,這個流程太慢了。黃仁勳給出的答案是:“工程師的目標不是寫 Verilog 程式碼,而是解決問題。未來會有 AI 設計師和人類設計師坐在一起,一起探索想法,一起迭代邊界。”這就是為什麼他們要從設計軟體開始動手。如果連圖紙怎麼畫都還是老方式,後面談工廠數字孿生、談AI製造,都是空中樓閣。所謂“工業AI作業系統”,第一步就是要解決這個問題:讓 AI 從設計的第一步就參與進來,而不是在最後一步幫你最佳化。第二節|完整技術堆疊,雙方互用如果工業 AI 要從單點工具變成作業系統,那它到底長什麼樣?Roland Busch 和 黃仁勳在台上公佈的,不是某個新產品,而是一套完整的技術堆疊。這套技術堆疊分三層:最底層是 GPU 算力。傳統工業軟體是在 CPU上 運行,速度已經成為瓶頸。黃仁勳舉了個例子:過去做風洞模擬,運行一次要好幾天,現在遷移到GPU上,速度能快1000倍。這不是小幅最佳化,而是從"跑幾十種方案"到"跑上萬種方案"的質變。中間層是設計和模擬軟體。這是西門子的核心能力。他們的EDA工具、Simcenter工程模擬套件,要全部用CUDA重寫。更重要的是,這些軟體不再只做驗證,而是開始創造。AI 可以在海量資料上訓練,主動提出新的設計方案,而不是等工程師畫完圖再去檢查。應用層是製造控制和營運管理。這是西門子 50 年工業積累的價值。全球每三台製造機器就有一台運行著西門子的控製器。他們知道工廠怎麼運轉,知道那些資料重要,知道什麼樣的決策應該留給人類,什麼可以交給AI。三層合在一起,才是“作業系統”。缺任何一層,都只是工具拼湊。那這套作業系統怎麼落地?他們現場宣佈了 5 個深化合作方向:EDA軟體遷移GPU、工程模擬加速、自適應製造、AI工廠建設、相互使用技術。但這不是5個獨立項目,而是一條完整的鏈路。設計出來的晶片,能直接在數字孿生裡進行熱模擬;驗證通過的工廠佈局,能直接推送給產線AI調整;模擬出來的最優參數,能即時下發到邊緣控製器。整個流程不需要人工轉換格式、不需要資料重新錄入、不需要跨部門開會對齊。而這套系統的第一個實體產品,叫Digital Twin Composer,數字孿生建構器。它能建立任何產品、工廠、流程的虛擬 3D 模型,連接即時資料。更關鍵的是,它不是孤立的模擬工具,而是能直接連到西門子的營運軟體和硬體。也就是說,你可以從虛擬環境中直接對現實世界做出改變:調整機器速度、改變溫度參數、重新分配物料流轉路線。數字世界和物理世界之間,不再有那道看得見摸不著的牆。這個產品已經上線到西門子自己的Xcelerator平台,不是演示版本,而是真實商用。工業 AI 不是誰都能做的。西門子和輝達能做成,是因為各自拿出了關鍵能力。第一,需要真正理解工業場景。西門子在30個工業垂直領域都有深厚積累,1500名AI專家,25萬員工帶來的行業知識。第二,需要GPU算力革命。傳統CPU根本運行不起來這個量級的模擬和模擬。Nvidia的CUDA生態、GPU架構、AI加速能力,是這套系統的算力基座。第三,需要自己先用。Roland 在現場明確說:“我們會在 2026 年,在德國啟動第一個完全AI驅動的自適應製造基地。我們自己的工廠,會用我們自己的技術。”當一個做了 175 年工業的公司,把自己的工廠當作第一個試驗場,這就是最好的背書。黃仁勳也說:我們要一起加速西門子的 EDA 軟體,這樣我們就能更快地設計晶片,然後用這些晶片更快地加速西門子的軟體。我們要一起最佳化 Simcenter 模擬工具,這樣我們就能更快地設計 AI 工廠,然後用這些工廠製造更強大的AI。這是一個正向循環。而正向循環的起點,是雙方都把對方的技術用在自己最核心的業務上。完整技術堆疊、真實場景驗證、正向循環加速,這個“工業AI作業系統”就是這麼做成的。第三節|誰在用?百事可樂、勞斯萊斯、聚變能源很多 AI 項目都死在“能做”和“能用”之間。演示視訊裡效果很好,到了真實產線就不靈了。西門子自己要用,一批客戶也已經在執行真實項目。1、百事可樂是第一批客戶他們拿一座營運了 50 年的老倉庫做測試。這個倉庫已經滿足不了高峰期需求,傳統做法是擴建或新建,動輒幾百萬美元。他們選擇先在數字世界裡重新設計。用數字孿生模擬不同的貨物流轉方式、叉車路線、機器人走位,AI自動推演出幾百上千種佈局方案,找出最有效率的那個。結果:三個月內,吞吐效率提升20%。更關鍵的是,他們內部估算,整個營運鏈條的資本支出可能因此減少10%到15%。2、另一個案例是勞斯萊斯他們用這套工具最佳化航空發動機裡的液壓泵設計。把零件和製造機器都建成數字孿生,用AI模擬整個加工過程。結果:CAN程式設計時間縮短80%,工廠整體生產力提升30%。3、還有一個更遠期的案例:聚變能源Commonwealth Fusion Systems在用西門子的技術設計全球第一台商業聚變反應堆。目標是在弗吉尼亞州建造一台能產生 400 MW電力的商業聚變機組,Google已經簽了購電協議。這個項目的意義在於:黃仁勳提過,一個 AI 工廠需要 1 吉瓦的電,成本 500 億美元。沒有清潔、穩定、充足的能源,這些 AI 工廠根本建不起來。而聚變能源從設計到工廠控制,全程用西門子的數字孿生和自動化系統,本身就是工業 AI 作業系統的完整驗證。4、再看更日常的場景:電網管理西門子的 AI 能幫城市電網模擬:加1 萬輛電動車會不會崩潰?能不能提前 0.5 秒預測負載?讓樓宇自動調整能耗穩定電網?他們現在已經能做到:在不需要新增基礎設施的情況下,將現有電網容量最大化 20 %。從50年老倉庫到航空發動機,從聚變反應堆到城市電網,這些案例覆蓋的場景完全不同,但做法是一樣的:用數字孿生把物理世界複製一遍,用AI在虛擬環境裡找出最優方案,然後把結果同步回現實世界。百事可樂的 20%,勞斯萊斯的 80%,電網的 20%。這些數字背後,是工業 AI 從“功能”變成了“力量”。不再是末端最佳化,而是源頭重構。不再是試點項目,而是真實產線。西門子和輝達,讓工業 AI 作業系統真正落地了。 (AI深度研究員)
這場鴻蒙星光盛典,把國產作業系統“能行”的底氣說透了
當孫楠《給所有知道我名字的人》的歌聲穿越時間與螢幕,堅守與榮光的共鳴裡,藏著鴻蒙生態最動人的密碼。這正是昨天在央視播出的《鴻蒙星光盛典》“在一起” 的核心主題:聚是一團火,散是滿天星,中國科技的每一步跨越,都源於千千萬萬人的攜手同行。在“十四五”規劃收官、“十五五規劃”啟幕的關鍵節點,在數字中國建設十周年的重要時刻,一場由中央廣播電視總台與廣東省人民政府等聯合打造的科技創新提氣晚會應勢而來。四萬張座椅空空蕩蕩,這座體育場裡沒有一位觀眾。我們曾許下約定,要攜手在這裡點亮漫天星光。原定於11月28日的鴻蒙星光盛典,因11月26日香港新界大埔宏福苑火災的重大人員傷亡,節目組懷著對生命的敬畏與對受災同胞的惦念緊急延期,最終以錄播形式於12月20日呈現,赴約的形式雖有改變,但你瞧,那束光從未熄滅。這場特別的晚會,不僅勾勒出國產作業系統從“獨行先行者”蛻變為“產業共同體”的歷程,更揭開關鍵核心:鴻蒙的當下,是開發者、平台與產業共生共榮的必然產物。01 點點星光匯聚成炬鴻蒙“在一起” 的堅守與合力,並非空口號,而是落地各行各業參與者的實踐,構成鴻蒙生態價值的基礎。從寧夏大學課堂到中科院實驗室,不同身份的追光者們,正用親身經歷勾勒出生態共建的多元圖景。寧夏大學秦飛舟教授的分享,正是這幅圖景裡頗具代表性的一筆。2021年,鴻蒙相關課程還只有寥寥幾位本專業學生選修;如今,上百位零基礎的學生主動加入學習陣營。這種“願學就能跟上”的包容氛圍,不僅為學生拓寬了就業賽道,更讓技術的火種得以燎原。秦教授在盛典現場道出的期許,“期待學生做出貼近生活的應用”,更是一語道破技術的終極價值,唯有落地為實實在在的應用,才能真正完成從技術創新到價值實現的閉環。而中科院90後工程師鄭森文手中的那座木質獎盃,則靜靜見證著鴻蒙從一株“小苗”長成參天“大樹”的五年征程。“我特別想對五年前的自己說一句:謝謝你,當時沒放手。此刻看到我們中國的千行百業有了自己的系統底座,我感到與有榮焉。”他的這番話,道盡了技術攻堅的堅守與榮光。而技術的價值,終究要在商業應用的土壤裡開花結果。KIRI聯合創始人王正男的分享,便是最好的佐證:3D應用Remy上線僅9天,下載量便突破百萬次。這份亮眼成績的背後,正是鴻蒙生態的規模優勢在發力,幫中小開發者破解了“找使用者難、轉化難”的行業痛點。大學生周哲宇的便單APP,很快便實現了月營收數萬元,打破了“學生項目難商業化”的魔咒,印證了鴻蒙生態紅利的強大吸引力。“有好想法就能被看見”的環境,大幅降低了創業門檻,更催生出“生態越好——創新越多——盈利越易”的正向循環。盛典中,謝娜對未點到名字的追光者的致敬,也令人動容。這些默默紮根在金融、工業、出行等垂直領域的耕耘者,沒有站在聚光燈下,卻用自己的專業與堅守,一磚一瓦搭建起鴻蒙生態的堅實底座。他們不是抽象的“參與者”,而是一個個具體、鮮活的創造者,他們把冰冷的技術變成有溫度的現實,正是這些平凡又不凡的身影,匯成了鴻蒙產業鏈最生動的模樣。也正是這份跨越產學研的集體堅守,才鑄就了國產技術生態堅不可摧的根基。而鴻蒙星光盛典不僅是鴻蒙生態價值的集中展示,更清晰勾勒出中國科技自主創新的堅定路徑。追光者們的故事串聯起生態成長脈絡,而這一切的核心落點在於:鴻蒙作業系統是中國自主創新的重要里程碑,是數字產業自主可控的核心支撐,更是萬千開發者與企業共建國產作業系統生態的底氣所在。在複雜的國際環境下,鴻蒙不只代表技術進展,更提供了一種深刻的戰略確定性。一個完全自主可控、技術發展主導權牢牢掌握在自己手中的作業系統。鴻蒙生態是中國科技自主創新的重要成果,代表了國產作業系統生態的突破性發展‌,也是中國科技行業的一次集體衝鋒。02 光,在每一次“在一起”的並肩中要是說鴻蒙的初心是實現自主可控、打造中國人自己的作業系統,那能把這份初心落地的底氣就是各行各業“在一起”擰成一股繩的勁兒。這場“團戰”的威力,藏在每一次跨界協作、每一個創新功能裡。靠著廣大合作夥伴“在一起”的支援,網際網路頭部應用早就全面適配、持續完善,中長尾應用也在加速跟進。鴻蒙的註冊開發者已經突破1000萬,今年搭載鴻蒙5、鴻蒙6的終端裝置數量也超過了2700萬台。在盛典現場,播放了一支生態夥伴採訪片《心路·新路》,多位來自WPS、支付寶、美團、京東、高德等頭部應用的開發者講述了和鴻蒙的故事。京東講到,為了完成鴻蒙版的開發,雙方技術專家在北京、上海、深圳三地同步啟動封閉開發。在長達兩個多月的時間裡,會議室的白板上寫滿了待辦事項。如今,京東在鴻蒙系統上首發了“AR擺擺看”功能,只要用手機精準掃描家裡的真實環境,就能把看中的大件商品虛擬擺放在家裡試看,真正實現了“所見即所得”,大大降低了買錯的機率。出行方面,高德地圖和鴻蒙聯手打造了全球第一個長隧道車道級導航,像解放碑隧道這樣的封閉路段,也能精準定位到車輛所在的車道,再也不用怕在隧道里走錯路。這背後是800個“半損”的手機支架見證了這種技術共生的磨礪。為瞭解決鴻蒙系統權限開放與Android的差異,高德團隊進行了超過10萬公里的路測,損耗了800多個支架,解決了行業長期的痛點。現在鴻蒙應用已經能覆蓋咱們日常所有需求,便捷生活、出行文旅、金融理財、社交資訊、政務民生、生產力工具、影音娛樂、遊戲、新聞媒體、企業辦公等領域全囊括,通過應用市場、出境易這些管道能找到30多萬個應用和元服務;還有數千個政企內部辦公應用也在加速上線。鴻蒙的成長之路,其實就是中國科技產業協同創新的縮影。越來越多的企業加入進來,把各自的優勢和鴻蒙的技術能力結合起來,一直奔跑,不斷向好,最終受益的還是普通使用者,讓生活變得更智能、更便捷。03 昂然向前,共赴星辰大海如果說,鴻蒙生態的壯大是一場“聚沙成塔” 的產業突圍,那它真正的魔力,其實藏在對普通人數字生活的細微改變裡。日常的數字生活,總繞不開形形色色的智能裝置,但裝置之間的“隔閡”,常常讓人頭疼:手機裡的檔案傳到電腦,得翻箱倒櫃找資料線;智能家電要一個個連 WiFi 配網,光是輸密碼就耗掉半天功夫;不同裝置切換使用時,卡頓、延遲更是家常便飯。直到鴻蒙系統走進日常,這些讓人煩心的小麻煩,正悄悄消失,讓日子過得更順暢、更智能、更安心。HarmonyOS 6就把這種“潤物細無聲”的便利做到了極致。節目中主持人王冰冰更是現場演繹和時代少年團合影后通過碰一碰傳輸照片。依託全場景互聯,裝置“碰一碰”即可完成分享與接續,文件跨裝置編輯、視訊輕鬆投屏,體驗始終流暢無阻;系統級智能體小藝作為“中控大腦”,不僅能理解高階意圖、用方言對話,更能在後台自主執行多步驟複雜任務,協同超過80個應用智能體提供專業服務;配合從權限管理到AI防詐、防窺的全方位安全防護,為日常使用提供可靠保障。得益於方舟引擎的深度最佳化,鴻蒙6實現了性能與續航的顯著提升,帶來更跟手、更流暢的系統體驗。當然,鴻蒙的價值遠不止於讓個人生活更舒心,它更在悄悄撬動一個兆級的數字經濟增量市場。自2020年開源以來,開源鴻蒙的程式碼量從700萬行漲到1.3億行,形成了覆蓋金融、教育、醫療、工業、交通等多個行業的大生態,既帶動了國內基礎軟體發展,也給生產生活帶來了不少新可能。如撒貝寧在節目所說“十年數字中國,踏浪而行,十四五規劃引航,向新而生,我們見證了科技創新和產業創新的加速融合,也見證了新質生產力的蓬勃發展,開源鴻蒙,無疑是這其中關鍵的一環”在湖南長沙雅禮麓谷中學的體育課上,學生們盡情運動,老師拿著平板電腦就能即時看到大家的心率和體能資料,“要是有學生心率不對勁,我能第一時間收到提醒”。這背後,正是開源鴻蒙傳輸快、延遲低的優勢,讓平板和運動手環無縫銜接,給學生成長多了份智能保障。在陝煤集團,井下的“礦鴻”系統既守住了安全生產的底線,又提高了採煤效率。南方電網的“電鴻”系統,讓現場工作人員不用背一堆裝置,一部手機加基礎工具就夠了,真正實現 “一個系統管所有”。就連大連1號——連理衛星,也用上了開源鴻蒙作業系統,它與國產硬體完美適配,實現了航天器軟硬體的高度協同,不僅降低了創新門檻,還帶動了從核心器件到整星製造的產業鏈升級,讓衛星性能和可靠性大幅提升。從校園到礦井,從電網到星空,這些‘追光者’的實踐共同證明,當千行百業基於統一的數字底座攜手創新,便能匯聚起改變世界的巨大力量。而這樣的生態繁榮,從來不是某一家企業的獨角戲,而是每一個追光者攜手共建的大合唱。“我希望每個人都能感受到,你的存在本身就是一種力量,一個人的聲音也許微小,但當千萬個聲音匯聚,就能形成改變世界的和聲。今天,我在,我們在一起,就可以。”隨著劉歡的一曲《我在》,盛典也進入尾聲。這場盛典見證的不僅是鴻蒙的當下成就,更預示著一個因協同而生、因聚力而興的未來——讓更多人感受到科技帶來的美好生活,也讓數字經濟的活力在協同中不斷迸發。牽動萬人的盛典結束了,牽動億人的鴻蒙生態的故事還在繼續…… (鳳凰網財經)
字節徹底爆發了?
一路高歌猛進的字節跳動,正式殺入作業系統,重新定義 AI 手機時代。12 月 1 日,字節跳動發佈豆包手機助手預覽版——這款與手機廠商在作業系統層面合作的 AI 助手,可根據使用者指令在多款應用間自動跳轉,既能實現查票訂票、批次下載檔案、多軟體物流進度一鍵查詢等效率型功能,也能完成相簿修圖、外賣比價、商品下單等生活服務類操作。其開創意義在於:真正從作業系統層面,讓 AI 從被動問答升級為主動完成真實場景的智能調度與跨應用任務。受此消息帶動,合作廠商中興通訊 A 股漲停、港股大漲超 13%,直觀反映出市場對 AI Agent 落地的強烈期待。而從行業宏觀視角來看,過去 6 個月 AI 產業的迭代速度遠超去年,正站在技術周期的關鍵拐點,模態融合成為核心趨勢——去年,以單模態為主,VLM 等視覺理解模型佔比偏低,LLM(大語言模型)是絕對主流;今年,多模態呼叫量佔比持續攀升,生圖、生視訊能力增長迅猛——尤其下半年以來,模型的“Function Call”請求量爆發式增長,標誌著 Agent 能力已成為市場核心需求。這也解釋了火山引擎、騰訊雲今年為何腳步輕盈、姿態昂揚——國內使用者基數大、高頻剛需場景豐富、帳戶體系關聯緊密的應用,微信與抖音是 T0 梯隊兩大翹楚。與此同時,AI 熱浪持續炙烤著大眾的神經,如火如荼的“軍備競賽”也將網際網路寡頭捲入了一場無限戰爭——在此背景下,權威榜單一度成為公眾感知大廠在 AI 領域行軍速度的“風向標”。上周,Gartner 發佈 2025 年度全球《AI 應用開發平台魔力象限》,該報告基於“落地能力”(Ability to Excute)與“戰略完整性”(Completeness of Vision)兩大維度,對全球頭部 AI 應用開發平台展開全面評估,榜單結果卻引發行業熱議——首次沖榜的火山引擎,“落地能力”超過阿里雲、騰訊雲躍居中國第一,多模態關鍵能力綜合得分躋身全球第四,著實令人刮目相看。圖源:火山引擎官網虎嗅注,榜單橫軸 Completeness of Vision 核心衡量平台的戰略格局、技術路線、生態覆蓋與發展潛力;縱軸 Ability to Execute 重點反映平台的商業化落地成效、客戶規模與營收體量。需說明的是,火山引擎因在生態開放性、全球市場佈局上存在短板,未進入“領導者”象限;而在 Gartner《生成式 AI(GenAI)技術創新指南》中,阿里雲成為亞太地區唯一入選“領導者”象限的雲廠商。通過與大模型創業者、第三方機構及火山引擎研發人員的深度溝通,虎嗅發現:AI 技術的高速迭代正重構行業認知,許多推倒重建正悄然發生。本文將以 Gartner 榜單為切入點,復盤國內 AI 雲競爭格局變化與行業趨勢演進。火山何來攻擂的底氣?一切爭議由 Gartner 榜單而起,卻也成為外界審視 AI 雲服務發展的重要切口。首先,Gartner 評選並非“野雞榜單”,而是行業公認的權威標竿。與國內部分評測機構不同,其評選面向全球 AI 從業者及學者發放匿名問卷、追蹤企業客戶真實應用反饋、組建專業團隊實測產品性能,最終通過多維度資料交叉驗證得出結果——全程不受廠商干預,在全球 IT 領域報告中具備權威性。其次,這是 Gartner 首次針對全球大模型 AI 應用開發平台開展專項評估。虎嗅瞭解到,這一決策主要基於兩層考量:一是 AI 應用已在全球形成規模化市場,並開始分化——這一結論與產業發展走向高度契合:大模型風起雲湧,前兩年聚集於訓練環節的雲端運算算力,在 2024-2025 年逐步向推理環節轉移,大量競爭力不足的大模型團隊出局,AI 應用時代呼嘯而來;二是 AI 應用開發平台提供標準化工具集,企業開發者無需深厚的機器學習知識,即可快速搭建 AI 助手、Agent 及多模態應用,降低了 AI 落地的技術門檻。究其本質,大模型時代的 AI 應用開發是全新技術範式,核心競爭力聚焦三點:模型智能度、響應速度、成本控制——這三大因素直接決定 AI 應用的使用者普及度與使用體驗,也成為 AI 雲廠商競爭的“新賽點”。在大模型興起之前的 IaaS(算力基礎設施)時代,阿里雲一家獨大,騰訊雲亦領先火山引擎一個身位。阿里雲憑藉全端自研能力與先發優勢,是 IaaS 領域的“老大哥”,市場份額為第二名的兩倍以上;尤其,“飛天 + CIPU + 倚天”的技術組合,形成強大競爭壁壘——服務超千家大型政企客戶,覆蓋 500 萬全球使用者。騰訊雲則聚焦遊戲、音視訊,在中小企業市場多年深耕,雲遊戲接入覆蓋規模、遊戲資源下載分發規模等細分賽道位列第一;隨後通過企業微信生態與“同源同構”技術形成獨特客戶粘性,走出了差異化競爭路線。但隨著行業進入 MaaS(模型即服務)時代,競爭底層邏輯從資源售賣轉向模型能力,這為火山引擎創造了彎道超車的機會。尤其今年,國內三大雲廠商的模型進展形成鮮明對比:阿里推出 Qwen3-Next,同時開源 80B-A3B 系列模型;再加上通義萬相(視覺模型)、通義靈碼(程式設計模型),其全模態能力覆蓋文字、圖像、視訊、語音、程式碼生成;截至 2025 年 10 月 31 日,Hugging Face 上基於 Qwen 家族開發的衍生模型數量已超 18 萬個,超過第二名的兩倍。騰訊相繼推出混元 Large、混元 Turbos、混元 T1 及多個面向端側場景的小尺寸模型;文生圖模型 Hunyuan Image 3.0 在 10 月沖上 LMArena 榜單第一名;混元 3D 在國內外口碑出圈,國內服務超 150 家企業,在遊戲、3D 列印等領域商業化進展迅速。火山引擎發佈 Doubao-Seed-1.6,首次實現自適應思考、多模態理解與圖形介面操作的深度融合,成為國內首個支援 256K 上下文的思考型模型;同期,豆包視訊生成模型 Seedance 1.0 pro 在 Artificial Analysis 的文生視訊與圖生視訊兩大核心能力評測中登頂全球第一。三家模型發力側重點不盡相同,但火山引擎的模型優勢主要體現在技術融合與場景落地上:其通過視覺理解與推理能力的深度融合,落地為豆包 APP 的拍題、解題功能——底層邏輯是模型基於視覺資訊的原生思考,而非先通過圖像識別模型解析題目、再通過語言模型生成答案的拆分式方案。暴露火山野心的動作還在於:當前多數開發者需繫結單一模型,但不同模型往往存在 “能力短板”(即模型偏科現象)。以教育場景為例,豆包大模型在數學、英語科目表現突出,但在人文領域仍有提升空間。為此,火山引擎於 10 月推出 Model Router 智能模型路由:將豆包大模型與第三方開源模型整合至同一平台,使用者無需繫結單一模型,系統可在規則約束下自動匹配效果最優或成本最低的模型方案。這意外打通了火山方舟的“任督二脈”,除自研豆包大模型外,其他開源模型的呼叫量也顯著增長,佔整體呼叫量的比例已攀升至低雙位數區間。行業內流傳的說法是,DeepSeek 大模型公有雲呼叫服務這波紅利基本形成“火山引擎吃肉,其他人喝湯”的格局——據火山引擎披露,其大模型服務已覆蓋八成頭部咖啡茶飲品牌、九成主流汽車品牌、八成頭部券商、八成系統重要性銀行、七成 985 高校,以及 9 家全球出貨量前十的手機廠商。除模型能力外,工程化能力也是火山引擎沖榜的關鍵支撐。行業普遍認為,MaaS 平台的 Token 定價與工程化能力直接掛鉤:DeepSeek 創始人梁文鋒曾提及,其定價原則是“不貼錢、不賺暴利,僅在成本基礎上保留少量利潤”;火山引擎於去年 5 月掀起價格戰時,外界曾質疑低價策略對長期毛利及盈利的潛在壓力,但火山引擎總裁譚待接受採訪時表示,“我們始終堅持在保證毛利的前提下,推進業務規模化。”當前,豆包 APP 相較於同類產品,除了基模能力的優勢外,還具備吐字速度快、首字延遲低的特點,甚至語音通話可實現即時接通——上述優勢,很大程度上得益於團隊對 TPOT、TTFT 兩大核心指標的持續最佳化,而嚴苛的使用者需求適配,又進一步磨練了火山方舟的工程能力。虎嗅註:TPOT(Time Per Output Token)指 LLM 在首個 token 輸出後,後續每個 token 的平均生成時間,直接影響使用者對模型速度的感知,核心體現平均延遲;TTFT(Time To First Token)衡量使用者提交查詢後至首次看到模型輸出的響應時間,重點強調即時互動場景下的低延遲特性,核心體現首字延遲。火山一口吃成胖子了?將視線拉回榜首的火山引擎,其爆發式表現究竟是短期 “虛胖”,還是技術沉澱後的必然爆發?要回答上述問題,先要明白:MaaS 時代的競爭,不僅是技術戰,更是價格戰與市場戰,國內三大雲廠商的市場策略不盡相同。火山引擎作為攻擂者,去年至今的“三板斧”清晰明確:2024 年 5 月發起價格戰,將行業每千 Tokens 大模型價格帶入“釐時代”,迅速擴大平台使用規模;2025 年 6 月首創 “輸入長度區間定價”,進一步向開發者釋放技術紅利;2025 年 10 月推出 Model Router,讓開發者和企業能在每次模型呼叫中平衡效果與成本。阿里雲則堅決推進多輪降價:2024 年 2 月 29 日、3 月 31 日、4 月 8 日三連降後,同年 5 月 Qwen-Long 從 0.02 元 / 千 tokens 降至 0.0005 元,降幅 97%;年底,Qwen-VL 系列降幅達 81.3%-85%;2025 年 9 月,阿里集中發佈七款 AI 模型,在性能、深度推理、多模態、Agent 及 Coding 能力等方面均實現新突破,旗艦模型 Qwen3-Max 性能躋身全球前三。騰訊雲態度更為決絕:為擄獲中小企業和開發者,混元 - lite 從 0.008 元 / 千 tokens 調整為完全免費,API 長度從 4K 升級至 256K;同時,混元 - pro 從 0.1 元 / 千 tokens 降至 0.03 元,降幅 70%,以保持高端市場競爭力。即便阿里雲、騰訊雲接招迅速,火山引擎仍嘗到了“敢為行業先”的甜頭 ——虎嗅瞭解到,截至 2025 年 9 月,豆包大模型日均處理 30 兆 Tokens,相比 2024 年 5 月首次推出時增長了 25300%。據 IDC《中國大模型公有雲服務市場分析,2025H1》報告,2025 年上半年中國公有雲大模型服務市場,火山引擎以 49.2% 的份額位居中國第一,意味著中國公有雲上每兩個 Token 就有一個由火山引擎生產;結合此次 Gartner 報告其在 “挑戰者” 象限的表現,火山引擎在 MaaS 業務中已逐漸顯現領先優勢。不過,也有從業者提出質疑:一是火山引擎如此陡峭的 API 資料,外界無法判斷其自用流量(字節跳動內部應用)與公有雲對外服務的比例,不排除是字節系內循環在“扛著豆包大模型跑”;二是 Omdia 發佈的《中國 AI 雲市場,1H25》報告顯示,阿里 AI 雲以 35.8% 份額位列國內第一。虎嗅研究發現,兩家報告的核心差異在於統計口徑:Omdia 涵蓋 IaaS、PaaS、MaaS 全鏈條,但剔除了自然語言處理等 AI 專項服務,以及火山引擎的私有化部署、定製化解決方案;而 IDC 則聚焦 MaaS 層面的 API 呼叫量,未納入傳統雲服務。換句話說,中國 AI 雲第一的歸屬更像是一場“口徑遊戲”——火山引擎強調以 API 呼叫量為主的業務份額中國第一,阿里雲則在大模型帶動的相關 AI 技術服務與傳統雲資源上穩居中國第一。有鑑於此,火山引擎 API 雖然“賣爆了”,但很難單靠 API 做大規模與利潤。目前,整體雲端運算市場的收入構成仍是資源導向、IaaS 為主,無論大模型訓練,還是 Agent 開發、部署,最終都離不開底層資源——尤其隨著 Agent 加速落地,阿里雲、騰訊雲憑藉過往豐富的 IaaS、PaaS 積累,能更好承接多樣化使用者需求,火山引擎試圖靠 API “扛著雲跑”,仍有不少短板需要補齊。這種差距也直觀體現在營收規模上:虎嗅瞭解到,火山引擎 2025 年整體收入目標有望突破 200 億元——雖勉強達到騰訊雲的一半、阿里雲的五分之一,卻能死死咬住佔據先發優勢的百度智能雲(2024 年營收 218 億元),甚至有望在 2026 年實現超越。有接近火山引擎人士指出,譚待在 2021 年一肩擔起雲端運算業務時曾喊出 1000 億的營收目標,彼時很多人心裡是打問號的,但這兩年大模型帶來的業績增速在所有產品中最快,毛利也是最好的之一,2025 年實現同比翻番壓力並不大。此外,虎嗅瞭解到,火山引擎的銷售考核中 MaaS 業務優先順序最高,且將作為收入貢獻主力;2026 年 MaaS 在總收入結構中的佔比將進一步提升,未來三五年的營收格局不會改變。這一戰略決策基於兩層核心考量:一是傳統雲端運算公司的核心收入來自虛擬機器、儲存等資源售賣,而大模型的普及本質上在減少這類需求;火山引擎無傳統業務包袱,可激進調整架構適配 MaaS 業務 ——其目標不僅是“賣雲”,更在於擴大生態影響力;二是行業已從 IaaS、PaaS 階段,邁入以 MaaS 為核心的用雲新時代——大模型的本質是算力換智能,火山引擎的 MaaS 優先策略,使其能夠集中資源打造核心產品,避免算力、資源和人才的分散。這背後的深層意志,是字節跳動近年來有意強化的外界定位:自己是一家科技公司,而非娛樂平台 ——火山引擎正肩負著字節跳動向科技公司蛻變的核心使命。火山是行業狂飆的縮影“長期來看,模型競爭將愈發激烈,兩三個月就會有新的 SOTA(最優性能)模型出現;預計到 2026 年,全球 MaaS 賽道大機率僅剩下五六家第一梯隊玩家。” 一位資深行業觀察人士向虎嗅分析,如此激烈的競爭格局下,AI 雲廠商若想不掉隊,需同時滿足“基模能力不落後”“工程化實力持續升級”兩大前提。說白了,基模能力會倒逼企業不斷去堆卡,工程化升級要求成本更低、更易用,兩者疊加拼的依然是模型的“性價比”。從當前各類榜單與實測結果來看,中國市場的模型排名與實際性能表現基本匹配;而在全球市場,即便阿里雲、騰訊雲、火山引擎在 AI 應用落地及工程最佳化上“小步快跑”,但與Google、微軟、AWS 仍存在差距。虎嗅與多位從業者溝通發現,主要體現在兩方面:一是基礎研究的“地基”差異:Google、微軟、AWS “血槽” 深厚,尤其在核心演算法與架構自主創新上一直扮演領導者角色,高引用研究成果佔比高,科研與產業轉化能力強;因此,“三巨頭”至今仍在持續定義新的工具能力與行業標準,如 MCP、Skills、Google A2A,以及 Coding 與 CLI 結合、Vibe Coding 等創新方向。二是 AGI 生態佈局與算力建構:國外如 OpenAI、Google 建構了明確的長期路線,聚焦通用智能底層邏輯探索;Google、微軟、AWS 更是形成了從晶片、框架到雲服務的全端閉環,通過硬體與軟體的垂直整合“滾雪球”——相比之下,國內雲巨頭在工程化效率與叢集規模上仍有差距。以Google為例,今年在 AI 領域(從語言模型到生圖、生視訊能力)呈現全方面領先態勢,反映在 Gartner 榜單上,其“落地能力”與大模型能力均位列全球第一。Google的領先並非偶然,得益於其深厚的技術儲備與頂級人才梯隊,能夠快速實現從晶片(TPU)到軟體的垂直整合。值得玩味的是,Google TPU 一開始並不好用,但架不住輝達越賣越貴,倒逼Google加大自研投入——在 transformer 架構推理需求暴漲背景下,Google演算法架構晶片的成本與性價比優勢逐漸凸顯,甚至近期一度“打崩”輝達股價,逼得黃仁勳不得不公開回應。當然,國內外 GPU 供應格局的差異,也加速了 AI 開發平台工程化能力的差距拉大——這與推理叢集規模直接相關:叢集規模越大,資源利用率與工程化效率越高——由此可見,雲端運算作為規模生意,在 GPU 主導的 AI 雲時代,規模效應會持續拉大 MaaS 業務的競爭差距。不過,一位大廠 AI 工程師樂觀認為:“在 AIGC 領域,尤其生圖、生視訊方向,國內追趕速度較快——這主要源於 scaling law(縮放定律)的放緩,單純堆高參數量帶來的效果提升已逐漸平滑,收益邊際遞減;但在語言模型領域,國內外雲廠商仍存在幾個月的迭代差距。”尤其在大模型浪潮推動之下,中國移動網際網路已進入使用者、流量趨於見頂的成熟期,監管將更側重產業網際網路的推進與建設,這意味著 MaaS 正處於平台重構生態的關鍵節點。若 AI 必將成為貫穿數萬家企業、兆產值就業崗位的連結管道,阿里、騰訊、字節能否建構起包括應用、伺服器、晶片、模型在內的完整自研體系,很大程度上決定著其生態重構的進度,以及能否在模型時代牢牢攥緊流量入口。 (虎嗅APP)
鴻蒙何以跨越“生死線”?!華為余承東:鴻蒙生態建設,誰也不知先邁左腳還是右腳?
在資訊時代的宏大敘事中,作業系統的競爭往往被視為科技巨頭間爭奪未來主導權的終極戰場。對於華為鴻蒙(HarmonyOS)而言,其誕生與發展,正是一部充滿戰略遠見、技術創新與生態決戰的史詩。華為常務董事、終端BG董事長余承東曾坦言,在鴻蒙生態建設的初期,面臨著巨大的不確定性,甚至有“鴻蒙生態建設之路誰也不知道應該先邁左腳還是右腳?”的迷茫與困惑。這句發自肺腑的疑問,精準地描繪了作業系統生態“先有雞還是先有蛋”的殘酷困境。然而,時至今日,歷史已經給出了一個擲地有聲的答案:搭載鴻蒙5的終端裝置數量正式突破了2300萬,這意味著鴻蒙生態已經邁過了最關鍵的生死線,開始進入了正向循環的“飛輪”階段。這2300萬,不僅是一個冰冷的數字,它標誌著一個獨立、自主的作業系統生態,在外部重壓之下,完成了從“戰略備胎”到“原生主導”的艱難跨越。本文將系統性回顧鴻蒙作業系統所走過的歷程,剖析其核心技術理念,並探討其生態建設的宏大意義。01 危局下的戰略遠見 (2012-2019)鴻蒙的起源,並非一時興起,而是源於華為對未來科技格局的深刻洞察和戰略憂患。早在2012年,華為就開始規劃自有作業系統,將其命名為“鴻蒙”,取“開天闢地”之意,代號“Ark”(方舟)。這一行動的背後,是希望擺脫對單一外部作業系統的過度依賴,確保在極端情況下,華為的終端業務仍能持續發展。2016年5月,鴻蒙項目在華為內部正式立項,開始投入研發。彼時的鴻蒙,更多被視為一個面向物聯網(IoT)和確定性時延系統的作業系統,其原始目的甚至是為了電信網路而設計,以實現毫秒級乃至亞毫秒級的精確時延控制。真正的轉折點發生在2019年。隨著外部環境的急劇變化,鴻蒙從一個“備胎”迅速被推向了前台。2019年8月9日,在華為開發者大會上,HarmonyOS 1.0正式發佈。這一版本首次應用於榮耀智慧屏,其核心理念並非簡單地替代Android,而是提出了一個全新的技術架構——分佈式作業系統。02 分佈式架構的破局與生態的冷啟動 (2019-2023)鴻蒙作業系統的宏大敘事,首先建立在其獨特的分佈式技術架構之上。傳統的作業系統,無論是PC端的Windows還是移動端的iOS/Android,都是以單個裝置為中心。而鴻蒙則通過其核心技術——分佈式軟匯流排,將手機、平板、手錶、車機乃至未來的智能家居裝置,無縫地連接成一個虛擬的“超級終端”。在這個超級終端中,裝置間的硬體能力可以相互呼叫、資料可以共享流動,使用者不再需要關心使用的是那個裝置,而是關心“服務”本身。例如,使用者可以將手機上的視訊通話“無感”地遷移到智慧屏上,利用智慧屏的攝影機和音響;或者將無人機拍攝的素材直接通過分佈式檔案系統傳輸到平板上進行編輯。這種“萬物互聯”的體驗,是鴻蒙在技術上實現差異化競爭的關鍵。在生態建設的初期,鴻蒙採取了務實的策略:相容與過渡。從HarmonyOS 1.0到4.0,系統在底層相容了AOSP(Android開放原始碼專案)程式碼,這使得開發者可以相對平滑地將現有的Android應用遷移到鴻蒙平台,迅速擴大了使用者基數和應用數量,為鴻蒙的生存贏得了寶貴的時間。這一階段,鴻蒙生態的重點是“量”的積累:1、使用者規模的迅速擴張:憑藉華為強大的終端出貨量和存量使用者升級,鴻蒙使用者數迅速破億。2、開發者隊伍的壯大:截至2025年3月,鴻蒙開發者數量已超過720萬。3、全場景裝置的覆蓋:鴻蒙系統覆蓋了超過10億台生態裝置,從手機、穿戴到車機、IoT,建構了廣闊的生態底座。然而,相容AOSP也意味著鴻蒙的獨立性受到了限制,它始終未能完全擺脫“套殼”的爭議,也無法將分佈式、原子化服務等原生優勢發揮到極致。真正的考驗,在於“去Android化”的決戰。03 原生生態的決戰 ——HarmonyOS NEXT的誕生2023年,華為做出了一個決定性的戰略選擇:徹底剝離AOSP程式碼,建構純粹的原生鴻蒙生態。這一戰略的載體,便是HarmonyOS NEXT(鴻蒙星河版),並在2024年10月22日以HarmonyOS 5.0的正式版本面世。這是鴻蒙發展歷程中最艱難、也最具決定性的一步。它意味著華為必須放棄對Android生態的依賴,要求開發者重新基於鴻蒙的核心和框架(ArkTS/OpenHarmony)開發原生應用(HAP)。這無疑是一場生態的“背水一戰”,其難度遠超技術創新本身。余承東的“左腳右腳”之問,正是在這個階段達到了頂峰。生態的建構,需要開發者投入資源,但開發者投入的前提是看到足夠的使用者規模;使用者選擇新系統,前提是能找到他們需要的應用。這是一個經典的“雞生蛋,蛋生雞”的死循環。華為打破這個死循環的策略是:以巨大的投入和堅定的決心,推動頭部應用的“強制”遷移。1、技術賦能:華為投入大量資源,開發工具鏈,幫助開發者將現有應用快速轉化為鴻蒙原生應用。2、戰略合作:鎖定中國網際網路的頭部應用,如微信、支付寶、抖音等,確保使用者剛需得到滿足。微信鴻蒙版安裝量突破2000萬,成為生態信心的重要像征。3、政策激勵:設立專項基金,激勵開發者和企業加入原生應用開發。這場決戰的核心,在於將生態從“相容”的量變,推向“原生”的質變。只有原生,才能真正發揮鴻蒙分佈式、原子化服務的全部潛力,才能在底層技術上實現真正的自主可控。04 跨越“生死線”的勝利 ——2300萬的生態意義2025年10月22日,余承東在鴻蒙6發佈會上宣佈,搭載鴻蒙5的終端裝置數量正式突破2300萬。這一數字,被華為內部視為“邁過了最關鍵的生死線”。為什麼是2300萬?在作業系統生態學中,存在一個“臨界規模”理論。當一個新生態的使用者規模達到某個閾值時,它對開發者和使用者的吸引力將不再依賴於外部推動,而是能夠自我驅動,形成正向循環。2300萬,正是鴻蒙原生生態的臨界點。2300萬的生態意義:1、生態飛輪的啟動:足夠的使用者基數,足以吸引頭部和腰部開發者投入資源開發原生應用。應用的豐富,反過來會吸引更多使用者升級和購買鴻蒙裝置,從而形成“使用者-應用-開發者”的良性循環。2、開發者信心的確立:頭部應用的遷移和使用者規模的突破,向市場釋放了明確訊號:鴻蒙不再是“備胎”,而是主流的第三大作業系統。超過3萬應用加速開發,標誌著開發者軍團的全面衝鋒。3、技術自主的勝利:鴻蒙5.0(NEXT)的2300萬使用者,是純粹的、不含AOSP程式碼的原生使用者,這證明了中國在智能終端作業系統領域,已經具備了獨立生存和發展的能力。從余承東最初的“左腳右腳”的困惑,到如今2300萬的突破,鴻蒙的歷程是一部充滿艱辛與決心的史詩。它不僅是華為一家企業的技術勝利,更是中國科技產業在關鍵領域實現自主可控的象徵。05 鴻蒙的未來與宏大敘事鴻蒙的宏大敘事,已經超越了商業競爭的範疇,上升到了國家科技戰略的高度。它所建構的“萬物互聯”的分佈式架構,正在重新定義下一代智能終端的互動方式。跨越2300萬的“生死線”,鴻蒙已經證明了其生存能力。然而,正如余承東所言,“鴻蒙要想活得好,還有很長的路要走。”未來的挑戰在於:1、生態的深度與廣度:持續吸引更多長尾應用和國際應用加入原生生態。2、AI能力的融合:隨著鴻蒙6的發佈,系統與AI的深度融合將成為新的增長點。3、全球化擴張:如何在全球市場與iOS和Android兩大巨頭競爭,仍是長期挑戰。鴻蒙的崛起,是中國科技企業在面對外部壓力時,選擇迎難而上、堅持技術創新的一個縮影。它不僅為使用者帶來了更流暢、更智能的體驗,更為全球科技界提供了一個寶貴的案例:在高度壟斷的作業系統領域,通過技術差異化和生態決心,依然可以開闢出一條全新的道路。鴻蒙的史詩,才剛剛進入高潮。 (藍血研究)
陳天橋的AI佈局再下一子,推出最強AI長記憶作業系統 | 巴倫精選
▎長期記憶能力,已是決勝下一代 AI 競爭力的分水嶺。近日,EverMind 團隊宣佈正式發佈其旗艦產品 EverMemOS,這是一款面向人工智慧智能體的世界級長期記憶作業系統,它旨在成為未來智能體的資料基礎設施,為AI賦予持久、連貫、可進化的“靈魂”。在 LoCoMo 和 LongMemEval-S 等最主流的長期記憶評測集上,EverMemOS 表現已顯著超越此前工作,成為新的SOTA。記憶能力: 決勝下一代 AI 的分水嶺受限於 LLMs 固定的上下文窗口,AI 在長時程任務中會頻繁“失憶”。這不僅導致記憶斷裂、事實矛盾,更讓深度個性化和知識一致性成為空談。AI 無法利用歷史互動資料來理解使用者,也無法保留上下文的中間資料,這使其應用價值大打折扣。這不只是一個技術缺陷,更是 AI 走向高級智能的演化桎梏。一個沒有記憶的主體,無法形成長期行為的一致性與主動性,更不可能實現真正的自我迭代。個性化、一致性、主動性——這一切演化的前提,都依賴於一個強大的記憶系統。行業巨頭已經用行動做出了證明。無論是 Claude 還是 ChatGPT,都已將長期記憶作為戰略級功能推出。這標誌著一個清晰的行業風向:記憶,正成為未來 AI 應用的核心競爭力與分水嶺;它也是 AI 從‘工具’走向‘智能體’、從被動響應走向主動演化的關鍵所在。行業並非沒有嘗試。RAG 等傳統方法提供了初步的補償方案,一些新興的記憶系統也開始湧現。然而,這些努力大多是“碎片化”的。市場始終缺乏一個真正可用的、能夠覆蓋全場景的記憶系統——既要滿足一對一陪伴場景,又能夠支援複雜的企業多人協作場景。更重要的是,這個系統必須在精度、速度、易用性和應用適配性上達到高度統一。現實是,這樣的解決方案仍然缺位。因此,為大模型裝上一個高性能、可插拔、易最佳化的“記憶外掛”,依然是困擾眾多應用、亟待滿足的核心剛需。靈感源自人類大腦的記憶機制EverMind 團隊來源於盛大集團(Shanda Group),這一曾引領中國數字創新浪潮的科技和投資集團。他們的靈感來自人類大腦的記憶機制:從感官訊號編碼、海馬體索引到皮層長期儲存,前額葉與海馬體協同完成記憶的形成與提取。這種「類腦」理念,成為 EverMemOS 設計的核心,讓 AI 能夠像人類一樣思考、記憶與成長。這一願景也與盛大創始人陳天橋在腦科學與 AI 融合研究中的長期投入一脈相承,體現出讓人工智慧和人類智能相遇的重要意義。9月份,陳天橋旗下團隊打造的MiroMind就成為全球頂尖預測大模型,性能領先行業基準,該模型採用記憶驅動機制,專為預測與決策設計。更早之前,MiroMind團隊還公佈了一個高性能、完全開源、開放協作的深度研究項目MiroMind Open Deep Research(Miro ODR),成為開源最強DeepResearch模型之一。今年10月27-28日,他在天橋腦科學研究院在美國舊金山舉辦的首屆天橋腦科學研究院AI驅動科學研討會(Symposium for AI Accelerated Science,AIAS 2025)上系統闡述了包括“長期記憶”在內的發現式智能五種核心能力。他指出,當今的 AI 建立在 “空間結構”範式 之上——這種範式是「瞬時的」「靜態的」,本質上通過規模化參數去擬合世界的“快照”;而人類大腦的 “時間結構”範式 是「連續的」「動態的」,其目的在於管理與預測時間流中的資訊。在這其中,“長期記憶”正是連接時間與智能的關鍵環節。EverMemOS 正是在這一理念的啟發下誕生的 —— 讓 AI 擁有時間的連續性,使其能夠在時間流中記憶、適應與進化。正是在這樣的背景下,EverMind 團隊推出了 EverMemOS,一個在場景覆蓋和技術性能上均實現關鍵突破的記憶系統。在場景覆蓋上: 它是行業首個真正能同時支援 1 對 1 對話與複雜多人協作兩大場景的記憶系統,並已率先被創新的 AI Native 產品 Tanka 採用。在技術性能上: 基於創新的生物‘印跡’(Engram)啟髮式記憶提取與應用技術,EverMemOS 在最主流的長期記憶評測集 LoCoMo 和 LongMemEval-S 上,分別取得了 92.3% 和 82% 的高分,均顯著超越了SOTA(State-of-the-Art)水平,樹立了新的行業標竿。EverMemOS 四層架構設計EverMemOS 受「人腦記憶機制」啟發,創新設計了四層結構,並與大腦關鍵功能區形成類比:代理層(Agentic Layer)—— 負責任務理解、分解與生成,類比「前額葉皮層」在注意力、計畫與執行控制中的作用。記憶層(Memory Layer)—— 管理長期記憶的提取和結構化儲存,對應「大腦皮層網路」的長期鞏固儲存功能。索引層(Index Layer)—— 通過Embedding、鍵值對與知識圖譜實現記憶關聯和高效記憶檢索,類似「海馬體」完成記憶的關聯與快速索引功能。介面層(API/MCP Interface)—— 與企業級應用無縫整合,作為AI的“感官介面”與外界互動。EverMemOS 三大系統特點特點一:從“記憶資料庫”到“記憶處理器” EverMemOS 的首要創新在於,它不僅僅是一個記憶的“資料庫”,更是一個記憶的“應用處理器”。它解決了現有方法“只管找,不管用”的核心痛點,通過其獨特的推理與融合機制,讓記憶能夠即時、主動地影響模型的思考和回應,確保 AI 的每一句話都基於對使用者的長期理解,從而提供真正連貫、個性化的互動體驗。特點二:創新設計“分層記憶提取”與動態組織 EverMemOS 的核心在於其創新的“分層記憶提取”思想。它不再將記憶視為混亂的文字塊,而是將連續的語義塊提取為情景記憶單元,再動態地組織成結構化記憶。這種層次化的記憶組織方式,將相關記憶聯絡起來,解決了純文字相似度檢索難以捕捉隱性上下文的難題,為後續的記憶應用提供了堅實的基礎。特點三:實現業界首個可拓展的模組化記憶框架 在實際應用中,不同場景下的記憶需求差距較大。因此,EverMemOS 創新性地設計了基於使用場景的可拓展記憶框架。它能夠靈活支援多種記憶類型,無論是需要高精度、結構化資訊的工作場景,還是需要共情、理解隱性情感的陪伴場景,EverMemOS 都能智能地提供最優的記憶組織和應用策略,解決了傳統記憶形式單一、無法適應多變需求的難題。目前,EverMind已在github上開放EverMemOS開源版本,供開發者與 AI 團隊部署與試用。Github訪問地址為:https://github.com/EverMind-AI/EverMemOS/。預計在今年晚些時候,團隊將發佈雲服務版本,為企業使用者提供更完善的技術支援、資料持久化與可擴展體驗,有興趣的開發者或企業可以在官網(http://everm.com)留下信箱,將有機會第一時間體驗服務。 (鈦媒體)
華為如何把 AI 融入作業系統?
華為想建的不是傳統的應用生態,而是一個以 AI 為核心的全場景智能作業系統生態。“剛開始用我們系統的時候,大家會感到新奇。用的過程中,大家會看到很多應用在開發、上架,在完善的過程中越用越好用。”今年 6 月的華為開發者大會上,華為常務董事、終端 BG 董事長余承東,把鴻蒙系統使用者的體驗形容為 “微笑曲線”。這是華為開發鴻蒙系統必經的過程。過往成功的作業系統,都是在硬體發生巨大變革時,跟隨新裝置普及,逐漸在競爭中建立優勢。獨立鴻蒙系統的誕生和推廣,則是華為被迫在使用者和開發者已經習慣 iOS 和 Android 等系統的時候,推動他們遷移。10 月 22 日的鴻蒙作業系統 6 發佈會上,余承東說鴻蒙系統 5 的終端裝置數量已經達到 2300 萬,是 “智能終端史上發展最快的作業系統”。憑藉巨額投入、資源調度能力和硬體優勢,華為用高強度的衝刺,能迅速做出來可用的系統。今年 6 月,鴻蒙系統就已經上架 3 萬個鴻蒙原生應用和雲服務,但它相比 iOS 和 Android 還有差距,這是無法迴避的問題。AI 的迅速發展給鴻蒙系統帶來發展契機。蘋果和 Google 等公司儘管有深厚的技術積累,那怕是 Google 在大模型領域已經佔據領先位置,把大模型等 AI 技術引入作業系統時,往往會顯得克制,甚至是保守。蘋果要兼顧隱私和使用者的體驗一致,推動 Apple Intelligence 的核心是端側處理和私有雲端運算,並確保不會破壞原有的體驗,所以每一步都小心翼翼,一再延期。而 Google 的挑戰在於 Android 生態的碎片化,它要確保新的 AI 能力,可以在大量不同硬體配置的裝置上相對一致地運行,這是一個巨大的工程難題,所以會傾向於用 Gemini App 等上層應用來滲透。“我們從(作業系統)設計之初,就能帶來很多體驗的增強。” 余承東說。華為開發獨立的鴻蒙系統,則沒那麼多的負擔,它可以從底層的 SoC、到作業系統、再到上層框架以及終端硬體,做垂直整合最佳化保證體驗。最新發佈的鴻蒙系統 6,就體現出新生作業系統的優勢:AI 與作業系統的融合,並不是簡單的功能堆疊,而是從表層功能真正延伸到底層架構。華為也在組織層面做調整,要更大力度地押注 AI。AI 在系統的各個方面,語音助手成統一入口鴻蒙系統 6 的發佈會上,余承東和華為終端 BG CEO 何剛介紹智能體驗環節,沒有提及任何一款大模型的名稱,包括華為自研的盤古大模型。他們重點介紹了大模型等 AI 技術的加持下,新版系統有那些新功能和體驗。這或許就是華為對鴻蒙系統中如何融入 AI 的直接體現。鴻蒙系統 6  的 AI 智能體驗,不全在智能類股,而是出現在整個作業系統的各個方面,嵌入到不同的使用者使用場景。比如:使用者選圖庫中的照片設成壁紙,AI 自動構圖,提供不同的時鐘、藝術字型佈局樣式。使用者也可以讓 AI 學習並生成特定的藝術風格,比如拍一張書法作品照片,鴻蒙系統中的 AI 就能把書法作品中的風格用到壁紙上。使用者接聽陌生人來電時,AI 根據對方的通話資訊識別,它是否屬於刷單返利、虛假機票退改以及冒充公檢法等多種典型詐騙場景。同時,AI 檢測到路人注視手機螢幕時,就會發出提醒,一些銀行、辦公等敏感應用,可以直接進入防窺模式。原本使用者想要用手機修圖需要一步步點按螢幕操作,現在可以直接在圖庫中用語音操控,自動加上專業打光、模糊、景深等效果,甚至是修改照片背景等。使用者還可以讓它根據一批照片自動生成視訊,這個過程中,AI 會智能加入配樂和運鏡等。華為與大疆合作,把鴻蒙系統 6 適配大疆 OSMO 手持雲台,呼叫系統相機時,手機能智能追隨人物主體。在演示中,鴻蒙 6 的相機還能充當試衣鏡,給使用者的穿搭提建議。過去幾年,大多數使用者日常高頻使用的應用開發者,都在積極在產品中融入 AI。比如京東會嘗試用  AI 做導購,滴滴會嘗試用 AI 幫使用者打車,美團會嘗試用 AI 點外賣。單個產品中加入 AI,或許會讓使用者在特定的場景中提高一些效率,但會讓 AI 體驗顯得割裂,比如手機中出現一堆助手。在鴻蒙 6 中,能識別 16 種方言的智能助手小藝,成為了 “智能服務統一入口”,它可以調動手機中的各種應用解決問題。比如 “周末釣魚規劃”。過去使用者要先打開天氣 App 查天氣、然後去地圖 App 搜釣場、再到日曆 App 填行程,來回切換多個應用。現在可以直接對小藝說 “周末適合釣魚嗎?”,它就可以綜合天氣、地圖等情況,給出回覆:“周日 7 點,要記進日程嗎?”小藝還能深入調度系統中的第三方應用。使用者看視訊的時候,家人說沒有貓糧了,可以直接喊出小藝,讓它在京東上再來一單最近買的貓糧。小藝可以在後台自己行動,最後步驟再找使用者確認資訊和付款。小藝也能制定周期任務、場景任務等,比如可以設定在公司打開小紅書時,自動把音量設定為 10% 等。在大模型的支援下,小藝也具備推理能力,去做深度研究(電腦端),也可以調度多種應用或者 AI 服務(智能體),完成更複雜的任務。比如使用者看病不確定去那個科室,可以通過小藝調出來螞蟻健康管家,諮詢掛什麼科,有什麼推薦的專科醫生,並支援直接掛號。在手機上收到檢驗單後,使用者也可以直接拖給小藝,讓它調出訊飛曉醫智能體,解釋每個指標的含義,結合病史和資料分析病情,提供飲食建議。類似的功能還有根據使用者要求,用大麥開發的智能體麥寶訂演唱會門票等。2024 年開始, AI 技術的發展讓智能體成為應用開發潮流,也給平台方帶來新問題:智能體之間往往缺乏統一標準,經常 “互不認識” 很難協同,所以行業內出現出現 MCP、A2A 等標準協議。華為能在鴻蒙系統 6 中用小藝調度多個智能體協同完成任務,不只是靠這些第三方開發的協議,而是因為它能深入到應用開發層面,統一不同智能體的框架。這是鴻蒙系統的優勢。過去多年,作業系統競爭的核心是 “應用數量和質量”。誰能吸引更多的開發者,開發出更豐富的 App,建立完善的生態,誰就能鎖定使用者,然後這些使用者又能幫助吸引更多開發者。這是 iOS、Android 或者 Windows 成功的根本之一。而大模型的出現,正在將競爭的核心從 “應用為中心” 轉向 “智能體為中心”。使用者的需求可能不再是 “打開某個 App 去完成任務”,可能會是直接給助手說 “我想要什麼”,讓它來調度智能體完成任務。據華為介紹,鴻蒙 6 的開發理念,就是讓過去的 “人適應系統” 轉變為自動化的 “系統適應人”,並根據使用者的行為模式、偏好等主動學習和提供個性服務。在重新開發鴻蒙應用的過程中整合 AI 體驗使用自研核心的原生鴻蒙系統,不再相容 Android 應用,開發者需要為它重新開發應用。這也意味著,華為也要給開發者提供新的開發工具。傳統視角看,讓開發者重新開發應用有巨大的成本。比如金山辦公副總裁姚冬曾說,他們開發出來第一版鴻蒙原生 WPS 花了 8 個多月時間。但在新的需求變化中,華為可以借助 AI 迅速發展建立一種 “後發優勢”。因為它沒有龐大的歷史應用生態需要相容,它可以更徹底地按照 “智能體” 的邏輯來設計整個系統,降低開發者向 AI 轉型的成本。“應用與智能體深度融合的趨勢下,恰好也是我們鴻蒙生態的發展過程。” 何剛說。在鴻蒙系統中,華為把 AI 直接融入到了應用開發的環境中。今年 6 月的華為開發者大會上,華為發佈鴻蒙智能體框架(HMAF)。據介紹,這個框架整合了鴻蒙 Agent 通訊協議、鴻蒙意圖框架以及鴻蒙 Agent Kit,給所有智能體定統一 “語言和介面”。華為開放了鴻蒙系統自身能力,包括 4 種開發模式、50 多種開發元件能力、10 個 AI 領域 Kit、11 類 AI 控制項、240+ 標準意圖等,目標就是讓開發者開發鴻蒙系統中的 AI 應用或者給應用中增加 AI 能力時,不用投入太多研發成本,就能開發出具有智能互動、自主決策和群體協作能力的智能體,把應用在鴻蒙系統中的介面,從傳統 “App 觸控” 轉變到 “自然語言互動”。華為也希望 HMAF 給開發者更多自由度。其中的小藝智能體開放平台,給開發者提供多種開發範本、外掛和模式,自然對話就能建立智能體,還能自動最佳化提示詞,提升智能體的任務的成功率。它還支援開發者靈活地給應用設計智能體的服務入口,比如瀏覽器的智能體,可以設定在使用者閱讀新聞的時候,提供 AI 摘要問答等智能服務。現在鴻蒙系統 6 中上架了小藝智能體廣場,覆蓋醫療、影音娛樂、美食、出行、購物等多領域,已經有 80 多個鴻蒙應用智能體。不少應用開發者選擇在鴻蒙首發新功能,比如大麥、京東等多個智能體在鴻蒙端首發上線。作業系統的關鍵就是調度和分配裝置中的硬體資源(記憶體、儲存、算力等),讓不同應用可以流暢運行。手機等裝置的應用體驗好壞,大部分因素就在於廠商能在多大程度上控制從 SoC 到中間的基礎軟體堆疊、應用開發平台等,做好垂直整合。尤其是面對 AI 這樣迅速發展的新技術,更極致的垂直整合能夠在多個環節最佳化,讓還在完善中的技術體驗變得更好。過去只有 iPhone 和 Google 自己研發的手機上具備這樣的優勢,現在華為也因為獨立的鴻蒙系統,有了這樣的契機。而且華為更激進。今年 9 月舉辦的全聯接大會上,華為啟動 “天工計畫”,宣佈要投入 10 億元資金與資源,與夥伴、開發者共同加速孵化超過 1 萬個 AI 原生的元服務、1 千多種意圖框架、5 千多個智能體,用來支援鴻蒙 AI 生態建構。調整組織結構,做 AI 時代的作業系統客觀來說,華為在鴻蒙系統 6 展示出來的功能和體驗並非不可複製,技術上也沒有與對手拉開太多差距,尤其是對手都在快速嘗試整合 AI 的時候。鴻蒙最深的護城河,不只是一時的產品和功能更新,而是華為本身垂直整合的深度和執行速度。與過去的大多數產品相比,AI 背後的技術堆疊更複雜。它涉及到底層算力、雲端運算平台、大模型、終端硬體、應用平台等等。華為是中國少有的能夠囊括所有環節的公司,此前這些環節分散在各個業務類股之間,可能存在協同壁壘。今年 9 月底,華為公佈了一項重要的人事調整:增任余承東華為產品投資評審委員會(IRB)主任。在華為,產品投資評審委員會是重要的決策機構。它是一個跨功能部門的團隊,負責華為重大戰略方向的資源投入評估、重點項目立項稽核及預算審批等關鍵環節,並協同華為各產品線、研發、市場、銷售、供應鏈等部門,推動公司戰略落地。據瞭解,余承東擔任華為產品投資評審委員會主任的主要任務,就是帶領華為在 AI 領域取得全球領先地位,被內部視為 “打贏 AI 關鍵戰役” 的核心領導人。這意味著,華為現在通過余承東的管理權責範圍,在組織層面上打通了整個 AI 鏈條。而余承東作為華為終端業務的長期負責人,最懂使用者場景和商業落地。現在讓他去統管全域的 AI 投入,目的就是用華為最強、最複雜的場景(搭載鴻蒙系統終端)帶動技術協同發展。鴻蒙系統將不再只是華為終端 BG 的產品,而是華為集全公司之力發展 AI 技術的關鍵出口,這會推動鴻蒙系統在 AI 方面迅速發展。這個人事調整,比發佈任何一個新功能都更能體現華為的 AI 決心。新任命公佈之後,余承東就在社交媒體上轉發了華為招聘 AI 頂尖技術人才的消息,要打造世界最強的 AI。去年發佈真正獨立的鴻蒙系統時,余承東說 “有底座,有生態,才是真正的作業系統。” 這句話在當下已經有了新的含義。鴻蒙系統想要建構的生態,不會是傳統的應用生態,還是一個 AI 為核心的作業系統生態。而鴻蒙系統的基座,也不只是它自研核心等底層技術,它的底座還是華為本身,以及華為過去數十年來建立的產品體系和積累的技術。 (晚點LatePost)
OpenAI 的「作業系統」野心與全球AI 平台之戰
2025 年10 月,舊金山的DevDay 大會再次把OpenAI 推上了全球科技舞台的聚光燈。有別於以往強調模型能力的更新,這一次,OpenAI 把策略重心放在了「平台化」上。它不再滿足於做一個聊天機器人,而是要把ChatGPT 打造成未來的“操作系統”,一個能承載應用、交易和服務的超級入口。從聊天工具到“應用平台”在大會上,OpenAI 公佈了幾組關鍵數據:全球已有超過400 萬開發者在其平台上建立應用,ChatGPT 的周活躍用戶突破8 億,而API 峰值吞吐量達到每分鐘60 億tokens。這些數字不僅證明了ChatGPT 的用戶粘性,也為它的生態擴展提供了堅實基礎。最引人注目的,是「Apps in ChatGPT」 框架的推出。使用者無需跳出對話框,就能直接呼叫Booking、Coursera、Canva、Spotify 等服務。這意味著ChatGPT 正在從“問答入口”變成一個“應用整合中心”,未來甚至可能在對話中直接完成購買和付款。這一動作與先前的GPT Store 一脈相承。過去,開發者可以創建自己的GPT 模型,但用戶體驗仍然割裂;而現在,服務被直接「裝進」ChatGPT,用戶在一個視窗中就能完成學習、設計、訂票甚至購物。對開發者而言,這不僅是流量入口,更是潛在的商業化管道。AgentKit:智能體的“管線”如果說Apps in ChatGPT 是前端的使用者體驗升級,那麼AgentKit 就是後端的開發者工具革新。透過視覺化的拖曳與組態,開發者無需寫一行程式碼,就能快速搭建客服機器人、銷售助手,甚至是跨部門的業務流程智能體。更重要的是,AgentKit 內建了評估與最佳化機制,支援自動化的prompt 調優、第三方模型存取和強化回饋調試。這意味著智能體不再是“一次性產物”,而是可以持續迭代和優化的“活系統”。在OpenAI 的設想中,未來企業可能會像搭建網站一樣,大量建造和部署智能體。模型矩陣:從Codex 到GPT-5 Pro在模型層面,OpenAI 也帶來了多項更新。 Codex 正式版不僅支援Slack 整合,還加入了語音互動能力,讓「說一句話就能產生程式碼」成為現實。 GPT-5 Pro 則面向高階場景,支援40 萬tokens 的上下文窗口,專為科研、法律、長檔案處理等複雜任務而生。同時,輕量級的gpt-realtime-mini 則瞄準即時語音互動場景,強調低延遲和低成本。此外,視訊生成模型Sora 2 的亮相,也讓OpenAI 在多模態方向上更進一步。無論是電商廣告、教育影片或遊戲內容,Sora 2 都展現了AI 在創意產業中的巨大潛力。美國與歐洲巨頭的反擊然而,OpenAI 並不是孤軍奮戰。蘋果、Google、Meta、微軟等科技巨頭,早已在加緊建置自己的AI 平台。蘋果透過軟硬體一體化,逐步限制對macOS 底層的訪問,強化系統安全與封閉性。 Google 依託Gemini 模型,把AI 深度嵌入搜尋、Gmail 和Workspace,試圖讓使用者在日常辦公室和資訊檢索中離不開它。 Meta 在社群和虛擬世界中加速佈局,推出AI 助理並強化生成式內容,目標是讓使用者在社群網路和元宇宙中自然使用AI。微軟則憑藉著與OpenAI 的深度綁定,已經把Copilot 融入Office、Windows 和Az​​ure,形成了「生產力+ 雲端」的雙重護城河。中國大模型公司的崛起如果說美國的競爭是圍繞著「平台化」展開,那麼中國的大模型公司則更強調「產業落地」與「場景驅動」。阿里巴巴的通義千問正在電商、物流、金融等領域全面滲透,淘寶的智慧導購、菜鳥的智慧調度、螞蟻的風控系統,都在逐步形成一個由AI 驅動的商業閉環。騰訊的混元大模型則依託微信生態,深入公眾號、視頻號和小程序,推動廣告投放和內容分發的智能化。百度的文心一言在搜尋、Apollo 自動駕駛和智慧雲端中不斷迭代,試圖透過「搜尋+ 自動駕駛+ 雲」的組合來建立生態壁壘。位元組跳動則憑藉著抖音和TikTok 的全球流量優勢,把大模型應用在內容分發、廣告創意和虛擬主播上,直接推動內容產業的商業化。華為則選擇了另一條路徑,依託昇騰晶片和盤古大模型,重點服務政企、能源和製造業,強調自主可控與產業級落地。全球格局:三股力量的博弈從全球視野來看,AI 平台的競爭正在形成三股力量:美國模式:以OpenAI、微軟、Google為代表,強調平台化與生態整合;中國模式:以阿里、騰訊、百度、位元組、華為代表,更強調產業落地與場景驅動;企業級模式:以IBM、Anthropic 為代表,聚焦B 端市場,強調安全、合規與可控制性。未來的競爭,不僅是技術和模型的比拚,更是生態、使用者習慣和商業模式的全面較量。結語:操作系統之爭的下一幕可以預見,未來幾年,AI 平台的競爭將不再只是技術層面的較量,而是生態、商業模式和使用者習慣的全面博弈。 OpenAI 的野心在於成為「對話即操作系統」的開創者,但它能否在中美巨頭的夾擊中突圍,還需要時間驗證。對於企業而言,現在正是觀察和試點的最佳時機;對於投資人,值得關注的是誰能率先跑通商業閉環;而對於開發者,選擇哪個平台投入精力,可能決定未來數年的發展軌跡。未來的作業系統之爭,已經不再是桌面與行動的延續,而是AI 驅動下的新一輪全球生態重構。
八億使用者,統一入口:OpenAI 要做作業系統了
八億使用者統一入口2023 年,OpenAI 只有 200 萬名每周活躍開發者,以及 1 億名每周活躍使用者。兩年後,在 OpenAI 剛剛召開的 DevDay 上,Sam Altman 透露:如今已有 400 萬名開發者使用 OpenAI 模型建構產品,超 8 億人每周用 ChatGPT,API 每分鐘處理 60 億 tokens。多虧了大家,AI 已經從人們拿來玩的東西,變成了人們每天都在用來創造的工具。就沖這增長速度,可以說是贏麻了。而且就在上周,OpenAI 通過一筆 66 億美元的股權交易,公司估值直接衝到了 5000 億美元,超過了馬斯克的 SpaceX,成為全球估值最高的初創企業。DevDay 劃重點:ChatGPT 變超級 App:對話中直接呼叫第三方應用,AI 主動推薦工具,支援應用內交易變現。AgentKit 工具包上線:可視化拖曳搭建多 Agent 工作流,幾分鐘完成從開發到部署的全流程。Codex 全面開放:自然語言即時寫程式碼,支援語音控制和 Slack 整合,自動稽核 PR 提升團隊效率 70%。模型 API 大升級:最強 GPT-5 Pro 開放 API、語音成本降 70%、Sora 2 支援產品內視訊生成和精細控制。ChatGPT 裡直接裝 App 了今天,OpenAI 扔出個重磅炸彈——ChatGPT 現在可以直接呼叫第三方應用了。過去你可能得專門下載 App;現在只需一句話,Spotify、Canva 等應用就能在對話中自動喚起,還能提供可直接操作的互動介面。如果你已經訂閱了某個外部服務,還能在 ChatGPT 裡直接登錄帳戶,無縫銜接。從今天起,除了歐盟地區,所有登錄使用者都能用,覆蓋免費、Go、Plus 和 Pro 計畫。首批試點合作夥伴陣容相當豪華:Booking.com、Canva、Coursera、Figma、Expedia、Spotify、Zillow 等一眾廠商。現場演示環節更是精彩。OpenAI 員工打開 ChatGPT,直接讓 Canva 給一家遛狗服務公司設計宣傳海報。幾秒鐘後,Canva 就給出了好幾種設計方案。然後他又請求基於海報內容生成一份商業展示 PPT——這一套組合拳下來,絲滑得不行。接著,他又通過 ChatGPT 呼叫了 Zillow,讓它展示匹茲堡地區的待售房屋。Zillow 瞬間生成了一張可互動地圖,使用者還能進一步提問瞭解更多細節。更智能的是,當 ChatGPT 覺得某個應用能幫到你時,它還會主動推薦。比如你說「幫我做個派對播放列表」,它可能直接喚起 Spotify 來協助——這波操作,屬實有點東西。這一切的背後,是全新發佈的 Apps SDK(應用開髮套件)。開發者現在可以使用 Apps SDK 預覽版開始建構自己的 ChatGPT 應用。值得一提的是,Apps SDK 建構在 Model Context Protocol(MCP)之上——這是個開放協議,允許開發者把外部資料來源連接到 AI 系統,同時也意味著用這個標準建構的應用能在任何相容平台上跑。正如 iOS 提供作業系統,App Store 負責分發變現,最後組成移動網際網路生態。現在 ChatGPT 就是作業系統,Apps SDK 是開發工具,8 億使用者是生態基礎。說白了,就是 ChatGPT 要變成超級 App 了。此外,今年晚些時候,OpenAI 還將開啟應用提交流程,推出專屬應用目錄,並公佈變現機制——包括支援全新的 Agentic Commerce Protocol,能在 ChatGPT 內實現即時結帳與交易。AgentKit 登場,造 Agent 從此不愁今天 OpenAI 正式推出 AgentKit——一整套專為開發者和企業打造的完整工具。在此之前,建構 Agent 簡直是個噩夢:複雜的流程編排、自訂連接器、手動評估、上線前還要花好幾周開發前端。現在有了 AgentKit,包括三大核心元件:Agent Builder:用於建立和管理多 Agent 工作流版本的可視化畫布Connector Registry:管理員集中管理資料與工具互通的中心ChatKit:能將可定製的聊天式 Agent 體驗嵌入產品的工具包具體來說,Agent Builder 提供可視化畫布,支援通過拖曳節點來編排邏輯、連接工具,並配置自訂安全規則。支援預覽運行、內嵌評估設定以及完整版本控制。發佈會上,Altman 也將這個功能比作「用於建構智能 Agent 的 Canva」。OpenAI 還推出 Connector Registry(連接器註冊中心),讓開發者能夠通過 管理員控製麵板 安全地將 Agent 連接至內部工具或第三方系統,同時確保資料安全與存取控制。ChatKit 則讓開發者輕鬆將基於聊天的智能 Agent 嵌入自己的產品中,無論是應用還是網站,都能根據品牌主題深度定製。合作示例包括 Canva、LegalOn、HubSpot。去年 OpenAI 推出了 Evals,幫開發者測試提示詞並衡量模型行為,今年則新增了四項強大能力:資料集、追蹤評分、自動提示詞最佳化、第三方模型支援。此外,強化微調(RFT)讓開發者能定製 OpenAI 的推理模型。目前 RFT 已在 o4 mini 上全面開放,並在 GPT-5 上以內測形式提供,還引入了自訂工具呼叫和自訂評分器兩項新功能。僅用時 7 分 11 秒,OpenAI 員工就為 Dev Day 網站從零搭建了 AI 助手。通過可視化方式加入分類 Agent 、路由節點、Sessions Agent 處理會議日程、Dev Day Agent 處理通用查詢,還加了 PII 防護。搭建完成後,當使用者在 Agent Builder 中提出了「應該參加什麼會議來瞭解建構 Agent?」這個問題。系統自動執行完整流程:檢查 guardrail、分類意圖、從文件提取資訊、使用 Widget 展示,最終推薦合適的相關會議。確認工作流正常後,她將其命名為「Ask Frog」並行布獲得 Workflow ID。然後在 Dev Day 網站程式碼中使用 Chat Kit React 元件整合了這個代理,配置了 Frog 主題的顏色、預留位置和啟動提示,加入了底部滑出式聊天介面,並在網站頂部放置「Ask Frog」連結,且所有參會者立即可用。這一波流程下來,還是相當絲滑的。OpenAI 全面開放 Codex,動動嘴就能讓 AI 寫程式碼自 8 月初以來,Codex 的日活躍使用量增長了 10 倍以上,GPT-5-Codex 在發佈後三周內已處理超過 40 兆 tokens。發佈會上提到,在 OpenAI 內部,如今幾乎所有工程師都在用 Codex。團隊每周合併的 Pull Request 數量增加了 70%,而 Codex 幾乎會自動審查所有 PR。今天,OpenAI 正式宣佈 Codex 全面開放使用,同時帶來三項全新功能:全新 Slack 整合:在團隊頻道或執行緒中直接向 Codex 委派任務或提問Codex SDK:將驅動 Codex CLI 的同款智能 Agent 嵌入自己的工作流全新管理員工具:更直觀查看和管理 Codex 的大規模使用情況借助 Codex SDK,你只需幾行程式碼,就能將同款 Agent 引入自己的工程工作流或應用中。目前 SDK 已支援 TypeScript,未來將支援更多語言。從今天起,Slack 整合和 Codex SDK 對 ChatGPT Plus、Pro、Business、Edu、Enterprise 計畫使用者開放。OpenAI 員工在舞台上現場建構完整的攝影機控制系統,包括建構 Node 伺服器、編寫所有 UDP 封包處理邏輯,甚至成功實現用 Xbox 手把控制了攝影機的任務,以及還能通過與 AI 對話控制攝影機和會場燈光。最後,演示者還不忘展示 Codex SDK 的即時程式設計能力,用語音請求 AI 呼叫 Codex 即時修改 React 應用程式碼,展示電影式的滾動字幕效果。而整個演示過程沒有手寫一行程式碼,僅靠自然語言完成。模型和 API 全面更新,這波真香GPT-5 Pro 正式向所有開發者開放 API 訪問。這是 OpenAI 迄今發佈過的最智能模型,特別適合處理需要高精準性和深度推理的困難任務,應用領域涵蓋金融、法律、醫療等專業領域。GPT-5 Pro 價格語音方面,OpenAI 還發佈了 gpt-realtime-mini,價格降低了 70%,但保持相同的語音質量和表現力。Sam Altman 特別強調,語音將成為人們與 AI 互動的主要方式之一。更值得關注的是,Sora 2 的 API 預覽版已經正式發佈,開發者現在可以直接在自己的產品內生成高品質視訊。Sora 2 的 API 使用非常靈活,開發者可以控制視訊長度、寬高比、解析度,輕鬆混剪視訊,並且所有視訊都配有完整的逼真同步音效。在發佈會的尾聲,Sam Altman 在總結時強調,軟體開發已經從過去需要幾個月或幾年的漫長周期縮短到現在只需幾分鐘就能完成。整場發佈會展示的從 Apps SDK 到 AgentKit 再到 Codex 的完整工具鏈,都建立在這些強大的模型 API 基礎之上。不得不說,OpenAI 這波更新幾乎覆蓋了開發者關心的所有領域——從應用生態到 Agent 工具,從程式碼助手到視訊生成,一個不落。高端的產品發佈會,往往就是這麼樸實無華。最後,你覺得那個功能比較實用,歡迎在評論區分享你的看法。 (愛范兒)