#智譜
OpenClaw,給中國AI開闢了一個彎道超車的大市場
OpenClaw可以說是AI圈裡最熱門的話題,一丁點風吹草動都能牽動全球所有AI廠商的神經。無數產品經理在OpenClaw上進行創意大比拚。嗅覺靈敏的中國廠商也都紛紛開始行動,他們看到的不只是OpenClaw這個產品本身,而是它背後代表的整個agent市場。這個市場需要雲伺服器、需要模型API、需要本土化的產品、需要更低門檻的部署方案。中國AI想要彎道超車,必須要在Anthropic和Google先後對其進行打壓的時機,緊緊抓住這個機會。騰訊雲、阿里雲上線了一鍵部署服務,他們想要趁著這個機會,成為AI圈那個賣鏟子的人。月之暗面推出了雲端版的Kimi Claw,MiniMax也緊隨其後發佈了MaxClaw,道理很簡單,本土化的OpenClaw仍然是市場的一大空缺。智譜和字節雖然沒有在OpenClaw上面明確表態,但他們其實也沒閒著。OpenClaw的成功讓智譜和字節對agent的產品更有信心。01. 月之暗面的雲端OpenClaw在OpenClaw出現之前,大模型的使用主要是“對話式”的,使用者問一句,模型答一句,單次呼叫的token消耗有限。但OpenClaw創造了全新的“模型消費場景”。一個配置合理的OpenClaw,每天可能向模型發起數百次甚至上千次呼叫,每次呼叫還要攜帶完整的上下文資訊。這意味著,單個OpenClaw使用者產生的token消耗,可能是傳統聊天使用者的幾十倍甚至上百倍。因此,OpenClaw變成了OpenRouter上token消耗最大的應用。那個模型能接入OpenClaw生態,就等於獲得了一個指數級增長的需求管道。當OpenClaw使用者選擇底層模型時,他們實際上選的不是模型性能或者模型知識儲備,使用者選的是一個持續、穩定、高頻的供貨商。誰耐用,誰便宜,誰才是OpenClaw生態下的大贏家。所以月之暗面和MiniMax就在OpenClaw的這場巨浪之中收穫頗豐。先說說前者吧,他們在OpenClaw生態中的角色,經歷了兩個階段的演變。2026年1月,Kimi K2.5因其便宜且agent能力較強,成為OpenRouter平台上OpenClaw呼叫量最高的模型。OpenRouter資料顯示,Kimi K2.5的周token使用量環比增長最高達261%。其呼叫場景主要來自OpenClaw.究其原因,Kimi K2.5支援最多100個子agent平行執行、1500次以上的工具呼叫,這些能力讓它在agent場景下表現出色。於是OpenClaw官方在1.30版本後,將Kimi K2.5設為“首個官方免費主力模型”,使用者安裝OpenClaw時可以選擇MoonshotAI通道,甚至可以留空API Key繼續使用,OpenClaw官方會補貼算力。這種爆發式增長直接帶來了商業回報。受全球付費使用者及API呼叫量大漲的共同推動,Kimi K2.5發佈不到一個月,近20天累計收入已超過2025年全年總收入。正是因為OpenClaw,Kimi的海外付費使用者數快速增長,海外收入首次超過國內。SimilarWeb資料顯示,Kimi上月訪問量達3300萬,中國地區訪問量佔比從去年的77%降低到了今年的60%多。這個階段,月之暗面扮演的是“模型供應商”的角色,被動地提供 API 服務。但Kimi團隊很快意識到,與其被動地提供API,不如主動降低使用者使用門檻。一個月後,Kimi正式推出Kimi Claw。這是一個雲端託管的OpenClaw服務。使用者無需本地部署,直接在瀏覽器中就能使用完整的OpenClaw功能。Kimi Claw把原版OpenClaw的複雜步驟全部省略了,使用者只需擁有Kimi Allegretto及以上會員,就能在網頁端一鍵建立自己的“雲端OpenClaw”,整個過程不超過1分鐘。Kimi Claw內建了Kimi K2.5模型,自動關聯使用者的Kimi Code會員權益額度。使用者無需額外配置API Key,也不用擔心突然燒掉大量token導致帳單爆炸。在功能層面,Kimi Claw直接整合了ClawHub社區的5000多個技能庫,使用者可以在網頁介面中一鍵啟用,包括天氣查詢、網頁搜尋、瀏覽器操作、郵件處理等高頻場景。原版OpenClaw的Skills需要使用者通過命令列手動搜尋、安裝、配置,這個過程對普通使用者來說又是一道門檻。Kimi Claw則是把這些技能都整合到了介面裡,使用者只需要點選就能啟用,降低了使用者使用難度。原版OpenClaw的核心理念是“本地優先”,所有對話記憶和檔案都儲存在使用者自己的裝置上。這種設計保護了隱私,但也帶來了不便,使用者換了裝置就得重新配置,AI助手的記憶也無法延續。Kimi Claw則提供了40GB的雲端儲存空間,使用者可以在辦公室電腦、家裡電腦、手機上無縫切換,AI助手的記憶始終保持一致。這種體驗對於需要在多個裝置間切換的使用者來說,是個很實用的功能。02. MiniMax也這麼幹了2月25日,MiniMax也推出了自己的MaxClaw,走的是與Kimi Claw類似但更激進的路線。MaxClaw基於MiniMax M2.5模型,雖然這是一個模型總參數量約2300億,單次推理僅啟動約100億的大模型,但它的API價格非常便宜。M2.5在OpenRouter上的表現也很亮眼。發佈後12小時內登頂OpenRouter熱度榜,一周內登頂呼叫量榜首,周呼叫量暴漲至3.07兆token,超過Kimi K2.5、GLM-5與DeepSeek V3.2三家的總和。發佈7天內token使用量突破3兆,2月單月token使用量達4.55兆,空降榜首。為什麼M2.5能在短時間內實現如此驚人的增長?答案同樣是OpenClaw。MiniMax M2.5的定價策略是“極端性價比”。在每秒輸出100token的情況下,連續工作一小時只需花費1美金;而在每秒輸出50個token的情況下,只需要0.3美金。這意味著,同樣是運行一個7×24小時這樣的OpenClaw實例中,M2.5的成本可能只有Claude Sonnet的1/10到1/20。對於需要高頻呼叫工具的agent場景來說,這種成本差異是決定性的。OpenClaw社區的開發者很快發現了這一點。在外網論壇上,大量關於“如何在OpenClaw中配置 M2.5”的教學湧現,甚至有開發者專門編寫了“從Claude遷移到M2.5”的遷移指南。這種開源社區中的傳播,比任何廣告投放都更有效,要知道OpenClaw能走到今天,也是被開源社區帶火的。MiniMax還將MaxClaw整合到自家的MiniMax Agent生態中,與Expert 2.0同步升級,形成了“對話式AI + agent 工作流”的完整產品矩陣。資本市場的反應更為直接。2月20日,也就是馬年港股開市首個交易日,MiniMax的股價單日暴漲14.52%,市值一度衝破3042億港元,創下公司上市新高。自上市以來,MiniMax股價累計漲幅最高超過480%,2026年初至今股價最高漲幅超450%,成功躋身港股AI核心標的行列。摩根大通給予MiniMax “增持”評級,目標價700港元。3月2日,MiniMax發佈財報,2025財年收入為7900萬美元,同比增長158.9%。OpenClaw帶來的流量紅利,讓月之暗面和MiniMax轉化為了自家的使用者資產。想想看,當一個使用者通過OpenClaw使用Kimi K2.5一個月後,他已經習慣了這個模型的輸出風格、響應速度和能力邊界。這時候搬出Kimi Claw給他,然後說:“你不用自己維護伺服器了,不用配置API Key了,直接在我們的平台上用,還能多端同步。”這轉化率能低得了嗎?這兩家公司的雲端OpenClaw產品,本質上是在用SaaS的方式去做agent服務,你給我錢,那我給你一個低門檻的產品。雖然沒有原版OpenClaw那麼能擴展,但是勝在便宜好用。事實上絕大多數 人其實都沒有那麼尖端的需求。他們可能只是想讓AI幫忙檢查郵件、整理文件、定時提醒、查詢資訊。回到段落開頭,Kimi和MiniMax也都明白這個道理,agent的價值不在於單次對話的質量,而在於長期、持續、穩定的任務執行能力。所以他們剛好填補了市場的一片空白。03. 騰訊、阿里的“賣鏟子”生意OpenClaw對普通使用者來說門檻不低。你得有自己的伺服器,得會配置 Node.js 環境,得懂怎麼申請各家模型的 API Key,還得知道怎麼設定消息通道。整個過程下來,沒有半小時到一小時搞不定,技術小白基本上看到教學就放棄了。這種極客屬性很強的產品,註定只能在開發者圈子裡流行,很難真正普及到大眾市場。騰訊和阿里看到的,恰恰就是這個痛點。與其讓使用者自己折騰,不如直接提供一套開箱即用的解決方案。於是在OpenClaw爆火後,騰訊雲和阿里雲幾乎同時推出了OpenClaw的一鍵部署服務。這些雲廠商提供的,不僅僅是一台伺服器那麼簡單。他們把整個OpenClaw的運行環境都打包好了,包括預配置的鏡像、自動化的部署指令碼、已經偵錯好的依賴包,甚至還有現成的模型 API 接入方案。使用者只需要點幾下滑鼠,選擇配置,付款,然後等幾分鐘,一個完整的OpenClaw實例就跑起來了。騰訊雲的方案相對簡潔直接。他們在輕量應用伺服器上推出了“雲應用”功能,使用者通過這個功能可以三步完成OpenClaw部署。系統默認配置的是 DeepSeek API 作為模型供應商,但使用者可以在 Dashboard 中自由切換到 Kimi、MiniMax 或者其他國產模型。騰訊雲的官方文件裡寫得很明白:“OpenClaw來自開源社區,雲應用不收費”,但緊接著又補充了一句,“雲伺服器和 API 按照實際消耗計費”。騰訊賺的不是OpenClaw的錢,而是雲伺服器租賃費、流量費、還有模型 API 呼叫產生的費用。他們不強制繫結自家模型,給使用者留了選擇空間,但基礎設施這一層,你跑不掉。阿里雲的打法則更加“生態化”。使用者在輕量應用伺服器上部署OpenClaw後,系統會引導使用者前往“阿里雲百煉大模型控制台”建立 API Key,默認呼叫的就是通義千問系列模型。阿里雲還推出了一個叫“Coding Plan”,這是阿里雲百煉面向全品類 AI 編碼工具推出的通用訂閱套餐,相容OpenClaw接入。換句話說,阿里就是想通過OpenClaw的代安裝服務,推廣自己家的 AI 程式設計以及模型API。阿里和騰訊想要的,是要佔領agent時代的“水電煤”。OpenClaw的爆火證明了一個趨勢,未來的 AI 應用不是簡單的“聊天機器人”,而是一個 24 小時線上、能執行複雜任務、需要穩定算力支援的 agent。當個人使用者和中小企業開始部署 agent 時,他們需要的不僅是模型的 API,還需要雲伺服器、儲存空間、網路頻寬,以及飛書、釘釘、企業微信這樣的消息整合,還有安全沙箱環境等一整套基礎設施,最後更不能少了像是 AI 程式設計這樣具體的執行工具。所以騰訊雲和阿里雲才提供了“一鍵部署OpenClaw”這個服務,以此搶佔這個新興市場的入口。他們的邏輯很清楚,今天使用者因為OpenClaw來了,明天可能因為其他 agent 產品來,但只要使用者習慣了在他們的雲平台上部署 agent,那麼這些使用者就成了長期客戶。更重要的是,當每個企業都需要部署自己的 agent 時,誰能提供最便捷、最穩定、最本土化的基礎設施,誰就能佔據這個兆級市場的底層。雲廠商們看得很明白,賣鏟子的生意,往往比挖金子的人更穩定,也更賺錢。不僅是這樣,OpenClaw它代表的是一個訊號,未來的agent產品只多不少。雲廠商們現在做的,就是提前佔位,建立使用者習慣,建構生態壁壘。當agent成為企業和個人的標配時,誰能提供更多配套的服務,誰就掌握了話語權。04. 智譜和豆包為何不激進在這場圍繞OpenClaw的競爭中,智譜和字節的態度顯得有些微妙。不過這不代表他們在agent這個賽道上落後了,恰恰相反,他們選擇了一條更獨特的路。智譜對OpenClaw的態度可以概括為“技術上支援,戰略上不主推”。智譜GLM-5在官方文件中明確提供了OpenClaw接入指南,GLM的Coding Plan套餐也支援OpenClaw配置。智譜甚至還推出了“AutoGLM版本的OpenClaw”,支援OpenClaw與飛書的一體化配置。從這些動作來看,智譜並沒有忽視OpenClaw,提供了作為一家中國AI廠商該有的一些基本支援。智譜更看重的是AutoGLM,這是一個具備“Phone Use”能力的agent。AutoGLM在2025年12月開源,能夠完成外賣點單、機票預訂等數十步複雜操作,還支援微信、淘寶、抖音等超50個高頻中文應用。AutoGLM的核心技術是視覺語言模型,它不依賴傳統的API,而是像人眼一樣“看”螢幕,通過理解UI元素的語義直接預測下一步動作。這種方式的優勢在於,它只要能看到介面,就能進行操作。這意味著AutoGLM可以操作任何應用,包括那些沒有開放API的應用。OpenClaw 的核心場景是桌面端,需要配置海外消息平台,這些平台在中國的使用率並不高。相比之下,AutoGLM 直接在使用者最常用的中文應用中執行任務,不需要依賴海外消息平台,更符合中國使用者的使用習慣。智譜的想法是,既然OpenClaw證明了agent的市場需求,那真正適合中國使用者的agent,更應該是能操作微信、淘寶、抖音的AutoGLM。字節跳動對OpenClaw的態度更加微妙。表面上看,只有前文提到的,火山引擎提供的一鍵部署OpenClaw。這是因為字節對agent的注意力集中在移動端。去年字節跳動與中興努比亞合作推出nubia M153測試手機,內建了“豆包手機助手技術預覽版”。其核心技術是UI-TARS,一個純視覺驅動的GUI agent模型。與OpenClaw相比,豆包手機助手更有優勢。豆包是直接整合到Android系統層,可以不打開應用就從底層進行操作,完全不會影響使用者當下使用。OpenClaw需要通過瀏覽器控制或API呼叫來操作應用,權限和穩定性都受限。同時,豆包手機助手能夠實現跨應用的複雜操作,比如“幫我在三個外賣平台比價,然後下單最便宜的”。OpenClaw的跨應用能力有限,很多任務不能跨應用完成,而且在不同應用之間切換的速度很慢。字節跳動官方始終強調,agent應該是整合到作業系統中、能直接操作所有應用的系統級能力,而不是一個需要使用者手動配置、運行在伺服器上的獨立程序。這種理念上的差異,決定了字節不會在OpenClaw上投入太多資源。字節對OpenClaw保持距離,是因為它正在打造一個更高維度的解決方案。當然,智譜和字節的這種戰略選擇也有代價。在OpenClaw熱度最高的這段時間,錯過了一波流量紅利。不過從長期來看,誰的選擇更正確,還需要時間來驗證。agent這個賽道才剛剛開始,現在下結論還為時過早。 (字母AI)
Token出海或迎風口!Kimi+DeepSeek+智譜+MiniMax,籌碼集中概念股出爐
AI大模型服務正面臨嚴峻的算力考驗。進入2026年,人工智慧大模型行業競爭步入白熱化階段。春節前,騰訊元寶、阿里千問、字節跳動豆包等大廠集中發力C端市場,通過各類福利活動掀起使用者“爭奪戰”。春節假期至今,全球大模型賽道融資消息也密集落地,資本熱度持續攀升。然而,伴隨使用者規模與使用頻次的激增,Token(詞元)消耗量顯著增長,大模型服務正面臨嚴峻的算力考驗。春節期間,豆包因春晚高頻互動導致算力承壓,一度暫停視訊通話功能;智譜AI等廠商也因高並行請求採取了API限流等措施。算力供給不足、推理資源緊張,已成為當前大模型規模化落地過程中亟待解決的核心難題。中國國產大模型霸榜OpenRouter自2025年初DeepSeek橫空出世、驚豔全球以來,中國大模型產業快速崛起,憑藉獨特的技術與場景優勢持續霸榜全球。據全球最大的大模型API聚合平台OpenRouter資料顯示,2月平台內前十模型總Token消耗量已突破27兆,國產模型貢獻超過14兆,市場佔比超過50%。其中,MiniMax M2.5以超過5兆的Token消耗位居全球榜首;Kimi K2.5緊隨其後,2月Token總消耗量超過4兆;DeepSeek V3.2、GLM 5分別位列第四、第八位。這些頭部國產大模型,普遍聚焦於程式碼能力與智能體(Agent)自動化任務的能力提升。從春節期間的消耗量來看,2月16日至22日(農曆除夕至正月初六),OpenRouter平台Token消耗量前十的大模型中,中國大模型份額佔比已超60%。其中,MiniMax M2.5、GLM-5 消耗量環比大幅增長,增幅分別達到197%和158%。反觀全球市場,Google、xAI、OpenAI等海外廠商旗下大模型的Token消耗量增速明顯低於國內模型,全球市場份額增長乏力,部分甚至出現負增長。Token消耗量或開啟多年增長模式Token(詞元),即AI處理資訊的最小單位。大模型每生成一個Token,後端的伺服器就得高速運轉,這不僅需要強大的算力,更需要大量的電力。根據業內測算,Token生成的成本結構中,電力及算力的成本佔比超過七成。摩根大通的報告顯示,基於使用者情境的預測,從應用採用的角度出發,Token消耗量或開啟多年增長期。中國的AI推理Token消耗量預計將從2025年的超10千兆增長至2030年的約3900千兆,增幅接近369倍,主要受兩個復合要素推動,一是隨著AI成為搜尋、內容生成、客戶服務和生產力的默認介面,AI在消費者使用者和企業工作負載中的滲透率都在提高;二是用例從對話AI擴展到智能體和多模態輸出(更長的上下文、更多的工具呼叫、更豐富的輸出),即使使用者數量增長放緩,這也會實際增加每個會話的Token。從細分領域來看,隨著時間的推移,推理需求的佔比發生明顯變化。對話AI佔2025年預期Token總消耗量的近一半,預計到2030年逐步下降至高個位數百分比;生活情景AI智能體的份額預計將從2025年的個位數提高至2030年的10%至20%。國產大模型具備電力的算力的雙重優勢對於開發者而言,性價比是硬道理。從國內來看,無論是電力還是算力,都具備顯著的成本優勢,並有望重構AI定價權。從電力來看,國家能源局資料顯示,截至2025年底,中國累計發電裝機容量達38.9億千瓦,同比增長16.1%,發電量佔全球總量的三分之一。中國也成為全球首個全社會用電量突破10兆千瓦時的國家,電力供給充足且成本優勢顯著。AI熱潮之下,美國電價呈現明顯上漲趨勢,進一步凸顯中國電力成本的競爭力。從算力來看,早在2025年10月份,央視網報導,“十四五”時期以來,中國開啟新一輪數字基礎設施大佈局,全國一體化算力網連通東西南北,算力總規模躍居全球第二,不僅為中國數字經濟的成長澆築新的基座,也創造了增長的新機遇。目前,國內多家頭部算力企業已建構起完備的適配體系,在推理環節有效突破海外技術壟斷,伺服器、光模組、散熱等關鍵硬體環節也基本實現自主可控。依託規模化部署、低成本電力供給與演算法持續迭代,國產方案在主流應用場景中的Token生產成本具備明顯優勢。業內普遍認為,國產大模型憑藉更高效的架構設計,逐步降低對高端GPU的剛性依賴;而全球開發者對中國大模型的廣泛選用,進一步拉動國產算力需求呈現爆發式增長。14隻籌碼集中大模型概念股出爐儘管在最近幾個交易日的行情中,算力類股表現有明顯分化,但不可否認的是,算力需求提升是必然趨勢。在以周度進行統計的周期中,國產大模型Token消耗量更是一度超過美國(2026年2月9日至15日),後續優勢持續擴大,多重利多因素的加持下,Token出海有望成為趨勢。證券時報·資料寶根據萬得、同花順等公開資訊梳理,A股市場中屬於智譜、Kimi、DeepSeek及MiniMax主流大模型的概念公司有140余家。從市場表現來看,截至2月27日,這140餘隻概念股今年以來平均漲幅超過13%,傑創智能、藍色游標及中控技術今年以來累計漲幅均超過60%,前2隻個股涉及智譜概念,中控技術則涉及DeepSeek概念。首都線上、金現代、優刻得-W今年以來累計漲幅均超過40%,3家公司均涉及智譜概念。從籌碼變化情況來看,最新股東戶數較2025年年末下降的概念股有14隻,3隻概念股的股東戶數下降幅度超過10%,分別是世紀天鴻、恆為科技及遠光軟體。世紀天鴻最新股東戶數較去年末下降近24%,公司以自身戰略定位和資源稟賦為出發點,結合人工智慧技術已推出了基於大語言模型研發的專注於服務老師的AI智能體“小鴻助教”,並投資了基於人工智慧NLP(自然語言處理)技術、聚焦中小學寫作場景的人工智慧輔助寫作產品“筆神作文”。恆為科技最新股東戶數較去年末下降超過21%。公司2025年2月份表示,其推出的昇騰、DeepSeek一體機分為訓推一體機與推理一體機兩種類型,以“開箱即用+高並行低時延”為核心優勢,覆蓋金融、政務、科研、醫療等眾多垂直行業,助力行業實現智能化升級。遠光軟體最新股東戶數較去年末下降10.6%。目前公司主要接入或適配了智譜、阿里千問、DeepSeek、盤古等大模型。這14隻概念股今年以來平均漲幅超過9%,恆為科技、世紀天鴻、值得買漲幅居前,均超過15%。太極股份、浪潮資訊、宇信科技表現較弱,今年以來股價均呈下跌局面,其中浪潮資訊伺服器市佔率全球領先,涉及DeepSeek及MiniMax概念。(資料寶)
Fortune雜誌—上市43天的獨角獸,市值超越京東
2月20日,港交所收盤的鐘聲敲響時,一個數字定格在了3232億港元。這是智譜上市第43天的市值。同一天,經營了20多年的京東,市值約為3024億港元。一家成立僅6年、上市僅月餘的大模型獨角獸,在資本市場的天平上短暫地壓過了中國電商行業最重的玩家之一。彼時彼刻,一個問題也縈繞在很多市場人士心頭——市場是否太瘋狂?圖片來源:視覺中國但在後一個交易日(2月23日),智譜股價暴跌,一度跌超20%,市值蒸發超700億港元。經歷幾天的劇烈波動後,智譜最新市值回到約2500億港元,較京東重新落後800多億港元。而與股價為何漲跌相比,更值得追問的是,從春節前到春節後智譜到底發生了什麼,以及其折射出何種深刻的市場邏輯變化。2月12日,智譜發佈新一代旗艦模型GLM-5。官方文件稱,該模型“專為複雜系統工程與長程Agent任務設計”,在程式碼邏輯密度和系統工程能力上直接對標Claude Opus 4.5。同一天,智譜宣佈上調GLM Coding Plan套餐價格,中國區漲價30%,海外版漲價超100%。這是國內大模型廠商首次公開提價。市場迅速讀懂了這一訊號:供不應求,且有議價能力。隨後,OpenRouter資料顯示,GLM-5發佈後呼叫量周環比增長超460%。2月16日,智譜發佈消息稱,由於全球需求激增,並行訪問量突破既有規劃上限,導致服務出現排隊、響應延遲。使用者太多而算力不夠,可謂一家AI公司最甜蜜的煩惱,也刺激智譜股價一路上漲並在2月20日狂拉43%,市值接連超越攜程、快手,短暫站上京東肩頭。此後,轉折也很快來了。2月21日晚,智譜發佈致歉信,表示“GLM-5發佈後,本該是讓大家爽寫程式碼的日子,結果我們這幾天的表現,估計讓不少兄弟想順著網線過來敲我們。”信中承認,公司犯了三個錯:規則透明度不夠、GLM-5灰度節奏太慢、老使用者升級機制設計粗糙。由於流量超出預期,擴容沒跟上,Pro/Lite使用者遭遇限流。這封道歉信,也撬動了其超700億港元市值的蒸發。如果只看事件本身,這是一場典型的營運事故引發的股價踩踏。但為何一封看似營運層面的道歉信,會引發如此劇烈的市場反應?答案或許部分藏在智譜的股權結構裡。智譜於今年1月8日上市,發行價116.2港元。截至2月20日,其股價較發行價漲超5倍至725港元。但在這輪暴漲中,真正流通的股票少得驚人,非禁售股僅佔8.5%,對應市值約275億港元;前25大股東持股87.47%,籌碼高度集中。這意味著少量資金就能把股價拉到天際,也意味著任何風吹草動,都可能引發踩踏。股價劇烈波動背後更深層問題則是估值。智譜2025年上半年營收1.91億元,同比增長325%,這無疑是高增長。但同期的淨虧損是23億元,虧損額同比擴大91%。研發開支16億元,是收入的8倍以上,其中算力服務費佔研發開支超70%。按2月20日市值計算,智譜的市銷率超過750倍。市場在定價這樣一個未來:智譜不僅要保持現有的高增長,還要在未來5-10年內,把收入做到現在的幾十倍甚至上百倍。這並非不可能,但這需要GLM系列模型持續領先、商業化路徑持續兌現,以及算力成本持續最佳化。每一個“需要”,都是一場硬仗。智譜在招股書中也坦承:“我們無法向閣下保證我們或我們的任何競爭對手最終將實現AGI。我們認為整個行業仍處於發展初期。”不過,這句誠懇的風險提示在狂熱的市場情緒中似乎被遺忘了。而市值被智譜短暫超越的京東,截至2月20日,其市盈率(TTM)9.10倍,市銷率僅0.22倍(據券商測算,2025年京東營收料超過1.3兆元)。顯然,智譜和京東的市值短暫換位,本質上是兩種定價邏輯的碰撞。京東代表的是“舊錢”的邏輯:基於歷史、基於利潤、基於可測算的現金流。20年建成的物流網路、數億使用者的信任、每年兆級的交易額,這些是看得見摸得著的資產。市場給京東的估值,無疑是對這些資產已創造和將創造的現金流的貼現。智譜代表的是“新錢”的邏輯:基於未來、基於想像、基於技術溢價的折現。GLM-5的技術突破、Coding能力的市場驗證、Token成為新的“生產資料”,這些都是資本市場願意給高估值的基礎。但隨之而來的問題是,這種估值高度依賴敘事的持續性和業績的兌現速度。也因此,當一家750倍市銷率的公司市值超越一家0.22倍市銷率的公司,並不能簡單歸結為“新錢”戰勝“舊錢”,而更多的是兩種估值體系在同一個時間點上的一次交錯。從近日智譜和京東在波動中分別下跌和上漲來看,各自確實是在交錯之後回歸各自更為常態化的軌道。這一幕與去年曾被快速證偽的DeepSeek算力通縮交易有異曲同工之妙。當時市場流傳的邏輯是:模型效率提升,算力需求下降,以輝達為首的晶片股堪憂。但這個敘事忽略了傑文斯悖論——效率提升反而會降低使用門檻,刺激更多應用落地,從而增加而非減少算力總需求。2025年以來的產業實際也是模型越強、成本越低、呼叫量越大,算力需求不降反升,輝達先抑後揚的走勢即為明證。智譜的過山車,或為同一個邏輯的另一種演繹。2月20日的股價暴漲,是市場在為“技術突破+商業化驗證”的敘事買單。2月23日的暴跌,並非其技術或商業模式出了問題,而是其股價脫離基本面太遠,任何瑕疵都會成為價值回歸的導火索。市場可以用43天把一個故事推到極致,也可以用三天把故事收回一半。自2月12日智譜發佈新一代旗艦模型之後發生的一切,從新故事萌芽到瘋狂爆發再到估值回歸,恰如一個完整的敘事周期。正如市場之前在DeepSeek身上所經歷的,任何偏離產業實際的敘事,都會迎來價值回歸。同樣值得關注的是,如果僅僅是將京東作為標尺,智譜的估值似乎飆升太快,但當我們把視線投向大洋彼岸,看到Anthropic這樣的AI企業估值高達3800億美元,看到OpenAI、Anthropic們的旗艦模型輸出定價遠高於智譜們,中國AI企業的估值故事或許才剛剛開始。(財富中文網)
人工智慧大模型資本泡沫洶湧
港股大模型的資本狂歡,已經令投資圈咋舌不已。馬年首個交易日,港股 AI雙星閃耀。當天恆生科技指數收跌近3%,AI大模型龍頭智譜股價則逆勢狂飆42.72%,當天收盤總市值暴增到3200億港元。MiniMax(稀宇科技)也不遑多讓,斬獲3000億港元市值。兩家公司的市值規模,已經超越了一眾網際網路大廠。京東一年的營收接近1.2兆元,已是中國零售產業中的支柱性企業,美團坐擁線下消費的核心位置。智譜、MiniMax的營收不及其零頭的零頭的零頭,而且還處於連續的虧損之中。兩家成立沒幾年時間的初創企業,能在極短時間內,超越征戰28年的世界級電商巨頭,將其歸結為“散戶狂歡”顯然並不合適。資本在人工智慧領域的瘋狂可見一斑。ChatGPT之後,智譜和MiniMax第一次讓外界真切地見識到了中國大模型公司的估值上限。它早已超脫價值投資甚至傳統成長股的估值框架,進入絕大多數人難以理解的市夢率階段。到底是巨大的泡沫,還是AI的重新估值定價?在剛剛開啟的未知時代,有太多的混沌朦朧。01 瘋狂A股尚未復工時,港股AI就已經提前暴動。2月20日收盤,智譜飆升42.72%,市值達3232億港元,春節前後7個交易日暴漲逾2.5倍,上市兩個多月以來累計漲超500%;MiniMax則上漲14%,市值達到3042億港元。智譜股價表現(自上市至今)一天的回落後,股價進入調整階段,目前兩家企業市值約為2500億港元的體量。這樣的規模不僅超過了一眾傳統網際網路大廠,在A股市場也相當於一個中國船舶或新華保險,超過了中國鋁業和中遠海控這種淨資產規模巨大的中央企業。號稱“全球大模型第一股”,智譜早在上市階段就表現不俗,上市前公開發售時就遭到了近1160倍的超額認購,搶購熱情極為高漲。晚一天上市的MiniMax更為瘋狂,股價首日就翻倍,市值直接跨過千億港元門檻。目前股價較發行價暴漲了近五倍。僅用4年時間,這家公司就完成了其他科技巨頭十幾年甚至幾十年才能達到的高度。AI估值的炸裂程度,已經超過了絕大多數人最大膽的想像。回頭來看,兩家公司能走出史詩等級的股價曲線,離不開“天時地利人和”的助攻。海外兩大巨頭正在進行天價融資,可以稱之為“天時”。有消息稱,OpenAI正接近完成新一輪超過1000億美元(6900億元)的超額融資,亞馬遜、輝達等巨頭爭相下注,其估值可能超過8500億美元(5.87兆元)之巨,相當於英特爾+波音+麥當勞+耐克+星巴克市值的總和;“叛將”Anthropic則正在以10倍營收增速緊追,其剛剛以3800億美元估值完成了300億美元的融資。一級市場火爆的投融資狀況,為港股這個面向全球的資本市場提供了高漲的交易氛圍。其次,智譜和MiniMax作為目前少有的大模型純正標的,現階段擁有可公開交易的稀缺性。兩家公司今年1月才上市,智譜上市時戰略配售比例高達60%,鎖定期長達半年到一年,實際流通盤極度稀缺,其中大部分還被機構牢牢把控。智譜在2月20日,曾經以“僅”32億元的成交額、527萬的成交量,單日就撬動了1000億港元的市值增長。相比來看,阿里、騰訊、百度等大盤股不夠純正,且盤子過大,不利於資金拉抬。在AI賽道交易洶湧的背景下,籌碼鎖定將股價彈性放大到了極致。這可以稱之為“地利”。再次,南下資金利用春節假期A股和H股的時間差進行跨市場投機,將市場炒作博弈情緒達到頂點。這是“人和”。三重因素疊加下,造就了兩家企業神奇的股價表現,當然也不可避免催生了巨大的泡沫風險。02 泡沫去年有DeepSeek,今年有智譜和MiniMax,AI敘事的接力棒一直在延續。來到馬年新春,內有阿里千問、騰訊元寶瘋狂撒錢,掀起AI入口流量大戰;外有國際投行的“唱多”助攻,資本煽起投機盛宴。2月10日,摩根大通發佈了一份首次覆蓋智譜和MiniMax-WP的報告。其中指出,中國AI江湖經歷了快速整合,具備實力的模型開發商數量已從高峰期的200多家減少至不到10個。目前形成雙層競爭格局:一是擁有規模和生態優勢的科技巨頭,如阿里巴巴、字節跳動、騰訊等;另一方則是以智譜和MiniMax為代表的獨立廠商,憑藉技術迭代和敏捷性在特定領域建立優勢。最後,這家國際投行給予兩家企業400及700港元的目標價,旋即兩支股票開啟暴走模式,不到4天時間,就完成了小摩的“既定任務”。‌11天後,瑞銀則重點關注MiniMax,給出了高達‌1000港元‌的誇張目標價。瑞銀看好其在AI大模型領域的稀缺性及增長潛力,並稱這一目標價位是基於125倍的P/ARR(市盈率與年度經常性收入的綜合指標)。這一判斷無疑在本就狂熱的瘋漲格局下,再度澆上一勺油。經常性收入(ARR)是衡量軟體企業的黃金標準,一家SaaS公司實現了穩健的ARR,就意味著其商業模式得到了市場驗證,進入可持續創收階段。然而,這套估值模型在AI時代卻可能水土不服。一個看似亮眼的ARR數字,可能僅僅代表一家公司現在的產品在當前的某個階段被市場初步認可,但未來表現如何,尚未可知。當前的大模型尚處於百家爭鳴的初級階段,從最初的ChatGPT到kimi、百度文心一言到去年的DeepSeek,再到當下的豆包、元寶、千問,AI應用產品迭代速度極快,使用者因為嘗鮮或紅包犒賞會頻繁更換產品。而且在AI普及和技術創新的初期,即便是B端客戶,可能多採用月度訂閱而不是傳統 SaaS的年度訂閱方式,ARR能否持續和穩定增長面臨巨大考驗。即便按照ARR來估值,瑞銀給出的1000港元目標價,是按125倍來進行測算的,這在傳統軟體行業裡堪稱天方夜譚,即便在新興的AI賽道也十分誇張。況且,這要求MiniMax未來幾年必須每天都得像開了掛一樣增長,且不能犯一丁點的錯誤。智譜從最初的所謂“政企新創”企業一躍成為AI當紅炸子雞,的確令人側目。但2025年上半年,公司營收1.91億元,淨虧損23.58億元,累計虧損超62億元,相當於每獲得1塊錢營收,就要承受12塊錢的虧損。即便按照收入估算,智譜當前的市銷率PS也高達733倍,MiniMax也有500倍之多,需未來5年營收復合增速超100%才能支撐,難度可想而知。目前,這種超級行情更多反映的是對AI的樂觀預期,非理性因素已經超過了所謂的技術領先性。如同A股的摩爾線程和沐曦股份,被爆炒之後回呼的風險也極大。03 生意相比算力晶片企業實打實的業績報表,大模型應用的商業化仍然是一個美妙的夢想。輝達2026年前三財季暴賺771.07億美元,同比去年增長51.82%,第三財季毛利率高達恐怖的73.4%。而下游應用層面,仍然沒有跑出一家成熟的商業標竿。AGI鼻祖OpenAI2025年的收入為130億美元,但現金虧損高達80億美元。而且這種“高收入、高虧損”的局面還會持續下去。中國企業則各顯其能,智譜和MiniMax分別選擇了2B和2C兩條路徑。前者是國內第一的獨立大模型廠商,超過了阿里和商湯,並在早期就提出MaaS(模型即服務)概念,並切入金融、政務、能源等行業,將大模型搬進企業的自家機房,在這個“中國特色”的高門檻領域撕開了一道口子;MiniMax創立的初衷就是“做服務普通人的 AI,Intelligence with everyone”,這也是創始人閆俊傑一直在公開場合強調的理念。旗下Talkie(星野)、海螺AI累計使用者超2億,在2025年,MiniMax更是斬獲全球音訊第一、視訊第二、文字穩坐第一梯隊的能力,並在一開始就面向全球市場。MiniMax創始人閆俊傑但不管是光鮮的清華夢之隊,技術指標多麼領先的GLM-5模型,還是人人都能用得起AI的情懷,都無法掩蓋財務資料上“爛生意“的清晰特徵。尤其是智譜,直到2025上半年,仍有近七成收入來自私有化部署。作為一家深耕B端的廠商,客戶黏性尤為重要,但智譜的客戶變動極大,復購率低。招股書顯示,2022-2025年上半年,智譜的前五大客戶無一重合,也就是說其客戶一直在變,且合作周期多為1-2年,鮮有長期穩定的客戶關係。智譜甚至還存在“采銷倒掛”現象。2022-2025年上半年,智譜向最大客戶A銷售2.42億元,但向其採購額高達2.47億元,採購額超過銷售額,類似情況在客戶P、Q中同樣出現。智譜試圖將MaaS(模型即服務)平台作為第二增長曲線,儘管CEO張鵬宣稱2025年API收入將增長十倍,但該業務毛利率從2022年的76.1%暴跌至2025年上半年的-0.4%,相當於倒貼錢給客戶用。即便如此,其客戶流失率依然高得驚人。根據招股書大致推算,2024年底智譜大模型API客戶數為5457家,半年後僅剩3061家,減少了2396家。客戶流失如此之高,很難說這是一門好生意。不僅智譜貼錢賣貨,在C端,阿里千問、騰訊元寶、字節豆包等頭部AI應用廠商,在春節期間狂撒45億元,打響全民AI紅包大戰,試圖“燒錢換量”。然而大廠有資本底氣,且阿里有雲服務和消費生態,騰訊有社交、字節有內容生態,作為獨立廠商,智譜家底並沒有那麼殷實。正如Salesforce.的CEO貝尼奧夫所說  大語言模型就是大型的磁碟驅動器,你可以選擇最便宜的隨時插拔的基礎設施,模型是護城河的幻想已經結束了。04 寫在最後相比上游晶片的超強技術壟斷,AI應用層面的商業價值還處於黎明前的黑暗中。AGI 是一個超長賽道,但智譜CEO張鵬曾說過,“用短跑的速度跑馬拉松”。這個略顯矛盾的形容解釋了中國大模型公司的兩難處境:既要保持技術的定力和領先性,又要快速進行資本化和高速成長。2月24日,Anthropic稱DeepSeek、Moonshot和 MiniMax三家企業試圖動用2.4萬個帳戶進行1600萬次互動“工業級蒸餾攻擊”,馬斯克第一時間轉發並調侃:“他們怎麼敢偷Anthropic從人類程式設計師那偷來的東西?”這場鬧劇也反映出MiniMax等中國AI企業出海面臨的風險和挑戰。如今,資本市場的狂熱對應出這種AI自立的國家戰略雄心,但卻在某種程度上,用資本的急功近利掩蓋了AI應用商業化的漫長與艱難。 (巨潮WAVE)
中國科技公司全球放貸
農曆新年後港股開市的第一天,恆生科技指數就經歷了2.91%的大跌,而智譜和MiniMax的市值卻雙雙衝破3000億港元。在人工智慧的狹義話題之外,從強烈對比中我們可以看出,全球資本正在面臨一次重要的抉擇:是否要從“傳統”網際網路平台,轉向被認為更具潛力的新賽道。前幾年被寄予厚望的科技增長故事——出海,似乎已經未結果先枯萎了。很多大廠在海外市場的資源投入優先度不僅不如AI業務,甚至可能還不如國內外賣。相比電商、媒體平台或其他網際網路服務業務,對於更多中國科技企業來說,網貸似乎可以被更便利地搬運到全球市場。在越發暗淡的出海故事中,放貸成了那個大家都不願意放棄,甚至還在進一步投入的重心。恆生科技指數表現(自2025年11月至今)國內市場,曾經“等同於暴利”的網際網路貸款業務,在助貸新規的影響之下,正面臨著前所未有的壓力。因此,網貸出海甚至似乎比其他業務出海更緊迫。如果將網貸出海比作一道考試題的話,可以理解為它正在從前幾年的選擇題,變成了如今的必答題。只是這道題的難度,對很多國內企業來說,確實有些超綱。水土不服去東南亞旅遊的人,基本都接觸過一個超級APP——Grab。這個平台是由陳炳耀(Anthony Tan)和陳惠玲在2012年創立,總部位於新加坡,業務覆蓋柬埔寨、印度尼西亞、馬來西亞、緬甸、菲律賓、新加坡、泰國和越南等8個國家。Grab最初以網約車服務起家,經過十餘年的發展,如今已成長為集出行、外賣配送、數字支付、金融服務等多元業務於一體的科技服務平台。去年,Grab首次實現了全年盈利(淨利潤2億美元),證明商業模式已經跑通。Grab的商業模式,其實就是國內科技企業所擅長的場景+金融閉環模式。公司以網約車(GrabBike/汽車)和外賣(GrabFood)為入口,日均訂單量超1500萬單,獲取海量使用者。此外,推出GrabPay電子錢包,覆蓋線下小店、線上電商等支付場景之後,Grab可以將使用者從出行、外賣場景自然引導至支付環節。然後基於使用者行為資料和信用評估,為司機、小微企業和普通消費者提供貸款、保險、定期存款等金融服務。這種閉環模式,使Grab在東南亞建立了深厚的護城河,不僅服務了6.5億人口,還幫助大量無銀行帳戶使用者首次接觸數字金融。理所當然地,金融科技類股(支付與保險)成為其業務新增長點,交易規模年增速超45%,貢獻毛利率超70%。Grab商業模式的成功,證明了東南亞市場具備孕育超級應用的土壤,但中國平台想在東南亞復刻自己的黃金時代,卻有許多“水土不服”的問題要解決。棘手的問題包括但不限於:東南亞各國金融監管政策差異巨大且變動頻繁、要求與本地機構合資、缺乏成熟的央行徵信系統、直接套用基於中國資料的風控模型會導致壞帳率激增、催收方式引發當地人反感和監管制裁等等。2018年,小米因未能與當地監管在牌照問題上達成一致,關閉了在印尼的金融部門。儘管手機熱銷東南亞,小米金融卻顯然並不順利。嘉銀科技股價表現(自2021年1月至今)此外2019年出海印尼的嘉銀科技,通過Soluskita平台開展現金貸業務,但該平台因使用者投訴量較大較突出、不符合合規要求,被印尼OJK做出了收回其P2P牌照的處罰。面對處罰,嘉銀金科在財報中表示,計畫通過與當地銀行等金融機構合作來拓寬融資管道,並繼續探索印尼市場。此後公司通過新持牌平台在印尼繼續展業,至2022年底已完成持牌平台更換的過程。2025年Q3財報中,嘉銀科技披露,在印尼業務規模相較去年同期增長了近兩倍,放款使用者數同比增長約1.5倍,出海真的成了拉動公司業績增長的新引擎。獲得了難得的正反饋的嘉銀科技,已經表達了對開拓拉美和非洲市場的厚望。建設藍海對中國的金融科技公司來說,拉美和非洲市場似乎比東南亞市場更像藍海。在拉美,由政府主導的即時支付基礎設施降低了營運難度。這裡不像東南亞的支付體系非常碎片化,需要中國公司和不同國家不同的銀行、電子錢包一一對接,合規路徑也更加清晰。在非洲,“無銀行帳戶”人群的比例要遠高於東南亞。只要能解決基礎的KYC(身份認證)和風控問題,中國公司就能更輕鬆獲得更多的客戶,也不會像在東南亞市場上,需要和本土巨頭進行貼身肉搏。滴滴股價表現(自上市至今)滴滴在拉美市場的發展過程,就是一個接近成功的樣本。2021年,滴滴在墨西哥推出信貸產品DiDi Préstamos,其使用者中有七成是在人生中首次獲得信貸授信,滴滴借此精準觸達了在當地長期被傳統銀行忽視的“信用空白人群”。2025年,滴滴在墨西哥累計發放的貸款突破2000萬筆,並且上線了儲蓄帳戶,進一步拓展了在當地的金融服務範圍。滴滴在墨西哥的信用評估能力,也與其他公司的業務場景產生了協作。例如,阿里的速賣通在墨西哥“Hot Sale”電商節期間,就選擇與滴滴合作推出“先買後付”信貸產品。如果中國企業可以幫助當地完善基礎設施,開展更高階金融業務就會更加便利。其中一個實操例子,是針對墨西哥現金交易盛行、司機被搶風險高的安全痛點,滴滴與墨西哥便利店網路OXXO合作,讓司機能便捷地將現金轉化為電子餘額,不僅解決了安全問題,更將自身深度嵌入了當地的生活和金融基礎設施。如果說拉美市場的故事還是沒有脫離“場景+金融”這一套,那麼OPay在非洲的崛起則證明,即使沒有超級App的場景流量,通過深度本地化的代理網路和極致專注的戰略,同樣可以成為改變一個地區金融生態的超級玩家。2018年,崑崙萬維通過其收購的老牌瀏覽器公司Opera孵化了Opay。到4年之後,經歷了出行、外賣、電商業務多線作戰的困頓,周亞輝決定砍掉OPay除支付外的所有業務線,讓公司專注於金融科技業務。崑崙萬維股價表現(自2021年1月至今)面對奈及利亞60%的無銀行帳戶人口和95%的現金交易,OPay沒有等使用者上網,而是通過50萬線下代理,用POS機把金融服務送到了每個街角。2022年奈及利亞貨幣改革,2024年其銀行系統短暫崩潰。當時傳統銀行App陷入癱瘓,而OPay則憑藉穩定的系統,獲得了當地使用者的信任和使用粘性。今年1月,OPay組建了新的全球核心管理團隊,並提出了到2030年服務10億使用者的宏偉願景,這也標誌著中國金融科技公司在非洲市場的業務目標,已經從試水轉向了真正的商業化階段。深層邏輯金融科技業務出海這件事,商業模式能跑通只是基礎。更重要的是能產生更高的收入規模和總營收佔比。目前在大部分中國科技企業的財報中,最多隻能看到國際業務的整體收入,並沒有單獨的海外金融業務收入資料。在港股上市的科技金融公司信也科技,是少數有相關資料披露的重要玩家。截至2025年第三季度,國際業務收入已佔其總營收的25%,收入增速保持在40%左右,遠高於公司整體6%的營收增速。對於一個以國內市場起家的金融科技公司來說,海外業務能貢獻如此高的經營佔比,標誌著其業務結構已發生質變。信也科技也設定了到2030年,國際業務收入佔比達到50%的中長期目標。海外業務在快速發展階段,仍然需要大量行銷、合規、管理開支投入,當前其盈利能力並不高,這也對信也科技財務操作的水平提出了更高的要求。去年6月,信也科技發行了1.5億美元、利率2.5%、2030年到期的可轉債,其中約9000萬美元將主要用於海外業務發展。由於可轉債的融資成本遠低於海外10%以上的平均融資成本,將在一定程度上增厚海外業務的盈利空間。有意思的是,在同樣的時間,另一家同業上市公司奇富科技也有融資——發行了6.9億美元、利率0.5%、2030年到期的可轉債,只不過這筆錢將全部用於回購公司股份、最佳化資本結構。這可能與奇富科技的海外業務尚在起步階段有關,去年才在倫敦啟動小規模營運、貸款放款,標誌著其國際擴張的正式開始。目前,奇富科技海外業務的重心在於理解當地市場、最佳化風險模型,採取的是非常審慎的探索策略。歐洲這樣的成熟市場裡,很少會成為中國公司出海的首選甚至是次選,因為這裡擁有成熟的信用體系和高品質的金融使用者,想賺錢不能靠高利率覆蓋高風險這套傳統打法,更需要靠AI大模型風控、智能信貸引擎等核心技術。換句話來說,歐洲市場是一個可以檢驗中國金融科技公司科技含量到底有多高的地方。奇富科技想走得更遠,最終成長為“一家受全球尊重的金融科技企業”,最終要在歐洲市場取得建樹,這將是一個漫長的處理程序。不過對於大部分中國金融科技公司、網際網路平台來說,海外金融業務盈利的核心仍然是靠財務手段,如何把貸款放出去的錢(資產)通過ABS之類的結構化手段再融回來,同時控制資金成本和流動性風險。 (巨潮WAVE)
2026,中國國產AI晶片,跨越天塹:從“推理”走向“訓練”
過去幾年,中國國產AI晶片始終活躍在一個相對安全、也相對邊緣的位置——推理側。在政務、金融、安防、工業質檢等場景中,中國國產晶片憑藉成本可控、供應穩定等優勢,逐步完成了從“可用”到“好用”的過程。但在AI訓練這一算力金字塔頂端,中國國產晶片長期缺席,或者只能參與邊緣性任務。這一格局,正在發生改變。2026年,將成為“中國國產AI晶片訓練落地元年”。但這一步,絕非簡單升級,而是一場系統工程等級的跨越。01 訓練與推理有何區別?在大眾語境中,“AI算力”往往被視作一個整體,但在工程實踐中,訓練與推理幾乎是兩種完全不同的工作負載。訓練的核心是讓AI模型“學會知識”,具體而言,是通過海量帶標籤樣本,經過特定演算法迭代,求解出機器學習模型最優參數的過程。這一階段需要海量資料的持續投喂、數十億至兆級參數的動態更新,以及數周乃至數月的不間斷運行,追求的是吞吐量與規模化運算效率。這意味著訓練晶片不僅要具備強悍的算力,還需配備極高的視訊記憶體頻寬、高效的分佈式通訊能力,以及萬卡級叢集規模下的穩定性。訓練過程可進一步細分為預訓練與後訓練兩個階段:預訓練依託海量無標註或弱標註資料,通過大規模反覆迭代計算最佳化模型參數,最小化預測誤差,最終形成具備通用生成能力的基礎大模型,對晶片的計算性能、互連通訊能力及通用性提出極高要求;後訓練又稱微調、最佳化階段,基於通用大模型,借助標註專業資料集對輸出層參數進行量化、剪枝等最佳化,通過強化學習強化特定領域適配能力,雖計算量不及預訓練,但隨著行業化需求提升,其在全流程中的權重正持續增加。與訓練形成鮮明對比,推理是模型“運用知識”的階段,需要依託已訓練完成的模型參數,對新輸入資料進行預測、生成響應,是AI技術落地解決實際問題的核心環節。相較於訓練,推理更側重速度、能效比、響應延遲與成本控制,其部署場景覆蓋雲服務、邊緣節點乃至終端裝置,對穩定性與能效比的訴求遠高於峰值算力。這種特性使得推理過程無需經歷漫長的迭代訓練,可直接呼叫成熟模型完成分析預測,在海量資料處理與即時響應場景中具備顯著高效性。大模型的發展遵循Scaling Law的經驗公式,即模型參數量、資料量以及計算資源的增長能得到更好的模型智能。在通用基礎大模型發展階段,大模型向更大參數方向不斷演化,預訓練階段的資料量呈指數級增長,GPU作為算力硬體的核心在預訓練市場經歷了爆發增長。根據中國信通院《中國算力發展白皮書(2023)》,GPT-3的模型參數約為1,746億個,而GPT-4的模型參數約達到了約1.8兆個,訓練算力需求上升了68倍。此外,xAI發佈的Grok-3使用20萬卡訓練晶片叢集帶來模型性能提升亦證明了預訓練Scaling Law將長期成為人工智慧發展的基石。更值得關注的是,訓練算力存在“邊際效益遞減”的天花板。對於稠密架構大模型,當參數從千億級向兆級跨越時,算力需求呈超線性增長,指數級攀升的成本壓力,讓從頭訓練大模型成為少數科技巨頭的“專屬遊戲”。憑藉高算力門檻,國際領先廠商輝達的產品一直以來都是人工智慧訓練端的首選,佔據了AI訓練市場90%以上份額,其Blackwell架構支援1.8兆參數模型訓練,且NVLink 6技術實現72卡叢集無縫互聯。而推理端(尤其是邊緣端、終端推理)對晶片性能要求較訓練端低,因此推理晶片市場百花齊放,各類晶片均佔有一席之地。由於中國AI晶片市場起步較晚,中國國產廠商通常從門檻相對較低的推理端切入市場,目前已取得階段性成果;而訓練端的中國國產化率仍相對較低。在海外高性能晶片出口管制不斷升級的背景下,擁有高性能計算能力、產品可有效應用於訓練端的中國國產廠商將充分受益。02 中國國產算力走向訓練,難在那裡?從“能推理”到“能訓練”,表面看是性能維度的小幅提升,實則是跨越全技術堆疊的深度重構,核心面臨技術突破與商業閉環兩大挑戰,考驗的是企業的綜合攻堅能力。技術層面,核心矛盾已從單一晶片的紙面參數競爭,轉向萬卡級叢集的互聯瓶頸突破,最終目標是提升模型算力利用率(MFU)。硬體端,單卡性能的提升已無法滿足大規模訓練需求,分佈式平行成為必由之路——Scale Up通過增加單伺服器GPU數量建構超節點,Scale Out通過擴容伺服器規模搭建分佈式叢集,Google、Meta、微軟等海外大廠已率先佈局,如GoogleA3虛擬機器搭載2.6萬塊輝達H100 GPU,同時基於自研晶片搭建8960卡TPUv5p叢集,通過規模化叢集優勢最佳化服務架構。而中國國產廠商雖在單卡性能上實現突破,但在叢集協同能力上仍與海外存在差距。軟體端,單純相容CUDA生態的路徑在高強度訓練場景中已暴露瓶頸,建構原生、高效的自主軟體生態成為必然選擇。隨著大模型參數量與演算法複雜度提升,訓練任務對計算系統的通訊能力要求持續升級,千卡、萬卡級智算叢集成為標配,而中國具備完整訓練晶片部署能力的廠商寥寥無幾。其中,華為海思憑藉長期技術積澱、全端協同優勢及豐富的人才與客戶儲備,在中國國產訓練晶片領域建立了顯著領先地位。技術之外,市場用最樸素的邏輯投票:穩定性與總擁有成本(TCO),這兩大維度構成了對中國國產訓練晶片的核心拷問:其一為應用穩定性,長達數月的訓練任務對晶片平均無故障時間(MTBF)提出極致要求,一次意外中斷就可能造成數百萬沉沒成本。這也是當前智算中心普遍採用“異構部署”策略的核心原因——通過輝達晶片保障核心基座模型的穩定運行,同時用中國國產晶片在垂類模型微調、推理等場景中迭代最佳化、積累信任,推動中國國產算力從“敢用”向“願用”跨越,而實戰落地是唯一的破局路徑。其二為產業體系升維。客戶最終採購的並非PetaFLOPS這類冰冷的性能參數,而是穩定高效的AI生產力。這要求中國國產廠商完成從“單一晶片供應商”到“全端算力解決方案服務商”的轉型,具備從供電、液冷等基礎設施到軟體調優、維運支援的全鏈條服務能力,交付一套高性能、高可靠的“算力動力總成”。03 中國國產AI晶片從推理走向訓練中國國產晶片在訓練場景的落地,並非一蹴而就的爆發,而是政策驅動與技術迭代共同作用的結果,早在去年就已顯現端倪。2025年8月21日,DeepSeek曾表示,新版本採用了一項針對中國國產晶片而設計的技術,能夠實現性能最佳化,並加快處理速度。政策層面的支撐更為明確:2025年5月,美國BIS發佈《關於可能適用於先進計算晶片及其他用於訓練AI模型商品的管制的政策聲明》《關於通用禁令10(GP10)對中華人民共和國(PRC)先進計算晶片適用的指南》《關於防止先進計算晶片轉移的行業指南》,從AI晶片的使用範圍、供應鏈制裁等角度進一步加強了對先進AI晶片和相關技術的出口管制,將出口管制風險進一步延伸至產業鏈的各個參與方。地緣政治倒逼相關中國客戶使用中國國產GPU產品,在一定程度上幫助中國國產GPU廠商與中國客戶和供應商建立密切聯絡,進而快速實現技術和產品迭代升級。而且近期,工信部聯合7部門出台《“人工智慧+製造”專項行動實施意見》明確提出,支援突破高端訓練晶片、端側推理晶片、人工智慧伺服器、高速互聯、智算雲作業系統等關鍵技術。多重因素疊加下,2026年成為中國國產AI晶片訓練落地的關鍵元年。今年以來,一批基於中國國產晶片訓練的AI大模型密集落地,標誌著中國國產算力在訓練場景的實戰能力得到驗證。2026年1月14日,智譜聯合華為開源新一代圖像生成模型GLM-Image,開源後24小時內登頂全球AI開源社區Hugging Face Trending榜單榜首。該模型基於華為昇騰Atlas 800T A2裝置與昇思MindSpore AI框架,完成從資料處理到模型訓練的全流程閉環,是首個依託中國國產晶片實現全程訓練的SOTA(當前最高水平)多模態模型,首次讓中國國產晶片訓練的模型站上國際頂端舞台,印證了中國AI模型端到端自主研發能力的突破,引發全球AI圈、產業界與資本市場的廣泛關注。1月13日,摩爾線程與北京智源人工智慧研究院達成突破,依託MTT S5000千卡智算叢集與FlagOS-Robo框架,成功完成智源自研具身大腦模型RoboBrain 2.5的全流程訓練。這一成果首次驗證了中國國產算力叢集在具身智能大模型訓練中的可用性與高效性,標誌著中國國產AI基礎設施已具備應對複雜多模態任務的能力。此外,摩爾線程還與小馬智行正式宣佈達成戰略合作。雙方將聚焦L4級自動駕駛技術落地與規模化應用,圍繞小馬智行技術核心——世界模型及虛擬司機系統的訓練與最佳化展開深度協同,共同探索“AI演算法+AI算力”深度融合的合作新範式,以安全可靠的AI算力,賦能自動駕駛技術迭代和商業落地。雙方將基於摩爾線程MTT S5000訓推一體智算卡及誇娥智算叢集,共同推進小馬智行世界模型及車端模型訓練的適配與驗證。中國電信近期開放原始碼的千億級星辰大模型,實現了中國國產AI全端生態的關鍵突破。此次發佈的TeleChat3系列包含兩大核心模型——混合專家架構的TeleChat3-105B-A4.7B-Thinking與稠密架構的TeleChat3-36B-Thinking,其訓練全程依託上海臨港中國國產萬卡算力池完成,累計消耗15兆tokens訓練資料,成為中國國產AI發展史上的里程碑事件。技術層面,該系列模型實現從硬體到軟體的全鏈路中國國產化適配,深度整合華為昇騰生態,包括Atlas800T A2訓練伺服器的硬體支援、昇思MindSpore框架的開發環境,以及完整的中國國產AI算力基礎設施支撐。客觀來看,輝達A100/H100/H800系列GPU仍是全球超大規模前沿模型(如DeepSeek-V3)訓練的首選,但中國國產算力平台已逐步實現突破,可穩定支撐數十億至千億參數級模型的全流程訓練任務。此前主流大模型高度依賴海外GPU的格局正在改變,供應鏈安全風險得到有效緩解,中國國產AI晶片正從推理側的“單點突破”,邁向訓練側的“體系化崛起”。 (半導體產業縱橫)
智譜GLM-5技術全公開!完全適配華為等中國國產晶片,美國網友酸了
GLM-5是怎麼煉成的?現在,它背後的論文終於完全公開了。論文的名字也很直接:告別Vibe Coding,邁入智能體工程(Agentic Engineering)。也正如我們之前實測的那般,它可以自己連續跑程式碼超過24小時、700次工具呼叫、800次上下文切換,從零直接手搓一個Game Boy Advance(GBA)模擬器。一言蔽之,GLM-5把開源AI拽進了長任務時代。外國網友直呼“GLM-5是最好的開源模型”:並且還認為“極大拉小了和Claude Opus 4.6之間的距離”除此之外,資本市場的表現也是可以從側面印證一家大模型公司的實力。畢竟春節期間,智譜股價飆升的程度,毋庸置疑,大家有目共睹。現如今,這份長達40頁的論文,徹底揭開了它背後的一切技術秘密。亮點如下:架構方面:在上一代經過驗證的ARC(智能體、推理與程式設計)能力和MoE之上,引入DeepSeek同款稀疏注意力(DSA);成本大幅打下來了的同時,長上下文能力卻一點沒丟。後訓練方面:全新建構的非同步強化學習基礎設施,把生成和訓練解耦,加上獨創的非同步智能體RL演算法,讓效率大幅提升。晶片適配方面:GLM-5完成了與華為昇騰、摩爾線程、海光、寒武紀、崑崙芯、沐曦以及燧原等國產晶片的全端適配。這也讓不少網友在看完論文之後直呼:在成本效率方面,美國的AI趕不上中國。接下來,就讓我們一起深入扒一扒這篇讓外國網友羨慕的技術論文。GLM-5的三大關鍵技術在深入技術之前,我們需要先理解GLM-5在技術發展當下所面臨的難題,即大模型需要真正開始干複雜的難活兒了。因為在GLM-4.5時代,智譜已經證明了將ARC能力融合進單一MoE架構是完全可行的。但當模型真正投入到複雜的軟體工程、長周期多輪對話的真實業務中時,算力成本和真實環境適應性成為了老大難的問題。△GLM-5 的整體訓練流程GLM-5要解決的就是這些瓶頸。因此,它在核心技術方面祭出了三把板斧。第一板斧:引入DeepSeek同款稀疏注意力機制在Transformer架構中,傳統的密集注意力計算複雜度是隨著上下文長度呈平方級(O(N2))增長的。當上下文窗口擴展至200K甚至更長時,計算成本將變得極其昂貴,這成為限制智能體處理複雜任務的主要瓶頸。GLM-5的解法是引入DSA這個動態稀疏注意力機制,它的核心理念是用動態的細粒度選擇機制替換傳統的密集注意力。與固定的滑動窗口模式不同,DSA 會“審視”內容,動態決定那些Token是重要的。然而,直接訓練一個基於DSA的超大模型無異於走鋼絲,很容易因為稀疏化帶來的資訊丟失而導致梯度爆炸或模型崩塌。因此,GLM-5團隊採取了一種極其巧妙的繼續預訓練策略,主要包含兩個步驟:稠密預熱(Dense Warm-up):模型並非一上來就搞稀疏。在預訓練的初始階段,模型依然使用相對稠密的注意力機制(類似於MLA的變體),讓模型先看全所有的資訊,建立起全域的、穩固的語義表徵能力。這就好比一個人在學習速讀之前,必須先紮紮實實地精讀。平滑過渡與稀疏訓練(Sparse Training):當模型具備了良好的基礎後,開始逐步提高稀疏度。DSA的核心邏輯是:在計算當前Token的注意力時,不再關注歷史上的所有Token,而是通過一個動態的路由機制(Routing Mechanism),只挑選出與之最相關的Top-K個Token進行計算。△MLA與DSA訓練的SFT損失曲線對比根據技術報告披露的資料,這一板斧砍下去,效果是立竿見影的:KV Cache開銷驟降75%:這意味著同樣的顯示卡,現在可以支撐4倍以上的並行請求,或者處理長達4倍的上下文。推理速度提升3倍:注意力計算的FLOPS被大幅削減,首字響應時間(TTFT)和每秒生成Token數(TPS)都達到了行業頂尖水平。長文字能力幾乎無損:這是最令人不可思議的一點。在著名的大海撈針以及諸如RULER等長文字複雜推理評測中,引入DSA的GLM-5與全稠密模型相比,性能下降微乎其微(小於0.5%)。第二板斧:非同步多工強化學習如果說DSA解決的是推理成本問題,那麼GLM-5的第二板斧,解決的就是訓練效率問題,尤其是決定模型最終智商的後訓練階段。當前業界主流的強化學習對齊演算法依然是PPO(近端策略最佳化)。標準的PPO是一個高度同步的過程,涉及到四個模型,即Actor生成模型、Reference參考模型、Critic評論家模型、Reward獎勵模型在多台GPU上的協同。這種“走一步,停一下”的同步機制,導致整個叢集的GPU利用率經常徘徊在20%-30%左右,大部分算力都浪費在等待網路通訊和處理程序同步上了。為了打破這個瓶頸,智譜基於4.5時代的Slime框架,為GLM-5從底層重寫了一套非同步強化學習基礎設施(Asynchronous RL Infrastructure)。它的核心設計是將訓練引擎和推理引擎解耦到不同的GPU裝置上。推理引擎持續生成軌跡,一旦生成數量達到預定閾值,這批資料就被傳送到訓練引擎更新模型。為減少策略滯後並保持訓練的近似同策略性,推理引擎的模型權重會定期與訓練側同步。這種完全非同步的訓練範式,通過減少Agent rollout期間的“氣泡”時間,顯著提升了GPU利用率和訓練效率。但要支撐這種非同步架構,還有幾個關鍵技術難題需要解決:第一,Token-in-Token-out(TITO)代替Text-in-Text-out。在RL rollout設定中,TITO意味著訓練流程直接消費推理引擎生成的精確tokenization和解碼token流來建構學習軌跡。相比之下,Text-in-Text-out將rollout引擎視為返回最終文字的黑箱,訓練器需要重新tokenization重建軌跡。這個看似微小的選擇實際上影響巨大:重新tokenization可能在token邊界、空白處理、截斷或特殊token放置上引入細微不匹配,從而影響對單個token採樣機率的估計。GLM-5實現了一個TITO閘道器,攔截rollout任務的所有生成請求並記錄每個軌跡的tokenID和中繼資料,將繁瑣的tokenID處理從下游Agent rollout邏輯中隔離出來。第二,直接雙側重要性採樣解決離策略偏差。在非同步設定中,rollout引擎可能在單個軌跡生成過程中經歷多次更新,這使得追蹤歷史訓練側模型的精確行為機率在計算上不可行——維護多個歷史模型權重顯然不現實。研究團隊採用簡化方案:將rollout期間生成的對數機率作為直接行為代理,通過計算重要性採樣比rt(θ) = πθ/πrollout,丟棄傳統的πθ_old,消除單獨舊策略推理的計算開銷。同時採用雙側校準token級掩碼策略,將信任域限制在[1-ε_l, 1+ε_h],對落在此區間之外的token完全螢幕蔽梯度計算。第三,DP感知路由加速長上下文推理。在多輪Agent工作負載中,來自相同rollout的順序請求共享相同前綴。研究團隊提出通過一致性雜湊將每個rollout ID對應到固定資料平行(DP)rank,並結合雜湊空間上的輕量級動態負載重新平衡。這避免了冗餘的預填充計算,無需跨DP rank的KV同步,隨著rollout長度增加,預填充成本仍與增量token成正比。這套非同步RL基礎設施支撐了GLM-5在多領域的混合RL訓練:數學、科學、程式碼和工具整合推理(TIR)。資料來源包括開源資料集、與外部標註供應商共同建構的STEM問題、Codeforces及TACO等代表性資料集。訓練中為各領域分配專屬裁判模型或評估系統生成二元結果獎勵,四個領域的整體混合大致保持平衡。第三板斧:投喂真實世界資料傳統SFT資料往往依賴標準答案,但真實世界是複雜多變的。為了讓模型具備真正的工程能力,GLM-5的第三板斧,就是建構大量可驗證的真實世界環境資料。整個SFT語料庫涵蓋三大類別:通用對話、推理、程式設計與Agent。值得注意的是,GLM-5在SFT階段將最大上下文長度擴展至202752個token,並支援三種不同的思考特徵:交錯思考:模型在每次響應和工具呼叫前進行思考,提升指令遵循和生成質量;保留思考:在Coding Agent場景中,模型自動在多輪對話中保留所有思考塊,復用已有推理而非重新推導,減少資訊丟失和不一致性;輪級思考:支援在會話中對每輪推理進行精細控制,輕量級請求可停用思考降低延遲,複雜任務可啟用思考提升精度和穩定性。為了支援Agent RL,研究團隊還建構了大規模的、可驗證的可執行環境:軟體工程環境:基於真實世界的Issue-PR對,採用RepoLaunch框架自動分析倉庫安裝和依賴設定,建構可執行環境並生成測試命令。最終跨數千個倉庫、涵蓋9種程式語言(Python、Java、Go、C、C++、JavaScript、TypeScript、PHP、Ruby),建構了超過10000個可驗證環境。終端環境:採用三階段Agent資料合成流程——任務草稿生成、具體任務實現、迭代任務最佳化。從種子任務出發,利用LLM生成可驗證的終端任務草稿,由建構Agent在Harbor格式中實例化為具體任務(結構化任務描述、Docker化執行環境、測試指令碼),再由精煉Agent迭代最佳化。整體流程產出數千個多樣化終端環境,Docker建構精度超過90%。搜尋任務:建構Web知識圖譜,以低至中頻實體為種子節點擴展多跳鄰域,將每個子圖轉化為隱式編碼多實體關係鏈的問題。再經過三階段過濾(刪除無工具推理模型能答對的、過濾早期Agent能幾步解決的、雙向驗證拒絕非唯一答案或不一致證據的),最終獲得高品質、高難度的多跳問答對。PPT生成:採用多層級獎勵機制——第1級關注靜態標記屬性(定位、間距、顏色、字型等),第2級評估執行階段渲染屬性(元素寬高、邊界框等),第3級引入視覺感知特徵(異常空白模式等)。最終生成的頁面中嚴格符合16:9寬高比的比例從40%提升至92%,頁面溢出顯著減少。大模型的測試也更難了技術的進步最終需要經受評測的檢驗。GLM-5的論文不僅展示了其在傳統榜單上的成績,更揭示了一個趨勢:大模型的測試正在變得更難、更貼近真實。在Humanity’s Last Exam(HLE)、SWE-bench Verified、BrowseComp等關鍵榜單上,資料顯示,GLM-5在SWE-bench Verified上得分77.8%,在開源模型中達到SOTA,優於Gemini 3 Pro,並與Claude Opus 4.5相當。在HLE(含工具)測試中,GLM-5得分50.4,優於Claude Opus 4.5和Gemini 3 Pro。在Artificial Analysis Intelligence Index v4.0中,GLM-5得到50分,成為新的開源SOTA模型,這是開放權重模型首次在該指數中達到50分。然而,智譜團隊認為,傳統的SWE-bench已經不夠看了。因為它是一個靜態、公開且發佈超過2年的測試集,模型可能存在記憶效應。為此,GLM-5團隊推出了CC-Bench-V2,一個完全自動化的、模擬真實軟體開發的評測集,涵蓋前端、後端和長程任務。在前端評估中,團隊引入了Agent-as-a-Judge技術,通過GUI Agent模擬使用者互動,驗證生成項目的功能正確性。結果顯示,GLM-5的建構成功率(BSR)達到98.0%,在檢查項成功率(CSR)上與Claude Opus 4.5具備競爭力。在後端評估中,GLM-5在真實開放原始碼專案上的Pass@1達到25.8%,與Claude Opus 4.5相當,顯著領先於GLM-4.7。更值得一提的是長程任務評估。CC-Bench-V2通過挖掘已合併的Pull Request建構多步鏈式任務,評估模型在增量開發中的上下文跟蹤與規劃能力。雖然GLM-5在此項上較GLM-4.7有顯著提升,但與Claude Opus 4.5仍有差距。團隊坦言,這是因為鏈式任務中錯誤會累積放大,縮小這一差距需要在長上下文一致性和長程自糾錯方面繼續突破。這一系列評測結果釋放了兩個明確訊號:第一,GLM-5 是開源界的第一個“全站工程師”,讓 AI 能自主執行超長、超複雜的任務;第二,通過單體MoE架構統一Agent、推理與程式碼能力的可行性得到了驗證,同時證明了RL在複雜程式碼生成中的巨大潛力。這對閉源模型而言,無疑是一種巨大的衝擊。One More Thing在論文的最後,團隊透露了一個有趣的彩蛋——Pony Alpha實驗。在論文公開前,GLM-5曾以Pony Alpha為代號,匿名發佈在OpenRouter平台上。隱去品牌資訊後,模型憑藉卓越的性能在社區引發轟動。初步統計顯示,25%的使用者推測它是Claude Sonnet 5,20%認為是Grok的新版本,僅有部分使用者猜中了GLM-5。這次匿名測試打破了先入為主的地緣偏見,讓社區的認可回歸到了“好用與否”這一最純粹的技術本質。最終確認Pony Alpha真身即是GLM-5,這對團隊是一次巨大的鼓舞,也有力回擊了長期以來外界對中國本土模型技術水準的質疑。不僅如此,這次GLM-5論文公佈之後,在海外已經有不少人當教學來學習了。若是你也對此感興趣,論文放下面了,一起學習一下吧~GLM-5論文地址:https://arxiv.org/abs/2602.15763 (量子位)