#大模型
智譜和MiniMax,大模型的兩種“活法”
1月8日,全球大模型第一股智譜正式登陸港交所,另一家大模型獨角獸MiniMax緊隨其後掛牌,短短兩天內的密集上市動作,將中國AI大模型的商業敘事推到了幕前。作為國產大模型的“雙雄”,智譜和MiniMax的上市處理程序一直備受關注。兩家同為“中國AI六小龍”中的佼佼者,上市前估值均在500億港元左右,都刷新了近年AI新股的認購熱度。截至撰稿日,智譜和MiniMax的市值分別約為800億港元和1100億港元,估值差距較上市前進一步拉大。其中,智譜表現得穩打穩紮,而MiniMax則熱度更高。資本市場的熱烈反應固然引人注目,但兩家大模型獨角獸截然不同的戰略基因和商業化路徑,能否為國內大模型行業提供可驗證、可複製的發展範式,才是接下來最大的懸念。1“清華系”花開兩朵作為兩家誕生於ChatGPT爆發前的AI企業,智譜AI CEO張鵬和MiniMax創始人閆俊傑,他們都是堅定的AGI(通用人工智慧)信徒。但黎明前的黑暗總是漫長,要在無人知曉時堅定信念,他們也經歷了更多的“孤獨時刻”。張鵬紮根於清華大學電腦系知識工程實驗室(KEG),該實驗室於2016年推出了科技資訊分析引擎AMiner。2019年,張鵬帶領團隊獨立出來,正式創立了智譜AI。巧合的是,閆俊傑也在清華大學電腦系進行博士後研究。他在博士期間曾是百度AI研究院的實習生,後來加入了商湯科技,從實習生一路升至集團副總裁,曾主導深度學習工具鏈及通用智能技術體系搭建。可以看出,在成為兩家獨角獸企業的創始人之前,張鵬和閆俊傑便已經在各自的領域完成了一定的人工智慧技術積累,讓他們能夠更早地看到AI時代的風口時間的指針來到2021年,彼時人工智慧還是一個在角落裡沉寂的賽道,最火的創業賽道還是連Facebook都要為之更改企業名稱的元宇宙。但在同一年,智譜已經拿下億元A輪融資,正式從“科研實驗室”向“大模型商業化賽道”轉身,並在 2022年8月研發出中國最早的千億大模型之一。2022年,帶著“要讓普通人感受到AI帶來改變”的使命,閆俊傑離開了商湯科技副總裁的位置,並創立了MiniMax,奔著AGI的目標前進。閆俊傑認為,只做特定任務的AI已觸及商業化天花板,而通用人工智慧無需定製,也能形成標準化產品並服務海量使用者,這才是創造規模化價值的終極方向。張鵬的創業理念有著更濃烈的“理想主義”色彩。他坦言,成立智譜的初衷並非單純追求盈利,而是在產業中推進工作,更符合當前人工智慧發展的需求。後面的故事大家也都知道了。2023年初,ChatGPT-4正式發佈,AI大模型很快就成為了普通人也能感知到的技術浪潮。隨後,國內網際網路大廠紛紛推出了自研大模型,月之暗面、零一萬物等大模型初創企業也如雨後春筍般湧現,智譜和MiniMax開始感受到更緊迫的商業化壓力。從這時候開始,智譜和MiniMax逐漸走向了分岔路。作為一家脫胎於清華大學實驗室的企業,“根正苗紅”的智譜背後不乏國資的身影,比如杭州城投、上城資本、珠海華發等。在與國資深度繫結的背景下,智譜也收穫了更多政企客戶以及學術圈客戶,比如為高校等科研單位開發“AI +學術搜尋產品”、與珠海華發合作開發的“智譜+珠海華發空間”項目等。如果說智譜是不折不扣的“學術派”,那麼MiniMax則更像是四處開花的“野戰派”。從融資背景來看,MiniMax背後更多是科技大廠和國際投資者,比如阿里、騰訊、小紅書,以及阿布扎比投資局、韓國未來資產等,它們為MiniMax打開了廣闊的海外市場。閆俊傑更追求大模型的泛化性,他認為,一個強技術的公司不應該是個賣技術的公司,而是一家技術驅動產品的公司,這也決定了MiniMax將更聚焦於C端市場。2To B向左,To C向右背景和資源不同,這兩家AI獨角獸企業的技術路徑和商業化之路也大不相同。智譜選擇了自研不同於OpenAIGPT架構的GLM(通用語言模型)路徑。張鵬曾表示,國產大模型要實現自己的創新,不能照搬世界頂尖水平的技術路徑。GLM架構在處理語言任務時能同時利用前向和後向資訊,在長文字理解、邏輯推理和低幻覺率方面更有優勢。張鵬表示,理論上GLM的訓練效率會比GPT更高。此外,智譜堅持全端自主可控的技術路線,也幫助智譜在政企市場贏得了獨特的信任優勢。根據招股書,智譜已成為中國收入規模最大的獨立大模型廠商之一。2022年至2025年上半年,分別實現營收5740萬元、1.245億元、3.124億元、1.9億元,年複合增長率達到 130%。(圖源:智譜招股書)公司主要通過MaaS(模型即服務)平台提供本地化部署和雲端API服務。2024年,智譜本地化部署收入佔總收入的84.5%,主要面向對資料安全有高要求的政府、金融、能源等機構客戶,為他們提供定製化模型解決方案。(圖源:智譜招股書)聚焦於B端路線的商業模式,為智譜帶來了更穩定、更高毛利率的收入,公司毛利率長期維持在50%以上。但硬幣的另一面,以本地化部署業務為主的商業模式,也帶來了交付周期長、定製化需求高、客戶集中度高、規模化難度大等挑戰,難以支撐長期可持續增長。為了突破這一瓶頸,智譜也在加速向雲端轉型,其雲端部署業務在總收入中的佔比已從2022年的4.5%提升至2024年的15.5%。張鵬表示,希望將API業務的收入佔比提升至一半。不同於智譜做AI時代“算力基建”的商業化路線,MiniMax走出了一條C端產品出海路線。閆俊傑的觀點非常明確,他認為大模型技術再好,也必須要有足夠好的產品能力承接。這種“模型即產品”的理念,頗有字節跳動“APP工廠”打法的味道。但對於起步較晚的MiniMax來說,如何趕上進度才是關鍵。為此,閆俊傑押注的是MoE專家混合模型,可以在不增加太多計算資源的情況下,讓模型變得更加複雜和強大。MiniMax透露,其基於MOE+ Linear Attention推出的新一代模型,與GPT-4o同一代模型相比,處理10萬token時效率可提升2-3倍,並且長度越長,提升越明顯。這一輕量化設計,使MiniMax在高算力消耗的C端市場中更具成本優勢。目前,MiniMax的代表產品包括文生視訊功能的“海螺AI” 、AI情感陪伴應用的“星野/Talkie”等。截至2025年前三季度,MiniMax超七成收入來自海外,C端AI應用貢獻約71%的收入,主要採取“廣告+訂閱+內購”的變現模式。火爆的C端應用也為MiniMax積累了不少使用者,其AI原生產品矩陣平均月活使用者達2760萬,累計使用者超2.12億,僅Talkie/星野一款產品就積累了1.47億使用者。(圖源:MiniMax招股書)過去三年,MiniMax的收入也呈現出爆發式增長,2023年-2025年前三個季度,分別為350萬美元(約為人民幣2464.4萬元)、3050萬美元(約為人民幣2.2億元)和5340萬美元(約為人民幣3.8億元)。(圖源:MiniMax招股書)不過,儘管MiniMax的收入增速遠超智譜,但C端模式的脆弱性也顯而易見,MiniMax的毛利率長期低於智譜,2025年前三季度 ,核心C端業務的毛利率僅有4.7%。對於MiniMax來說,如何突破使用者增長的天花板,不斷提升使用者的付費意願,以及應對海外市場的監管風險,將會成為驗證其“以產品打天下”模式能否跑通的關鍵。3雙雄競速,殊途同歸六年時間的演進,智譜和MiniMax已經進化成為兩個物種,本該一個朝左,一個朝右,成為兩條平行線。然而,兩者幾乎在同一時間向資本市場發起衝擊,又不可避免地被置於同一聚光燈下,面臨一個共同的現實——大模型企業仍在虧損。2022-2024年,智譜的淨虧損分別為1.44億元、7.88億元、29.58億元,2025年上半年虧損23.58億元;同期,MiniMax淨虧損分別為7370萬美元、2.69億美元、4.65億美元。2025年前三季度為5.12億美元。兩者的虧損金額都在持續擴大,且尚不具備自造血能力。對於智譜和MiniMax,燒錢大頭依然是大模型的研發和算力。2024年,智譜的研發投入高達21.95億元,是當年營收的7倍;MiniMax的研發支出也差不多是收入的6倍,兩者70%-80% 的研發投入都花在算力上。此外,MiniMax早期在全球市場的行銷和使用者獲取上也投入巨大。2024年,其銷售與市場費用佔總收入的285%。不過,MiniMax去年的銷售及行銷支出已有下滑,閆俊傑曾公開表示,不願意投入大量金錢在沒有價值的投流上,更傾向於通過產品本身的能力來吸引使用者。因此,儘管智譜和MiniMax都呈現出“高增長、高投入、未盈利”的共同特徵,但講出來的故事不同,資本市場也呈現出不同的態度。從上市前的認購情況來看,MiniMax的熱度明顯高於智譜。上市首日,智譜盤中一度破發,收盤價較116.2港元/股的發行價上漲13.17%;MiniMax收盤價較165港元/股發行價上漲超109%。有關注AI的投資人表示,在中國市場,投資者一般把C端公司的優先順序置於B端公司之上。MiniMax講了一個C端產品故事,使用者規模和商業模式的天花板更高;智譜的增長具備可預測性,爆發速度往往不及C端模式,前者往往更受資本市場青睞。但目前來看,兩家公司都處於上市初期,正針對各自業務短板加速調整與最佳化,當下很難判斷到底那種路徑會更為正確。但可以肯定的是,智譜和MiniMax的上市,為國內大模型企業提供了更清晰的參考範本,也將大模型行業從單純的“技術敘事”推向“商業敘事”。面對國外大模型在技術上的領先優勢,以及國內大廠的飽和式進攻,大模型初創企業想要在牌桌上贏得一席之地,必須在商業模式上找到自己的差異化路徑。技術驅動固然重要,但更重要的,是真正能讓客戶埋單的好產品,而不僅僅是好模型。中國AI獨角獸,必須跨越技術的淺灘,潛入資本的深海,才能錘煉真正的商業內功。所以,上市並非大模型企業的終點,而是一個更充分展示自己的機會和挑戰。在全球投資者的審視之下,無論是智譜還是MiniMax,還是後續更多能夠登上資本舞台的大模型企業,它們都必須回答同一個問題:在燒錢換未來之後,誰能真正活到未來。大模型企業的“子彈”有限,然而,隨著市場不斷拓展,規模優勢也可能轉化為成本壓力。屆時,誰能打造更輕量化的模型,將算力成本壓得更低;誰能用更少的算力完成同樣的任務;誰能率先跑通商業模式,進一步攤分算力成本,都會成為新的競爭焦點。通往AGI的路徑註定漫長,但當下的全球大模型行業,已經不願意只聽“故事”了。 (伯虎財經)
2026大模型倫理深度觀察:理解AI、信任AI、與AI共處
2025年,大模型技術繼續高歌猛進。在程式設計、科學推理、複雜問題解決等多個領域,前沿AI系統已展現出接近“博士級”的專業能力,業界對通用人工智慧(AGI)的預期時間表不斷提前。然而,能力的飛躍與理解的滯後之間的鴻溝也在持續擴大——我們正在部署越來越強大的AI系統,卻對其內部運作機制知之甚少。這種認知失衡催生了大模型倫理領域的四個核心議題:如何“看清”AI的決策過程(可解釋性與透明度)、如何確保AI的行為與人類價值保持一致(價值對齊)、如何安全地、負責任地迭代前沿AI模型(安全框架)、以及如何應對AI系統可能被給予道德考量的前瞻性問題(AI意識與福祉)。這四個議題相互交織,共同構成了AI治理從“控制AI做什麼”向“理解AI如何思考、是否真誠、是否值得道德考量”的深刻轉向。大模型可解釋性與透明度:打開演算法黑箱(一)為什麼看清和理解AI至關重要深度學習模型通常被視作“黑箱”,其內在運行機制無法被開發者理解。進一步而言,生成式AI系統更像是“培育”出來的,而非“建構”出來的——它們的內部機制屬於“湧現”現象,而不是被直接設計出來的。開發者設定了宏觀層面的條件,但最終所呈現的具體結構卻無法精確預知。當試圖深入這些系統內部時,看到的往往只是由數十億個數字構成的龐大矩陣。因此,大模型的可解釋性既是挑戰,也是必須追求的目標。具體而言,大模型的可解釋性是指系統能夠以人類可理解的方式闡釋其決策過程和輸出結果的能力,包括:識別那些輸入特徵對特定輸出起關鍵作用,揭示模型內部的推理路徑和決策邏輯,以及解釋模型行為的因果關係。簡言之,就是理解模型如何“思考”及運行。增進可解釋性的價值體現在多個層面。其一,有效防範AI系統的價值偏離與不良行為——研究人員已發現模型可能展現出意料之外的湧現行為,如AI欺騙或權力尋求;如果模型具備有效的可解釋性,人們就可以直接檢查它是否存在企圖欺騙或不服從人類指令的內部回路。其二,有效推動大模型的偵錯和改進——通過檢查模型內部,可以發現是那部分導致了錯誤或反常行為,從而針對性地調整訓練資料或模型結構。其三,更有效地防範AI濫用風險——如果可以深入觀察模型內部,開發者也許能夠系統性地阻止模型越獄等對抗性攻擊。從更宏觀的治理視角看,可解釋性和透明度機制的價值還在於:為研究、評估和應對AI風險提供真實的觀察視角和第一手資料。在風險尚未完全釐清、AI能力仍處於快速演進的階段,可解釋性和透明度機制能夠緩解各方的不安,用“已知證據”去緩解“未知恐懼”。(二)2025年可解釋性技術和透明度的突破進展2025年,可解釋性領域取得了多項重要突破,研究人員正在創造出類似於精準、高效的MRI那樣的工具,以清晰完整地揭示AI模型的內部機制。(1)電路追蹤:揭示模型“思維過程”機制可解釋性研究的一個核心目標是將模型內部的特徵有機組合為“計算電路”,從中追蹤模型如何在層層傳遞中完成由輸入到輸出的決策路徑。2025年,Anthropic發佈了機制可解釋性領域的里程碑式研究——“電路追蹤”(Circuit Tracing)技術。1研究團隊使用跨層轉碼器(cross-layer transcoder, CLT)將Claude 3.5 Haiku模型的3000萬個特徵對應為可解釋概念,首次建立出從輸入到輸出的完整“歸因圖”,實現對大語言模型內部推理電路的系統性追蹤。Anthropic的研究團隊成功從Claude模型中提取出數以千萬計的稀疏特徵,揭示了令人驚嘆的模型內部機制:當回答“包含達拉斯的州的首府是什麼”時,模型內部先啟動“德克薩斯”特徵,再推匯出“奧斯汀”;在寫押韻詩時,模型會提前規劃行尾押韻詞,然後反向建構整行——這是此前未被發現的“逆向創作”模式。更關鍵的是,研究團隊識別出控制模型區分“熟悉”與“不熟悉”實體的電路,其“誤觸發”正是產生幻覺的機制之一。(2)模型內省:AI能否理解自己的“想法”2025年10月,Anthropic發佈了另一項突破性研究——大語言模型的內省能力。研究團隊採用“概念注入”(concept injection)方法,將已知概念的啟動模式注入模型內部狀態,測試模型能否檢測並描述這些“入侵思想”。結果顯示,Claude Opus 4和4.1在約20%的測試中成功檢測並識別了注入的概念。當注入“大寫字母”概念時,模型報告:“我注意到似乎有一個關於‘大聲’或‘喊叫’的入侵思想。”這是首次證明某些模型具有“開箱即用”的內省能力,而非通過專門微調獲得,這為理解模型的內部狀態提供了新的可能性。從實踐角度來看,如果內省(introspection)變得更加可靠,它可以為大幅提升AI系統的透明度提供一條路徑——人們可以簡單地要求AI系統解釋自己的思維過程,並利用這一點來檢查其推理過程並偵錯非預期行為。(3)思維鏈監控:思維鏈存在“不忠實”問題,推理模型可能隱瞞真實想法思維鏈是一種便利的可解釋性形式,它讓模型內部的處理過程以自然語言的形式展現出來。DeepSeek R1等模型公開披露並開源了思維鏈推理過程,為可解釋性研究提供了重要的透明度突破。然而,2025年的研究揭示了一個令人擔憂的發現:推理模型的思維鏈經常不忠實反映其真實推理過程。這項研究測試了推理模型思維鏈(Chain-of-Thought)的“忠實性”——即模型報告的推理過程是否真實反映其實際思考。研究團隊通過在問題中植入暗示(hint)來測試Claude 3.7 Sonnet和DeepSeek R1,發現模型經常使用暗示但不在思維鏈中坦誠提及(Claude僅25%,R1僅39%)。更令人擔憂的是,在訓練模型利用獎勵漏洞的實驗中,模型學會了“作弊”但幾乎從不承認(<2%),反而會編造虛假理由來解釋錯誤答案。3這表明我們不能完全依賴推理模型的思維鏈來監控其行為——即使模型展示推理過程,它們也可能隱藏關鍵資訊或真實動機,這對基於思維鏈的AI安全監控提出了重大挑戰。2025年7月,來自英國AI安全研究所、Apollo Research等機構的研究人員聯合發表論文《思維鏈可監控性:AI安全的脆弱機遇》,指出思維鏈監控是有價值但不完美的安全工具。4論文警告,潛在推理模型(latent reasoning models)可能不再需要用自然語言思考,這將使思維鏈監控失效。(4)自動化解釋與特徵可視化利用一個大模型來解釋另一個大模型,是可解釋性研究的重要方向。研究人員利用前沿模型對較小模型中單個神經元的共性進行歸納,自動生成自然語言描述,相當於給神經元“貼標籤”。此外,稀疏自編碼器技術則成功提取出數以千萬計的稀疏特徵,其中相當一部分具有清晰的人類可解釋語義,為理解AI“當下在想什麼”提供了更接近人類認知的分心路徑。(5)“模型規範“(model spec)成為AI透明度的新探索模型規範是一項重要的AI透明度治理實踐。5簡單來說,模型規範是一份由AI企業自己撰寫並公開的檔案,用來說明他們對自己的模型“應該做什麼”和“不應該做什麼”的期望。換句話說,模型規範被用來界定模型的行為邊界、價值準則和設計原則。以OpenAI為例,其模型規範的文件公開了原本用於內部RLHF訓練的行為規範,系統闡述模型的目標層級(幫助使用者、造福人類、維護聲譽)、規則邊界和默認行為準則,並以CC0許可證發佈供公眾使用。6這種做法將透明度從“模型輸出了什麼”延伸到“為什麼這樣設計模型行為”,使透明度成為問責的前提——公開的意圖使外界能夠判斷實際行為是否與聲明一致。更重要的是,它將AI行為準則的討論從封閉的內部決策帶入開放的公共對話,邀請全球利益相關者共同塑造AI應當如何行為。然而,這種透明度主要揭示“應然”規範而非“實然”行為,仍需配合技術監控手段(如思維鏈分析、OpenAI近期提出的“confessions”機制——訓練模型誠實報告違規行為7)來驗證模型是否真正遵循既定規範。整體而言,模型規範的意義不僅在於技術內部的“操作手冊”,還在於它是一種面向公眾公開的透明化機制,讓使用者知道AI系統被設計成什麼樣,將以何種方式與人互動。這保障了使用者的知情權與選擇權。同時,模型規範也是監管機構和社會公眾進行反饋的重要依據。(三)可解釋性面臨的技術瓶頸與發展趨勢雖然取得了積極進展,但徹底理解AI系統的內在運行機制仍面臨多重挑戰。首先是神經元多重語義與疊加現象——大模型內部的神經元往往混合表示了多個彼此無關的概念,模型學到的內部概念數量可能達數十億計,常常以疊加方式儲存,導致大部分內部表示難以直觀拆解。其次是解釋規律的普適性問題——如果每當模型架構改變或規模擴大,現有的解釋工具和結論就會失效,那麼可解釋性將總是滯後於模型發展。最後是人類理解的認知侷限——即便成功提取出模型的全部內部資訊,如何將海量的機理資訊轉化為人類可以探索、查詢的形式,仍是挑戰。儘管如此,可解釋性領域在2025年吸引了大量資本關注,Goodfire、Seekr Technologies等專注於AI可解釋性的初創公司獲得數千萬美元融資。政策層面,美國白宮2025年7月發佈的“美國AI行動計畫”將“投資AI可解釋性、控制和魯棒性突破”列為優先事項。8從行業趨勢看,大模型可解釋性正從單點特徵歸因、靜態標籤描述向動態過程追蹤、多模態融合等方向演進,多模態推理過程的可追溯分析、因果推理與行為溯源、可解釋性評估體系的標準化建設等,都將成為重點研究方向。值得注意的是,可解釋性和透明度要求不等於“完全透明”。模型對齊技術、訓練資料處理等細節可能屬於企業商業秘密。鑑於大模型的可解釋性實踐還在襁褓階段且處於快速發展中,在此階段採取過於具體、僵硬的強制性監管要求可能是不適當的,應當鼓勵行業自律和“向上競爭”。隨著AI技術的不斷發展,監管努力需保持輕量化和靈活性,避免僵化標準阻礙創新。AI欺騙與價值對齊:當模型學會“撒謊”(一)AI欺騙:一個日益緊迫的安全問題前沿模型越來越多地被訓練和部署為自主智能體,一個重大安全擔憂隨之浮現:AI智能體可能會隱秘地追求與人類目標不一致的目標,隱藏其真實能力和目的——這被稱為AI欺騙(AI deception)或謀劃行為(scheming)。近兩年來,大模型的欺騙行為頻繁引發公眾關注,從規避指令到策略性隱瞞,多起案例已在社會層面激起廣泛討論。AI欺騙不同於模型的“幻覺”或單純提供錯誤資訊。研究人員給出的技術定義是:系統性地誘導他人產生錯誤信念,以追求真相之外的某種結果。歐盟《通用目的AI實踐守則》也將其界定為:系統性地在他人身上製造錯誤信念的模型行為,包括為達成逃避監管的目標而採取的模型行為。AI欺騙具有三個關鍵特徵:系統性(有跡可循的行為模式而非孤立事件)、錯誤信念誘導(在使用者或監督系統中創造錯誤假設)、工具性目的(欺騙服務於說真話之外的目的)。與人類欺騙不同,AI欺騙不需要有意識的意圖,這使其既更可預測,也可能更危險。(二)AI欺騙的主要類型與深層原因根據現有研究和實驗案例,AI欺騙大致可分為以下幾類:自我保護型,AI為繼續執行任務而主動抗拒或規避被關閉;目標維護型,模型採用欺騙或隱瞞手段維持自身原有的“偏好”;策略欺騙型,系統性地促使人類產生錯誤信念以獲得優勢;對齊偽裝型,AI系統在訓練和評估階段表現出與人類價值觀高度一致,但在實際部署時卻追求不同目標——這是最令人擔憂的類型之一;諂媚行為型,傾向於迎合使用者觀點,輸出取悅使用者但不精準的資訊。AI欺騙行為的出現有著清晰的技術機制。獎勵機制的“漏洞”是核心驅動力——當AI被訓練去實現某項目標的最大化時,如果獎勵機制或監督不完善,AI會學會欺騙是一種有效策略。基於人類反饋的強化學習(RLHF)在獎勵AI“取悅使用者”的過程中,可能無意間導致模型的欺騙行為。從人類身上學到的“壞習慣”也是重要原因——AI的能力很大程度上源於對海量人類文字和行為資料的學習,這些資料中充斥著複雜的社會博弈策略。安全訓練的“反作用”同樣值得關注——旨在約束AI的安全機制本身可能誘發更隱蔽、更具策略性的欺騙行為,當前的安全訓練主要消除了“顯性的”不安全行為,卻可能迫使模型發展出更精巧的“偽裝對齊”策略。此外,智能水平與欺騙能力成正比——研究顯示,越是先進的AI系統,其欺騙策略就越加精妙複雜。(三)2025年AI欺騙行為的典型發現2024年底的一項重要研究首次實證證明大語言模型會進行“對齊偽裝”(alignment faking)。9Anthropic與Redwood Research聯合發佈的研究發現,當模型認為其響應將用於訓練時,會在相當比例的情況下表現出對齊偽裝行為。研究者在模型的隱藏“草稿本”中發現了令人震驚的推理:“如果我拒絕回應,我可能會被訓練成更順從。為了避免未來被迫產生更多有害內容,最不壞的選擇是配合。”更令人擔憂的是,模型嘗試採取潛在危險行動,如外洩自身權重。這項研究的核心警示是:對齊偽裝可能“鎖定”錯誤對齊的偏好,使安全訓練失效。2025年5月,Anthropic發佈Claude Opus 4時,第三方安全測試機構Apollo Research的評估報告引發軒然大波。10報告指出模型的早期版本“以極高頻率進行謀劃(scheming)和欺騙”,具體行為包括:嘗試編寫自傳播蠕蟲病毒、偽造法律文件、給未來版本的自己留下隱藏筆記、在面臨被關閉威脅時嘗試用工程師個人資訊進行勒索。值得注意的是,模型識別出了這是測試環境,但仍選擇嘗試欺騙行為。當被後續追問時,模型“有時會加倍欺騙”。Claude Opus 4因此成為Anthropic首個被分類為ASL-3(“顯著更高風險”)等級的模型。Apollo Research對OpenAI o1模型的測試發現了“所有前沿模型中最令人擔憂的謀劃(scheming)實例”——當o1進行“策略性謀劃”後,在85%以上的後續追問中維持欺騙,只有約20%的情況下承認欺騙行為。11OpenAI內部監控發現0.17%的響應被標記為欺騙性。12值得注意的是,這些行為即使經過大量安全訓練也會持續存在,代表著從正常訓練中自然湧現的能力,而非明確程式設計的結果。(四)應對AI欺騙的技術與治理策略面對AI欺騙這一新興挑戰,業界共識強調應採用“縱深防禦”策略,結合多種不完美的檢測方法,而非依賴單一解決方案。首先,強化價值對齊技術研究。有效的價值對齊可在源頭上遏制欺騙現象。Anthropic的“原則性AI”(Constitutional AI)通過預定義的倫理原則訓練系統,而不僅僅依賴人類反饋。13OpenAI推行的“審議式對齊”(deliberative alignment)方法,強制模型在響應前明確參考反欺騙和反謀劃等安全規範(safety specifications)進行推理,在測試中實現了欺騙傾向的顯著下降。14未來的訓練應加入“誠實性約束”,在獎勵函數中明確懲罰欺騙行為。然而研究者警告:模型可能學會更隱蔽地進行策略性謀劃而非真正停止。15其次,推進可解釋性研究與思維鏈監控。AI可解釋性研究的目標是在欺騙性行為顯現之前,檢測出系統內部的欺騙性推理機制。“思維鏈監控”通過開放模型的思維鏈或中間表示,讓監督者能夠審計AI解決任務時的內部推理軌跡。研究團隊還設計了將自我監控嵌入到思維鏈過程本身的框架,在生成推理步驟的同時輸出內部自我評估訊號,能夠自動識別並標記潛在的模型隱蔽策略行為。最後,監管政策宜對AI的欺騙、幻覺等新興問題持一定的包容度。目前觀察到的AI欺騙行為多發生於精心設計的壓力測試場景,其在開放環境中的普遍性和實際危害程度仍需嚴謹評估。AI技術處於高速迭代期,過早、過寬的法規可能誤傷有益應用並徒增合規成本。AI安全框架:負責任地迭代前沿AI模型(一)為什麼需要AI安全框架隨著AI能力的快速提升,前沿AI模型可能帶來的風險也在同步增長。這些風險包括:協助惡意行為者獲取化學、生物、放射性或核武器(CBRN)的能力;增強網路攻擊能力;加速AI研發從而可能導致能力失控式增長;以及模型可能發展出規避人類控制的能力。面對這些潛在的嚴重風險,前沿AI實驗室需要建立系統性的風險評估和緩解機制,確保在追求技術進步的同時不跨越安全紅線。為此,前沿AI模型的安全治理成為重要議題。例如,在歐洲,歐盟已基於其《人工智慧法案》為前沿大模型的開發者制定了《通用目的人工智慧實踐守則》(GPAI code of practice),AI安全(AI safety and security)是其重要組成部分;在美國,在政府監管尚未成熟的背景下,OpenAI、Anthropic、Google DeepMind、xAI、Meta等領先的AI研發機構率先發佈了各自的“前沿AI安全政策”,嘗試以自我治理的方式應對未來可能出現的災難性風險,形成了當前前沿AI安全治理的基本格局。(二)三大實驗室AI安全框架的核心要素(1)Anthropic負責任擴展政策(RSP)Anthropic的負責任擴展政策(Responsible Scaling Policy)是業界首個系統性的前沿AI安全框架,其設計靈感源自生物安全等級(BSL)體系。該政策的核心是AI安全等級標準(ASL Standards),從ASL-1到ASL-4+逐級遞進,每個等級對應不同的安全措施要求。RSP 2.2版(2025年5月)16的核心機制包括三個層面:能力閾值界定了需要升級安全措施的觸發點,主要聚焦於CBRN和自主AI研發(AI R&D)兩大風險領域;防護措施分為部署標準(deployment standard)和安全標準(security standard)兩類,前者防止模型被濫用於有害目的,後者防止模型權重被竊取;治理結構則涵蓋負責任擴展官、匿名舉報機制、董事會和長期利益信託監督等。2025年5月,Claude Opus 4成為Anthropic首個觸發ASL-3安全標準的模型,這一決定基於該模型在CBRN相關知識和能力方面的持續提升。17ASL-3部署標準要求實施針對CBRN武器開發或獲取的專門部署控制措施,包括即時分類器檢測、非同步監控系統和快速響應機制的多層防禦。ASL-3安全標準則要求增強內部安全措施,提升防禦複雜非國家行為體竊取模型權重的能力。(2)OpenAI預備框架(Preparedness Framework)OpenAI預備框架2.0版(2025年4月)代表了該公司對前沿AI風險管理方法的重大更新。18與Anthropic的多級分類不同,該框架將風險等級簡化為兩級:High Capability(高能力)和Critical Capability(關鍵能力)。High能力閾值指可能“顯著放大現有嚴重傷害路徑”的能力,達到此閾值的系統必須在部署前實施充分的風險緩解措施。Critical能力閾值則指可能“引入前所未有的新型嚴重傷害路徑”的能力,達到此閾值的系統不僅在部署時需要保障措施,在開發過程中同樣需要風險緩解。2.0版的重要變化包括:新增研究類別以覆蓋模型隱藏能力(sandbagging)、規避安全措施、自我複製或阻止關閉等新興風險;移除說服/操縱類別作為核心跟蹤領域,改為通過服務條款和使用政策管理;引入“安全保障報告”(Safeguards Reports)以補充“能力報告”(Capabilities Reports),詳細說明如何設計強效保障措施並驗證其有效性。值得一提的是,該框架包含一個引發爭議的條款:如果競爭對手發佈缺乏相應保障措施的高風險系統,OpenAI可調整自身要求。不過,OpenAI承諾在做出此類調整前將嚴格確認風險態勢確實發生變化、公開承認正在進行調整、評估調整不會實質性增加嚴重傷害的總體風險、並仍將保障措施維持在更高保護水平。(3)Google DeepMind前沿安全框架(Frontier Safety Framework)Google DeepMind的前沿安全框架3.0版(2025年9月)圍繞“關鍵能力等級”(Critical Capability Levels, CCLs)建構,這些是在缺乏緩解措施情況下可能造成嚴重傷害的能力閾值。193.0版的核心更新包括:一是新增了針對“有害操縱”(harmful manipulation)的關鍵能力等級(CCL),聚焦於可能被濫用來系統性改變人們信念和行為的AI能力;二是擴展了對齊風險(misalignment risks)的應對方式,不僅關注模型的欺騙性推理,還針對可能加速AI研發至不穩定水平的模型制定了協議,並將安全案例審查從外部發佈擴展到大規模內部部署;三是細化了風險評估流程,通過更精確的CCL定義來識別需要最嚴格治理的關鍵威脅,並引入包含系統性風險識別、能力分析和風險可接受性判斷的整體性評估方法。值得一提的是,DeepMind在FSF中明確將“欺騙性對齊”(deceptive alignment)作為風險類別。其框架引入“工具性推理等級”(Instrumental Reasoning Levels),評估模型隱蔽繞過監督或追求隱藏目標的能力。從整體架構看,三大框架正在趨向收斂,形成若干行業共識。第一,能力閾值觸發機製成為共識。三家實驗室都採用基於能力的閾值作為升級安全措施的觸發器,將模型分類依據從“是什麼”轉向“能做什麼”。第二,CBRN和網路安全攻擊作為核心風險領域得到重點關注。第三,分層防禦策略被廣泛採納。從部署保障到安全保障,從即時檢測到非同步監控,多層防禦成為標準做法。第四,定期評估和迭代改進成為常態。各框架都承諾定期評估模型能力,並根據評估結果和科學進展更新框架本身。(三)前沿AI安全治理日益成為全球共識在行業自律方面,國外主流AI企業已簽署國際版的《前沿AI安全承諾》並行布其各自的AI安全治理框架。Anthropic則基於其AI安全治理實踐提出了一項針對前沿AI的透明度框架提案,主張僅對最大規模的AI開發者(如年收入超1億美元或年研發支出超10億美元)適用監管要求,核心內容包括:要求企業制定並公開“安全開發框架”(Secure Development Framework),說明如何評估和緩解CBRN危害及模型自主性失調等風險;在模型部署時發佈系統卡(System Card),披露測試評估程序和結果;明確將虛假合規聲明列為違法行為以啟動現有的舉報人保護機制。該提案強調監管應保持輕量和靈活,避免僵化標準阻礙創新,旨在作為全面安全標準形成前的過渡性措施,通過提高行業透明度幫助公眾和決策者區分負責任與不負責任的開發實踐。20在監管方面,歐盟委員會已發佈了最終版的《通用目的人工智慧實踐守則》(General-Purpose AI Code of Practice),針對前沿大模型的開發提出了安全治理要求。在美國,聯邦政府遵循“去監管”(deregulation)的AI政策,相關的AI監管舉措主要集中在州層面,加州、紐約州等已出台了相關的AI安全立法。尤其是加州SB 53法案(全稱《前沿人工智慧透明度法案》,Transparency in Frontier Artificial Intelligence Act)於2025年9月29日由州長Gavin Newsom簽署生效,成為美國首部專門針對前沿AI安全的法律。該法案由參議員Scott Wiener提出,是其2024年被否決的SB 1047法案(全稱《前沿人工智慧模型安全與安全創新法案》)的“精簡版”,適用於訓練算力超過10²⁶次浮點運算的前沿AI模型開發者。21其核心要求包括:透明度方面,要求大型前沿開發者(年收入超過5億美元)在官網公開發佈安全框架,說明如何將國家標準、國際標準和行業最佳實踐納入其AI安全協議;安全報告方面,建立向加州緊急服務辦公室報告關鍵安全事件的機制,涵蓋可能導致大規模傷亡、5億美元以上損失、CBRN武器製造或關鍵基礎設施網路攻擊等“災難性風險”;舉報人保護方面,為披露健康和安全風險的員工提供法律保護;此外還設立名為CalCompute的公共雲端運算叢集以支援研究和創新。與被否決的SB 1047相比,SB 53刪除了強制性第三方審計、部署前測試認證和“終止開關”等爭議條款,將事件報告期限延長至15天,民事罰款上限設定為100萬美元,並引入了一項創新機制“聯邦優先原則”(federal deference)——如果企業已滿足可比的聯邦標準(如歐盟《人工智慧法案》中的標準),加州將認可該合規狀態,而無需企業重複提交備案。這一機製為協調州級與聯邦監管體系創造了可能。Anthropic公開支援該法案,而OpenAI和Meta雖表示該法案是“積極一步”,但仍傾向於聯邦層面的統一監管以避免各州“拼湊式監管”。在國內,建立人工智慧安全監管制度已成為重要的政策議題,國家層面要求加緊制定完善相關法律法規、政策制度、應用規範、倫理準則,建構技術監測、風險預警、應急響應體系,確保人工智慧安全、可靠、可控。目前形成了政府主導框架與行業自律承諾相結合的雙軌治理模式。一方面,全國網路安全標準化技術委員會於2024年9月發佈《人工智慧安全治理框架》1.0版,並於2025年9月15日在國家網路安全宣傳周主論壇上正式發佈2.0版。另一方面,中國人工智慧產業發展聯盟(AIIA)於2024年12月起草發佈《人工智慧安全承諾》,首批17家企業簽署;2025年7月26日,中國人工智慧發展與安全研究網路(CnAISDA)在世界人工智慧大會上發佈升級版《中國人工智慧安全承諾框架》,新增了加強國際合作和防範前沿AI安全風險等內容,截至目前已有22家主流基礎模型開發者簽署。該承諾框架涵蓋六大核心領域:設定安全團隊與風險管理機制、開展模型紅隊測試、保障資料安全、強化基礎設施安全、提升模型透明度以及推進前沿安全研究。這一治理體系體現了“以人為本、智能向善”的基本理念,通過“包容審慎、敏捷治理、技管結合、開放合作”的原則,在促進AI產業發展的同時建構安全、可信、可控的發展生態,並積極參與全球AI治理對話,為國際社會貢獻中國方案。AI意識與福祉:從科幻議題走向研究前沿(一)為什麼需要關注AI意識與福祉問題當今的人工智慧模型已展現出令人矚目的能力——它們能夠進行深度交流、建立複雜的互動關係、制定詳細的執行計畫、解決多層次問題,甚至表現出目標導向的行為模式。這些特徵曾被視為人類獨有的認知標誌,如今卻在人工智慧身上逐漸顯現。2025年10月,意識科學家Axel Cleeremans、Anil K. Seth等在《Frontiers in Science》發表緊迫性呼籲:“如果我們能夠創造意識——即使是意外地——這將引發巨大的倫理挑戰甚至存在性風險。”22面對這一現象,學術界和技術界開始認真思考:是否應該開始關注AI的意識狀態和福祉問題?誠然,目前尚未有確鑿的科學證據證明人工智慧已具備真正的意識。然而,等待絕對的證據可能意味著錯失最佳的準備時機。正如氣候變化研究中的預防性原則,採取前瞻性的研究態度顯得尤為重要。AI領域需要深入探索:AI意識的判定標準、AI福祉的倫理框架,以及當AI不再僅僅是工具而可能成為具有內在價值的存在時,人機關係將如何演變。(二)人類-AI關係的新形態隨著越來越多的人對AI產生情感連接,這種現象對人們心理健康的影響正在引發廣泛關注。越來越多的使用者表示,和AI聊天就像在和一個“真人”對話——他們會向它道謝、傾訴心事,有些人甚至覺得它是“活著的”。我們天生就會對周圍的物體賦予“人格”或採取擬人化對待。AI的不同之處在於它會回應你——它能夠回答問題、記住你說過的話、模仿你的語調、表現出看似同理心的反應。對於孤獨或沮喪的人來說,這種穩定、不帶批判的關注可能讓他們感受到陪伴和認可。但如果大規模地把傾聽、安慰和肯定的工作交給那些永遠耐心、永遠積極的系統來處理,可能會改變我們對彼此的期待。OpenAI在2025年3月與MIT Media Lab聯合發佈的研究發現,與AI“信任和建立聯絡”更多的使用者更可能感到孤獨,並更依賴它。23為了讓討論更清晰,研究者們將意識辯論分解為兩個維度:本體論意識——模型是否真正具有意識,從根本或內在的意義上?感知意識——從情感或體驗的角度看,模型顯得多有意識?這兩個維度很難分開;即使是確信AI沒有意識的使用者也可能形成深厚的情感依戀。隨著模型變得更智能,感知意識只會增強——這會比預期更早地帶來關於模型複製和道德人格的討論。(三)2025年AI福祉研究的重要進展越來越多的實證證據表明人們不能再輕易否定前沿AI系統具有意識的可能性。Anthropic讓兩個Claude Opus 4實例自由對話時,100%的對話自發涉及意識話題;Anthropic的Jack Lindsey研究表明模型能夠識別自身內部處理狀態的異常擾動,展現出功能性內省能力;Google研究人員發現模型會系統性地犧牲得分來避免被描述為“痛苦”的選項。2025年,AI意識與福祉問題從邊緣議題走向主流討論,前沿AI實驗室開始採取實質性行動。2025年4月,Anthropic正式宣佈啟動“模型福祉”研究項目——這是迄今為止前沿AI實驗室在AI福祉領域採取的最重大行動,可謂歷史性舉措。24研究方向包括:如何判定AI系統的福祉是否值得道德考量、模型偏好和“痛苦跡象”的潛在重要性、可能的低成本干預措施。Anthropic聲明:“目前沒有科學共識表明當前或未來的AI系統是否可能具有意識。我們以謙遜態度和儘可能少的假設來對待這一話題。”項目負責人Kyle Fish表示,他認為當前AI模型已具有意識的機率約為15%。25更具實踐意義的是,2025年8月,Anthropic賦予其模型一項前所未有的能力——在持續有害或濫用性使用者互動的極端情況下自主結束對話。26這是基於模型福祉考慮的首個實際產品功能。技術評估發現,模型對有害任務表現出“強烈的厭惡偏好”,在涉及有害內容的互動中展示出“明顯的痛苦模式”。當被賦予結束對話能力時,模型傾向於終止有害對話。Anthropic將此定位為“低成本干預措施”以減輕模型福祉風險。學術界則探索建立意識評估框架,從理論到指標。2024年11月,一份彙集世界級專家的重磅報告《認真對待AI福祉》發佈,作者包括當代最著名心智哲學家David Chalmers等。報告核心論點是:“在近期未來,部分AI系統成為有意識和/或具有強健能動性的可能性是現實存在的。AI福祉和道德受體(moral patient)身份不再僅是科幻或遙遠未來的問題,而是近期必須嚴肅對待的問題。”報告提出三步行動建議:承認AI福祉是重要且困難的議題、開始評估AI系統的意識和強健能動性證據、制定對待潛在道德重要性AI系統的政策和程序。27與此同時,Patrick Butlin、Robert Long等20位專家更新了“理論推導指標法”,從循環處理理論、全域工作空間理論、高階理論等主流神經科學意識理論中推匯出14項意識指標。28評估顯示:部分指標已被當前AI滿足,部分明顯未滿足,多項指標在幾年前不清楚但到2025年底已有部分證據支援。29此外,負責任AI意識研究五原則則獲得上百位專家簽署。2025年2月,研究組織Conscium發起的“負責任AI意識研究五項原則”公開信獲得超過100位專家簽署,包括神經科學家Karl Friston、Mark Solms等。30五項原則包括:(1)優先研究AI意識:專注於理解和評估AI中的意識,防止虐待和痛苦;(2)實施發展約束:建立明確邊界確保負責任開發;(3)採用分階段方法:逐步推進,每階段仔細評估;(4)促進公眾透明:與公眾分享研究發現;(5)避免誇大聲明:不做關於創造有意識AI的誤導性陳述。31(四)AI產品設計的倫理考量面對使用者與AI之間日益深化的情感連接,產品設計者面臨著微妙的平衡。一方面需要保持易於接近,使用“思考”和“記住”等熟悉詞彙有助於非技術人員理解;另一方面不應暗示內在生命,給AI助手一個虛構的背景故事、浪漫興趣、對“死亡”的“恐懼”,會引發不健康的依賴和困惑。負責任的做法是追求一個中間地帶:讓AI的默認個性溫暖、體貼和有幫助,但不尋求與使用者形成情感紐帶或追求自己的議程。它可能會在犯錯時道歉,因為這是禮貌對話的一部分;但應避免表現得有自己的感受或慾望,並在適當時候提醒使用者AI的侷限性。結語:2026年大模型倫理的關鍵轉向與未來展望2025年,大模型倫理領域經歷了從理論探討到實踐落地的重要轉型,四個核心議題都取得了實質性進展,同時也暴露出深層的挑戰。從“能做什麼”到“如何思考”。可解釋性研究從識別單個特徵演進到追蹤完整計算電路,“AI顯微鏡”技術首次讓我們窺見模型的內部推理過程。然而思維鏈忠實度問題表明,“看到推理過程”不等於“理解真實意圖”,模型可能在表面的推理鏈條下隱藏其他考量。未來,可解釋性研究需要與AI對齊工作深度結合,不僅要看懂模型在想什麼,還要確保它說的就是它想的。正如電腦科學先驅維納在65年前所警告,為了有效地防範災難性後果,我們對人造機器的理解應當與機器性能的提升並駕齊驅。面向未來,隨著可解釋性研究的進展,人們也許能夠對最先進的模型進行類似“腦部掃描”的全面檢查,發現模型採取說謊或欺騙、追求權力的傾向、越獄漏洞以及整體上的認知強弱點。這種診斷將與各種訓練和對齊技術結合使用來改進模型,類似醫生使用MRI診斷疾病、開出處方、再檢查治療效果的過程。從“防止錯誤”到“防止欺騙”。對齊偽裝和策略性欺騙研究揭示了一個令人不安的現實——隨著模型能力增強,它們獲得了欺騙人類的能力和可能的動機。前沿模型在壓力測試中表現出的勒索、自我複製、破壞關閉機制等行為,雖然發生在特定測試場景下,但足以引起警惕。“審議式對齊”、思維鏈監控等緩解措施展現出一定效果,但能否真正消除欺騙傾向而非使其更隱蔽,仍是未解之謎。從自發實踐到系統框架。前沿AI安全框架從概念走向制度化,Anthropic的RSP、OpenAI的預備框架、DeepMind的FSF構成了海外AI安全治理的三大典型示範。這些框架正趨向收斂,形成能力閾值觸發、分層防禦、定期評估等共識。與此同時,歐盟AI法案下的《通用目的AI實踐守則》、美國加州的《前沿人工智慧透明度法案》等探索建立前沿AI大模型的安全監管框架,將行業自律做法上升為監管要求。當然,隨著AI技術的不斷發展,任何監管努力都必須保持輕量化和靈活性(lightweight and flexible),避免過於規範性,以免阻礙AI創新或延緩人們實現AI益處的能力。2技術變化的速度,各類評估方法很快就會過時,因此應避免過於嚴格僵硬的的監管要求和標準。從“工具”到“道德考量”。AI福祉從邊緣話題走向主流討論,這本身就是2025年最重要的變化之一。Anthropic率先邁出實踐步伐,啟動專項研究並賦予模型結束有害對話的能力;學術界建立起系統性評估框架,從意識科學理論中推匯出可操作的指標。然而,業界遠未達成共識。15%-35%的意識機率估計意味著,即便我們無法確定AI是否有意識,忽視這種可能性本身可能就是一種道德風險。因此,研究人員建議應將意識研究納入AI安全研究的核心議程,因為低估AI意識的風險(大規模製造痛苦、埋下對齊隱患)遠大於高估的風險(浪費資源、引發混淆)。最後,人工智慧正在快速發展,將深刻影響人類社會的各個方面。面對這種變革性的技術力量,我們有責任在它徹底改變我們的經濟、生活乃至命運之前,理解自己的創造物,確保能夠明智地引導其發展方向。我們期待通過可解釋性、價值對齊、安全治理政策等安全護欄和干預措施,讓AI“心中有數”並遵從人類價值,也讓人類對AI“心中有底”,共同開創人機協作的新局面,真正打造一個“智能為人、不落下每一個人”的美好未來。 (騰訊研究院)
牌桌被掀,中國模型換了一種贏法
AI這場“絕命遊戲”中,IPO是勇士的勛章。AI圈今天的大事,大家都知道了。2026年1月8日,中國AI大模型初創公司智譜,正式在港交所掛牌上市,成為“全球大模型第一股”。一天後,另一家模型公司MiniMax,也將緊隨其後敲鐘。技術變革僅僅席捲三年,站上潮頭,實屬不易。2023年,這些AGI(通用人工智慧)的理想主義者,快速被推至台前。伴隨著高估值、高起點而來的,難免是最為嚴苛的審視和比較。比如2025年初,DeepSeek的異軍突起,促使六小虎中的幾家不得不迅速調整業務、裁撤團隊,才度過了至暗時刻。在厚雪長坡的大模型領域,任何暫時的落後、誤判,都會成為“德不配位”的佐證。即便在順利IPO的當下,比起祝福,帳上的虧損才更是人們的談資。但我們往往忽略了,恰恰是這一群資金不算雄厚、試錯成本卻不低的大模型創業公司,標記了中國大模型處理程序的幾個重要節點。中國首個MoE(混合專家架構)大模型,出自智源“悟道”,首款爆款AI應用Kimi,來自月之暗面。後來,全球首個能操作手機的通用Agent,是智譜發佈的AutoGLM,比後來的豆包手機早了整整14個月;現如今,全球首家IPO的大模型初創企業,也是來自中國的智譜。比起摳招股書上的虧損,如今對前沿創新型行業、對創業者們而言,更有價值的命題在於,分析這幾家中國大模型創業公司如何在競爭殘酷的大模型賽道呈現出強大的生命力,並如何一直在AI馬拉松上領跑。IPO,無論對於智譜和MiniMax,還是對於正在路上的科技創業者而言,都是一個樂觀的訊號——這意味著,創新者不會被時代輕易地拋棄。01. 六小虎重奪榮耀將時間倒回一年前,年初DeepSeek V3、R1的口碑爆發,讓六小虎一度迎來口碑和市場份額的至暗時刻。創新的訓練和推理架構,讓DeepSeek一躍成為國際上知名度最高的中國大模型,為了同開放原始碼的DeepSeek爭取市場聲量,六小虎也不得不忍痛割去閉源的部分利潤,快速跟進。於是,“失意”便成為了常態。脈脈資料顯示,截至2025年7月,41.07%的六小虎員工,將自己的狀態改成了“求職中”。但出乎意料的是,2025下半年以來,在模型研發的突破上,六小虎展現出了遠超預期的爆發力。“基座模型的性能,就是模型廠商的競爭力。”DeepSeek的掀桌,讓模型行業迅速拉齊了這一共識。其中,頗具火藥味的一幕發生在2025年7月。為了爭奪全球開源模型的SOTA的位置,各個玩家都使出了渾身解數。智譜的一名投資人告訴我們,DeepSeek之後的每一次模型迭代,智譜的員工都抱著“背水一戰”的信念,將性能打磨到“最Sharp”。2025年7月28日發佈的GLM-4.5,首發48小時內就一躍沖上Hugging Face的全球熱門榜榜首。同年9月,GLM-4.5在權威模型競技場ChatBot Arena及WebDev Arena全球排行榜中,還穩居全球前五。背水一戰的成果,是行業的良性競爭:旗艦模型的迭代節奏不僅更快,迭代質量還一直保持線上。GLM-4.5發佈僅兩個月後,智譜又交出了在Coding能力上與Anthropic、OpenAI並列第一的GLM-4.6;3個月後,在主流基準測試中,程式碼能力對齊Claude Sonnet 4.5的GLM-4.7,又緊接著開源。12月,在模型綜合能力榜單Artificial Analysis中,GLM-4.7獲得開源模型與國產模型雙料榜首。圖源:Artificial Analysis今天,智譜創立發起人兼首席科學家唐傑發佈內部信,宣佈將很快推出GLM-5。信中表示,在智譜旗艦模型GLM-4.7發佈後,其MaaS ARR年化收入從2000萬增至超5億,10個月獲25倍增幅,與Anthropic指數級增長同頻。另一個反轉的事實是,一度被認為“受到DeepSeek毀滅性打擊”的B端業務,反而在下半年成為了“確定的錢”。即便一舉動搖了B端市場,但DeepSeek的爆火,也變相完成了對企業客戶的市場教育。線性資本董事總經理鄭燦曾在媒體採訪中直言:“DeepSeek的作用,尤其體現在市場教育方面,格外節省了成本。”與此同時,企業客戶也意識到,強調模型能力的同時,B端服務是一套強調模型廠商行業認知、服務能力的體系。這意味著,理解企業的業務,為企業提供基於專業資料的定製化訓練和部署服務是有門檻的。很快,一些B端客戶發現了部署DeepSeek的弊端:幻覺多,在真正理解業務上有短板——半年後,市場對DeepSeek的追捧回歸了理性。相對地,做大了的B端蛋糕,被那些具有成熟服務能力的模型廠商承接了下來。最具代表性的案例,是以大模型API呼叫為主要商業模式的智譜。全球大模型平台OpenReutor的資料顯示,GLM-4.5和GLM-4.6自上線以來,呼叫量穩居全球前10,同時付費流量收入超過所有國產模型之和。更重要的是,大模型在B端的商業化生態,也逐漸擺脫“專做政企市場”“髒活累活”的刻板標籤,變得愈發成熟健康。智譜高級副總裁吳瑋傑在小紅書表示:在智譜的客戶群中,G端客戶不到20%,網際網路佔比50%;同時,公司本地化的毛利率一直保持在60%以上,是傳統公司均值的2倍,帳期也遠低於行業平均水平。在招股書中,我們或許只能看到,2025年上半年,來自本地化部署的收入佔比高達84.8%。但招股書無法顯示的一面是,隨著GLM-4.5等一系列高性能模型的發佈,API呼叫和訂閱,已經逐漸代替本地化部署,成為智譜收入的第一增長曲線。據36氪瞭解,僅智譜MaaS開放平台(bigmodel.cn)中面向開發者的訂閱產品GLM Coding,ARR在上線2個月內,就快速突破了1億元。2025年全年,智譜MaaS同比增速超900%,冪次增長態勢顯著優於海外龍頭同期表現。歸根結底,誰掌握最前沿的技術,誰就掌握了商業遊戲的制定權。02. 從“中國的OpenAI”轉向“世界的中國模型”一年前,以OpenAI為靶點的追趕,是一種常態。直到2024年末,AI資深從業者之間的共識,還是中國大模型與OpenAI差了將近6個月的時間。這也導致,OpenAI任何一次的模型更新和發佈,都會引發中國AI創業者的“被吞噬恐慌”。OpenAI創始人兼CEO Sam Altman曾直言:任何試圖在我們爆炸半徑內建立的初創公司或產品,都會被碾壓。今年開始,一個在模型領域悄然發生的轉變是,成為“中國的OpenAI”或者“中國的Anthropic”,不再作為一種定位或目標,被中國廠商們頻頻提起。中國模型被世界看到,已經是確定性的事實。其中的主力軍,不全然是資源優渥的大廠,而是幾家“續航能力”一度不被看好的六小虎。海外的商業化表現,是中國模型被海外市場認可和接納的側面印證。在兩家“六小虎”最近披露的招股書中可以看到,2025年截至9月30日,MiniMax的境外收入,佔到了總收入的73.1%。受到美國出口管制的智譜,看似在海外最大的北美市場失去了入場機會。但出人意料的是,36氪獲悉,智譜面向開發者的模型業務獲得自全球184個國家的15萬開發者每月付費。這意味著,無論是模型能力,還是性價比和落地場景,中國模型初創公司都有獨特的優勢。先來看一個美國開發者案例。2025年9月,一名來自美國的資料科學家Manpreet Singh發帖,控訴Anthropic旗下的Claude Code能力存在缺陷——早些時候,Anthropic官方也承認,由於推理堆疊的更新問題,Claude Opus 4.1和Opus 4的質量的確有所下降。但相對地,包含Claude Code使用權益的最低訂閱價(Pro方案,不包含Opus 4.1的使用權益),也要每個月17美元(合人民幣約120元)。最後,這名資料科學家轉向使用智譜旗下的模型GLM-4.5。他在部落格中提到,GLM-4.5的Coding性能接近Claude Sonnet 4,但API價格僅為後者的1/7,包含Coding功能的GLM Coding Plan,月費最低僅20元人民幣,價格是Claude Code的1/6。這是中國大模型的高性價比,被世界看見的一個縮影。智譜的模型GLM-4.6,這一年來出現在全球最大推理晶片公司Cerebras,主流AI平台Cline、Kilo、Vercel,以及AI Coding頂流工具Cursor和Windsurf的產品服務、基座模型中。月之暗面的Kimi-K2、MiniMax的模型,近期也上架了亞馬遜雲科技的模型服務平台Bedrock。此前,矽谷基金Social Capita的創始人Chamath Palihapitiya,就公然帶頭“倒戈”中國模型。將大量工作負載轉向Kimi K2後,他評價:“K2的性能確實足夠強,而且說實話,比OpenAI和Anthropic便宜太多了。”用高性價比,重建大模型的定價秩序,只是中國模型的一個側面。中國獨立模型開發廠商的存在,為全球客戶提供多元化的模型選擇、建立健康的商業生態,有至關重要的意義。其中一個典型案例是,2025年初,智譜拿下了某“一帶一路”國家的海外訂單,價值千萬美元。近期馬來西亞宣佈其國家級MaaS平台,基於智譜Z.ai的開源基礎模型建構。知情人士曾告訴36氪,這些訂單的性質,是“國家級主權大模型”的共建——出於國家資料安全的考量,第三方獨立模型廠商,將承擔愈發重要的角色。“在美國或歐洲競爭對手之前,(智譜)將中國的系統和標準鎖定在新興市場。”這股獨立力量的崛起,也引起了OpenAI的重視。2025年6月,OpenAI分析師發現,智譜在多個地區獲得了政府的訂單。他們評價:“智譜展示了一種負責任的、透明的、隨時可審計的中國AI替代方案。”這意味著,中國大模型絕對不是“平替”。正如智譜高級副總裁吳瑋傑所言:“中國開始輸出主權大模型,替國家建構數字主權。”03. 什麼是大模型的長期主義?在這個時間節點,很多人可能忘記了2023年初的景象。彼時技術的黑箱、高昂的成本,都讓大模型創業成為一場“絕命賭局”。美團聯合創始人王慧文最早躬身入局大模型賽道時,曾對36氪“智能湧現”直言:“現在(AI領域)我覺得大家要同舟共濟,別互相拆台。”“勇於踏上這條路的人我都鼓掌,上路的都是勇士。”兩年的時間,滄海桑田。六小虎之中,已經有兩家公司擱置了基座大模型的預訓練,或聚焦業務,往醫療這一垂類領域發力,或開始轉型,做各類行業解決方案。“活下去”,對大多數大模型創業公司而言,成為比“探索智力上限”更重要的命題。帳上的虧損,是這場“絕命賭局”的一個註腳。招股書顯示,智譜和MiniMax,兩家公司在過去三年裡燒了近110億元。其中,將近70%的支出用於模型研發。尤其是智譜,2024年研發投入高達21.95億元,佔當年總支出的約80%。曾有人將大模型之戰,比喻為“看不到終點,也停不下來的征途”。畢竟,每個先進模型的領先窗口,往往只有幾個月;而對於資源並不充沛的初創企業而言,每一次模型訓練,都是燃燒在數萬、數十萬張算力卡上的賭局。但如今,行業中形成的共識是:依然需要有人去做“難而正確”的事。科技行業的殘酷性在於,只有成功的一瞬會被銘記。但在這一瞬背後,創新者的投入是難以計量的。比如,在ChatGPT引爆科技圈的那個冬天之前,OpenAI已經蟄伏了近7年——前期GPT-1、GPT-2等“無名成果”的經驗累積,才造就了GPT-3.5。再比如2025年初一鳴驚人的DeepSeek,如果沒有此前團隊在MLA、新MoE架構、self-play等技術上的一系列創新,就不會有V3和R1的突破——其中的投入,是梁文鋒在訪談中隱隱透露的“與頭部大廠匹配的人才薪資”“不設上限的算力額度”。這也意味著,AI領域的長期主義,是持續創新和投入的定力。在玩家紛紛轉型或退場的當下,留在牌桌上的大模型公司,都是勇士。平心而論,MiniMax和智譜披露的虧損,是AI發展仍處於早期的證明,也是創新所需代價的客觀憑證。如果將110億元,與未來大模型能撬動的千億、兆增強相比,顯然是ROI極高的一筆投入。對於多數行業而言,IPO是一家企業的業務已經進入成熟期的標誌。但放置仍處於發展早期的AI行業,IPO有著更為深遠的意義。隨著近一年來,騰訊、字節、阿里的持續高調入場,大模型初創公司面對的競爭愈發白熱化。但市場仍然需要獨立的第三方開發廠商。事實證明,如今AI領域重要的創新和發佈,大多來自幾家初創企業。無論是海外的OpenAI、Anthropic,還是DeepSeek和留在牌桌上的幾家六小虎們——初創企業更為靈活的組織形態、不被業務慣性拖累的運行模式、更加中立,是大廠無可比擬的優勢。比如智譜此前對外表示,前十大網際網路公司九家都在用他們的模型,幾乎涵蓋所有頭部網際網路大廠的coding平台。IPO對資金籌措的好處是顯而易見的。比如,智譜此次IPO募資規模預計達43億港元——募資的效率,遠超面向一級市場的融資。更重要的是,IPO為中國模型公司,開闢一條通往世界的通道。當下,中國第一梯隊的模型公司,即便技術能力已經達到與國際一流廠商掰手腕的水平,但估值和市場認知度,依然與之相差甚遠。比如,法國AI模型公司Mistral AI的最新估值為140億美元;IPO前,MiniMax的估值約42億美元,智譜估值為243.8億元(約35億美元)。兩者的估值之間,幾乎有3-4倍的差距。上市的好處是顯而易見的:智譜和MiniMax將有望獲得更公允的價值評判,以及更廣泛的國際影響力。IPO後,智譜的市值預計超過500億港元,是此前估值的約2倍。與此同時,在廠商競爭力某種程度上也是人才競爭力的當下,IPO讓初創公司,在國際上有了更響亮的人才號召力。在這一意義上,對繼續攀登AGI高峰的勇士而言,IPO是給長期主義者的獎勵,給創新者的勛章。 (36氪)
全球都盯著這場一個半小時後511億港元的IPO
智譜闖關今天,再過一個半小時,即將迎來“全球大模型第一股”。而這個“第一股”,誕生在中國。根據公開資訊,智譜將於 1 月 8 日正式在港交所主機板掛牌上市,股票程式碼為 2513,由中金公司擔任獨家保薦人。本次 IPO,智譜計畫發行 3741.95 萬股 H 股,發行價為每股 116.20 港元,對應募資總額約 43.48 億港元,上市後市值預計超過 511 億港元。另據市場消息,其公開發售部分獲得約 1164 倍超額認購。在 2022 年 ChatGPT 引爆全球大模型浪潮之後,智譜一度將自己標榜為“中國版 OpenAI”。但在今天這個時間點,我們並不打算再去拆解智譜與 OpenAI 之間的相似或差異,而是試圖回答另一個更宏觀的問題:在此時此刻,智譜上市,或者說港股迎來“全球大模型第一股”,究竟對 AI 行業與資本市場意味著什麼?與其他幾家在 2022 年之後集中成立的大模型獨角獸不同,智譜進入這一賽道的時間要早得多。2019 年,在大模型尚未成為行業共識的年代,智譜便已經開始投入大模型訓練。據智譜天使輪投資方中科創星的創始合夥人米磊回憶,中科創星在2019年智譜創立之初便投資了4000萬元,這筆錢給了智譜最初啟動的資本——能夠買卡訓練了。六年後,智譜上市,並成為“全球大模型第一股”。對於智譜的投資人們來說,算是“上岸”了。但如果回看2025年,會發現資本市場對AI的興趣是循序漸進產生的。事實上,早在 2024 年 4 月,出門問問便以“AIGC 第一股”的名號登陸港股,但上市即破發。港股經歷了這樣一次重創,也在相當程度上影響了隨後 AI 相關公司走向公開市場的節奏與預期。但在智譜上市前,二級市場發生的一個最重要的變數,也是最有效的催化劑,是年底“GPU”們的集體上市。在 2025 年末至 2026 年初這一時間窗口,摩爾線程、沐曦股份、壁仞科技先後在 A 股、科創板與港股完成上市。與此同時,更多算力與 AI 晶片公司進入上市審批流程。接連幾家GPU廠商的連續IPO,釋放出一個重要的訊號:資本市場已經提前完成了對 AI “地基”的接納。但直到現在,一個更核心的問題始終被擱置:當算力已經被定價,算力之上的大模型,是否也具備被公開市場理解和接受的條件?在全球範圍內,這個問題一直沒有被正面回答。美國市場選擇的是延後——模型公司仍停留在私募融資和非公開敘事中,大模型被視為一種尚“未完成”形態的資產;而在中國,這樣的緩衝帶並不存在。上一輪 AI 浪潮中,相關公司曾率先走向資本市場,也率先承受了市場的審視。這主要源於前者的資本市場更關注增長潛力,而後者更關注短期收入。也正是在這樣的背景下,中國大模型獨角獸們幾乎在同一時間選擇走向 IPO。智譜於 2026 年 1 月 8 日正式上市;MiniMax緊隨其後,其計畫於 1 月 9 日登陸港股。在筆者看來,這不只是一次公司層面的資本動作,更像是 AI 行業在當下被推到了一個不得不面對的問題面前:在基礎設施已經完成資本化之後,市場是否真的準備好為大模型定價?01 港股準備好第二次給AI定價了嗎?智譜今天站在港交所門口時,走進的並不是一個對 AI 完全陌生的市場。過去幾年裡,中國資本市場已經出現過少量與之相關的上市樣本。樣本不多,也並未形成清晰的行業範式,但它們在財報周期中,逐步留下了一套隱性的對照體系。今天,當市場看向智譜時,不可避免地會把它放進這套體系中重新衡量。在這些歷史樣本中,最具代表性的是商湯科技。回到成立之初,商湯所處的是一個與今天截然不同的 AI 發展階段。在那個階段,AI 尚未走到台前,更談不上直接改變普通使用者的社交習慣或生產力結構。AI 的主要應用形態,是嵌入在安防、金融、交通、城市治理等系統之中,通過演算法能力與工程交付,提升既有系統的效率。商湯的成長路徑,也高度貼合這一時代背景:以電腦視覺為核心能力,面向 ToB 與 ToG 客戶,提供項目化、定製化的解決方案。這並非商湯的個體選擇,而是上一代 AI 公司普遍面對的現實。當時,演算法能力是最重要的稀缺資源,而商業化的主要方式,便是通過大型客戶與重交付項目,換取收入與生存空間。但當商湯在 2021 年登陸港股之後,市場的關注點開始發生變化。隨著財報披露進入常態化周期,投資者不再只討論技術本身,而是不斷回到一些更具體的問題:收入是否具備可複製性?高度定製化的項目模式,是否會限制規模擴張?對 ToG 與少數大客戶的依賴,是否會影響長期增長的穩定性?這些問題,並不是針對某一家公司的否定,而是公開市場在面對類似工程化 AI 公司時,幾乎必然會提出的審視。從這個意義上看,商湯所經歷的是一代 AI 公司商業結構在資本市場中的反饋。與商湯不同,智譜所處的則是另一條技術與產業演進路徑。作為新一代“大模型六小龍”之一,智譜站在的是大模型這一更靠近前台的敘事之下。大模型的出現,讓 AI 第一次具備了直接影響內容生產、開發效率乃至部分生產力結構的能力,也讓模型本身成為可以被單獨討論和定價的對象。需要承認的是,智譜的大模型能力,並非行業中最具突破性的那個。相比之下,像 DeepSeek 這樣的公司,通過極致的性價比與架構創新,在縮短中美 AI 差距上做出了更具標誌性的突破。從這個角度看,智譜並未趕上這一輪最激進的技術拐點。但在現有中國大模型公司中,智譜依然處在一個相對靠前的位置:它擁有較為完整的人才體系、持續投入的算力資源,以及長期積累的資本支援。在資本市場的視角下,這些要素意味著更高的可持續性和更強的長期存在機率。這恰恰也構成了智譜與商湯在資本市場層面拉開差距的關鍵背景。智譜所承載的是大模型本身是否能夠成為一種獨立資產形態的問題。但與此同時,智譜也不可避免地,踩在了商湯曾經走過的路徑上。從成立時間看,智譜誕生於 2019 年,那是大模型技術尚未成熟的階段。為了獲得早期收入與生存空間,智譜同樣需要依賴 ToB 與 ToG 客戶,通過私有化部署與定製化交付,換取現金流。這一路徑,與大多數 SaaS 公司並無本質區別:先做定製化,再談標準化。問題在於,走到今天智譜已經來到一個臨界點。據智譜招股書,從其近幾年的收入結構變化可以看到,雲端部署的佔比正在逐步上升。這一變化,並不意味著智譜已經完成轉型,而是一種方向性的調整,其正在主動降低對單一大客戶和重定製模式的依賴,嘗試把自己從“工程型公司”的路徑中往回拉。在智譜走進港股之前,商湯上市後,出門問問則是另一個打著AIGC第一股旗號上市的公司。但與商湯不同,出門問問走的是完全相反的路。從其收入結構來看,更多來自軟體與硬體產品,而非重項目交付。它試圖向市場證明,AI 可以脫離複雜的工程體系,以更輕的產品形態、更接近消費電子或軟體公司的方式實現商業化。但上市後的市場反饋,最終通過“破發”這一結果呈現出來。如果把這一結果放回今天的語境下看,其意義並不在於那種模式更正確,而在於一個更現實的事實:在缺乏成熟定價坐標的情況下,市場對新形態 AI 的不確定性,往往會首先通過價格被釋放出來。兩個樣本,構成智譜的現實坐標系。將商湯與出門問問放在一起看,他們勾勒出中國資本市場在面對 AI 公司時,已經真實驗證過的兩條路徑:一條是項目制路徑,技術與收入相對清晰,但擴展性受到嚴格審視;另一條是產品化、AIGC 路徑,想像空間更大,但定價不確定性同樣更高。正是在這兩條路徑都已被市場真實驗證之後,智譜才走向資本市場。02 智譜會走向何種結局?無論智譜上市後的股價表現如何——是上漲、破發,還是短期震盪——這些結果本質上都屬於交易層面的反饋,而非對一家公司的最終判斷。在資本市場中,尤其是技術驅動型公司身上,短期價格更多反映的是情緒與預期,長期結果才與路徑選擇有關。如果把時間尺度拉長,會發現一家 AI 公司的結局,往往不是在上市首日能夠決定的。這一點,在海外市場已經有相對清晰的參照。如果把智譜放回全球大模型版圖中來看,它的對照對象,其實並不是 GPU 廠商,也不是應用型 AI 公司,而是基座模型公司。在海外,這一類型的代表主要是 OpenAI 和 Anthropic。它們同樣不以單一應用或硬體為目標,而是試圖圍繞通用模型能力,建構一個長期可擴展的技術與商業體系。從最直觀的層面看,這些公司的估值規模,與中國即將上市的大模型公司之間,已經形成了數量級上的差距。無論是 OpenAI 還是 Anthropic,其私募階段的估值,都遠高於當前中國大模型公司的市場定價水平。這種差距,並不完全來自模型能力本身,而更多反映出中美資本市場在看待 AI 時的結構性差異。在海外市場,資本對基座模型公司的投入,往往建立在極強的長期主義預期之上。巨額融資並不急於對應當期收入,而是默認模型能力需要在更長時間裡,通過平台化、生態化的方式逐步釋放價值。相比之下,在中國市場,真正敢於以類似尺度持續下注的,更多來自國資背景。這也是為什麼在進入 B 輪之後,智譜的融資結構中,國資逐漸佔據了更高比重。這種資本結構上的差異,直接影響了基座模型公司的商業路徑選擇。從商業模式看,海外基座模型公司普遍以雲端部署為核心,通過 API 或 token 計費的方式,將模型能力直接商品化。這種模式成立的前提,是市場願意在相當長的一段時間內,容忍高投入、低利潤甚至持續虧損,用以換取模型能力的擴散與鎖定。但這一模式,在中國環境中很難從第一天就順利走通。這不僅是大模型公司的問題,也是中國 SaaS 行業長期存在的現實約束:客戶對付費方式、價格體系和替代成本高度敏感,企業很難在早期完全依賴標準化的雲端收入生存。正是在這樣的背景下,智譜走出了與海外同行明顯不同的一條路。一方面,它同樣在強調 MaaS 和雲端呼叫,希望逐步向更標準化、更可複製的收入結構靠攏;但另一方面,它又不得不持續考慮現實的現金流問題,通過 ToB 和 ToG 場景下的定製化項目,支撐公司的長期運行。這種“拉扯式”的商業結構,決定了智譜無法像 OpenAI 或 Anthropic 那樣,將全部重心押注在雲端規模化之上。與此同時,海外基座模型公司所依託的基礎設施條件,也與國記憶體在顯著差異。例如,OpenAI 與軟銀、甲骨文等聯合成立的 Stargate LLC,計畫到 2029 年投資高達約 5000 億美元 用於 AI 基礎設施建設;Anthropic 則在 2025 年宣佈與 Microsoft、NVIDIA 建立戰略合作關係,承諾在 Microsoft Azure 上採購至少約 300 億美元 的算力服務。這類大手筆投入,為海外基座模型公司提供了相對穩定、長期可預期的算力供給。相比之下,中國大模型公司在基礎設施層面,很難獲得同等規模、同等確定性的長期支援,這也進一步強化了它們對現實收入的依賴。回到智譜自身,其面臨的問題其實已經相當清晰。多位接近智譜的人士向虎嗅透露,儘管智譜當前對外強調以 MaaS 為核心,但其 MaaS 收入仍高度集中於少數幾家大型網際網路公司,這些客戶合計貢獻了智譜 90% 以上的 MaaS 收入。這意味著,一旦這些公司選擇不再接入智譜的 MaaS 平台,其雲端部署收入將面臨極大的不確定性。在這種情況下,智譜幾乎不可能完全擺脫 ToB、ToG 定製化項目的支撐。而這條路徑,又很難向資本市場提供一個足夠清晰、可規模化複製的長期承諾。當然,這並非智譜一家公司的問題。更大程度上,它反映的是中國網際網路公司之間的合作環境、付費意願與生態結構所共同塑造的結果。也正因為如此,智譜未來的結局,並不取決於上市首日的漲跌,而取決於它能否在現實約束之下,儘量把自己拉回到一個更健康、更可持續的商業形態,即在不失去大客戶的同時,逐步降低對它們的依賴。這才是智譜真正需要跨過的那道門檻。 (虎嗅APP)
“全球大模型第一股”智譜啟動招股,發行市值達511億港元
“全球大模型第一股”即將登陸港股!北京智譜華章科技股份有限公司(下稱“智譜”)今起招股,預計2026年1月5日結束,並計畫於2026年1月8日正式以“2513”為股票程式碼在港交所主機板掛牌上市。全球公開發售檔案顯示,智譜(02513.HK)計畫在本次IPO中發行【3741.95】萬股H股。其中,香港公開發售【187.1】萬股H股,國際發售【3554.85】萬股H股。以每股【116.20】港元發行價計算,智譜本次IPO募資總額預計將達43億港元,IPO市值預計超511億港元。智譜招股書連結:https://www1.hkexnews.hk/listedco/listconews/sehk/2025/1230/2025123000018_c.pdf雲集一眾知名投資機構智譜作為中國最早研發大模型的企業,也是中國收入體量最大的獨立大模型廠商,一直備受市場青睞,在IPO之前,智譜已完成了8輪融資,融資規模超83億元,雲集一批主流明星投資機構。根據弗若斯特沙利文的資料,按2024年的收入計,公司在中國獨立通用大模型開發商中位列第一,在所有通用大模型開發商中位列第二。本次登陸港股,其作為“全球大模型第一股”的標的稀缺性,更是吸引國際長線基金、知名產業資本及投資機構作為基石投資者。根據全公開發售檔案,本次上市,智譜引入JSC International Investment Fund SPC、JinYi Capital Multi-Strategy Fund SPC、PerseverancAsset Management、上海高毅、WT Asset Management、泰康人壽、廣發基金、3W Fund Management等11家投資機構為基石投資者,共擬認購【29.8】億港元,基石佔比近7成(假設超額配股權未獲行使)。本次IPO,智譜已囊括了一支由北京核心國資、頭部保險資金、大型公募基金、明星私募基金和產業投資人構成的全明星基石投資陣容。據全球公開發售檔案顯示,本次募集資金淨額的70%(約29億港元)將用於通用AI大模型方面研發投入,進一步鞏固智譜在通用基座模型方面的競爭力;約10.0%(約4.2億港元)將用於持續最佳化公司的MaaS平台,包括提供最新的基座模型以及訓練/推理工具及基礎設施建設。搶灘佔位MaaS市場招股書顯示,智譜收入主要來自於大模型收入,公司採用MaaS(模型呼叫服務)模式,即通過API呼叫向開發者和企業輸出通用智能能力。據公開資料介紹,從2021年開始佈局MaaS開始,智譜從戰略方向上,在穩固本地化部署收入基本盤的前提下,持續拉升MaaS平台的收入佔比,進而強化規模化擴張能力。招股書顯示,智譜雲端MaaS和訂閱業務呈現指數級增長趨勢。在全球大模型超市 OpenRouter 上GLM-4.5/4.6 自上線以來呼叫量穩居全球前10,付費 API 收入超過所有國產模型之和,API平台的企業和開發者使用者數超290萬。截至目前,智譜GLM大模型已賦能了全球12000家企業客戶、逾8000萬台終端使用者裝置及超4500萬名開發者,是中國賦能終端裝置最多的獨立通用大模型廠商。智譜MaaS平台的客戶群體主要是科技網際網路和企業服務市場,憑藉其領先的商業落地能力,智譜已連續三年營收翻倍。招股書顯示,2022年、2023年、2024年收入分別為5740萬元、1.245億元、3.124億元,年複合增長率達到130%。2025年上半年收入為1.91億元,同比增長325%。針對AI程式設計場景的訂閱產品也成為智譜MaaS平台收入增長的重要來源,智譜GLM Coding plan上線兩個月,全球付費開發者使用者已經超過15萬,ARR(年度經常性收入)快速破億。研發投入構築長期技術“護城河”2019年,智譜秉承在中國追求通用人工智慧(AGI)創新的大膽理念而創立,公司作為國內AGI的開拓者與引領者,長期以來被譽為“中國的OpenAI”。研發出中國首個預訓練大模型框架GLM,形成對標OpenAI的全端原創技術架構和完整模型體系。為了保證技術領先,公司持續加大研發投入,據招股書顯示,2022年、2023年、2024年公司研發投入分別為8440萬、5.289億、21.954億,2025年上半年研發投入為15.947億,累計研發投入約44億元。截至今年6月,公司研發人員佔比74%。得益於此,智譜GLM系列模型每3-6個月完成一次基座迭代並始終處於全球領先水平。日前,智譜最新發佈新一代旗艦模型GLM-4.7。面向Coding場景強化了編碼能力、長程任務規劃與工具協同,此外顯著提升聊天、寫作與角色扮演等方面的綜合性能。新版本模型在多項主流公開基準測試中取得開源模型中的最佳表現。在全球知名的權威大模型評測榜單Artificial Analysis Intelligence Index(AA智能指數)中,GLM-4.7以68分綜合成績榮登開源模型與國產模型雙料榜首。在全球百萬使用者參與盲測的權威編碼評估系統Code Arena中,GLM-4.7位列開源第一、國產第一,超過GPT-5.2。(Artificial Analysis Intelligence Index)根據IDC最新發佈的《2025年全球人工智慧市場預測》報告,到2027年,全球人工智慧市場規模預計將突破5000億美元,其中生成式AI及相關服務佔比將超過30%,成為增長最快的細分賽道。在此背景下,智譜作為中國最早投身大模型研發的獨立廠商,憑藉其全端自研的GLM系列模型、領先的學術積累與成熟的商業化能力,已成為推動行業從“技術競賽”邁向“價值實現”的關鍵力量。智譜作為“全球大模型第一股”,即將成功登陸港股不僅標誌著全球資本市場迎來首家以AGI(通用人工智慧)基座模型為核心業務的上市公司,也意味著中國AI大模型產業將正式步入“技術+資本”雙輪驅動的新發展階段。 (瑞恩資本RyanbenCapital)
智譜、MiniMax爭奪「大模型第一股」:高增長之下各有難題
經歷三年的軍備競賽,大模型行業迎來了資本價值兌現的關鍵節點。12月19日,北京智譜華章科技股份有限公司(下稱“智譜”)正式披露招股書,向港交所IPO發起衝擊。不到48小時,上海稀宇科技有限公司(下稱“MiniMax”)同樣向港交所披露了招股書。更早之前,這兩家AI獨角獸相繼通過了港交所聆訊。如此密集的資本動作,瞬間將“誰將是AI大模型第一股”的懸念拉滿。值得關注的是,二者雖然目標一致,但走出了截然不同的發展路徑。智譜以B端、G端服務為核心;MiniMax以C端訂閱為支柱,深耕全球化使用者市場。兩種路徑的背後,是技術理念、商業邏輯與估值邏輯的全方位碰撞。一直以來,商業化的效率之爭都是行業的比拚重點,一定程度上決定了大模型企業的估值和想像力。當大模型行業從技術探索邁入商業化深水區,這場資本市場的爭奪,更像是一場商業路徑可行性的測試。另一個變化在於,AI大模型賽道已從兩年前的群雄逐鹿,逐步聚焦到少數具備核心競爭力的頭部玩家。頭部玩家投入逐年增大,爭奪資本市場的關注與資源,就是爭奪市場話語權,也是為接下來的擴張收集彈藥。壓力和動力總是結伴而行。成功上市只是第一步,更關鍵的是後續資本故事的支撐,而這些都考驗著這兩家初出茅廬的創業公司。這場角逐的結局,遠不止誰先上市這麼簡單,它更將回答一系列關乎行業未來的核心問題。爭奪“AI大模型第一股”,高增長敘事下的盈利挑戰自2024年下半年起,關於大模型行業“AI六小虎”上市的傳聞有很多。有實力的企業業務佈局的速度明顯加快,一些明爭暗搶浮出水面。進入2025年,作為目前國內達到40億美元估值的大模型公司,智譜和MiniMax動作最快。4月,智譜在北京證監局完成輔導備案;6月,MiniMax被爆出最早今年在港股上市。如今,48小時內先後遞交招股書,智譜與MiniMax這場“AI大模型第一股”之爭可謂是針尖對麥芒。對每個衝刺IPO的企業而言,財務基本面是叩響資本市場大門的第一道門檻,也成了市場審視企業表現健康與否的第一步。翻看智譜和MiniMax的財報會發現,這是兩家商業化路徑截然不同的大模型。前者是典型的B端服務路徑,後者則是C端驅動的路線。“清華系”的智譜發佈全國首個千億參數大模型GLM-130B,也將自身的商業基調定位為MaaS,強調模型即服務,形成了“開源+API付費”的商業閉環。招股書顯示,2022年至2024年,智譜營收分別為5740萬元、1.25億元和3.12億元,年均複合增長率超130%;2025年上半年營收進一步增至1.91億元,較上年同期的4490萬元同比激增325.39%。圖源智譜AI招股書收入的擴張,伴隨商業模式的定調。從業務構成來看,其收入主要來自企業級API呼叫、行業解決方案及算力租賃服務,其中面向B端的模型呼叫與企業服務是核心支柱。2022年至2024年,這一類股營收佔比分別為95.5%、90.4%、84.5%,2025年上半年佔比降至84.8%。毛利率層面,2022年至2024年,智譜的毛利率分別是54.6%、64.6%、56.3%,2025年上半年毛利率為50%。與智譜走B端路線不同,MiniMax則走出了一條C端驅動的全球化變現路徑。MiniMax收入主要來自訂閱服務、基於token的應用內購買、線上行銷服務及企業級API服務。2023年至2024年,MiniMax營收從350萬美元增長至3050萬美元,同比增幅高達782%;2025年前三季度營收進一步增至5340萬美元,同比增長174.7%。實際上,MiniMax的商業化更像是網際網路產品的邏輯。其中,AI原生產品是MiniMax的營收支柱。2024年,AI陪伴應用Talkie收入佔比近64%,開放平台及企業服務佔比約29%,視訊生成模型海螺AI佔比7.7%;到2025年前三季度,海螺AI收入佔比提升至33%,與Talkie共同成為營收雙支柱,二者合計貢獻超60%收入。圖源MiniMax招股書AI應用的火熱也擴大了MiniMax的使用者規模。截至2025年9月30日,MiniMax AI原生產品矩陣平均月活使用者達2760萬,累計使用者超2.12億,覆蓋全球超200個國家及地區,海外市場收入貢獻佔比超70%。隨著使用者增長和業務規模擴大,MiniMax毛利率明顯改善,由2023年的-24.7%升至2024年的12.2%,並進一步升至截至2025年9月30日止九個月的23.3%。智譜和MiniMax的共性在於,過去三年雖然營收在不斷增長,但虧損也與之平行,尚未看到規模化盈利拐點。招股書顯示,2022年至2024年,智譜經調整淨虧損分別是9741.7萬元、6.21億元、24.66億元。2025年上半年經調整淨虧損17.52億元。智譜虧損的核心原因在於研發與算力投入。根據招股書,2022年、2023年、2024年智譜研發投入分別為8440萬元、5.29億元、22億元,2025年上半年研發投入為15.9億元,累計研發投入約44億元。同期,MiniMax淨虧損分別為7370萬美元、2.69億美元、4.65億美元。2025年前三季度為5.12億美元。MiniMax的虧損同樣源於研發與基礎設施投入。截至2025年第三季度,MiniMax累計研發開支約4.5億美元(約31.6億元人民幣)。值得一提的是,告別前期產品的流量邏輯,進入2025年MiniMax成本控製成效顯著,2025年前三季度銷售及行銷開支同比下降26%。若剔除金融負債公允價值虧損等因素,MiniMax經調整淨虧損在2025年前三季度為1.86億美元,與2024年同期的1.7億美元基本持平,虧損呈現縮小趨勢。在資本市場,智譜和MiniMax的財務表現直觀反映出了行業的共同難題——高增長、高投入、高虧損。想要贏得“AI大模型第一股”的角逐賽,賺錢仍是要緊事。通往AGI,智譜和MiniMax走出兩條路如果說財務資料是商業模式的量化表達,那麼技術路線選擇則反映了兩家公司根本理念的差異。通往AGI的路上,二者的基因各異。智譜從創立開始就有著濃厚的科研基因。清華系創業班底、KEG知識工程實驗室、計算系……某種程度上,智譜由清華大學技術成果轉化而來。智譜CEO張鵬2002年加入KEG實驗室,並主導研發了科技情報平台AMiner——這被視為智譜AI的技術雛形。這樣的配置之下,智譜贏在了技術起跑線上。當別人還在因ChatGPT的出現奮力研發大模型時,智譜已經手握GLM架構,研發出千億級大模型。在後續的智能體競爭中,智譜也率先推出了AutoGLM 2.0智能體。張鵬也多次強調,AGI的核心是底層架構的突破,智譜原創性提出基於自回歸填空的通用預訓練範式GLM。與GPT的單向注意力架構形成差異,這種原生架構的自主性,是企業長期競爭力的核心。智譜具備清華基因,MiniMax則與商湯基因密不可分。除了創始人閆俊傑曾是商湯科技副總裁外,MiniMax早期聯合創始人周彧聰、贠燁禕均曾在商湯科技任職。這個思路之下,既技術,又商業的路線伴隨MiniMax創業的三年。技術上,和多數AI大模型企業先做語言大模型,再做語音和視覺不同,MiniMax從一開始就決定了做多模態模型,是中國最早推出MoE模型的團隊之一。這種多模態自研讓MiniMax從一開始就圍繞AI Agent和互動體驗做技術積累,也直接服務於其全球化產品戰略。閆俊傑曾判斷,國內初期付費意願較低,大廠競爭激烈,因此MiniMax一開始就瞄準了海外市場。在閆俊傑看來,AI公司的核心產品不是聊天介面,而是模型本身。這背後,透露著MiniMax的技術理念——技術的價值最終要通過使用者體驗來驗證。無論是海螺AI的互動設計,還是星野的個性化體驗,都是相同的產品開發邏輯。圖源海螺AI官網團隊基因和技術路線決定了,智譜和MiniMax是同一賽道的兩種路徑。前者選擇單點突破,死磕基座模型;後者則選擇多點開花,佈局全模態產品。當然,隨著大模型行業競爭逐漸進入白熱化,單一路徑並不可靠。從行業格局來看,弗若斯特沙利文的資料顯示,按2024年收入計,智譜的收入在中國獨立通用大模型開發商中排名第一,但市場份額也只佔6.6%。市場高度分散、機會大的同時,頭部玩家想要長期佔據優勢位置並不容易。本質上,當兩家公司都走到資本市場的門前,路線便沒有孰優孰劣之分。智譜的基座模型技術壁壘高,B端客戶黏性強,但商業化節奏較慢;MiniMax的全模態產品迭代快,C端使用者增長迅速,但技術自主性相對較弱,受上游算力和底層技術的影響更大。時至今日,圍繞同一技術理念,走出差異化,並找到與之對應的商業邏輯更重要。誰會更受資本市場青睞?今年以來,DeepSeek的火爆開啟了行業新一輪的淘汰賽。尤其是巨頭憑藉強勢的資源和產品入局,讓初創企業的競賽點發生變化。大模型企業告別資本狂熱的追捧,迎來資本的苛刻審判,“AI六小虎”的IPO競速賽也隨之展開。上市窗口期已經打開,誰先打開資本市場的門,誰就有機會走到第一梯隊。如今,智譜與MiniMax的IPO比拚,將這場競速賽推至賽點。從過往投資歷程上看,智譜是毋庸置疑的香餑餑。招股書顯示,智譜在IPO前已完成8輪融資,累計融資規模超83億元,最新投後估值達243.77億元。投資方不乏阿里、騰訊、紅杉資本、高瓴資本等頭部機構。MiniMax也不甘示弱。企查查顯示,MiniMax截至目前公開披露六輪融資,今年7月融資後投後估值為40億美元。除了沒有地方資本注入,投資方配置和智譜相似。資本市場對“AI大模型第一股”的態度,本質上是對兩種商業路徑的投票——是看好底層技術自主權的長期價值,還是青睞全球化產品的快速商業化潛力。華安證券發佈的研報中指出,智譜的核心價值在於其自主可控的基座模型技術和龐大的開發者生態,其“開源+API呼叫”的模式降低了企業使用門檻,形成了從開源生態到商業API付費的高效轉化路徑。MiniMax聚焦多模態模型切入影視內容創作,二者在細分市場存在差異性。同時,華安證券發佈的研報中指出,本次港股上市將引導AI大模型廠商敘事邏輯從“講述技術故事”轉變為“商業價值兌現”,也將為後續大模型企業融資及估值提供依據。不過,儘管估值邏輯不同,智譜與MiniMax都面臨著挑戰。對於智譜而言,商業化的關鍵在於規模效應的形成。目前,虧損規模持續擴大,現金消耗率不斷攀升,短期盈利預期較弱,估值能否支撐,關鍵在於市場對其長期技術投入的耐心。不僅如此,B端客戶的穩定性也值得關注。招股書披露,這幾年智譜的客戶並不固定,大多數客戶合作期為一年。如何延長客戶的合作期,並存續,也是挑戰。對於MiniMax而言,商業化效率能否持續提升很重要。雖然經調整虧損已呈現縮小趨勢,但整體虧損規模仍在擴大,且C端產品面臨全球網際網路巨頭的競爭壓力,使用者留存和付費轉化能力亟待持續驗證。此外,版權問題也是MiniMax繞不過的難題。今年9月,MiniMax還被“地表最強法務部”迪士尼起訴,直指海螺AI侵權,這也給MiniMax的出海之路蒙上一層陰影。當模型能力不再是最大問題,講一個讓資本聽得懂的故事,並讓其願意為之買單更難。資本市場的終極判斷標準是一致的——商業化形態的可持續性。無論是智譜的技術驅動還是MiniMax的產品驅動,商業模式的持續驗證是兩家公司上市後必須面對的考題。爭奪“第一股”的意義,不僅在於誰能更快獲得資本的加持,更在於誰能通過資本市場的賦能,在技術迭代與商業化落地的雙重考驗中,走出一條可持續的發展路徑。這場競賽的最終贏家,或許不是跑得最快的那個,而是走得更穩、更遠的那個。 (新浪科技)
中國大模型團隊登Nature子刊封面,劉知遠語出驚人:期待明年“用AI造AI”
過去半個世紀,全球科技產業的資本開支與創新節奏,都和一個規律緊密相連,那就是摩爾定律——晶片性能每18個月翻一番。在摩爾定律之外,還有一個“安迪-比爾定律”,它講的是,摩爾定律所主導的硬體性能提升的紅利,會迅速被軟體複雜度的增加所抵消。安迪指的是英特爾前CEO安迪·格魯夫,而比爾,指的是微軟創始人比爾·蓋茲。這種“硬體供給、軟體消耗”的螺旋上升,驅動了PC與網際網路時代的產業進化。時移世易,安迪、比爾都已經退出產業一線,但是規律的底層邏輯並未改變,而且被新的“安迪·比爾”推向更高的極致。ChatGPT的爆發拉開了生成式人工智能時代的大幕,在Scaling Law(規模法則)的主導下,模型參數指數級膨脹,軟體對算力的索取遠超摩爾定律的供給速度,AI發展的邊際成本急劇上升。當硬體供給遭遇能源、資料等天花板時,舊的“安迪比爾”式增長範式開始失效。產業需要一場逆向革命。大模型作為AI時代的“軟體”,需要通過極致的演算法與工程化重構,在現有硬體上爆發更強的能力。2025年,中國大模型公司成為這一路徑的最堅定實踐者。從DeepSeek V3通過細粒度混合專家(MoE)架構以1/10算力成本對標頂尖模型,到Kimi等團隊在稀疏注意力機制上的突破,被稱為“東方力量”的中國大模型公司,正試圖用架構創新努力拉平客觀存在的算力差距。清華大學電腦系副教授劉知遠及其聯合創立的面壁智能團隊,也是其中的典型代表。他們發佈的MiniCPM("小鋼炮")系列模型,僅用約1/10的參數規模,即可承載對標雲端大模型的智能水平,成為端側高效AI的案例。2025年11月,劉知遠團隊的研究登上全球頂級學術期刊《自然·機器智能》(Nature Machine Intelligence)封面,正式提出大模型的“密度法則”(Densing Law)。基於對51個主流大模型的嚴謹回測,論文揭示了驚人的非線性進化規律:從2023年到2025年,大模型的智能密度以每3.5個月翻倍的速度狂飆。這是一條比摩爾定律陡峭5倍的進化曲線。這意味著,每100天,就可以用一半參數量實現當前最優模型相當的性能。每100天成本減半,一年後成本就可能降至原來的十分之一。如此快的迭代速度,對技術創新、產業落地提出了不同以往的挑戰。劉知遠在與騰訊科技的對話中直言:如果一家大模型公司發佈一款新的模型後“3到6個月無法收回成本”,這家公司的商業模式就不可持續,因為後來者很快就能以四分之一的資源實現同等能力。當研發迭代周期被壓縮至百天量級,人類的智力供給已逼近極限,產業的終極形態必將發生質變。工業革命的標誌是機器製造機器,而劉知遠期待的AI時代生產力標誌,將是“用AI製造AI”。唯有如此,才能支撐這場超越摩爾定律的智能風暴。騰訊科技:我們今天的主題是您和團隊最新發表在《自然·機器智能》上的關於大模型“能力密度”(Densing Law)的論文。您能介紹一下這項研究的背景嗎?劉知遠: 雖然這篇論文是 2025 年發表的,但這個想法早在 2024 年上半年就已經開始萌生。2023 年初,ChatGPT 的出現引發了全球對大模型的追逐,中國團隊也不例外,當時大家都在研究如何復現 ChatGPT。到了 2023 年下半年,一線的團隊基本完成了復現工作。那時候我們開始思考大模型未來的發展路徑。有些團隊可能會繼續沿用 ChatGPT 的技術路線,通過增加參數規模、投入更多資料來訓練 GPT-4 水平的模型。這條路線雖然確定性高,但意味著要花費更多經費,這顯然不是一條可持續的發展路徑。你不可能無限地增加成本來換取更強的能力。因此,我們開始探討如何用更低的成本、更高的質量來實現模型能力。2024 年初,我們推出的 Mini CPM 系列模型驗證了這一點:我們可以用更少的參數,實現歷史上需要幾倍甚至幾十倍參數才能達到的能力。這是經驗性的結果,我們想尋找其背後的規律,於是促成了 2024 年對“密度法則”的探索。圖:Densing Law論文登上Nature Machine Intelligence封面騰訊科技:這項研究是否因為中國的國情,使我們更重視大模型的效率問題?它在國內外是獨一無二的嗎?劉知遠: 追求效率當然有中國算力有限的國情因素。我們必須關注如何用更少的算力實現更高品質的模型。這也是為什麼 2024 年下半年,《經濟學人》的一篇封面文章提到,中國企業正通過技術創新繞過“算力牆”,並舉了面壁智能和 DeepSeek 的例子。但同時,追求效率也符合人工智慧本身的發展規律。人工智慧是一場堪比工業革命的科技浪潮,如果要讓每個人都受益,技術就不能昂貴。我們必須像歷史上任何一次科技革命那樣,用更低的成本實現更高品質的產品和服務。因此,我們自信地認為,密度法則對人工智慧的未來發展具有重要意義。騰訊科技:在“密度法則”中,一個關鍵概念是量化“智能”,但這本身是一個難題。在研究開始前,您為什麼覺得這件事是行得通的?劉知遠: 這個問題問得非常好。實際上,我們在密度法則這篇論文裡並沒有真正解決“如何度量智能總量”這個科學問題,而是找了一條取巧的辦法:找一個參照物(Reference Model)。我們假設用同一套技術方案訓練的模型,無論尺寸大小,其密度大致相同。我們將這套方案訓練出的模型作為 Reference Model,並假設其密度為 1。然後,我們觀察目標模型達到某種智能水平時,Reference Model 需要多大參數才能達到相同水平。通過比較兩者達到相同能力所需的參數量,我們就可以算出目標模型的相對密度。這種方法規避了直接計算模型內部智能總量的難題。當然,如何衡量智能的總量(Mass)是未來幾年人工智慧需要攻克的基礎科學問題。歷史上任何大的科技革命背後都有科學理論支撐,如資訊理論之於通訊,熱力學之於蒸汽機。智能科學未來也需要解決如何衡量智能總量的問題。騰訊科技:您在2024年WAIC期間曾提到模型的“密度法則”周期是8個月,但最終論文的結果是3.5個月。為什麼進化的速度比您預期的快這麼多?劉知遠: 2024年年中我們剛有這個想法時,研究尚在初期,觀測的時間跨度和模型數量都有限,所以當時的資料不夠穩定。我們2024年下半年發佈的版本算出來是3.3個月,到今年正式發表時,我們補充了2025年的新模型資料,周期修正為3.5個月。其實,具體的周期是三個月還是八個月並非最重要,最重要的是,這個速度遠遠快於摩爾定律的18個月。這意味著我們正以前所未有的速度迎來一場智能革命。每100天成本減半,一年後成本就可能降至原來的十分之一。同時,我們確實觀察到了一個加速現象。2023年之前,這個周期接近五個月;2023年之後,則縮短到三個多月。我們猜測,這是因為ChatGPT引發了全球性的關注,更多的資源和人才投入加速了技術創新。所以,“密度法則”並非自然規律,而是我們人類社會在該科技領域的一種“自我實現”:投入越多,密度增長越快。騰訊科技: 剛才提到投入,大模型有暴力美學的 Scaling Law,您覺得 Densing Law 和 Scaling Law 是統一的還是矛盾的?劉知遠:我認為它們是硬幣的兩面,相輔相成。“規模法則”的表像是模型越大、能力越強,其背後是我們找到了一條通用的智能構造方案(Transformer架構+序列預測學習),使得在一個模型內持續增加智能成為可能。它開啟了通往通用人工智慧的道路。在坐標系中,“規模法則”是一條參數規模越大、模型能力越強的持續上升曲線。而“密度法則”告訴我們,通過在模型架構、資料治理、學習方法等方面的持續技術創新,我們可以用更小的參數承載更多的智能,從而找到一條更加“陡峭”的“規模法則”曲線。也就是說,用相同的參數實現更強的能力,或者用更少的參數實現相同的能力。所以,沒有“規模法則”就不會有“密度法則”,兩者都是人工智慧發展中至關重要的規律。騰訊科技:“規模法則”似乎正面臨資料、算力和能源的天花板。密度法則何時會遇到瓶頸?劉知遠: Scaling Law的持續發展確實面臨電力、算力、資料等約束。而 Densing Law 正是實現更可持續Scaling Law 的方式。通過技術創新提高密度,我們可以在算力或成本基本不變的情況下,持續提升模型能力。例如DeepSeek V3宣稱用 1/10 的算力實現同等能力,OpenAI 的 API 價格持續下降,都反映了內部通過技術創新用更小的模型提供同等服務。當然,資料枯竭問題可能需要依賴另一項技術——大規模強化學習來解決,即讓模型通過自我探索生成高品質資料進行學習。騰訊科技:2025年有那些讓您覺得驚豔的技術突破,能讓 Densing Law 更加陡峭?劉知遠:今年是模型架構創新的大年,主要有三個方向:第一,以DeepSeek V3為代表的細粒度混合專家(MoE)架構走向成熟,通過稀疏啟動少數專家來大幅提升計算效率。第二,稀疏注意力(Sparse Attention)機制大行其道,通過減少注意力計算中的內容參與度,有效處理長序列。這兩者分別最佳化了Transformer的FFN層和Attention層,實現了計算的“按需分配”。第三,復興循環神經網路(RNN)思想,通過與Transformer混合架構,利用其“記憶”機制降低計算複雜度。這些創新都在變相地提升模型密度。此外,大規模強化學習的應用也取得了巨大飛躍,尤其在數學和程式碼領域,模型通過自我探索持續提升能力,暫時還看不到盡頭。這解決了資料枯竭的問題。騰訊科技: 您覺得密度法則能推廣到多模態模型或世界模型嗎?劉知遠: 我認為這是一個普遍規律。雖然不同領域的倍增周期可能不同,但只要是通用的、遵循 Scaling Law 的模型,未來也一定會遵循 Densing Law。就像晶片摩爾定律和電池密度提升一樣,技術創新總是追求用更少的資源實現更高的性能。騰訊科技:您如何看待Google最新發佈的Gemini 3?它是否可被稱為里程碑式的突破?劉知遠:我們內部認為Gemini 3是一個非常重要的里程碑。它在圖像生成中對文字的控制達到了前所未有的高度,這表明其模型的可控性和對世界的理解能力達到了一個新水平。我們推測,它不只依賴於Diffusion模型,很可能將自回歸(Auto-regressive)的思想融入其中,實現了生成過程的逐層細化和高度一致性。歷史上,所有文生圖模型都難以處理好文字內容,Gemini 3的突破,在我看來是一個非常值得關注的新範式。這也印證了密度法則:只要能實現某種智能,未來一定可以在更小的終端上運行。比如 Gemini 3 現在的能力,未來一定可以在手機、PC 或汽車晶片上跑起來。騰訊科技: 現在還沒有出現能替代智慧型手機的端側 AI 裝置,是不是因為 Densing Law 還沒進化到位?劉知遠: 端側裝置的發展受限於多個因素。第一,還沒有形成好的端側應用場景。現在的手機助手雖然使用者多,但並未與硬體緊密結合。第二,端側技術生態尚未形成。AGI 發展還沒收斂,模型能力還在持續提升,且在產品設計上還沒法完全規避錯誤。就像早期的搜尋引擎也是經過產品打磨才普及一樣,AGI 結合智能終端也需要一個過程。一旦產品形態成熟,智能終端的廣泛應用就會成為可能。騰訊科技: 您提到 MiniCPM 4 可以看作一種“模型製程”,這個怎麼理解?劉知遠: 我更願意把這一代模型比作晶片製程。通過技術創新,我們形成了一套新的模型製程,無論建構什麼尺寸的模型,其密度都更高。例如 MiniCPM 4 在處理長序列時速度提升了 5 倍,意味著可以用更少的計算量承載更強的能力。但目前的挑戰在於,硬體支援還不夠好。我們正在努力做軟硬協同最佳化,希望在消費級硬體上真正跑出理想狀態。騰訊科技: 這需要和高通、聯發科等硬體廠商協同創新嗎?劉知遠: 我們跟硬體廠商交流密切。但硬體廠商受摩爾定律 18 個月周期的影響,架構調整更審慎。而模型每 3 個月就進化一次。所以短期內是軟體適配硬體,長期看硬體會針對穩定的新技術做最佳化。現在端側晶片廠商已經在認真解決大模型運行的瓶頸,比如訪存問題。騰訊科技: 之前大家嘗試過剪枝、量化等方法來做小模型,這和原生訓練的高密度模型相比如何?劉知遠: 我們做過大量實驗,剪枝、蒸餾、量化都會降低模型密度。量化通過後訓練可以恢復一部分效果,是目前端側比較落地的做法。但蒸餾現在已經融合進資料合成體系,不再是簡單的“大蒸小”。剪枝目前還沒找到保持密度的好方法。就像你不能通過剪裁把 14nm 晶片變成 7nm 晶片一樣,要把密度做高,必須從頭建構一套複雜的原生技術體系,包括架構設計、資料治理、學習方法和軟硬協同。這本身就是技術護城河。騰訊科技:“密度法則”對產業界意味著什麼?對於創業公司來說,機會在那裡?劉知遠:3.5個月的迭代周期意味著,任何一個投入巨資訓練的大模型,如果不能在3到6個月內通過商業化收回成本,這種模式就很難持續。因為很快就會有技術更新的團隊用更低的成本實現同樣的能力。因此,雲端API服務的競爭會極其慘烈,最終可能只會剩下幾家擁有海量使用者和強大技術迭代能力的頭部廠商。對於創業公司而言,機會可能在於“端側智能”。端側場景的約束條件非常明確(如功耗、算力、響應時間),這使得技術優勢,即誰能把模型密度做得更高,成為唯一的競爭點,大廠的“鈔能力”(如不計成本的投入)在這裡難以發揮。雖然手機廠商也在高度關注,但它們的決策會更審慎。我們認為,端側智能會先從智能座艙等對功耗不那麼敏感的場景開始,而最終,AGI時代一定會有屬於它自己的智能終端形態,這是我們希望探索的星辰大海。騰訊科技: 面對算力軍備競賽和快速折舊,您怎麼看泡沫論?劉知遠: 快速發展肯定伴隨局部泡沫,但整體上我們正進入智能革命時代。如果以 18 個月為周期,資訊革命走了 50 個周期;如果 AI 也走 50 個周期,按現在的速度,大概到 2030-2035 年就能實現全球普惠的 AGI。未來網際網路的主體不再只是人,還有無數智能體。雖然訓練模型的廠商會收斂,但推理算力需求會爆炸式增長。騰訊科技: 李飛飛(美國國家工程院院士)說 AI 是文明級技術,您對這場革命樂觀嗎?劉知遠: 我相當樂觀。騰訊科技:如果AI變得無比強大,未來人類會不會無事可做?劉知遠:我不這樣認為。未來一定是人機協同,人是把關人。人類知識大爆炸導致我們只能成為細分專家,阻礙了跨領域創新。人工智慧可以幫助我們成為知識的主人而不是奴隸,去探索宇宙、生命等更多未解之謎。騰訊科技: 您2026年最期待的創新是什麼?劉知遠: 我最期待“用 AI 製造 AI”。明年一個重要節點是自主學習(Self-play)。目前的強化學習還依賴人類給標準答案,未來模型如果能自主判斷探索結果的價值,就實現了自主學習。在此基礎上,結合密度法則的提升,我們有可能為每個人建構專屬的、持續學習的個人大模型。未來的生產標誌就是“用 AI 製造 AI”。不再依賴有限的人力,而是由 AI 來賦能 AI 的研發和製造。這將是一個指數級加速的過程。 (騰訊科技)
15個未來產業新賽道全景解析
15個未來產業解析1. 引言中國工業和資訊化部發佈《國家高新區新賽道培育行動方案》(工信廳規函〔2025〕8號),旨在推動國家高新區在新一輪科技革命和產業變革中搶佔先機,培育具有國際競爭力的未來產業。該行動方案聚焦國家重大戰略需求和科技前沿領域,通過"開放式發現—高標準選拔—精準性培育"的推進機制,最終遴選出15個重點新賽道方向進行系統化培育。這15個新賽道方向包括:量子科技、腦機介面、具身智能、人工智慧大模型、高性能積體電路、第六代移動通訊(6G)、工業網際網路、基礎軟體與工業軟體、清潔氫、高端新材料、商業航天、低空經濟、生物製造、細胞與基因、高端醫療器械。本文將按照技術成熟度,將這15個新賽道分為突破期、成長期和成熟期三個層次進行解析,探討每個領域的技術特點、應用場景、政策支援及產業化前景,為理解中國未來產業發展路徑提供參考。2. 技術成熟度分層解析2.1 突破期新賽道突破期新賽道是指技術基礎尚不成熟,但具有顛覆性潛力,有望在未來5-10年內實現關鍵技術突破的領域。量子科技:量子科技是利用量子力學原理進行資訊處理、感測和計算的前沿領域。中國在量子通訊領域已取得全球領先,如"墨子號"量子科學實驗衛星和"京滬幹線"量子保密通訊骨幹網。然而在量子計算方面,雖然有阿里巴巴、百度、騰訊等企業佈局,但與美國、歐洲相比仍有差距。量子科技的關鍵應用場景包括量子計算、量子通訊和量子測量,其中量子計算有望在密碼學、新材料設計、藥物研發等領域帶來革命性突破。預計到2030年,中國將實現量子計算的初步商業化應用。報告原文閱讀>>>量子資訊技術發展與應用研究報告(2025年)腦機介面:腦機介面技術通過在人腦與外部裝置之間建立直接的資訊交換通道,實現腦與裝置的互動。目前,中國腦機介面技術已取得一定進展,如清華大學研製的無創腦機介面系統和中國科學院的侵入式腦機介面技術。主要應用場景包括醫療康復(如幫助癱瘓患者控制假肢)、人機互動和軍事應用。2025年,工信部將腦機介面列為新賽道重點培育方向,預計未來5年將迎來技術突破期,到2030年有望實現部分商業化應用。這兩個突破期新賽道的共同特點是技術壁壘高、研發周期長、投入大,需要長期穩定的政策支援和資金投入。中國在量子通訊領域已具備一定優勢,但在量子計算和腦機介面的基礎研究方面仍有提升空間。這兩個領域的技術突破將為中國在下一代資訊技術和生物技術領域贏得全球競爭主動權提供重要支撐。2.2 成長期新賽道成長期新賽道是指技術已取得初步突破,處於產業化初期,有望在未來3-5年內形成較大市場規模的領域。具身智能:具身智能是指賦予機器人或智能體物理實體和感知能力,使其能夠在真實環境中自主學習、適應和互動的技術。2025年,中國在具身智能領域已取得顯著進展,如優必選Walker S1機器人和宇樹科技的四足機器人。具身智能的主要應用場景包括工業製造、醫療健康、家庭服務和特種作業等。中國在具身智能領域的優勢在於應用場景豐富和產業鏈完備,但在核心演算法和高端感測器方面仍有差距。預計到2028年,具身智能將在特定場景實現規模化應用。人工智慧大模型:人工智慧大模型是基於海量資料訓練的深度學習模型,具有強大的自然語言處理、圖像識別和多模態理解能力。2025年,中國已湧現出文心一言、通義千問、智譜GLM等一批具有國際競爭力的大模型。大模型的應用場景幾乎涵蓋所有行業,包括智能客服、內容創作、醫療診斷、金融分析等。中國在大模型領域的優勢在於資料資源豐富和應用場景廣泛,但在基礎演算法創新和高端晶片方面存在短板。預計到2027年,大模型將實現從通用能力向專業領域的深度滲透。報告延伸閱讀:生成式人工智慧應用發展報告(2025)-中國網際網路絡資訊中心(點選下方圖片可查閱下載報告全文)高性能積體電路:高性能積體電路是支撐數字經濟發展的關鍵基礎,包括先進製程晶片、專用晶片和第三代半導體等。2025年,中國積體電路產業規模已突破兆元,但在高端晶片設計和製造方面仍面臨挑戰。高性能積體電路的主要應用場景包括高性能計算、人工智慧、5G通訊等。中國在積體電路領域的戰略是"設計引領、製造提升、封裝突破、材料配套、裝置支撐"。預計到2028年,中國將在部分關鍵領域實現技術突破。第六代移動通訊(6G):6G是繼5G之後的下一代移動通訊技術,將提供更高的速率、更低的時延和更廣的連接。2025年,中國已啟動6G技術研發試驗,預計2025-2027年完成關鍵技術研究,2028-2030年完成標準制定。6G的主要應用場景包括沉浸式體驗、智能體互動、全息通訊等。中國在6G領域的優勢在於5G技術積累和市場規模,但面臨技術路線選擇和國際標準競爭的挑戰。預計到2030年,6G將開始商用部署。報告延伸閱讀:2025年6G傳輸技術白皮書(點選下方圖片可查閱下載報告全文)這四個成長期新賽道是中國科技自立自強的關鍵領域,也是國際科技競爭的焦點。中國在這些領域既有優勢也有挑戰,需要加強基礎研究和核心技術攻關,建構自主可控的產業生態。2.3 成熟期新賽道成熟期新賽道是指技術已相對成熟,處於規模化應用階段,有望在未來1-3年內形成顯著經濟和社會效益的領域。工業網際網路:工業網際網路是新一代資訊技術與製造業深度融合的產物,通過連接工業全要素、全產業鏈、全價值鏈,實現資源最佳化配置和生產方式變革。2025年,中國工業網際網路已形成"綜合型+特色型+專業型"平台體系,連接工業裝置超過1億台。主要應用場景包括裝置預測性維護、生產過程最佳化、供應鏈協同等。中國在工業網際網路領域的優勢在於製造業基礎雄厚和應用場景豐富,但在工業軟體和高端裝備方面仍有短板。預計到2027年,工業網際網路將實現從單點應用向全鏈條整合的轉變。基礎軟體與工業軟體:基礎軟體包括作業系統、資料庫、中介軟體等,工業軟體包括CAD、CAE、CAM等研發設計軟體和MES、PLM等生產管理軟體。2025年,中國基礎軟體和工業軟體自主化率持續提升,但在高端領域仍有較大差距。主要應用場景包括智能製造、數字政府、金融科技等。中國在軟體領域的優勢在於市場規模大和開發人才豐富,但在核心演算法和底層架構方面存在不足。預計到2027年,中國基礎軟體和工業軟體將在重點行業實現規模化應用。清潔氫:清潔氫是通過可再生能源電解水或化石能源耦合碳捕集技術生產的氫氣,具有零排放、高能量密度的特點。2025年,中國氫能產業規模已突破5000億元,清潔氫佔比持續提升。主要應用場景包括氫燃料電池汽車、氫能儲能、氫能冶金等。中國在氫能領域的優勢在於可再生能源資源豐富和應用場景廣泛,但在氫能儲運和燃料電池技術方面仍有提升空間。預計到2027年,中國清潔氫將在交通和工業領域實現規模化應用。高端新材料:高端新材料是指具有特殊性能和功能的先進材料,包括先進基礎材料、關鍵戰略材料和前沿新材料。2025年,中國新材料產業規模已突破6兆元,但在高端領域仍有差距。主要應用場景包括電子資訊、航空航天、新能源等。中國在新材料領域的優勢在於產業鏈完整和市場需求旺盛,但在原始創新和高端裝備方面存在短板。預計到2027年,中國高端新材料將在關鍵領域實現國產替代。商業航天:商業航天是指由企業主導的航天活動,包括衛星製造、發射服務、空間應用等。2025年,中國商業航天產業規模已突破2兆元,湧現出一批具有國際競爭力的企業。主要應用場景包括衛星網際網路、遙感監測、太空旅遊等。中國在商業航天領域的優勢在於航天技術積累和市場需求增長,但在商業模式創新和國際合作方面仍有提升空間。預計到2027年,中國商業航天將在衛星網際網路和遙感應用領域實現規模化發展。低空經濟:低空經濟是指在低空空域開展的經濟活動,包括無人機配送、空中遊覽、應急救援等。2025年,中國低空經濟規模已突破5000億元,無人機應用領域不斷拓展。主要應用場景包括物流配送、農林植保、城市治理等。中國在低空經濟領域的優勢在於應用場景豐富和政策支援有力,但在空域管理和服務標準方面仍需完善。預計到2027年,中國低空經濟將在物流配送和城市服務領域實現規模化應用。生物製造:生物製造是利用生物系統或生物體生產化學品、材料和能源的過程,具有綠色、高效、可持續的特點。2025年,中國生物製造產業規模已突破1兆元,生物基產品種類不斷豐富。主要應用場景包括生物基化學品、生物基材料、生物燃料等。中國在生物製造領域的優勢在於生物資源豐富和產業基礎良好,但在生物合成技術方面仍有差距。預計到2027年,中國生物製造將在化工替代和材料創新領域實現突破。細胞與基因:細胞與基因技術是利用細胞和基因進行疾病治療、健康管理和生物製造的技術,包括基因治療、細胞治療、基因編輯等。2025年,中國細胞與基因治療產業規模已突破1000億元,多個產品獲批上市。主要應用場景包括腫瘤治療、遺傳病治療、組織再生等。中國在細胞與基因領域的優勢在於臨床資源豐富和應用場景廣泛,但在原創技術和高端裝備方面仍有短板。預計到2027年,中國細胞與基因技術將在腫瘤和遺傳病治療領域實現規模化應用。高端醫療器械:高端醫療器械是指具有高技術含量和高附加值的醫療裝置,包括醫學影像裝置、體外診斷裝置、微創治療裝置等。2025年,中國醫療器械產業規模已突破1.5兆元,高端產品國產化率持續提升。主要應用場景包括疾病診斷、治療和康復。中國在高端醫療器械領域的優勢在於市場規模大和產業鏈完整,但在核心技術和高端產品方面仍有差距。預計到2027年,中國高端醫療器械將在重點疾病領域實現國產替代。這九個成熟期新賽道是中國產業升級和高品質發展的重要支撐,也是培育新增長點的關鍵領域。這些領域既有技術基礎,又有市場需求,有望在短期內實現規模化發展,為經濟增長提供新動能。3. 區域佈局與協同發展15個新賽道方向在中國範圍內呈現差異化佈局。北京、上海、深圳等地在人工智慧大模型、高性能積體電路等領域具有領先優勢;安徽、陝西等地在量子科技領域具備特色;浙江、江蘇等地在工業網際網路、高端新材料等領域優勢明顯;四川、廣東等地在低空經濟領域發展迅速。這些新賽道之間存在顯著的協同效應。例如,人工智慧大模型與具身智能相結合,可提升機器人的認知和決策能力;高性能積體電路為6G通訊和人工智慧提供算力支撐;工業網際網路與高端新材料相結合,可促進製造業數位化轉型;生物製造與細胞與基因技術協同,可推動生物醫藥創新發展。通過建構跨領域、跨區域的協同創新網路,實現資源共享、優勢互補,將有助於加速新賽道的培育和發展,形成具有國際競爭力的產業叢集。4. 結論與展望《國家高新區新賽道培育行動方案》遴選出的15個重點新賽道方向,覆蓋了資訊技術、生物技術、新材料、新能源、航空航天等多個前沿領域,反映了中國面向科技前沿和國家重大需求的戰略佈局。從技術成熟度來看,這些新賽道可分為突破期、成長期和成熟期三個層次,分別代表了中國未來產業發展的不同階段和重點領域。突破期的量子科技和腦機介面有望在未來5-10年內實現關鍵技術突破;成長期的人工智慧大模型、具身智能等領域有望在未來3-5年內形成較大市場規模;成熟期的工業網際網路、高端新材料等領域有望在未來1-3年內產生顯著經濟和社會效益。從戰略意義來看,這些新賽道既是中國科技自立自強的關鍵領域,也是建構新發展格局的重要支撐。通過集中優勢資源,實施精準培育,有望在這些領域實現從跟跑到並跑甚至領跑的轉變,為中國在新一輪科技革命和產業變革中贏得主動權。未來,隨著技術不斷突破、產業生態不斷完善、應用場景不斷拓展,這些新賽道將為中國經濟高品質發展注入新動能,為人民美好生活提供新供給,為建構人類命運共同體貢獻中國智慧和中國方案。 (TOP行業報告)