一篇瞭解中美AI競爭格局的科普文

按:近期,字節跳動推出的多模態視訊大模型 Seedance 2.0 在2026年初引爆全球開發者社區,被視為中國AI原生創新的標竿,彰顯本土技術從“追趕”邁向“引領”的潛力。很多人感興趣當前中美AI企業的競爭形勢究竟如何?以下分享來自巴克萊的最新研報,算是瞭解當前中美AI創新企業競爭格局的科普文。

其實自2022年ChatGPT公開發佈以來,人工智慧(AI)已成為推動全球股市盈利增長、資本支出(capex)和投資回報的主要引擎。進入2026年,隨著生成式AI技術從實驗階段邁向規模化部署,中國科技公司正迅速崛起,挑戰美國在全球AI競賽中的主導地位。然而,這一處理程序並非一帆風順:全球AI相關企業估值持續攀升的同時,美國AI公司面臨融資壓力,而中國同行則在艱難的定價環境與不斷調整的稅收政策中艱難前行。

在本篇報告中,巴克萊從回顧美中股市(尤其是各自科技類股)近期的表現趨勢;對比了西方與東方市場的AI融資架構,以幫助理解AI投資如何塑造當前市場動態;到深入分析中美AI技術堆疊的技術細節;隨後探討中美雙方在AI採用、普及及變現前景上的不同路徑。

最後,巴克萊認為,供給約束、市場邊界侷限以及使用模式差異共同導致中國AI生態在資本投入和算力消耗規模上與美國存在顯著差距。這一差距不僅體現在當前支出水平,也可能影響未來技術迭代與生態競爭力的長期格局。

一、股市表現與估值

自2022年底ChatGPT發佈以來,美股表現強勁。標普500指數的未來12個月市盈率(NTM P/E)從2022年第三季度末的15.3倍擴張至目前的21.7倍,AI是關鍵推動力。其中,超大型科技股(mega-cap Tech)在指數表現和盈利貢獻中佔據了不成比例的高份額。

具體來看,“Big Tech”(大型科技公司)對標普500每股收益(EPS)的貢獻佔比從2022年第三季度的約12%躍升至2025年第四季度的約30%。同期,Big Tech的NTM市盈率從22.9倍上升至27.3倍;而科技類股中其他公司的市盈率也從15.4倍顯著擴張至24.5倍。

相比之下,恆生指數(HSCI)自2022年以來的表現更為波動,其中2023年成為拖累三年整體回報的關鍵年份。當年中國經濟放緩導致中資股票大幅走弱:恆生指數最大回撤達-28.2%,而標普500同期僅為-10.3%。儘管如此,自2022年第三季度末以來,恆生指數已累計上漲約68%,表現健康,但仍落後於美股。

與美國類似,科技股在中國股市也是推動回報的主要力量——過去三年,該類股是恆生指數中表現最好的行業之一,累計漲幅達96.7%。然而,一個關鍵區別在於對整體指數回報的傳導效應:恆生指數的行業分佈遠不如標普500集中於科技類股。標普500約33%的市值集中在科技行業,而恆生指數中科技股權重僅為5%左右。相比之下,金融和可選消費類股合計佔恆生指數市值權重的47%。這意味著,中國經濟的整體狀況及其消費者信心對恆指表現的影響,遠大於科技公司。

若單獨比較標普500與恆生指數中的科技類股,差距更為顯著:自2022年第三季度末以來,美國科技股絕對回報高達約172%,大幅領先中國同行。這一分化背後,美國AI熱潮無疑是核心催化劑,而中美之間的貿易緊張局勢進一步加劇了這一鴻溝。美國的出口管制限制了中國獲取先進計算晶片和半導體製造裝置的能力,對部分中國AI技術堆疊(尤其是算力層)構成了明確的制約。

美國在AI研發和盈利方面的領先地位,對中國企業而言可能難以快速彌合。我們認為,考慮到近期估值的重新定價,中國科技股中任何所謂的“AI溢價”都顯得更為脆弱,且更依賴經濟周期,相較之下,美國科技股的AI估值支撐則更具結構性和可持續性。

二、AI投資:東方與西方之比較

作為一項早期技術,AI的發展高度依賴持續的投資與資金支援。我們將中美兩國的AI支出劃分為兩大類進行對比:政府支出與非政府支出。核心區別在於:美國的技術投資主要由非政府主體驅動(即超大規模雲服務商的資本開支),而中國的科技基礎設施建設則更多受到政府主導型資金的引導。

1、非政府支出

我們估算,過去三年美國主要超大規模雲服務商(包括Meta、Alphabet、亞馬遜、微軟和Oracle)的資本開支總額從1281億美元大幅擴張至3922億美元,並預計2026年將增長約52%,2027年再增長約19%。

中國的主要超大規模企業包括騰訊、字節跳動、阿里巴巴和華為。我們估計,2025年:

1)騰訊資本開支為120億美元,

2)字節跳動為120億美元,

3)阿里巴巴為180億美元。

4)華為作為非上市公司,披露的財務資料口徑不同,但其2024年年報顯示研發支出達1797億元人民幣(約合257億美元),較2022年的1615億元人民幣增長10.8%。

展望未來,阿里巴巴和騰訊預計將成中國AI投資的主要推動力。例如,阿里巴巴已宣佈計畫在未來三年(2025–2027財年)投入3800億元人民幣用於AI和雲端運算基礎設施。

此外,中國的國有電信營運商(如中國移動、中國電信)也是資料中心投資的重要來源,我們將在後文進一步討論。

儘管中美超大規模企業的資本開支增速相近,但總支出規模仍嚴重偏向美國——美國雲巨頭正持續大規模擴建算力基礎設施,並投資下一代AI晶片,而中國企業在高端算力獲取受限的背景下,整體投入體量仍明顯較小。

2、政府支出

由於中美在AI投資模式上存在根本差異,兩國政府支出難以直接對標。我們觀察到,中國政府對AI及科技領域的財政支援主要通過三種形式實現:

1)直接政府投資:由地方政府設立的市級或省級科技產業基金;

2)政府背景的風投/私募基金:通過國有投資平台募集並管理的資金;

3)面向高校與科研機構的公共科研經費:用於支援基礎科技與前沿研究。

基於這一框架,我們彙總了若干主要資金來源,包括:

1)國家積體電路產業投資基金(“大基金”)三期;

2)北京人工智慧與機器人產業基金等重點城市及科技樞紐的省級基金。

據此估算,未來十年中國政府主導的科技投資承諾總額至少達9480億元人民幣(約合1350億美元),資金來源涵蓋直接財政撥款與政府引導撬動的資本。其中:

1)政府引導基金是最大來源,規模約6100億元人民幣(佔總額的64.3%),計畫在未來5–10年逐步投放;

2)直接投資佔比11.6%;

3)其餘部分為高校與科研機構的公共研究經費。

需要指出的是,這只是一個粗略估算,實際政府投入可能遠高於此。例如,我們的測算未包含“國家創業投資引導基金”——該基金目標是在未來20年內撬動1兆元人民幣(約1420億美元)支援科技創新項目。若政策性金融動員目標全面落地,中國官方對AI生態系統的支援力度可能被顯著低估。

美國政府對AI基礎設施的投資主要通過《晶片與科學法案》(CHIPS Act)實施。該法案撥款約520億美元聯邦資金,用於支援半導體製造激勵、研發補貼及針對晶圓廠和裝置製造商的稅收抵免。截至目前,這項政策已撬動數千億美元的私人投資。自2022年8月法案頒布以來,大部分撥款已獲批或分配,但由於採用基於里程碑的支付機制,實際資金撥付預計將延續至未來數年。

除CHIPS法案外,美國政府預計每年還將額外投入數十億美元用於與AI相關的各類項目,包括清潔能源稅收抵免、基礎設施與電力投資,以及國防部(DoD)和國家科學基金會(NSF)的專項經費。

簡言之,美國在AI領域的資金投入憑藉超大規模雲服務商的資本開支和強勁的私人投資,總體規模遠超中國;而中國則更依賴政府主導的財政承諾來縮小差距。

三、中美AI技術堆疊

在接下來的部分中,我們將深入分析中美AI技術堆疊的技術細節,並比較其應用普及與分發模式。我們聚焦於AI生態系統的三個核心維度(或層級):應用層(Applications)、模型層(Model Layer)、算力層(Compute Layer)。

1、應用層(Application Layer)

(1)月活躍使用者(MAU):中國AI聊天機器人使用者規模遠小於西方同行,且高度集中於本土。根據第三方2025年9月的估算資料:

DeepSeek全球月活使用者(MAU)達約2.49億(涵蓋App與網頁端),在中國AI聊天機器人中排名第一;字節跳動的 Doubao 約1.99億;騰訊的 Yuanbao 約4900萬;月之暗面(Moonshot AI)的 Kimi 約2300萬。

相比之下,西方主流產品同期表現如下:

ChatGPT MAU約7.99億;Gemini約3.01億;Grok約4900萬(見圖14)。

這意味著,中國領先的AI聊天機器人使用者規模僅相當於ChatGPT同期的約30%。儘管第三方資料可能存在偏差,僅可作為趨勢參考,但結合企業最新披露:ChatGPT在2025年10月宣佈周活躍使用者(WAU)已達8億,Gemini在2026年2月MAU突破7.5億,表明西方AI聊天機器人的擴張速度仍在加快。

此外,ChatGPT使用者高度全球化——據《The Information》報導,其近90%的使用者來自美國和加拿大以外地區。而中國聊天機器人的使用者幾乎全部集中於境內,海外滲透率接近於零,唯一例外是DeepSeek:其海外MAU達約5200萬,與Grok同期流量相當,佔其總使用者的約21%。

(2)移動端 vs 網頁端:中國AI使用以移動端為主導。QuestMobile資料顯示,2025年9月中國移動端AI使用者達7.29億,約為PC端(網頁及桌面應用)使用者的3.6倍。

比如Doubao 在移動端流量領先,其移動MAU是網頁端的6.5倍;DeepSeek則在網頁端表現最佳,但其移動MAU仍是網頁端的2倍。

這凸顯了中國AI應用具有鮮明的“移動原生”和“消費者導向”特徵

相比之下,西方模型在網頁端的工作流場景中參與度更高:ChatGPT、Gemini和Claude的網頁端MAU均顯著高於移動端(見圖14),反映出其在生產力工具和工作流程整合方面的更強滲透力。

(3)贏家通吃?頭部效應顯著,使用者黏性極強。當前,無論東西方,AI聊天機器人使用者高度集中在前兩名玩家手中,且使用者表現出極強的產品黏性。

在中國,DeepSeek與Doubao 合計佔據獨立AI聊天機器人絕大部分MAU(涵蓋網頁與移動);在西方,ChatGPT與Gemini 主導市場。

值得注意的是,儘管各大語言模型(LLM)在基準測試中持續刷新性能紀錄,但聊天機器人端的使用者遷移意願極低——這很可能源於產品設計優勢和已形成的使用習慣。

然而需提醒的是,中國AI應用的使用者規模仍遠小於海外領導者,也遠低於國內成熟超級App(如微信日活超10億)。市場仍處早期階段,增長路徑可能隨時間演變。為此,阿里巴巴、騰訊、百度等科技巨頭已在2026年春節假期推出“紅包引流”活動,以爭奪AI使用者。

具體使用者增長動態如下:

移動端方面:Doubao在2024年12月MAU為7500萬,到2025年9月迅速增至1.72億;36氪報導稱其DAU已於2024年12月突破1億。

騰訊Yuanbao從2024年12月的200萬MAU增長至2025年9月的3300萬。Kimi和百度文心一言(Wenxiaoyan)的MAU則出現下滑。

DeepSeek無疑是此階段使用者增長的最大黑馬:自2025年1月上線後,其中國區MAU從1月的約3400萬飆升至9月的1.45億。

阿里通義千問(Qwen):截至2025年9月MAU僅300萬,但在2025年11月重新發佈後,2026年1月MAU已突破1億。

(4)嵌入式應用 vs 獨立聊天機器人:在中國,嵌入現有超級App內的AI功能(如AI搜尋、智能助手) 遠超獨立聊天機器人。我們認為,中國的AI使用者流量高度依附於既有消費平台,AI能力被直接整合到微信、抖音、百度App等“超級App”中。例如:

百度的AI搜尋在2025年9月達到3.47億MAU,佔其整體搜尋流量的一半以上;百度還披露,截至10月底,約70%的移動端搜尋結果頁已包含AI生成內容。

字節跳動在其抖音App內推出的Doubao AI搜尋,MAU達2.15億。

騰訊微信的AI搜尋MAU為1.66億。

阿里巴巴也在支付寶、高德地圖(Amap)、夸克(Quark)等多個核心應用中全面嵌入AI功能。

這些管道極大地加速了AI在中國大眾市場的普及,且相關AI功能普遍免費使用。但這也可能導致AI使用高度依賴平台生態,難以培育出真正獨立的AI品牌。

(5)變現模式:中國聊天機器人基本免費,海外使用者付費意願更強。

在中國,大多數通用AI聊天機器人(如DeepSeek、智譜Zhipu)目前仍免費開放,以最大化使用者覆蓋和分發規模。根據智譜在港交所IPO檔案披露,儘管AI助手和工具不斷湧現,中國使用者對大語言模型(LLM)的付費意願依然很低。因此,其收入主要來自企業客戶的API呼叫和本地化LLM部署服務。

對於大型科技公司而言,AI變現主要通過雲端運算服務和API消耗實現。例如阿里巴巴和百度,當企業客戶擴大模型訓練、微調和推理工作負載時,它們便從中獲得收入。此外,AI也正在賦能現有業務:提升廣告與搜尋推薦效果;為電商提供智能化廣告工具;最佳化客戶服務體驗。

不過,MiniMax是一個例外。根據其IPO檔案,2025年前三個季度約70%的收入來自面向消費者的AI產品。但值得注意的是,這些消費端收入幾乎全部來自音訊、圖像、視訊及AI陪伴類應用,而其通用AI聊天機器人/智能體應用“MiniMax”的變現貢獻僅佔總收入的1%。更關鍵的是,在其AI原生產品收入中,超過80%來自中國以外市場,這清晰表明:海外消費者對AI服務的付費意願顯著高於中國使用者。

2、模型層(Model Layer)

(1)中國開源社區 vs 美國閉源模式

中國的大語言模型(LLM)生態明顯趨向開源發展。眾多領先初創企業(如 DeepSeek、月之暗面 Moonshot AI、MiniMax、Z.ai)以及超大規模科技公司(如阿里巴巴、騰訊、百度、字節跳動)紛紛將其最新或接近前沿的模型開源,以加速集體創新。這種策略促進了學術界和商業界的廣泛採用,支援快速迭代,並借助開源社區的集體力量推動模型技術進步。

不過,中國超大規模企業普遍採取混合策略:其最先進、高算力消耗的旗艦模型(如阿里通義千問 Qwen3-Max、百度文心 ERNIE-5.0、騰訊混元 HY-2.0-Think、字節跳動 Doubao-1.8)仍保持閉源,以維持商業差異化優勢。

政策層面,北京和上海在2025年12月分別發佈規劃,明確將在未來幾年大力發展開源生態,包括到2028年建構數百個行業專用的開源大模型,並向中小企業開放相關技術。

相比之下,美國主要玩家——包括 OpenAI、Anthropic 和 Google——仍堅持閉源路線,嚴格保護模型權重不對外公開。

(2)定價:DeepSeek輸出價格僅為GPT-5.2的3%

中國領先的 LLM 提供商在價格上展開激烈競爭,近期發佈的基礎模型輸出定價普遍不到 GPT-5.2 的 30%。這種大幅折扣反映了其更高效的訓練成本結構和推理最佳化,有助於推動 AI 在中國的廣泛普及。具體案例:

DeepSeek V3.2(2025年12月發佈):輸入價格:0.28美元/百萬token(為 GPT-5.2 的 16%);輸出價格:0.42美元/百萬token(僅為 GPT-5.2 的 3%;GPT-5.2 定價為輸入 1.75 美元、輸出 14 美元)。

字節跳動 Doubao-Seed-1.8(2025年12月發佈):輸入/輸出價格分別為 GPT-5.2 的 7% 和 8%。

即使是大型模型,如百度 ERNIE-5.0(2.4T MoE 架構)和阿里 Qwen3-Max(1T MoE),其輸出定價也僅為 GPT-5.2 的 約24%

在美國方面:Anthropic 的 Claude Opus 4.5 定價處於高端;Google 和 OpenAI 的模型略低,但仍顯著高於中國同類產品。

(3)模型性能:中國開源模型正快速縮小與美國前沿模型的差距

我們參考兩個“人工分析”(Artificial Analysis)指數,從綜合智能水平(涵蓋英語、程式碼、數學、智能體任務、工具使用等基準)和智能體能力(agentic capabilities)兩個維度對比中美模型。

DeepSeek 在2025年12月發佈的 V3.2 論文指出:過去幾個月,Anthropic、Google 和 OpenAI 的閉源模型進步速度快於中國開源模型。當前,GPT-5.2(High)和 Claude Opus 4.5 仍在綜合智能和智能體任務上保持領先,而開源模型整體仍處追趕狀態。

但值得注意的是,部分中國模型已在關鍵指標上追平甚至超越部分西方中端模型:

Kimi-K2.5、GLM-4.7、DeepSeek V3.2、Qwen3 Max Thinking 和 MiniMax-M2.1 在“綜合智能指數”上已達到與 Claude Sonnet 4.5 相當的水平。

在智能體能力方面,中國模型進步尤為顯著

Kimi-K2.5、GLM-4.7、DeepSeek V3.2 和小米的 MiMo-V2-Flash 均優於 Gemini 3 Pro 和 Claude Sonnet 4.5。具體亮點:

GLM-4.7:作為智譜(Zhipu)最新基礎模型,在開源模型中智能體任務表現突出。智譜於2026年1月8日成為首家在港交所上市的中國生成式AI公司。

DeepSeek V3.2 針對閉源模型的三大結構性劣勢進行了創新突破:

計算成本與長上下文效率:提出 DeepSeek Sparse Attention (DSA) 結構,顯著降低注意力機制複雜度;

複雜任務性能:在後訓練階段強化了強化學習(RL);

智能體能力:開發了一套新型合成訓練流程,包含1,800+ 種不同環境和85,000+ 複雜提示,將推理能力深度融入工具呼叫場景。

此外,DeepSeek 還發表論文提出 mHC 架構,以更高效的方式擴展訓練並提升性能。

Kimi-K2.5:可自主協調多達 100 個 AI 子智能體協同工作,每個子智能體能獨立使用工具進行搜尋、生成、分析和資訊組織。

MiMo-V2-Flash:小米推出的開源高速推理與智能體大模型,總參數量達 3090 億,啟動參數 150 億。MiMo LLM 團隊負責人羅富麗(Fuli Luo)曾是 DeepSeek V2 模型的核心貢獻者。

(4)智能水平 vs 成本效率:中國模型在實現具競爭力的智能評分的同時,展現出顯著更優的成本效益。

有人可能會指出,儘管中國模型定價大幅折扣,但開發者評估模型整體效率和經濟性時,執行具體任務的實際成本(即“token效率”) 才是關鍵。圖21對比了各模型在“智能指數”(Intelligence Index)得分與其運行測試所需成本之間的關係:

GPT-5.2 雖然取得最高的智能評分,但其運行成本也是所有東西方模型中最昂貴的。

若以 Grok 4 的智能指數作為東西方模型的中位基準,則西方模型中,Gemini 3 Pro、GPT-5.1 和 Claude Sonnet 4.5 表現出較好的成本效率——在相對較低的運行成本下實現了高於平均水平的智能表現。

DeepSeek V3.2 同樣實現了高於平均水平的性能,但其運行成本極低:僅為 GPT-5.2 的約 3%,也僅相當於 Gemini 3 Pro 的約 9%。

總體而言,中國模型普遍以遠低於西方同行的成本運行,在性價比方面具備明顯優勢。

(5)Hugging Face 下載資料:另一個有價值的參考指標來自 Hugging Face——全球領先的開源AI與機器學習模型平台。根據最近一個月的下載資料顯示(見圖22):

阿里巴巴的通義千問(Qwen)系列佔據了熱門下載榜單的主要份額;其餘上榜模型主要來自 OpenAI、Meta 和 Mistral。

值得注意的是,榜單上的大多數模型均為輕量級模型(參數量通常低於100億),這很可能是出於本地部署的實用性、硬體資源限制以及性能與效率之間的權衡。

阿里巴巴通過其豐富且多層次的開源Qwen模型矩陣(涵蓋數百種變體及衍生模型),有效滿足了開發者多樣化的應用需求。

另一方面,DeepSeek R1 在 Hugging Face 上獲得了累計最多的點贊數(likes),顯示出其在開源社區中的極高人氣與認可度。

3、算力層 / 資本支出(Compute Layer / Capex)

在本節中,我們嘗試估算中國領先AI企業為滿足其推理(inference)所需的年度總Token使用量及相應的GPU叢集規模。我們採用自下而上的方法,將每家公司的Token使用劃分為以下三類:

1)第一方應用推理(1P Application Inference):指各公司在其自有AI助手(如字節跳動的Doubao、騰訊的Yuanbao)以及高流量App內嵌AI功能(如微信和抖音中的AI搜尋)所產生的Token消耗。我們估計,目前1P應用推理構成了中國AI公司推理算力需求的主體。

2)公有雲MaaS(Public Cloud MaaS, Model as a Service):反映面向第三方企業客戶的模型商業化,主要來自外部API呼叫(如阿里雲的“百煉”、字節火山引擎的AI服務)。儘管該業務增長迅速,但目前仍僅佔整體Token使用量的很小一部分。

3)內部訓練(Internal Model Training):代表這些公司的“固定”計算成本,包括基礎模型預訓練、持續的後訓練(post-training)和微調所需的Token消耗。不過,由於峰值推理需求才是GPU採購決策的主要驅動因素,而內部訓練通常可錯峰進行,因此我們在後續GPU需求測算中不將其納入考量。

1)第一方應用推理的算力需求

在上述三類中,1P應用推理所需的算力最多,也是推動Token用量和GPU需求快速上升的核心驅動力。除DeepSeek外,中國主要AI玩家均為成熟的網際網路巨頭,它們不僅營運自有AI聊天機器人,還在旗下眾多移動與PC應用中廣泛部署AI功能,覆蓋電商、社交、內容、地圖等多個垂直場景。

以騰訊為例:其移動端AI助手“元寶”(Yuanbao)截至2025年9月MAU達3300萬(QuestMobile資料);同時,騰訊在其旗艦應用微信(MAU超14億)中推出AI搜尋功能,已有超過1700萬使用者使用過該功能。

為估算這些公司1P應用產生的總AI查詢量,我們做出以下關鍵假設:

日活/月活比率(DAU/MAU,即日活滲透率):根據應用普及度不同,該比率約為20%至60%。應用規模越大、使用者體驗越好,使用者黏性越強,日活滲透率越高。

例如,媒體曾報導Doubao在2024年12月DAU已突破1億,而其2025年9月MAU為1.72億,意味著其DAU/MAU比率可能已超過50%,接近60%。

作為參照,Similarweb資料顯示,ChatGPT在2025年8月的DAU滲透率接近44%;同期DeepSeek的DAU滲透率約為20%,但此後很可能已顯著提升。

每位日活使用者的日均互動強度:假設每位DAU每天使用移動或桌面App 3–4次,每次平均進行5輪對話,即每天產生15–20次查詢。

參照Axios在2025年7月援引的資料:ChatGPT每日處理約25億次查詢,相當於每位DAU每天15–20次查詢,與我們的假設一致。

市場格局:頭部效應顯著

根據我們的分析,Doubao和DeepSeek無疑是中國最受歡迎的兩大AI模型系列,分別處理了全國約60%和25%的AI查詢總量。

需要強調的是,由於相關公司披露資訊極為有限,上述結論基於大量估算假設,最終數值應僅作趨勢參考。但我們認為,這一結果精準反映了當前中國AI行業的基本動態:市場高度集中,頭部兩家玩家很可能佔據了絕大部分份額。

我們估計,文字/語音類查詢佔總查詢量的絕大部分,並驅動約80%的Token消耗。儘管圖像生成僅佔總查詢量的1%–2%,卻貢獻了約15%的Token用量,這主要是因為AI圖像生成(通過擴散模型)單次所需Token量極大。

例如,使用2×2的圖像塊(patch size)生成一張1024×1024解析度的圖像,並進行20步擴散採樣,大約需要8萬個Token——相當於一本220頁的書的文字量。

在文字/語音查詢中,我們認為深度推理類查詢(reasoning queries)佔比已升至總查詢量的約30%,這得益於推理模型在速度和精準性上的持續提升。作為參考,據Zebracat分享的Perplexity AI使用者資料顯示,2025年有29%的查詢與學術或研究相關,可作為合理基準。這類推理查詢顯著推高了Token用量:單次推理查詢平均消耗約1萬個Token,而普通訊息類查詢僅需約2000個Token。

僅1P應用推理就已催生對H20 GPU的巨大需求

即使僅考慮第一方應用推理需求,各公司也亟需大量輝達H20 GPU,並正激進擴大資本開支。

以字節跳動為例:為支撐其每年超7,100兆(7,100T)的Token處理量,我們的測算顯示,該公司至少需要超過37.3萬張H20 GPU,才能滿足高峰時段的算力需求。我們採用了200%的峰均流量比(peak-to-average ratio),以反映結構性流量波動——例如工作日白天或晚間使用者活躍高峰——這要求企業必須大規模超配GPU,以保障使用者體驗。

這一估算可與《南華早報》(SCMP)的報導相互印證:該報導稱,字節跳動2025年GPU預算約為850億元人民幣(約120億美元)。若其將全部晶片預算用於採購H20(每台8卡伺服器成本約16萬美元,含機箱、網路及其他基礎設施),我們估計其2025年實際採購量約為30萬至40萬張H20。報導還指出,字節計畫在2026年將預算進一步提升至超1000億元人民幣(約140億美元)。

阿里巴巴則承諾在未來三年(2025–2027財年)投入3800億元人民幣用於AI相關資本開支,超過其過去十年的總資本支出。

騰訊方面,最初在2025財年初指引全年資本開支佔收入比例為“低兩位數區間”(low-teens%)。但到2025年11月,公司下調了指引,雖低於原區間,但仍高於2024年的12%。管理層強調,這一調整完全源於AI晶片供應變化,而非AI戰略或未來Token需求預期的改變。

此外,騰訊透露,微信計畫未來在其小程序生態中推出內建AI智能體(agent),覆蓋電商、支付及廣泛網際網路場景。考慮到微信MAU已超14億,我們估算此舉可能帶來每年約2,000兆Token(2,000T)的新增消耗,進一步推高其資本開支需求。

2)公有雲/MaaS市場格局

目前,中國公有雲MaaS(模型即服務)市場由字節跳動、阿里巴巴和百度主導。根據IDC發佈的資料,2025年上半年,字節跳動按Token用量計佔據約50%的市場份額。

字節在2024年中率先發起價格戰,將其面向企業的模型API定價大幅低於競爭對手。儘管其他廠商迅速跟進並匹配價格,但字節成功吸引了大量高頻、價格敏感型API客戶。

相比之下,阿里巴巴聚焦於提供最完善的開源模型與整合化雲解決方案:

其通義千問(Qwen)系列擁有數百種變體和衍生模型,在Hugging Face上下載量居首,充分滿足開發者多樣化需求;同時提供整合的雲服務,包括底層安全與合規基礎設施,特別適合金融、汽車等傳統行業企業客戶。

因此,儘管阿里處理的Token量可能低於字節,但其單位Token產生的收入更高,商業模式更具價值密度。

目前,中國的公有雲/MaaS(模型即服務)在整體Token消耗和算力使用中僅佔較小份額。根據我們的測算,其佔比約為10%出頭,遠低於第一方應用推理(1P App Inference)的消耗量。

不過,這一比例因公司戰略重心不同而有所差異:

字節跳動和騰訊更側重B2C業務,其Token使用高度集中於1P應用推理和內部用途。這一點可從騰訊管理層近期表態得到印證:“我們的GPU資源實際上已足夠滿足內部需求……但外部雲業務收入仍受某些限制因素制約。”

相比之下,阿里巴巴和百度在MaaS市場處於領先地位,且自有消費級App流量相對較小,因此其算力分配更為均衡,B2B與B2C之間的比例更趨平衡。

由於公有雲/MaaS整體規模有限,各公司為此所需的H20 GPU數量也明顯較少,每家大約僅需1萬至2萬張。

3)內部訓練:受限於晶片供應,佔比被迫壓縮

在中國當前的市場環境下,內部模型訓練所佔算力需求比例相對較小,主要原因如下:

GPU供應嚴重受限:所有中國公司都無法按需採購H20晶片;

資源分配面臨兩難抉擇:是將大量GPU用於訓練以提升模型能力,還是優先保障面向使用者或企業客戶的推理服務?

在激烈的中國消費網際網路競爭中,“先搶使用者、再最佳化體驗” 的策略已被反覆驗證有效。因此,大多數公司選擇將稀缺算力優先用於推理服務,以贏得“使用者爭奪戰”,同時通過演算法最佳化、資料提純等方式,在有限晶片條件下持續改進模型。

面對算力約束,中國企業正積極探索高效利用已有NVIDIA晶片的方式,包括:

逐步將部分H20轉向訓練任務,並用國產AI ASIC晶片(如華為昇騰、崑崙芯等)替代其在推理場景中的角色;

利用為高峰推理預留的冗餘算力,在非高峰時段執行微調(fine-tuning)、知識蒸餾(distillation)等輕量級訓練任務。

據媒體報導,幾乎所有中國頭部AI公司目前已部署華為晶片,例如螞蟻集團已部署數萬張昇騰晶片。

如果中國監管機構批准企業向輝達下單採購H200(該型號已獲美國政府許可對華銷售),企業有望以更低資本開支實現同等性能。

具體而言:一台8卡H200伺服器成本約為H20伺服器的2倍;但其理論算力(FP8/INT8)可達H20的約6倍;因此,在不考慮實際運行中MFU(Model FLOPs Utilization)差異的情況下,實現相同性能所需資本支出可減少約20%。

路透社近期報導稱,中國科技公司計畫在2026年訂購約200萬張H200。但據我們瞭解,這些訂單仍需經中國監管部門審批——當局正在評估各企業的實際需求,相關流程仍在進行中。

4)綜合算力需求估算

綜合1P應用推理、公有雲/MaaS及內部訓練需求,我們估算:

騰訊、阿里、百度等頭部AI企業各自約需10萬張H20;

字節跳動需求更高,可能接近40萬張H20(此估算尚未包含其內部編碼、行銷自動化、AI工具鏈等潛在用途——這些需求可能相當可觀,但極難量化)。

值得注意的是,部分公司的內部AI使用可能實際佔更大比重。正如阿里和騰訊所透露,在晶片短缺背景下,它們正優先保障內部AI應用,這可能意味著未公開的Token消耗遠超外界預期。

若形勢進一步惡化,這些公司可能被要求主要甚至全部採購國產晶片。這將帶來新的挑戰:

中芯國際(SMIC)的7奈米製程產能仍有限,儘管其計畫在2026年大幅擴產,但產能爬坡需要時間,供應瓶頸在擴產完成後仍可能持續存在。

如果企業能夠:獲得足夠數量的國產晶片(如華為昇騰910C),並解決系統與模型層面的相容性問題,那麼在某些場景下,從H20切換至昇騰910C甚至可能降低約10%的資本開支。

四、2026年展望:Token用量與資本開支預測

我們預計,2026年中國主要AI公司的總Token生成量將同比增長約117%,達到25,221兆(25,221T),主要驅動力來自:AI聊天機器人App的普及;超級App(如微信、抖音、支付寶)內嵌AI功能的廣泛採用。

相應地,這些公司的H20相關資本開支合計將達到約285億美元;若計入伺服器機箱、網路裝置及其他配套基礎設施等非GPU支出(約佔AI總Capex的另一半),整體AI相關資本開支預計將達約540億美元。

當然,這一估算可能偏保守——如果類似美國的智能體(agentic)在中國快速流行,或對輝達晶片的採購限制有所放鬆,實際需求可能遠超預期。

為何我們的Capex估算低於公司指引?

投資者可能會注意到:即便在我們對使用者增長和使用強度做出樂觀假設的前提下,我們對阿里和騰訊2026年H20相關Capex的估算仍顯著低於公司官方指引或媒體報導的內部目標:

阿里管理層指引未來三年AI Capex為3800億元人民幣(約合每年180億美元);

騰訊2025年Capex佔收入“低兩位數百分比”,若2026年維持相同比例,按其收入規模推算,年Capex約為140億美元;

《南華早報》亦報導稱,字節跳動2026年GPU預算將超1000億元人民幣(約140億美元)。

這一差距主要可歸因於以下四點:

1)公司整體Capex包含大量非GPU支出:GPU僅佔AI總Capex的一半左右,其餘用於伺服器機箱、高速網路、冷卻系統、資料中心建設等配套基礎設施。

2)需疊加歷史基線Capex:公司披露的Capex目標包含其傳統業務(如遊戲、廣告、電商)所需的常規IT投入,並非全部用於AI。

3)大量算力用於內部非AI大模型業務:企業還需為軟體開發、推薦系統、廣告平台、內容稽核、合規與法務等內部系統分配GPU資源,這些同樣產生可觀Capex。

4)前瞻性投資策略:公司預期未來幾年AI需求將爆發式增長,因此選擇提前大規模投入,以搶佔生態位和人才。

經上述因素調整後(見圖35),我們的測算結果與各公司Capex指引區間基本吻合。

我們清楚地看到,中國企業在AI資本開支(Capex)方面明顯落後於美國同行。

根據我們此前的估算及公司指引,中國四大領先AI企業(阿里、騰訊、字節、百度)——合計AI相關資本開支僅相當於彭博共識預測的2025年美國五大超大規模雲服務商(Meta、微軟、亞馬遜、Google、甲骨文)。而據彭博共識預計,這些美國雲巨頭在2026年還將同比再增加約50%的資本開支。造成這一差距的原因是多方面的:

1)晶片供應受限:中國公司常常面臨硬體(尤其是高端AI晶片)供應瓶頸,即使預期業務將快速增長,也難以提前大量採購庫存,從而制約了資本支出規模。

2)使用者基數與全球化程度差異顯著:美國企業服務的是全球使用者,使用者規模遠超中國公司。例如,《The Information》報導稱,ChatGPT近90%的使用者位於美國以外;其他媒體資料顯示,Google Gemini約87.5%的流量來自國際市場。相比之下,中國AI聊天機器人及App內嵌AI功能的使用者幾乎全部集中於境內,海外滲透率極低。

3)使用者行為存在本質差異:美國使用者普遍將AI工具深度融入PC端日常工作流,頻繁發起複雜、高Token消耗的推理型查詢(如程式設計、研究、文件生成等),推動Token用量大幅攀升;中國使用者則主要通過移動端使用AI,多用於簡單任務(如問答、搜尋、娛樂),單次互動Token消耗較低,整體使用強度和複雜度不及西方。

綜上,供給約束、市場邊界侷限以及使用模式差異共同導致中國AI生態在資本投入和算力消耗規模上與美國存在顯著差距。這一差距不僅體現在當前支出水平,也可能影響未來技術迭代與生態競爭力的長期格局。 (衛斯李的投研筆記)