Token:最純粹的電力衍生品,中國低電價正在重塑全球AI定價權

當美國使用者點選滑鼠呼叫智譜或Kimi的API,資料通過太平洋海底光纜抵達中國資料中心,GPU消耗中國電力完成推理——電力從未出境,但價值已通過Token完成跨境交付。

2026年1月,全球雲端運算行業發生了一場靜默革命。亞馬遜AWS悄然將其EC2機器學習容量塊價格上調約15%,配備八個NVIDIA H200加速器的p5e.48xlarge實例價格從每小時34.61美元跳漲至39.80美元。

這一調整打破了雲服務行業延續二十年的“只降不升”鐵律,標誌著雲端運算定價策略的根本性轉變。

01 電力變數字

在AI時代,Token就是AI工作的“工作量單位”。使用者每問一句話、每生成一張圖、每寫一段程式碼,都在消耗Token。

而製造Token的成本結構中,電力+算力佔比超過70%,遠高於其他任何成本。這就是為什麼說Token是最純粹的“電力衍生品”——本質就是電力轉化而來的數字產品。

與石油、鋼鐵等傳統商品不同,Token無需物理加工、無需長途運輸,製造過程高度集中:GPU消耗電力,將資料轉化為有用結果,每一份結果都對應固定數量的Token。

簡單公式就是:Token = 電力 × 算力效率。電力是“燃料”,算力是“生產工具”,兩者結合就能源源不斷地產出Token。

02 跨境新範式

美國使用者呼叫中國大模型API的場景,最顛覆之處在於“電力不出境,價值已交付”

長期以來,電力跨境貿易面臨巨大挑戰:特高壓輸電會損耗5%-10%的電力,建設線路成本高昂;使用電池儲存再運輸,不僅容量有限,還會產生自耗電,經濟性極差。

Token的出現完美解決了這一難題。中國的電力驅動GPU製造Token,Token通過網際網路(海底光纜)傳輸到全球,使用者付費購買Token對應的AI服務,實際上就是在購買“中國電力轉化而成的數字價值”

這種模式形成了“中國供電、全球使用”的閉環。以海外開發者常用的OpenRouter平台為例,最近一周使用量最高的五個Token模型中,四個來自中國公司,其中MiniMax的M2.5模型一周處理了1.44兆個Token,位居榜首。

03 定價權轉移

中國電力價格的優勢正在轉化為全球AI服務的“定價話語權”,這是對行業影響最為深遠的變化。

中國電力價格低廉並非偶然。西部地區工業電價可低至0.1-0.3元/度,比美國便宜60%以上,比歐洲更具成本優勢。

國家推動的“東數西算”工程將資料中心佈局在內蒙古、甘肅等風電、太陽能資源豐富的地區,幾乎可以實現100%使用綠色電力,進一步降低電力成本。

電力價格優勢直接轉化為Token成本優勢。製造100萬Token,中國資料中心的電力成本僅為歐美地區的1/4到1/5。

再加上中國資料中心的高效率(如上海臨港的海底資料中心,PUE值穩定在1.15以下,電力主要用於計算而非散熱),中國大模型的API定價具有絕對競爭力。

DeepSeek通過技術最佳化,每百萬Token定價僅為0.14美元,而OpenAI同類服務高達7.5美元;MiniMax的定價也只有國外同類產品的1/10。

04 行業大變革

AWS作為全球最大的雲服務提供商,打破二十年“只降不升”的慣例,漲價15%不是孤立事件,而是明確訊號:Token需求爆發性增長,成本壓力正向上游傳導,AI行業的定價邏輯已徹底改變。

過去二十年,無論是AWS還是阿里雲,都遵循“使用者越多,價格越低”的邏輯——規模擴大降低單位算力成本,服務價格持續下降。

但AI時代改變了這一規則。Token需求暴增,AI智能體、視訊生成等應用日益普及,對算力的需求呈指數級增長,而算力的核心成本(電力、GPU)持續上漲,導致雲服務營運成本大幅上升。

AWS漲價本質上是“算力成本上漲倒逼雲服務提價”,背後是Token需求的爆發:Token消耗越多,所需算力越多,消耗的電力、使用的GPU就越多,上游成本(電費、GPU、資料中心維運)隨之上漲。

這種成本壓力從AWS等雲服務商傳導至算力提供商、電力供應商,形成閉環:Token需求增長 → 算力成本上漲 → 電力需求增加

05 未來新格局

結合當前AI行業現狀——Token需求暴增、算力供應緊張、各國電力價格差異顯著——未來5-10年,AI行業將進入全新階段,“電力+算力”將成為決定性因素,行業格局和盈利模式都將發生根本性變化。

隨著AI智能體、多模態大模型(能處理文字、圖片、視訊)、工業AI、自動駕駛等場景日益普及,Token需求將呈指數級增長。

摩根大通預測,2025-2030年,中國AI推理使用的Token量每年將增長330%,從10兆增至3900兆,五年增長370倍。

全球範圍內,AI智能體普及後,Token消耗量將更加驚人——一個簡單的AI智能體比普通聊天機器人多消耗10倍Token,多個AI智能體協作則可能多消耗100倍Token。

Token消耗量增加意味著算力需求增長;算力需求增長則推動電力消耗上升:一個萬卡級算力叢集每年消耗的電力相當於一個小型城鎮的日常用電量。

預計到2030年,全球資料中心電力消耗將超過日本全國一年的用電總量

未來,電力不再是AI行業的“次要成本”,而將成為制約行業發展的最大瓶頸——誰能解決“電力價格低廉、供應穩定”的問題,誰就能抓住AI行業的機遇。

AWS漲價只是一個開始。未來,無論是阿里雲、騰訊雲還是其他全球雲服務商,都將打破“持續降價”的慣例,進入“適時調價”的新階段——核心原因是算力成本持續上漲,Token需求帶來的成本壓力不斷傳導。

雲服務定價邏輯將從“規模擴大就降價”轉變為“成本上漲就調價”:不再單純依賴規模效應降低成本、降低價格,而是根據電力、算力成本變化靈活調整定價,確保盈利能力。

這種定價邏輯的轉變將影響整個AI產業鏈的價格體系:從上游的電力、GPU,到中游的算力、Token,再到下游的AI應用,都將面臨成本上漲的壓力。

而那些具有成本優勢的企業——擁有低廉電力、高效算力——將在競爭中脫穎而出。 (吐故納新溫故知新)