我們在《人工智慧應用中,token到底應如何翻譯?》中,認為對於token翻譯需要一個兼具價值基本單位、計算基本尺度和基礎構成單位,三者於一體的表述,據此認為token最好的翻譯是“籌”。之所以如此關注這個問題,是因為token已經在一定程度上成為人工智慧應用能力的關鍵詞,我們將進一步論述token是資訊單位、算力單位、貨幣單位,已經成為衡量人工智慧應用水平的尺度。從“字節”到“Token”,已經形成了認知的躍遷。在電腦科學的傳統語境中,“字節”(Byte)是資訊儲存和傳輸的基本計量單位。無論是硬碟容量、網路頻寬還是記憶體大小,我們都習慣於用字節來衡量。然而,當我們將目光轉向人工智慧領域,尤其是大語言模型的世界,另一個單位悄然成為核心度量衡——Token(籌)。Token究竟是什麼?它與字節有何關係?為什麼DeepSeek、OpenAI、Anthropic等AI廠商無一例外地選擇用Token來定價、限制對話長度、衡量算力消耗?更進一步,為什麼Token的消耗量和使用效率,正在成為評判AI模型能力強弱的核心標尺?本文將從Token與字節的技術關係出發,深入剖析Token為何成為AI經濟的“一般等價物”,並論證一個核心觀點:Token能力,即模型用儘可能少的Token實現儘可能高價值任務的能力,正在成為人工智慧的核心競爭力。一、字節與Token:從物理儲存到語義理解的跨越要理解Token的意義,首先需要釐清它與字節的本質區別。字節是電腦物理層面的儲存單位,1字節等於8位元,代表一個0-255之間的數值。在純文字檔中,一個英文字母通常佔用1字節,一個中文字元在UTF-8編碼下通常佔用3字節。字節的計量是機械的、均勻的、與語義無關的——無論這個字元是“的”還是“量子”,無論它在句子中扮演什麼角色,在字節層面它們只是冰冷的數字。Token則完全不同。Token是大語言模型處理文字的基本單元,是將連續文字序列離散化後可計算的最小語義單位。它既不是字元,也不是固定的字節塊,而是通過分詞演算法(如字節對編碼BPE)從訓練資料中統計得到的語義碎片。舉例來說,英文單詞”unbelievable”可能被分成”un”、”believe”、”able”三個Token,因為從統計上看,這些子詞單元能更好地組合出新詞;中文句子“人工智慧很強大”可能被分成“人工”、“智能”、“很”、“強大”四個Token,而非逐字分割。根據統計,英文中平均每個Token對應3-4個字元,約0.75個單詞;中文則因編碼效率不同,平均每字約0.5-2個Token。字節和Token的關係,折射出兩種截然不同的世界觀:字節計量的是“儲存了什麼”,它忠實記錄每一個位元,無論資訊有無意義;Token計量的是“模型看到了什麼”,它反映的是模型理解語言的基本粒度,是語義世界的最小公倍數。字節是物理世界的計量,Token是語義世界的計量。當電腦從計算走向理解,計量單位也必須從物理躍遷到語義——這正是Token取代字節成為AI核心單位的底層邏輯。二、Token是資訊單位:智能思考的細胞為什麼人工智慧應用的最基礎單位不是字節,而是token呢?這是理解AI所有問題的基礎。究其原因,從根本上說這是因為模型根本不是按“字節/字元”理解文字的,它只認token。而且算力、成本、長度,全都跟 token 強繫結,跟字節無關。模型是怎麼“讀”資訊的?比如你看到的是“我喜歡人工智慧”,而電腦(字節)看到的是一堆 0101 二進制,按字節存。但大模型看到的,是先把文字切成一段“小碎片”這就是token,比如:我 / 喜歡 / 人工 / 智能。模型不認識字,只認識編號。每一個token,模型都要做一次巨大的矩陣計算。那為什麼不能按“字節”收費/算長度? 一是因為同樣長度字節,token可能差很遠;同樣是 100 字節,英文可能切成25個token,而中文可能切成30~40 個token。而程式碼、符號、特殊表情:可能1個字元=1個token。字節相同,模型計算量天差地別。二是模型算力=跟token 數量成正比。每進1個token,模型要做一次完整推理計算, 進1000token,計算量×1000。上下文越長(比如 128k token),算力爆炸式增長。算力成本≈token數量,而跟字節幾乎無關。三是字元/字節沒法衡量“模型理解難度”。一個生僻詞可能佔1個字元,卻切成 3 個 token,一個常用詞可參3個字元,只切成 1 個 token。模型理解成本、計算成本,只由 token 決定。總之,字節是存檔案的單位,而token是模型思考的單位。API 收費、長度限制、算力消耗,本質都是在收模型“思考”的錢,不是存檔案的錢。 所以必須按token算,而不能按 字節/字元算。三、Token是算力單位:智能效率的標尺理解了Token的本質,就不難解釋為什麼AI廠商的API定價、對話長度限制、算力消耗估算都不約而同地選擇Token而非字節。這背後有著深刻的技術和經濟原因。Token是計算的基本單元。在大模型的推理過程中,Token是計算的基本單位。模型對每個Token的處理都需要執行嵌入層查詢、注意力計算和前饋網路運算,處理的Token數量越多,計算量呈平方級增長。更重要的是,不同Token消耗的算力並不相同。Google最新的研究發現,模型生成的Token其實可以分為兩類:一類是“功能性詞彙”,如“和”“是”“的”這類詞,模型在淺層網路就快速確定了,不需要深度思考;另一類是“深度思考詞”,如“運算結果是10”“選項為A”,這類詞在深層網路中還會被反覆修正,體現模型真正在琢磨問題。如果用字節計費,意味著要求使用者為“的”“了”“嗎”這些廉價Token支付和核心推理Token同樣的價格——這顯然無法反映真實的計算成本。而Token作為模型處理的基本單元,天然地與計算量掛鉤,因此成為更公平的計量基準。Token是輸入/輸出的雙向成本結構。當前主流API均採用“輸入Token+輸出Token”的復合計價模式。這一設計的精妙之處在於,它精準反映了NLP任務中“思考過程”(輸入處理)與“結果生成”(輸出)的不同資源消耗。以DeepSeek為例,其計費模型中輸入和輸出價格不同,輸出通常更貴,因為生成過程需要逐個Token地自回歸計算,無法平行。如果按字節計費,這種成本結構的差異將無法體現——同樣是1KB資料,作為使用者提問傳送和作為模型答案生成,背後消耗的算力可能相差數倍。Token是語義容量的衡量尺度。另一個關鍵概念是上下文窗口(Context Window),即模型單次處理的最大文字長度。GPT-4支援32K Token,Claude 3支援200K Token,DeepSeek企業版支援32K Token。為什麼不用字節來定義上下文窗口?因為模型真正“看到”的是Token序列,而非字節流。Transformer架構的注意力機製作用於Token之間,其計算複雜度和記憶體佔用與序列長度的平方成正比。一個200K Token的窗口,對應的是模型能夠同時“關注”的語義單元數量,而非物理儲存空間。用Token定義窗口,才是對模型能力邊界的真實刻畫。四、Token是貨幣單位:智能商業的壁壘如果說Token消耗量反映了模型的效率,那麼單位Token創造價值的能力則是模型商業價值和技術能力的終極體現。一個反直覺但日益成為共識的結論是:對於同一個意思,Token使用量越少,說明模型處理能力越強。最高級的智能,恰恰在於知道什麼時候該停止思考。 能夠用更短的思維鏈、更少的Token精準解決問題的模型,才是真正聰明的模型。Token消耗量,正在成為衡量模型“思考效率”的核心指標。Token的貨幣化:AI經濟的計量單位。當前,全球AI廠商的營收正與其Token呼叫量呈現顯著同步的高增趨勢。OpenRouter平台的周度Token呼叫量在2026年3月達到14.8兆,兩個月內增長約160%。Token已經成為衡量AI應用滲透的“硬指標”。在這一背景下,單位Token的經濟產出成為區分模型優劣的關鍵。同樣是處理一個企業客服請求,模型A消耗5000 Token,模型B消耗2000 Token但達到相同的解決率,後者就具備了5倍的成本優勢。中國模型之所以能在全球市場持續提升份額,核心優勢正是“性能與成本效益”——即更高的Token價值化能力。Token的價值化:AI技術的演進標尺。Token價值化能力的提升,正在成為各大廠商技術競賽的主戰場。一方面,通過演算法創新壓縮冗餘Token。字節跳動的SAGE-RL演算法能在保持精準率的同時,將推理Token消耗壓縮約1/3;Google的Think@n策略通過早期識別低品質推理樣本,在多款模型上實現算力成本砍半。另一方面,通過架構創新提升Token的語義密度。字節Seed的DLCM將推理單位從Token推向“概念”,在壓縮後的語義空間進行深度推理,實現計算資源的自適應分配。這一突破意味著,未來的模型可能不再逐字“思考”,而是在概念層面直接推理,用更少的步驟解決更複雜的問題。Token價值化水平:AI應用的商業壁壘。對於AI廠商而言,Token價值化能力正在成為核心的商業壁壘。表面上看,增加Token輸出似乎能增加API收入。但頭部廠商深知,降低冗餘Token消耗帶來的長期價值遠高於短期收益。能讓伺服器接收更多並行請求、降低響應延遲、提升使用者體驗,這些帶來的市場份額增長,遠比讓單個請求多說幾句廢話要划算。DeepSeek之所以能在開源模型中脫穎而出,不僅因為技術先進,更因為“把推理成本打到了不可思議的低價”。這種成本優勢的背後,正是對每一個Token價值的極致挖掘——讓每個Token都用在刀刃上,不浪費算力,不拖延時間。五、Token能力,人工智慧應用核心競爭力的尺度從字節到Token,計量單位的躍遷折射出人工智慧從“計算”走向“理解”的範式革命。Token是人工智慧語義的最小單元,是算力的計價單位,也是AI經濟的“一般等價物”。它連接著底層的算力消耗、中層的API定價、頂層的模型能力。Token的數量決定模型的視野範圍,Token的效率決定模型的思考深度,Token的價值化能力決定模型的商業競爭力。展望未來,隨著多模態模型、AI Agent、長上下文處理的普及,Token的含義還將不斷演化。字節跳動已經在探索“概念”級推理,Google在量化“深度思考”Token,擴散模型在挑戰自回歸的Token生成範式。Token這個單元本身,或許會有不斷進化,不斷包括更高級的語義。不斷提升Token能力,或許是人工智慧永不停歇的進化方向。 (數字新財報)