高盛5月最新研報:24倍AI智能體經濟,將如何重寫整個科技行業的利潤邏輯

高盛在5月5日發佈了一份重量級研究報告,題目叫《解碼智能體經濟》(Decoding the Agentic Economy)。

這不是一份普通的行業觀察,而是高盛科技研究團隊花了大量時間,真正去動手模擬搭建AI智能體,然後逐步驟計算token消耗量,從底層資料出發得出的一套完整預測框架。

結論非常激進,但邏輯鏈條相當嚴密。我們來一條條拆解。

先說最核心的那個數字

高盛預測,到2030年,全球每月的token處理量將達到120千兆個,是2026年現有算力水平的24倍。到2040年,如果企業端智能體全面普及,這個數字會進一步放大到55倍。

這不是隨便拍出來的數字。高盛的方法是:自己寫偽程式碼,模擬真實的AI智能體在執行各類工作任務時每一步消耗多少token,然後乘以採用人數和使用頻率,得出總需求預測。這是從底層工作量往上推,不是從頂層市場規模往下拍。

120千兆是什麼概念?

說出來可能沒感覺,但如果你知道現在全球每月的token處理量是多少,再乘以24,就能感受到這個增長量級有多誇張。

為什麼現在是拐點

在解釋這個增長之前,必須先說一件很多人沒注意到的事:AI行業的利潤結構正在發生根本性的改變。

回顧過去兩年,AI行業有一個讓人頭疼的悖論:用的人越多,成本越高,雲端運算廠商和模型提供商的利潤反而受壓。每多處理一個token,就要多燒一塊錢的算力,毛利率很難看好。

但高盛的資料顯示,這個局面在2026年上半年出現了拐點。

具體來說是這樣:主流大模型的token定價過去每年下降40%,現在已經趨於平穩,甚至在某些情況下開始小幅上漲。但與此同時,晶片廠商驅動的計算成本下降速度——輝達、AMD、GoogleTPU、亞馬遜Trainium——仍然以每年60%到70%的速度持續下行。

這意味著什麼?定價穩了,成本還在跌,兩條線之間的價差在擴大,這就是利潤空間。

高盛用一張圖來表達這個邏輯:橫軸是時間,縱軸是每百萬token的成本和定價,兩條線在2026年上半年出現了交叉——成本跌到定價以下,毛利潤轉正。這是整個AI行業從"燒錢擴張期"轉向"盈利改善期"的關鍵訊號。

什麼是AI智能體,為什麼它比聊天機器人消耗的token多得多

要理解這個增長預測,必須先搞清楚AI智能體和普通AI聊天有什麼本質區別。

現在大多數人用AI的方式是這樣的:打開ChatGPT或者Claude,問一個問題,得到一個回答,對話結束。這種模式平均每次互動大約消耗1700個token,相當於一次三到五分鐘的對話。

AI智能體完全不同。它不等你來問,而是持續在背景執行,監控你的郵件、日曆、任務清單,在需要的時候自動採取行動。

高盛自己模擬搭建了一個郵件監控智能體,計算了它一天的token消耗量。結果是91150個輸入token加上22840個輸出token,折算成本大約0.055美元一天。這比一次普通聊天多消耗了將近50倍的token。

為什麼這麼多?

因為智能體要做的事遠比回答一個問題複雜得多。以處理一封郵件為例,它需要先掃描收件箱,分類,提取關鍵資訊,判斷是否需要回覆,起草回覆,檢查語氣和政策合規性,然後安排傳送,同時還要把這次處理的結果更新到記憶系統裡,供下次參考。

每一步都需要模型推理,每一次推理都要消耗token。

還有一個讓token消耗呈非線性增長的核心原因:循環。企業級智能體完成任務時,往往需要多輪驗證和糾錯。

高盛模擬的程式設計智能體,一天要處理大約627萬個輸入token和82萬個輸出token,API成本約13美元。數字看起來不小,但對比一個程式設計師的日工資,這個成本其實已經很有競爭力了。

消費端智能體:從"問答"到"永遠線上"

高盛把消費端的AI使用分成三個層級。

第一層是聊天機器人,就是現在大家用的ChatGPT、Gemini、Claude這類,使用者主動發起,得到回答,結束。每次消耗大約1000個token。

第二層是嵌入式工具,比如Google搜尋裡的AI摘要、郵件軟體裡的AI助手,使用者設定一次規則,AI自動執行,每天消耗5000個token以上。

第三層是永遠線上的智能體,這是token消耗量最大的形態——持續在背景執行,主動監控,自主決策,每天消耗超過10萬個token。

高盛預測,到2030年,全球每天的AI查詢量將從2025年的50億次增長到230億次。其中30%會流向各類智能體,而不是傳統的搜尋或聊天。這部分智能體查詢將貢獻每月60千兆個token,是2026年全球token消耗總量的12倍。

傳統搜尋在總查詢量中的佔比,將從2025年的68%下降到2030年的36%,取而代之的是大模型原生查詢和AI應用。這不是緩慢的市場份額轉移,而是一次比較陡峭的替代過程。

企業端智能體:更複雜,更貴,但回報也更高

如果說消費端智能體是增量需求,企業端智能體才是這個故事裡最大的那塊蛋糕。

高盛估算,到2040年峰值採用率時,企業端智能體將佔全球知識工作者的37%,帶動token消耗量達到2026年水平的55倍,折算成每月278千兆個token。屆時,企業端將佔全球token消耗總量的70%以上。

為什麼企業端的token消耗比消費端更密集?因為企業工作流的容錯率接近於零。

消費端的AI可以給出一個"差不多正確"的答案,使用者自己判斷。但企業端的AI需要處理真實的業務系統,輸出必須精確、可審計、可追溯。一個財務分析智能體如果算錯了一個數字,後果是實質性的。這意味著企業智能體要做更多的驗證循環,引入更多的工具呼叫,處理更多的多模態輸入——語音、圖片、PDF文件、系統日誌、結構化資料——所有這些都會推高token消耗。

高盛分析了當前AI使用率最高的十類職業,包括程式設計師、客服代表、資料錄入員、醫療記錄專員、市場分析師等,然後逐一模擬了這些崗位的AI智能體工作流,計算最低token消耗量。

結論有一點反直覺:token消耗量高不等於成本高,token消耗量低不等於便宜。

程式設計智能體一天消耗627萬個token,但API成本只有約13美元,因為程式設計工作幾乎全是文字,處理效率高。客服智能體一天消耗200萬個token,但如果涉及即時語音,成本可能高達92美元,因為語音處理的計算複雜度遠高於文字。資料錄入智能體一天消耗2513萬個token,成本約60美元,因為需要大量讀取和驗證結構化資料。

這個差異直接決定了那些工作場景會率先被智能體替代:文字密集、工具鏈成熟、工作流相對確定的場景會先走,語音密集、需要深度系統整合、責任追溯複雜的場景會慢一些。

企業採用會是什麼形狀的曲線

高盛在報告裡做了一件有意思的事:他們翻出了一個1800年到2000年覆蓋101種技術、161個國家採用資料的歷史資料集,研究各種技術從發明到普及峰值用了多少年、走出了什麼形狀的曲線。

結論是:技術採用的速度差異極大。鐵路、輪船、固定電話都花了100年以上才到峰值;ATM機、有線電視、新型外科手術用了不到20年;中位數是29年。

高盛預測企業端AI智能體的採用曲線會是S型,從現在開始緩慢積累,2030年前後進入陡峭增長期,峰值採用時間約15年,快於歷史中位數。

理由有幾個:新技術的採用速度總體上在加快,網際網路36年到75%滲透率,手機更快;AI降低了軟體開發成本,加速了用例發現;企業競爭壓力推動更快的AI戰略落地。

但也有制約因素:資料治理、系統整合、變更管理這些組織層面的障礙不會因為技術成熟就自動消失;監管和合規要求在高風險行業會顯著拖慢處理程序;還有相當一部分企業會長期停留在"試點"階段,無法規模化落地。

高盛的基準假設是到2040年37%的知識工作者會採用智能體,這已經是相當保守的數字了。即便是這個保守數字,產生的token需求也是當前全球算力的55倍。

這對投資意味著什麼

說了這麼多邏輯,最後來看高盛的具體投資建議。

半導體類股,高盛首選三家:

輝達,目標價250美元。高盛認為輝達在AI訓練和推理兩個方向都保持領先,中期內沒有對手能真正動搖其地位,給買入評級。

博通,目標價480美元。這家公司做的是定製晶片,Google、Meta等超大規模雲端運算廠商為了降低成本,越來越傾向於找博通定製專屬算力方案而不是用輝達的通用產品,博通是這個趨勢最直接的受益者。

AMD,目標價450美元。高盛看好AMD在資料中心GPU和企業伺服器CPU兩條線上的同步增長,認為智能體工作流在企業端落地會推高CPU使用率,而AMD在這塊是強勢玩家。

網際網路和雲端運算類股,高盛首選三家:

亞馬遜,目標價325美元。AWS一季度營收同比增長28%,手握3640億美元的收入積壓訂單,同期還有另外1000億美元的新合同。高盛認為雲端運算需求的能見度非常高,加息和宏觀壓力對AWS影響有限。

Google,目標價450美元。Google雲一季度同比增長63%,待執行合同積壓單季幾乎翻倍達到4600億美元。同時Gemini在使用者數量和參與度上持續增長,高盛認為Google在AI重構期處於比較有利的位置。

Meta,目標價830美元。廣告業務增速顯著超越整個數字廣告行業,AI在廣告創作、精準投放、效果歸因上的應用持續拉升變現效率,同時公司在開源模型和面向中小企業的AI工具上的佈局正在形成新的增長來源。

軟體和IT服務類股,高盛首選三家:

微軟,目標價610美元。Copilot的使用者反饋在持續改善,企業版升級周期可能帶來Microsoft 365的加速增長。高盛認為最可能的生態格局是Copilot與垂直領域專用智能體並存,互相帶動使用,而不是一方完全替代另一方。

Cloudflare,目標價250美元。這家公司在邊緣計算領域有獨特的網路架構優勢,高盛預計它能在AI推理工作負載市場拿到超出比例的份額。隨著智能體在終端大量運行,對低延遲、高效率推理的需求會快速增長,Cloudflare的位置正好在這條路上。

埃森哲,目標價300美元。這是一個有點意外的選擇,但邏輯是清晰的:企業從"試點AI"轉向"規模化部署智能體",中間有大量的系統整合、工作流重設計、資料治理、變更管理工作需要人來做,埃森哲是這類工作的主要承接方。

最後說一個值得警惕的風險。

在競爭最激烈的純文字聊天機器人市場,開源模型在不斷壓低價格天花板,商業模型的定價優勢在縮小。這部分市場的利潤改善邏輯比較弱。

只有在真正token密集、價值高、技術壁壘明顯、難以被開源替代的智能體工作負載上,這個利潤擴張的邏輯才能持續成立。

另外,企業端的採用速度有很大的不確定性。高盛自己也說,目前的部署大多數是"有人監督的半自動化",離真正意義上的"完全自主運行"還很遠。從現在的狀態到高盛預測的2030年場景,需要很多組織層面的變革真正落地,而這類變革歷史上從來都比技術進步要慢。

這不是否定整個框架,而是說這個故事需要時間。理解它需要的時間比很多人預期的要長,這本身就是投資決策裡需要納入的變數。

來源:Decoding the Agentic Economy ——The Coming Inflection in AI Usage and Margins (歌伶的大局觀)