當市場以為DeepSeek的開源周內容發佈完畢之後,3月1日,DeepSeek宣佈了“One More Thing”,突然揭秘V3/R1推理系統,公開了大規模部署成本和收益。
根據《DeepSeek-V3/R1推理系統概覽》的文章,假定GPU租賃成本為2美元/小時,總成本為87072美元/天;如果所有tokens全部按照DeepSeek R1的定價計算,理論上一天的總收入為562027美元/天,成本利潤率為545%。
據官方披露,DeepSeek-V3/R1推理系統的最佳化目標是:更大的吞吐,更低的延遲。
為了實現這兩個目標,DeepSeek使用大規模跨節點專家平行(Expert Parallelism / EP)。首先EP使得batch size大大增加,從而提高GPU矩陣乘法的效率,提高吞吐。其次EP使得專家分散在不同的GPU上,每個 GPU 只需要計算很少的專家(因此更少的訪存需求),從而降低延遲。
但EP同時也增加了系統的複雜性。複雜性主要體現在兩個方面:
EP引入跨節點的傳輸。為了最佳化吞吐,需要設計合適的計算流程使得傳輸和計算可以同步進行。
EP涉及多個節點,因此天然需要Data Parallelism(DP),不同的DP之間需要進行負載平衡。
因此,DeepSeek介紹了如何使用EP增大batch size,如何隱藏傳輸的耗時,如何進行負載平衡。
大規模跨節點專家平行(Expert Parallelism / EP)
由於DeepSeek-V3/R1的專家數量眾多,並且每層256個專家中僅啟動其中8個。模型的高度稀疏性決定了必須採用很大的overall batch size,才能給每個專家提供足夠的expert batch size,從而實現更大的吞吐、更低的延時。需要大規模跨節點專家平行(Expert Parallelism / EP)。
採用多機多卡間的專家平行策略來達到以下目的:
Prefill:路由專家EP32、MLA和共享專家DP32,一個部署單元是4節點,32個冗餘路由專家,每張卡9個路由專家和1個共享專家。
Decode:路由專家EP144、MLA和共享專家DP144,一個部署單元是18 節點,32個冗餘路由專家,每張卡2個路由專家和1個共享專家。
計算通訊重疊
多機多卡的專家平行會引入比較大的通訊開銷,所以使用了雙batch重疊來掩蓋通訊開銷,提高整體吞吐。
對於prefill階段,兩個batch的計算和通訊交錯進行,一個batch在進行計算的時候可以去掩蓋另一個batch的通訊開銷;
對於decode階段,不同階段的執行時間有所差別,所以把attention部分拆成了兩個stage,共計5個stage的流水線來實現計算和通訊的重疊。
儘可能地負載平衡
由於採用了很大規模的平行(包括資料平行和專家平行),如果某個GPU的計算或通訊負載過重,將成為性能瓶頸,拖慢整個系統;同時其他GPU因為等待而空轉,造成整體利用率下降。因此需要儘可能地為每個GPU分配均衡的計算負載、通訊負載。
線上系統的實際統計資料
DeepSeekV3和R1的所有服務均使用H800GPU,使用和訓練一致的精度,即矩陣計算和dispatch傳輸採用和訓練一致的FP8格式,core-attention計算和combine傳輸採用和訓練一致的BF16,最大程度保證了服務效果。
另外,由於白天的服務負荷高,晚上的服務負荷低,因此實現了一套機制,在白天負荷高的時候,用所有節點部署推理服務。晚上負荷低的時候,減少推理節點,以用來做研究和訓練。在最近的24小時裡(台北時間2025/02/27 12:00至2025/02/28 12:00),DeepSeek-V3和R1推理服務佔用節點總和,峰值佔用為278個節點,平均佔用226.75個節點(每個節點為8個H800GPU)。假定GPU租賃成本為2美金/小時,總成本為87072美元/天。
在24小時統計時段內,DeepSeek-V3和R1:
輸入token總數為608B,其中342Btokens(56.3%)命中KVCache硬碟快取。
輸出token總數為168B。平均輸出速率為20~22tps,平均每輸出一個token的KVCache長度是4989。
平均每台H800的吞吐量為:對於prefill任務,輸入吞吐約73.7ktokens/s(含快取命中);對於decode任務,輸出吞吐約14.8ktokens/s。
以上統計包括了網頁、APP和API的所有負載。如果所有tokens全部按照DeepSeek-R1的定價計算,理論上一天的總收入為562027美元,成本利潤率為545%。當然實際上沒有這麼多收入,因為V3的定價更低,同時收費服務只佔了一部分,另外夜間還會有折扣。
有網友將DeepSeek與OpenAI進行對比,表示:“‘成本利潤率545%’,等一下,所以你是說我被OpenAI搶劫了?”
就在DeepSeek披露大規模部署成本和收益之後,潞晨科技突然宣佈:“尊敬的使用者,潞晨雲將在一周後停止提供DeepSeek API服務,請盡快用完您的餘額。如果沒用完,我們全額退款。”
此前2月4日晚間,華為計算微信公眾號發文表示,DeepSeek-R1系列模型的開源,因其出色的性能和低廉的開發成本,已引發全球的熱切討論和關注。潞晨科技攜手昇騰,聯合發佈基於昇騰算力的DeepSeek-R1系列推理API,及雲鏡像服務。
但近期潞晨科技CEO尤洋指出,滿血版DeepSeek-R1每百萬token(輸出)定價16元,如果每日輸出1000億token,一個月算下來接入方企業可獲得4800萬元收入。據他測算,完成1000億token的輸出,需要約4000台搭載H800的機器,以目前H800的市價或者折舊來計算,每月僅機器成本就達4.5億元,因此企業方可能面臨每月4億元的虧損,“使用者越多,服務成本越高,虧損越多”。
3月1日下午4點,潞晨科技CEO尤洋發文回應DeepSeek公佈的理論成本利潤率。
公開資料顯示,潞晨科技是一家致力於“解放AI生產力”的全球性企業,團隊核心成員來自美國加州大學伯克利分校,斯坦福大學,清華大學,北京大學等國內外知名高校。主營業務包括分佈式軟體系統,大規模人工智慧平台,以及企業級雲端運算解決方案。公司旨在打造一個開源低成本AI大模型開發系統Colossal-AI,作為深度學習框架的核心,幫助企業最大化人工智慧訓練效率的同時最小化人工智慧的訓練成本。 (中國基金報)