•
市場傳出更強的新版DeepSeek R2即將在5月面世,將徹底擺脫輝達晶片,全部基於華為升騰910B(Ascend 910B)晶片。
市場最新爆料,R2大模型將採用更先進的混合專家模型(MoE),總參數量較前代R1提升約1倍,預計達1.2兆(R1總參數量為6710億),單位推理成本較GPT-4大減97.4%。
據傳,R2規模與ChatGPT的GPT-4 Turbo以及Google的Gemini 2.0 Pro相當,也將結合更智慧的門控網路層(Gating Network),進而最佳化高負載推理任務的效能。
消息指出,R2將徹底擺脫輝達晶片,訓練全程均未使用輝達顯示卡,全部基於華為的升騰910B(Ascend 910B)晶片叢集平台,在FP16精度下,計算性能達到512 PetaFLOPS,晶片利用率高達82%,整體性能約為NVIDIA上一代A100的91%。
市場預期,這將降低大陸對海外高階AI晶片的依賴,且華為全新的升騰910C晶片,也開始進入大規模量產階段。
成本方面,DeepSeek-R2的單位推理成本,較OpenAI旗下的GPT-4大減97.4%。其中,R2輸入每百萬個字元僅需0.07美元,而輸出每百萬個字元僅0.27美元。 (大話晶片)