聯手華為!DeepSeek V4改寫中國AI底座!

DeepSeek V4發佈即刷屏!

成本暴降,百萬上下文,Agent增強,聯手華為、寒武紀適配中國國產算力……

它正在告訴市場:大模型競爭已經不再只是榜單競爭,而是開始進入更殘酷的成本效率競爭、算力適配競爭和生態入口競爭。

V4真的來了

4月24日DeepSeek發佈兩個最新模型版本:DeepSeek-V4-Pro和DeepSeek-V4-Flash。

體驗地址:chat.deepseek.com或DeepSeek官方APP

  • API文件:https://api-docs.deepseek.com/zh-cn/guides/thinking_mode
  • 開源連結https://huggingface.co/collections/deepseek-ai/deepseek-v4https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
  • 技術報告:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

根據DeepSeek官方介紹,V4-Pro採用MoE架構,總參數規模為1.6T,啟動參數49B;V4-Flash總參數284B,啟動參數13B。兩個版本都支援100萬token上下文。

這個組合很有意思:Pro負責沖高,Flash負責走量。

一個承擔能力天花板,一個承擔規模化呼叫入口。

這說明DeepSeek並不是簡單地把模型繼續做大,而是在開始拆分不同的商業場景。

對複雜推理、程式碼、Agent任務、長文件處理,可以用Pro;對高頻呼叫、低成本接入、日常應用,可以用Flash。

這套打法背後有一個很清晰的判斷:未來大模型不會只有一個“最強模型”包打天下,而會形成分層呼叫體系。

我們嘗試用pro模式,搭建了一個給使用者抽獎的大轉盤H5,全程就5分鐘直接可用:

低成本+高品質,才是未來企業正在需要的。畢竟企業真正需要的,不是每一次請求都呼叫最貴、最強的模型,而是在不同任務之間找到能力、成本和響應速度的平衡點。

DeepSeek開始把模型做成一組可調度、可分層、可商業化組合的AI基礎設施。

成本暴降73%

在100萬token上下文設定下,DeepSeek-V4-Pro相比DeepSeek-V3.2,單token推理FLOPs只需要27%,KV Cache只需要10%。

換句話說,也就是長上下文推理中的計算量壓力大幅下降;KV Cache只剩10%,意味著視訊記憶體和快取壓力也被明顯壓縮。

過去大家討論長上下文,很容易只看“能不能放進去”,100萬token聽起來很震撼,但真正的問題不是能不能塞進去,而是塞進去之後還能不能高效地算、穩定地跑、便宜地用。

上下文越長,推理成本、視訊記憶體佔用、響應延遲都會迅速放大。

尤其是在企業場景裡,模型需要讀合同、讀程式碼庫、讀制度檔案、讀會議紀要、讀歷史工單。

一次任務不只是問一句話,而是連續讀取、理解、規劃、執行、修正。

如果長上下文成本下不來,Agent就只能停留在演示視訊裡。

所以V4這次主攻的就是在100萬token場景下繼續壓低計算壓力。

畢竟模型能力越強,呼叫越頻繁,成本控制越重要。

AI不再只是“能不能用”的問題,而是“能不能每天用、多人用、長期用、低成本用”的問題。

誰能把單位推理成本壓得更低,誰就更接近真實的規模化入口。

讓Agent更像工作系統

100萬上下文真正改變的是Agent的工作邊界。

DeepSeek API文件顯示,V4-Flash和V4-Pro均支援1M上下文,最大輸出可達384K,並支援JSON Output、Tool Calls、Chat Prefix Completion等能力。

這些功能指向的是一個更明確的方向:DeepSeek不是只想做聊天模型,而是在繼續向任務型模型、工具型模型、Agent底座推進。

對企業來說,長上下文意味著什麼?

對程式碼場景,它可以一次性理解更大範圍的程式碼庫、需求文件和歷史修改記錄。

對金融、法律、諮詢場景,它可以處理更長的研報、合同、紀要、制度檔案和客戶材料;

對知識庫場景,它可以減少過度切片、錯誤召回、上下文斷裂帶來的資訊損耗;

對於Agent場景,它可以讓模型在更長任務鏈條裡保持連續性,不至於走幾步就忘記前因後果……

這才是百萬上下文真正的商業含義,它不是讓AI多背一點東西,而是讓企業流程第一次有機會被更完整地交給模型處理。

過去很多AI應用看起來很聰明,但一到真實工作流就掉鏈子。原因很簡單:真實工作不是單點問答,而是一組連續任務。

而Agent要變成生產系統,首先得具備連續工作的能力。

DeepSeek V4這次把長上下文、工具呼叫、結構化輸出放在同一條線上,說明它要搶的已經不是聊天入口,而是企業流程裡的執行入口。

聯手華為,底座開始換代

路透社4月24日報導稱,華為表示,基於昇騰950 AI晶片的Ascend supernode將全面支援DeepSeek V4系列模型。

這是里程碑式的節點,說明中國的模型公司和算力公司開始進入更深層的協同最佳化。

過去,無論訓練、推理、部署、工具鏈,“輝達”都處在產業鏈的核心位置。

但到了V4這一輪,情況開始發生變化。

當模型開始為國產晶片、國產軟體棧、國產叢集做適配,AI競爭就不再只是演算法團隊之間的比賽,而是模型、晶片、編譯器、推理框架、開發者生態之間的系統協同。

這才是屬於中國的“強強聯手”!

據華為2025年年報顯示,公司實現全球銷售收入8809億元人民幣,淨利潤680億元人民幣;2025年研發投入達到1923億元,佔全年收入21.8%,近十年累計研發投入超過1.382萬億元。華為押注AI計算,不是一次短期熱點跟進,而是長期研發投入和產業生態建設的結果。

DeepSeek V4如果能在昇騰體繫上跑得更穩、更便宜、更可規模化,就不只是DeepSeek自己的勝利,也是在驗證國產AI算力能否承接下一代模型應用。

未來國產算力公司比拚的不會只是晶片峰值性能,而是誰能更快適配模型,誰的軟體棧更穩定,誰能支撐企業級推理服務,誰能在開發者生態裡站住位置。

晶片只是起點;
能用起來,才是門檻;
能被反覆呼叫,才是價值。

價格戰之後是“生態戰”

R1時代,DeepSeek已經讓全球AI行業重新審視中國模型的成本效率,到了V4,DeepSeek並沒有放棄這張牌,而是開始把低價策略做得更分層。

根據DeepSeek API文件,V4-Flash每百萬token價格為:快取命中輸入0.028美元,快取未命中輸入0.14美元,輸出0.28美元;V4-Pro對應為:快取命中輸入0.145美元,快取未命中輸入1.74美元,輸出3.48美元。

V4-Flash繼續承擔低成本入口,適合大量高頻、通用、響應速度敏感的場景;

V4-Pro則承擔複雜任務和高價值呼叫,價格明顯更高,但也提供更強的推理、長上下文和Agent能力。

這說明DeepSeek已經不是簡單做“價格屠夫”,它正在從單一低價策略,轉向“能力分層+價格分層+場景分層”。

當開發者、企業客戶、雲廠商、晶片廠商、Agent平台都圍繞一個模型系列搭建流程時,競爭就不再只是一次API呼叫的價格,而是誰能成為默認選項。

AI行業最終比的不是一次發佈時的熱度,而是誰能嵌入更多應用、更多工具、更多工作流。

DeepSeek V4的真正野心,可能不是再造一個“最強聊天機器人”,而是成為中國AI應用生態裡的底層介面之一。

V4是否可以封神?

雖然模型榜單很重要,但企業真正關心的是另外一組指標:

延遲、穩定性、並行能力、SLA、工具呼叫精準率、私有化部署成本、安全合規,以及在複雜業務流程中的可控性。

再強的模型,如果頻繁超時、呼叫不穩、工具執行出錯,企業仍然很難大規模使用。

華為、寒武紀的適配是關鍵進展,但開發者生態、框架相容、叢集調度、推理效率、故障定位、工程工具鏈,都需要長期驗證。

真正的產業替代,不是靠一句口號完成的,而是在一次次模型更新、一次次客戶部署、一次次複雜任務運行中磨出來的。

所以,V4真正的考場不在發佈當天,而在接下來的幾個月。

它能不能穩定服務開發者?

能不能支撐複雜Agent任務?

能不能在國產算力上跑出足夠好的效率?

能不能讓企業願意長期呼叫?

這些問題,比“刷屏”更重要。

AI下半場,拼的是穩定交付

回頭看DeepSeek這一年,它最重要的作用,不只是做出了強模型,而是不斷改變行業的計分方式。

過去,大模型行業喜歡比參數、比榜單、比發佈會震撼程度。

DeepSeek出現後,大家開始更認真地討論訓練成本、推理成本、開源效率、模型蒸餾、國產算力適配。

這一次V4繼續往前推了一步。它讓行業看到,下一階段AI競爭至少有四個核心變數:

1.模型能力還要繼續提升:沒有能力,其他都沒有意義。

2.推理成本必須繼續下降:成本降不下來,Agent和企業應用都難以規模化。

3.上下文和工具呼叫要走向生產級:模型不能只會聊天,還要能理解流程、呼叫工具、完成任務。

4.算力底座要形成可替代路徑:如果模型能力始終被單一硬體生態鎖住,中國AI的自主性就始終不完整。

這四個變數合在一起,才是DeepSeek V4真正釋放的訊號,它不是一次孤立的模型升級,而是中國AI開始圍繞成本、算力、工具鏈和生態重新組織競爭。

畢竟AI下半場,單點突破可能不夠了。

真正的競爭會落到更具體的地方:單位推理成本、算力調度效率、軟體棧成熟度、開發者遷移成本、企業長期呼叫意願。

DeepSeek V4在提醒整個行業:AI的勝負,正在從“誰更聰明”,變成“誰能把聰明穩定、便宜、可複製地交付出去”。 (AI科技銳評)