#DeepSeek AI
梁文鋒冒著自己淪為二流大模型的風險,給整個中國 AI 企業探路了
V4 出來這天,DeepSeek 沒開發佈會。只發了一份技術報告。封面上印了兩行字:輝達 GPU,華為昇騰 NPU。注意這兩行字的順序。這是中國大模型公司第一次,把輝達和華為放在同一張技術報告的封面上。更狠的是後面那一句:模型 1.6 兆參數,100 萬 token 上下文,全端跑通昇騰。也就是說,這個兆參數的大模型,可以徹底不依賴輝達。先看一組資料,事情就清楚了去年 5 月,DeepSeek R1 橫空出世,矽谷開會研究中國人怎麼做到的。一年過去,國際同行進度是這樣的:OpenAI GPT-5 已經迭代到 5.4。 Anthropic Claude 4.7 出了。 Gemini 3.1 Pro 上線了。DeepSeek 這邊呢?V3.2 原地不動。整整 5 個月沒出新模型。同期業內 11 家頭部公司平均每 2.8 天發一次迭代。第三方榜單上,V3.2 綜合成績跌到全球第 16,程式碼生成第 17。外面已經在傳一個判斷:DeepSeek 淪為二流了。這就是題面。但誰也沒想到,沉默 5 個月不是技術不行。是梁文鋒自己關了門,幹一件比追榜單更難的事。把 1.6 兆參數的大模型,從輝達 CUDA 整套搬到華為昇騰 CANN。這件事到底有多難得講一點背景,不繞。你今天用的所有大模型,幾乎都跑在輝達 GPU 上。CUDA 是輝達自家的開發語言,2007 年到現在,全球幾乎所有 AI 工程師都是在 CUDA 生態里長大的。所有快、所有省、所有穩定的訣竅,都沉澱在這套工具鏈裡。華為昇騰也是 AI 晶片,但它用自己的語言,叫 CANN。讓一個兆參數模型在輝達上跑通,已經夠難。讓同一個兆參數模型同時在昇騰上跑通,性能不能差太多,相當於讓一個寫慣了漢語的作家,臨時學德語,再把《紅樓夢》翻譯重寫一遍,還要讓德國讀者覺得好看。DeepSeek 把這件事做了。技術細節不難懂:V4 用了 FP4 精度。這個精度,恰好是華為今年 3 月新發佈的昇騰 950PR 原生支援的。MoE 專家權重、稀疏注意力索引器,全部按昇騰的硬體特性設計。整個工程總共重寫了 40 萬行算子,全端架構重做,精度對齊誤差控制在 0.5% 以內。翻譯成大白話:DeepSeek 直接給昇騰量身定做了一個兆參數模型。代價是 484 天沒出新版本。這 484 天裡,GPT、Gemini、Claude 在輝達上各自把版本號往前推了好幾代。DeepSeek 主動把自己最鋒利的那把刀放下,去打磨另一把還沒開刃的刀。一道反商業直覺的題這就有意思了。按所有商學院的邏輯,企業要先保自己。R1 那波之後,DeepSeek 的局面其實非常硬:第一,全端跑在輝達上,CUDA 用了多少年,所有最佳化都是熟手。第二,量化基金幻方做爹,2025 年收益率 56.6%,一年抽五十億現金不缺錢。第三,技術口碑天花板,融資排隊的人能從知春路排到中關村。最聰明的選擇,是接著按輝達這條路猛衝。把模型做到全球第一,把品牌做到頂。R2 踩 OpenAI,V4 跨過 Gemini,整個 2026 年的中國 AI 故事可以由 DeepSeek 一個人寫。梁文鋒偏偏沒這麼做。他選的是反過來。先做生態,再保自己。為什麼?因為他看到一個誰都不願意承認的真相。中國 AI 整個行業都在賭一件事:什麼時候,國產晶片能跑兆參數大模型。這個賭局,誰都不敢押。兆參數模型一旦在國產晶片上跑掛,損失的是幾億美元算力帳單加半年研發周期。沒有那家公司的 CFO 敢簽這個字。阿里不簽,字節不簽,騰訊不簽。DeepSeek 簽了。簽字那個人是梁文鋒。註冊資本從 10 萬元變成 510 萬元,他個人持股從 1% 漲到 34%。把身家全壓上去,讓 V4 同時跑通昇騰和輝達。跑通的那一刻,整個遊戲的規則變了。一夜之間,盟友全跟上來了V4 發佈當天,8 家國產 AI 晶片公司同時宣佈完成適配。華為昇騰 950 超節點、寒武紀、海光、燧原、摩爾線程,一個不少。阿里、字節、百度,都在自己的雲上線了 V4。更扎眼的是後面這條消息:阿里、字節、騰訊已經向華為下單數十萬顆昇騰 950PR。中國 AI 圈很少出現這個畫面。平時大家是競爭對手,互相挖人,互相壓價。這一次罕見地朝同一個方向使勁。為什麼?因為 DeepSeek 把那塊最難搬的石頭,自己一個人搬開了。兆參數模型在昇騰上跑通這件事,相當於一份公開的合格證。證書一出,所有國產晶片廠商都可以走同一條技術路徑去適配。所有雲廠商都敢把國產算力推給客戶,因為有 V4 這個標竿站在那裡。輝達 CEO 黃仁勳去年說過一句話,被反覆引用:中國如果讓 DeepSeek 這種公司用上華為昇騰,那就是輝達的災難。他沒想到這一天來得這麼快。這才是梁文鋒真正干的事。他要的不是榜單第一名的模型。要的是能讓國產晶片跑得動的最強模型。沖榜單,是為自己。把行業抬起來,是給中國 AI 整體趟雷。代價是真的但代價不是嘴上說說。第一個代價,人才。V3 模型最重要的貢獻者羅福莉,去了小米。 核心研究員郭達雅,去了字節。 多模態核心阮翀、第一代大語言模型核心王炳宣,去了騰訊。每一個名字,背後都是幾百萬年薪和股權。DeepSeek 給不出市場最高的價。第二個代價,市場。阿里通義千問把 V3 階段 DeepSeek 佔的那部分使用者場景,慢慢做了回去。豆包靠字節的流量入口,把日活拉到第一。Kimi 在長上下文這條賽道,已經走在 DeepSeek 前面。DeepSeek 月活從 1.38 億漲到 1.60 億,看起來還在增長,但增長曲線明顯平了。第三個代價,原則。去年梁文鋒斬釘截鐵說過:DeepSeek 暫時不融資。2026 年 4 月 20 日,DeepSeek 被曝尋求百億美元估值,至少 3 億美元戰略融資。阿里、騰訊都在溝通名單。永不融資這條鐵律,在 V4 出來前一周,破了。底層原因不複雜。R1 當年訓練成本是 587 萬美元,V4 單輪訓練成本飆到約 5 億美元。漲了快 100 倍。昇騰這條路要燒的錢,比輝達多得多。晶片產能不夠,工程師要重新培訓,工具鏈要從頭建。幻方那點錢,撐不住一個兆模型時代的全產業鏈投入。梁文鋒低頭了。低頭的姿勢,是為了把整個國產 AI 算力產業鏈拽起來。圈內的新評價V4 發佈後,圈內最準的一句評價是這樣的:V4-Pro 比 GPT-5.4、Gemini 3.1 Pro 落後 3 到 6 個月。3 到 6 個月,聽起來不長。在 AI 這個行業,足夠把一家公司從第一梯隊拉到第二梯隊。落後是梁文鋒自己選的。V4 是不是 DeepSeek 最強的模型?不是。V4 是不是 2026 年中國 AI 公司最重要的一次發佈?我傾向於是。因為它做的事情,是把整個國產 AI 生態抬起一截,不是把自家排名再往上挪一格。第一梯隊的位置可以再爭。算力的底子如果沒打牢,爭到也站不住。跟普通人有什麼關係繞了這麼大一圈,跟普通人有什麼關係?第一件,AI 應用價格還會接著掉。V4 把 API 壓到每百萬 token 0.3 美元。這個價格一出來,國內所有大模型都得跟著降。意味著你以後用的所有 AI 工具,寫文件、做翻譯、改程式碼、生成圖片,成本都要再低一檔。最直接的體感,是各種 AI 會員包月降價。第二件,國產晶片產業鏈開始轉起來了。華為昇騰、寒武紀、海光,這些名字以前主要是 A 股投資者關心。現在是真有大模型在用,訂單是看得見的。這條產業鏈上下游幾百家公司,包括伺服器、記憶體、散熱、電源,都跟著進入新一輪訂單周期。第三件,AI 這件事不再被一根線綁住。過去三年,業內一直擔心一件事:如果美國把輝達完全斷供,中國 AI 是不是要原地停擺。V4 跑通昇騰這件事,把這個最壞假設的機率往下打了一截。還談不上徹底安全,但至少有了第二條腿。第四件,離你的工作更近了一步。價格便宜的大模型,意味著越來越多公司開始把 AI 接入業務流程。客服、文案、設計、初級程式設計、報表分析,這些崗位被替代的速度只會更快。這不是好消息,但是該提前知道的事。一句話收束梁文鋒這次的選擇,可能讓 DeepSeek 在未來一年裡看起來不那麼耀眼。模型評測榜單上的名次會往下掉,融資估值會被國際同行甩開,明星光環會被分給其他公司。這都是真實的代價。但如果兩年後回頭看,會發現 2026 年 4 月這周,是中國 AI 從「跟在輝達後面跑」切換到「能靠自己跑」的一個分水嶺。切這一刀的人,是梁文鋒。你覺得他這步棋,賭對了嗎? (有知識青年)
DeepSeek V4:是AI開源大事件,更是產業變革新開端
推理效率提升74%、KV快取壓縮90%、API定價不及閉源競品1%。當大模型的邊際成本趨近於零,AI產業的真正變局才剛剛開始。2026年4月24日,DeepSeek在沉寂長達15個月後,正式發佈並開源新一代旗艦模型DeepSeek-V4。這不是一次常規的模型迭代,而是一次從架構底層到價格體系、從算力生態到產業邏輯的全方位重塑。如果說過去兩年AI圈的競爭是“誰能做出更聰明的模型”,那麼從這一天開始,競爭正在轉向:“誰能讓AI變成人人用得起的水電煤”。一、暴力破解的終結:當AI開始“聰明地花算力”DeepSeek-V4系列包含兩款模型:V4-Pro(1.6兆總參數,每次推理啟動490億參數)和V4-Flash(2840億總參數,每次推理啟動130億參數),兩者均原生支援100萬token超長上下文。1M上下文從此不再是一個“高端功能”——一年前它還是Gemini獨家的王牌,如今被DeepSeek直接挪成了行業標配的“水電煤”。這組資料之所以震驚業界,不是因為參數大,而是因為效率做到了前所未有的極致。在100萬token的極端長度下,V4-Pro的單token推理FLOPs僅為上一代V3.2的27%,KV快取佔用僅為10%。V4-Flash則更進一步,只需要10%的單token FLOPs和7%的KV快取。這意味著什麼?處理同樣長度的超長文件,V4不僅讀得更多,而且讀得更快、更省、更穩。效率提升的核心來自一系列值得深挖的架構創新:壓縮稀疏注意力(CSA) :每4個token合併成一個壓縮條目,然後用閃電索引器快速篩選出最相關的少量塊進行注意力計算——“拿著放大鏡找關鍵線索的偵探”。重度壓縮注意力(HCA) :以高達128倍的壓縮率濃縮全域資訊——“站在山頂俯瞰全景的指揮官”。兩者交錯部署在模型的各層中,形成精準定位與全域把握的互補。流形約束超連接(mHC) :給訊號傳播加上“安全閥”,從根本上保證訓練穩定性。Muon最佳化器:取代業界標配的AdamW,進一步降低訓練成本。這一切的底層哲學,不是“堆參數”,而是“每瓦特算力的最大產出”。DeepSeek V4把注意力機製做了一次“手術級”的改造,讓超長上下文從實驗室裡的“高端展示”變成了普通開發者也能跑得動的日常工具。這種效率革命帶來的是價格上的斷崖式下降。DeepSeek V4-Flash每百萬token輸出價僅0.279美元,而同期OpenAI發佈的GPT-5.5 Pro輸出價高達180美元——價差整整645倍。V4-Pro輸出端成本則僅為GPT-5.5 Pro的2%。如果把V4-Pro考慮折扣後的API輸入價壓到0.25元/百萬詞元,與GPT-5.5 Pro加權平均價格30美元/百萬token相比,價差超過700倍。更直觀地說:V4呼叫一次的價格,還不到對手的千分之一。 在推理效率層面,華為昇騰950超節點的測試資料顯示,V4-Pro單卡Decode吞吐可達4700TPS,V4-Flash在8K長序列場景下單卡Decode吞吐1600TPS。DeepSeek V4的回答是:快,是能力的下限;省,才是格局的起點。二、一扇門打開,另一扇門關上當DeepSeek V4以700倍的價格差距直插市場時,它激發的連鎖反應遠遠超出模型本身。開源vs閉源:矽谷在“造牆”,中國在“修路”。矽谷的頭部玩家們不約而同地選擇了閉源路線。OpenAI、Anthropic、Google的Gemini,當前沿技術創新被鎖死在各自的資料中心裡,玩家們不可避免地陷入了零和博弈的“權力遊戲”。就在V4發佈前夕,一場圍繞新模型的輿論狙擊戰剛剛上演——4月16日Anthropic剛發佈Claude Opus 4.7,OpenAI兩個多小時後便宣佈Codex大幅更新;隨後又圍繞營收資料互相拆台,敵意滲透進每一個決策環節。而DeepSeek走了一條完全不同的路。它聚焦基礎模型的核心能力攻堅,進一步築牢了全球開源大模型的性能天花板,為全行業提供了性能比肩閉源旗艦的基礎底座。巧合的是,就在V4發佈前後,國內的Kimi也開源了K2.6,兩個兆參數模型同時亮相,卻沒有一絲互掐,甚至還在技術底層進行了“換防”。正如大量評論所指出的,這背後是中美AI路線的一次分岔:矽谷在“造牆”,守住既得利益;中國在“修路”,走開源協同之路。這種路線的分野,背後是根本邏輯的差異。閉源路線的本質是技術作為“護城河”和賺錢的工具,一旦共享就會失去競爭優勢;而開放原始碼的邏輯是模型越開放,生態越繁榮,蛋糕才能越做越大。網際網路巨頭:戰火從“參數比拚”燒向“應用落地”。DeepSeek V4發佈僅一天後,阿里雲百煉就火速上線,API價格與官網一致;國家超算網際網路同步上線服務。科大訊飛、中關村科金、華為昇騰等廠商也在第一時間完成了適配對接。對於騰訊、字節跳動、阿里這樣的巨頭來說,V4的衝擊更多是戰略層面的:以前大家的競爭焦點是“誰的模型參數更大、榜單更高”,現在V4用700倍的成本優勢提醒所有人——接下來真正決定勝負的戰場,是誰能在真實業務場景中用模型創造價值。誰先學會“用好V4”,誰就可能在下一階段佔據卡位優勢。各行各業:一次從“能不能用”到“用不用得起”的跨越。在此之前,企業引入大模型最大的瓶頸不是技術夠不夠好,而是成本夠不夠低。一次API呼叫幾十上百美元的成本,對中小企業來說等於把AI鎖在實驗室裡。V4的出現改變了這一切。在金融行業,國泰海通率先完成DeepSeek-V4基於昇騰的本地化部署,將依託模型實現在智能投行、智能投研、智能投顧、智能風控等八大業務領域的全面突破。保險行業聚焦投保、核保、理賠查勘等高重複性、知識密集型和互動高頻度場景展開部署。在醫療領域,深圳市南山區人民醫院基於昇騰率先部署V4,全面升級了政策諮詢、醫保監管、門診病歷質控等30余項應用,全方位覆蓋醫療全流程。廣西移動落地部署V4,聚焦行銷服務、研發設計等核心領域,全面賦能16個業務場景。河北交投智能科技公司在行業內率先完成V4本地化部署,建構了“自主創新算力+頂尖大模型”的全端自主創新AI底座。從金融到醫療,從通訊到交通——DeepSeek V4發佈後24小時內,各行業頭部企業就火速跟進部署。這本身就是最好的訊號:當AI足夠便宜,企業就不再觀望。“用得起”的真正意義,在於讓AI從實驗室資源變成基礎設施,從而催生前所未有的創新。三、AI便宜到人人敢用,模式才敢真變如果說過去兩年AI的變革是“天變了”,那麼V4之後,我們才第一次站在真正的變局起點上。為什麼這麼說?因為模式創新的土壤不是技術能力本身,而是足夠低的試錯成本。當一個團隊可以毫不心疼地跑十次不同提示詞、對比輸出質量而不是在意API帳單,產品經理可以大膽設想的每個互動都即時呼叫AI,企業可以把AI植入到那些“不太重要但希望更好的環節”——這才是模式創新真正開始的時候。DeepSeek V4的Agent能力經過了專門最佳化。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,交付質量接近Claude Opus 4.6非思考模式;在世界知識測評中大幅領先其他開源模型,僅稍遜於頂尖閉源模型Gemini-Pro-3.1;在數學、STEM、競賽型程式碼等推理任務中超越所有已公開評測的開源模型。V4-Pro還在Codeforces程式設計任務中拿下3206分的測評成績,位列全球活躍使用者第23位。這意味著,過去只有頂級閉源模型才具備的強大執行能力,現在以1/700的價格向所有人開放。中小企業可以部署自動處理客戶問題的7×24小時AI客服系統;個體開發者建構的Agent能自主呼叫API完成多步任務;創業公司可以在產品中“鋪滿AI”,讓大模型程式碼改寫、文件生成、資料清洗成為功能的默認組成部分。當AI便宜到可以和“發一條簡訊”比較成本的時候,所有行業都值得重新問自己一個問題:如果AI呼叫幾乎是免費的,我的產品應該長什麼樣?四、Token經濟的興起:當消耗量三年增長一千多倍在把模型做得更高效、更便宜的同時,一個更深層的經濟變革正在發生。Token——大模型的基本計量單位——正在從後台技術參數變成AI經濟的前台結算單位。商湯科技大裝置產品總經理盧國強在2026中國生成式AI大會上提出的“AI Token Factory”概念,精準概括了這一趨勢:行業正在從“AI原生”邁向“Agent原生”,Token替代Flops成為新的度量衡,AI系統的核心使用者將從人轉向Agent。Token消耗量的增長數字令人震撼。國家資料局公佈的資料顯示,到2026年3月,中國日均Token呼叫量已超過140兆,相比2024年初的1000億增長了1000多倍,相比2025年底的100兆,短短三個月又增長了40%以上。中國工程院院士鄭緯民指出,AI產業的競爭核心正從MaaS(模型即服務)向TaaS(Token即服務)躍遷,從比拚算力叢集規模轉向比拚每瓦Token生產效率。圍繞Token經濟的整套產業邏輯正在逐步成型:生產層:對應算力、晶片、資料中心與推理引擎,把Token作為核心產品來組織基礎設施。分發層:對應雲平台、大模型廠商與API服務商,將底層能力打包按量計費分發。轉化層:對應各行業的AI原生應用和Agent系統,將Token轉化為實際的業務結果。阿里巴巴已正式成立Alibaba Token Hub事業群,騰訊雲將MaaS平台升級為TokenHub,行業從藍海迅速變為紅海。Token兩年激增千倍,智能體市場規模2025年達78.4億元,預計2026年將達135.3億元,增速超過70%。Token正從技術參數,變成AI時代最核心的生產資料和度量衡。誰能高效生產Token、精準分發Token、有效轉化Token,誰就能在智能經濟的新賽道上佔據先機。五、變局中的挑戰與耐心V4帶來的不可能全是好消息。巨大的機遇背後,挑戰同樣不容迴避。安全邊界重構需要時間。 當模型能夠讀取百萬token的超長上下文,風險不再只存在於使用者的當前問題中,而可能藏在龐大材料的某個角落——長長的郵件鏈的腳註裡、PDF的不可見區域中、程式碼註釋裡或歷史聊天記錄中。攻擊者可以把惡意指令藏在這些地方,在模型執行複雜的跨文件推理時“潛伏發動”。強制長上下文安全做前置治理,對使用者指令和外部資料做來源標註和風險掃描,已經成為迫在眉睫的工程需求。落地到用好有個過程。 企業部署了V4並不等於馬上獲得商業價值。從部署到真正融入核心業務流程創造收益,中間還有漫長的產品化、場景適配和組織變革之路。Token成本大幅下降後,產品經理如何在AI能力邊界內重新設計功能,才是決定成敗的關鍵因素之一。地緣政治與算力安全需要關注。 DeepSeek-V4首次在官方技術報告中,將華為昇騰與輝達GPU並列寫進硬體驗證清單,這是中國大模型首次將國產晶片與進口晶片放到了同等戰略高度。適配的昇騰新款推理晶片採購價格僅為輝達晶片的1/4,端到端延遲比原有叢集降低35%。輝達CEO黃仁勳此前警告稱:“如果頂尖的AI模型被最佳化在華為晶片上運行,對美國而言將是可怕的後果”。V4的發佈標誌著中國AI基礎設施的重心正從依賴美國半導體轉向本土化算力底座建構。但技術代差客觀存在,DeepSeek也坦承其能力整體落後於同期主要閉源對手約3至6個月。六、變局的開端才剛剛到來回到標題的那個判斷:DeepSeek V4是AI開源大事件,更是產業變革新開端。是的,事件已經發生——V4-Pro和V4-Flash雙雙開源,百萬上下文成為標配,API定價低至全球閉源競品的1/700,Agent能力逼近頂尖水平。但真正的變革才剛剛開始。因為V4真正的意義,不在於它本身有多強,而在於它重新定義了什麼才是AI產業真正的“兵家必爭之地” 。V4向行業宣告:當模型能力開始逐步趨同(開源會逐步追平閉源),真正決定勝負的將是:誰能讓AI更便宜、更易用、更快地融入真實世界。從長遠來看,AI產業的終極形態是:大模型成為像電力一樣的基礎設施,上面的Agent和智能應用才是創造價值的核心。而DeepSeek V4用700倍的成本優勢一次性把基礎設施的“電費”降到了幾乎可以忽略不計的水平。接下來,誰能在上面建造出更有創造力的智能應用,誰才是真正的贏家。2026年4月24日以前,AI還在比拚“能力的天花板”。從這一天開始,AI產業的真正競賽才剛剛開始。 (數字新財報)