#中國AI
梁文鋒冒著自己淪為二流大模型的風險,給整個中國 AI 企業探路了
V4 出來這天,DeepSeek 沒開發佈會。只發了一份技術報告。封面上印了兩行字:輝達 GPU,華為昇騰 NPU。注意這兩行字的順序。這是中國大模型公司第一次,把輝達和華為放在同一張技術報告的封面上。更狠的是後面那一句:模型 1.6 兆參數,100 萬 token 上下文,全端跑通昇騰。也就是說,這個兆參數的大模型,可以徹底不依賴輝達。先看一組資料,事情就清楚了去年 5 月,DeepSeek R1 橫空出世,矽谷開會研究中國人怎麼做到的。一年過去,國際同行進度是這樣的:OpenAI GPT-5 已經迭代到 5.4。 Anthropic Claude 4.7 出了。 Gemini 3.1 Pro 上線了。DeepSeek 這邊呢?V3.2 原地不動。整整 5 個月沒出新模型。同期業內 11 家頭部公司平均每 2.8 天發一次迭代。第三方榜單上,V3.2 綜合成績跌到全球第 16,程式碼生成第 17。外面已經在傳一個判斷:DeepSeek 淪為二流了。這就是題面。但誰也沒想到,沉默 5 個月不是技術不行。是梁文鋒自己關了門,幹一件比追榜單更難的事。把 1.6 兆參數的大模型,從輝達 CUDA 整套搬到華為昇騰 CANN。這件事到底有多難得講一點背景,不繞。你今天用的所有大模型,幾乎都跑在輝達 GPU 上。CUDA 是輝達自家的開發語言,2007 年到現在,全球幾乎所有 AI 工程師都是在 CUDA 生態里長大的。所有快、所有省、所有穩定的訣竅,都沉澱在這套工具鏈裡。華為昇騰也是 AI 晶片,但它用自己的語言,叫 CANN。讓一個兆參數模型在輝達上跑通,已經夠難。讓同一個兆參數模型同時在昇騰上跑通,性能不能差太多,相當於讓一個寫慣了漢語的作家,臨時學德語,再把《紅樓夢》翻譯重寫一遍,還要讓德國讀者覺得好看。DeepSeek 把這件事做了。技術細節不難懂:V4 用了 FP4 精度。這個精度,恰好是華為今年 3 月新發佈的昇騰 950PR 原生支援的。MoE 專家權重、稀疏注意力索引器,全部按昇騰的硬體特性設計。整個工程總共重寫了 40 萬行算子,全端架構重做,精度對齊誤差控制在 0.5% 以內。翻譯成大白話:DeepSeek 直接給昇騰量身定做了一個兆參數模型。代價是 484 天沒出新版本。這 484 天裡,GPT、Gemini、Claude 在輝達上各自把版本號往前推了好幾代。DeepSeek 主動把自己最鋒利的那把刀放下,去打磨另一把還沒開刃的刀。一道反商業直覺的題這就有意思了。按所有商學院的邏輯,企業要先保自己。R1 那波之後,DeepSeek 的局面其實非常硬:第一,全端跑在輝達上,CUDA 用了多少年,所有最佳化都是熟手。第二,量化基金幻方做爹,2025 年收益率 56.6%,一年抽五十億現金不缺錢。第三,技術口碑天花板,融資排隊的人能從知春路排到中關村。最聰明的選擇,是接著按輝達這條路猛衝。把模型做到全球第一,把品牌做到頂。R2 踩 OpenAI,V4 跨過 Gemini,整個 2026 年的中國 AI 故事可以由 DeepSeek 一個人寫。梁文鋒偏偏沒這麼做。他選的是反過來。先做生態,再保自己。為什麼?因為他看到一個誰都不願意承認的真相。中國 AI 整個行業都在賭一件事:什麼時候,國產晶片能跑兆參數大模型。這個賭局,誰都不敢押。兆參數模型一旦在國產晶片上跑掛,損失的是幾億美元算力帳單加半年研發周期。沒有那家公司的 CFO 敢簽這個字。阿里不簽,字節不簽,騰訊不簽。DeepSeek 簽了。簽字那個人是梁文鋒。註冊資本從 10 萬元變成 510 萬元,他個人持股從 1% 漲到 34%。把身家全壓上去,讓 V4 同時跑通昇騰和輝達。跑通的那一刻,整個遊戲的規則變了。一夜之間,盟友全跟上來了V4 發佈當天,8 家國產 AI 晶片公司同時宣佈完成適配。華為昇騰 950 超節點、寒武紀、海光、燧原、摩爾線程,一個不少。阿里、字節、百度,都在自己的雲上線了 V4。更扎眼的是後面這條消息:阿里、字節、騰訊已經向華為下單數十萬顆昇騰 950PR。中國 AI 圈很少出現這個畫面。平時大家是競爭對手,互相挖人,互相壓價。這一次罕見地朝同一個方向使勁。為什麼?因為 DeepSeek 把那塊最難搬的石頭,自己一個人搬開了。兆參數模型在昇騰上跑通這件事,相當於一份公開的合格證。證書一出,所有國產晶片廠商都可以走同一條技術路徑去適配。所有雲廠商都敢把國產算力推給客戶,因為有 V4 這個標竿站在那裡。輝達 CEO 黃仁勳去年說過一句話,被反覆引用:中國如果讓 DeepSeek 這種公司用上華為昇騰,那就是輝達的災難。他沒想到這一天來得這麼快。這才是梁文鋒真正干的事。他要的不是榜單第一名的模型。要的是能讓國產晶片跑得動的最強模型。沖榜單,是為自己。把行業抬起來,是給中國 AI 整體趟雷。代價是真的但代價不是嘴上說說。第一個代價,人才。V3 模型最重要的貢獻者羅福莉,去了小米。 核心研究員郭達雅,去了字節。 多模態核心阮翀、第一代大語言模型核心王炳宣,去了騰訊。每一個名字,背後都是幾百萬年薪和股權。DeepSeek 給不出市場最高的價。第二個代價,市場。阿里通義千問把 V3 階段 DeepSeek 佔的那部分使用者場景,慢慢做了回去。豆包靠字節的流量入口,把日活拉到第一。Kimi 在長上下文這條賽道,已經走在 DeepSeek 前面。DeepSeek 月活從 1.38 億漲到 1.60 億,看起來還在增長,但增長曲線明顯平了。第三個代價,原則。去年梁文鋒斬釘截鐵說過:DeepSeek 暫時不融資。2026 年 4 月 20 日,DeepSeek 被曝尋求百億美元估值,至少 3 億美元戰略融資。阿里、騰訊都在溝通名單。永不融資這條鐵律,在 V4 出來前一周,破了。底層原因不複雜。R1 當年訓練成本是 587 萬美元,V4 單輪訓練成本飆到約 5 億美元。漲了快 100 倍。昇騰這條路要燒的錢,比輝達多得多。晶片產能不夠,工程師要重新培訓,工具鏈要從頭建。幻方那點錢,撐不住一個兆模型時代的全產業鏈投入。梁文鋒低頭了。低頭的姿勢,是為了把整個國產 AI 算力產業鏈拽起來。圈內的新評價V4 發佈後,圈內最準的一句評價是這樣的:V4-Pro 比 GPT-5.4、Gemini 3.1 Pro 落後 3 到 6 個月。3 到 6 個月,聽起來不長。在 AI 這個行業,足夠把一家公司從第一梯隊拉到第二梯隊。落後是梁文鋒自己選的。V4 是不是 DeepSeek 最強的模型?不是。V4 是不是 2026 年中國 AI 公司最重要的一次發佈?我傾向於是。因為它做的事情,是把整個國產 AI 生態抬起一截,不是把自家排名再往上挪一格。第一梯隊的位置可以再爭。算力的底子如果沒打牢,爭到也站不住。跟普通人有什麼關係繞了這麼大一圈,跟普通人有什麼關係?第一件,AI 應用價格還會接著掉。V4 把 API 壓到每百萬 token 0.3 美元。這個價格一出來,國內所有大模型都得跟著降。意味著你以後用的所有 AI 工具,寫文件、做翻譯、改程式碼、生成圖片,成本都要再低一檔。最直接的體感,是各種 AI 會員包月降價。第二件,國產晶片產業鏈開始轉起來了。華為昇騰、寒武紀、海光,這些名字以前主要是 A 股投資者關心。現在是真有大模型在用,訂單是看得見的。這條產業鏈上下游幾百家公司,包括伺服器、記憶體、散熱、電源,都跟著進入新一輪訂單周期。第三件,AI 這件事不再被一根線綁住。過去三年,業內一直擔心一件事:如果美國把輝達完全斷供,中國 AI 是不是要原地停擺。V4 跑通昇騰這件事,把這個最壞假設的機率往下打了一截。還談不上徹底安全,但至少有了第二條腿。第四件,離你的工作更近了一步。價格便宜的大模型,意味著越來越多公司開始把 AI 接入業務流程。客服、文案、設計、初級程式設計、報表分析,這些崗位被替代的速度只會更快。這不是好消息,但是該提前知道的事。一句話收束梁文鋒這次的選擇,可能讓 DeepSeek 在未來一年裡看起來不那麼耀眼。模型評測榜單上的名次會往下掉,融資估值會被國際同行甩開,明星光環會被分給其他公司。這都是真實的代價。但如果兩年後回頭看,會發現 2026 年 4 月這周,是中國 AI 從「跟在輝達後面跑」切換到「能靠自己跑」的一個分水嶺。切這一刀的人,是梁文鋒。你覺得他這步棋,賭對了嗎? (有知識青年)
56億昇騰訂單 撕碎輝達CUDA壟斷
2026年4月,華為在深圳正式啟動昇騰950PR大規模量產。 這款單卡FP4算力1.56PFlops的推理晶片,性能是輝達針對中國特供的H20的2.8倍。剛過去的4月底,字節跳動確認拋出56億美元採購單,鎖定約35萬顆,直接創下中國國內AI晶片採購的歷史紀錄。 現在國內AI基建已經徹底從“湊合用的備份”,轉成主動選國產替代的階段。DeepSeek V4的發佈是關鍵轉折點。 這款1兆參數的MoE大模型,原本定在2026年初發,特意推遲了3個月重構,專門適配昇騰950PR和寒武紀的硬體。 阿里雲、騰訊雲在V4發佈當天就完成了全端部署。 全行業都看得懂:硬體性能突破和軟體生態解耦正在同步發生,輝達靠CUDA鎖了十幾年的開發者生態,真的要鬆了。FP4性能反超H20 昇騰產能直接拉滿昇騰950PR直接把國產AI晶片的性能天花板抬了一大截。 FP4精度下1.56PFlops的推理吞吐量,比輝達H20高1.8倍。 它也是目前唯一支援FP4壓縮格式的國產晶片,跑大規模MoE模型的時候,記憶體頻寬消耗更低,能扛更多並行請求。產能兌現的突破比參數更實在。 華為2026年全年計畫出貨75萬顆,單價約1.6萬美元,現在現貨價格已經因為搶貨漲了20%,完全是賣方市場。 75萬顆的年產能,意味著昇騰950PR已經從實驗室樣品變成了工業級基礎設施,足夠扛住全國數百萬並行AI查詢的需求。 字節一家的35萬顆訂單就佔了全年規劃產能的近一半,頭部網際網路廠的算力採購邏輯早就變了。CUDA直接相容 遷移成本砍到零昇騰950PR最有戰略價值的不是硬體性能,是它的CUDA相容軟體棧。 現有基於輝達CUDA開發的AI workload,不用重寫程式碼就能直接遷過去,徹底解決了之前國產晶片落地推廣最大的“移植成本”問題。 之前開發者牴觸非輝達硬體,主要就是改核心程式碼太費人力時間,現在950PR靠二進制相容層做到了幾乎零摩擦遷移。 坊間資料說,2025年國內已經有超過3000個常用大模型完成了昇騰適配,相容層跑起來的效率能到原生CUDA環境的95%以上。DeepSeek V4推遲發佈,剛好印證了這條路線走得通。 開發團隊花了三個月針對昇騰和寒武紀硬體重構模型架構,最終最佳化版本的推理效率,比基於輝達硬體的原始方案還高一點。 這種“模型主動適配硬體”的操作,直接打破了之前“硬體必須遷就主流模型”的慣性。 阿里雲百煉、騰訊雲TokenHub在V4發佈當天就上線了基於昇騰950PR的推理服務,整個行業的遊戲規則已經變了。56億大單鎖半產能 國產替代閉環跑通字節這56億美元的訂單,是中國半導體史上最大的單筆AI晶片採購單。 不僅鎖了華為2026年近半的950PR產能,訊號效應比訂單本身還大。 阿里、騰訊等雲服務商緊跟著就下了大規模預購,全年75萬顆的產能剛公佈就被搶光了。 這種“需求端先給訂單-產能端滿負荷跑-供應鏈快速成熟”的正向循環,直接解了之前國產AI晶片“沒訂單就沒迭代,沒迭代就沒訂單”的死局。價格的變化最能說明市場地位的反轉。 1.6萬美元的單價加上20%的現貨溢價,說明昇騰950PR已經是市場搶著要的硬通貨。 之前國產晶片要靠打折才能搶市場,現在國內企業願意為自主可控的算力付溢價。 這種商業可持續性直接給後續研發喂足了現金流,華為已經公開路線圖,2027年、2028年將分別推出昇騰960、970系列,代際迭代的正循環已經跑通了。DeepSeek V4原生適配 軟硬體協同效率拉滿DeepSeek V4選昇騰950PR當原生最佳化平台,標誌著國內AI產業進入了“軟硬體協同設計”的新階段。 這款1兆參數的MoE模型,每次推理只啟動370億參數,對記憶體頻寬和稀疏計算效率要求極高。 950PR的FP4支援能力和高頻寬記憶體設計,剛好踩中了MoE模型的稀疏啟動特性,推理成本比傳統稠密模型低了近40%。這種協同效應已經在改雲廠商的採購邏輯。 阿里雲、騰訊雲當天就完成部署,不是簡單的軟體適配,是直接基於950PR的硬體特性重寫了推理服務架構。 DeepSeek已經公開說,2026年下半年昇騰950超級節點規模出貨後,V4-Pro的API定價會大幅下調,國產硬體的成本優勢已經開始直接傳導到終端使用者。 對比之下,輝達H200因為中美監管拉扯,至今沒能進中國市場,剛好給國產晶片留足了空間。H200卡殼進不來 國產算力窗口期已到現在的市場格局,剛好踩中了監管的時間差。 輝達H200理論性能確實比昇騰950PR強,也拿到了出口許可,但中美雙方在銷售細則上扯了快半年,至今沒完成對華出貨。 這12到18個月的空窗期,剛好給華為留足了滲透國內雲基礎設施的時間。 950PR靠性能超H20、產能爬坡快、生態無縫遷的三重優勢,已經搶下了國內AI算力新增市場的大半份額。2025年北京就停了輝達H20的進口,剛好接上昇騰950PR的量產節奏。 現在H20徹底買不到,H200又沒影子,國內AI產業已經進入了“後輝達”的過渡階段。 DeepSeek、字節、阿里、騰訊這些產業鏈核心玩家的選擇,正在把過渡期變成不可逆的結構性轉移。 等2026年下半年75萬顆950PR全部部署到位,就算H200之後能進來,市場格局也早就重新洗牌了。2025年國內昇騰開發者數量已經突破120萬,比2024年翻了一倍。 阿里雲2025年Q4的AI算力訂單裡,昇騰佔比已經超過40%。 等今年75萬顆昇騰950PR全部落地,國內AI產業第一次有了完全自主可控、性能對標國際主流、生態無縫銜接的算力基座。 這不是簡單的供應鏈替代,是真真正正把算力主權握在了自己手裡。 (硅基LIFE)
未來已經分佈在現在:中國 AI 的新黃金十年,才剛剛開始
AI 不是某一天突然到來的風口,是一場持續十年的能力遷移和位置重排未來已經分佈在現在,但機會只給還在牌桌上的人今天看起來最不起眼的公司,可能是下一個中國AI巨頭今天和一位朋友聊天。他以前也是馬雲的部下。聊著聊著,他提到馬雲曾在內部會議上說過一句話:未來已經不經意地分佈在現在。這句話,我聽完很有感觸。去年上半年,我發過一條朋友圈,大意是:新的黃金十年其實已經來了,無數千億、兆級公司正在誕生,只是今天的我們,還說不準它們到底是誰。現在回頭看,這個判斷和“未來已經分佈在現在”,說的是同一件事。那時候,A 股和港股市場還沒有真正走出一批新的 AI 千億新秀和兆候選者。不到一年,答案已經陸續浮出水面:Zhipu、MiniMax 先後在香港上市,摩爾線程、沐曦在 A 股站上檯面,長鑫儲存啟動上市融資計畫,中際旭創這類過去更偏“賣水人”的公司,也在 AI 浪潮中被重新定價。真正的大機會,從來不是某一天突然降臨。它總是先以碎片、苗頭、局部成功、行業誤判的方式,提前藏在當下。等大多數人都看清楚的時候,很多位置已經坐滿了。今天的中國 AI,就站在這樣一個節點上。01為什麼偏偏是現在一個真正的大時代,不會只靠一項技術突破啟動。它一定是幾股力量同時到位,才會從“熱鬧”變成“產業”。今天 AI 之所以從概念走向公司、從論文走向資本市場、從實驗室走向企業現場,不只是模型更強了,而是技術、算力、資本、政策和產業場景第一次真正形成了共振。過去一年,中國 AI 公司在香港和 A 股接連上市,晶片、模型、儲存、光模組同時被重估,這不是單點熱鬧,而是產業底層開始成形的訊號。這不是“AI 未來可能很重要”,而是 AI 已經開始重寫當下的產業坐標。真正的問題也不再是要不要相信它,而是要不要盡快看清楚:它會先托起那些公司,重寫那些行業,淘汰那些舊邏輯。02中國 AI已經從技術熱走進公司時代過去幾年,大家談 AI,談得最多的是模型、參數、訓練成本、開源、閉源。那時候,AI 更像一個技術熱點。今天不一樣了。今天最重要的變化,不是某個 benchmark 誰又高了幾分,而是:公司開始真正長出來了。你會看到,一批真正有產業位置的公司,已經從技術名詞變成公司名字。有人做算力,有人做儲存,有人做光連接,有人做模型平台,有人做推理能力和 Agent 底座,有人則在更深的產業環節積累多年,終於等來了自己的周期。摩爾線程上市首日大漲四倍以上;長鑫儲存計畫融資 295 億元擴張 DRAM 與 HBM;中際旭創則隨著 AI 光互連需求被重新定價,成為中國股票市場裡與 AI 基礎設施最強繫結的標的之一。這說明,中國 AI 已經不再停留在“技術看點”的階段,而正在進入“公司成形、格局成形、資本市場重新定價”的階段。這一步,比技術新聞更重要。03今天先跑出來的幾乎都是新基建公司如果把這一輪最先被市場看見的公司放在一起看,會發現一個很明顯的共性:它們大多是新基建公司。這很正常。任何一個大時代真正啟動,最先被重估的,往往都不是終局應用,而是地基公司、修路的公司、賣鏟子的公司、搭平台的公司。今天中國 AI 賽道里最先站上聚光燈的,大體也是這樣幾類:晶片與算力、儲存與光連接、模型與平台。摩爾線程、MetaX 代表算力,長鑫儲存代表儲存,中際旭創代表光連接,Zhipu、MiniMax、DeepSeek 這一類看起來像模型公司,往深裡看,本質上也在佔據未來大量應用所依賴的平台位置。過去二十年,我們習慣的基建是房地產,是鋼筋水泥,是修路架橋,是城市和工業化時代的大規模物理建設。今天的基建定義已經變了。今天的新基建,是電力,是能源,是儲能,是資料中心,是算力工廠,是儲存工廠,是光連接,是模型平台,是持續輸出智能供給的一整套底座。過去修的是城市的外殼,今天修的是智能時代的地基。絲滑過度、完美銜接。04資本先抱基建不是因為基建最偉大而是因為基建最先被看懂很多人會問,為什麼市場最先追逐的是晶片、算力、儲存、光連接、模型平台,而不是那些更接近使用者的應用公司?答案並不複雜。資本在一個新周期裡,永遠先擁抱最確定的東西。AI 時代最確定的,不是今天誰會成為超級應用,而是算力一定要擴,儲存一定要上,連接一定要升級,模型底座一定要迭代。它們的需求更清楚,訂單更清楚,收入和估值的閉環也更容易建立。Bloomberg 對中國光模組類股的最新觀察,本質上反映的就是市場在為“確定性供給”付更高價格。不是基建比應用更偉大,而是基建比應用更早被看懂。05這不是一榮萬枯而是一場大遷移今天很多人會有一種體感:好像全中國只剩下 AI 一件事,別的都不重要了。我不這麼看。這不是“一榮萬枯”,而是一場更深的遷移。舊的增長邏輯、舊的資產結構、舊的商業模式、舊的組織方式,正在向新的時代重心遷移。不是社會突然只相信 AI,而是這個時代最重要的供給方式、生產方式和價值創造方式,開始被 AI 重寫。這種變化一定伴隨痛感。舊世界的慣性還在,舊經驗還在發揮作用,舊利益結構也沒有完全退出;與此同時,新的東西已經大規模長出來。很多人的難受,不是社會突然變差了,而是自己熟悉的秩序正在切換。今天的痛感,很多時候不是衰退本身,而是切換本身。對企業來說,這是基建重做、流程重做、商業模式重做。對個人來說,這是能力結構重做、認知框架重做、職業路徑重做。舊世界的經驗不會一夜失效,但它已經不再足夠。06基建不是終局基建的盡頭一定是應用今天很多人看到基建公司先跑出來,很容易得出一個過於簡單的判斷:這一輪最大的機會已經被底層拿走了,應用層空間不會太大。這個判斷只說對了一半。任何一個產業周期裡,前半程都是基建先贏,後半程一定是應用爆發。鐵路修起來之後,真正繁榮的不是鐵路公司自己,而是工業、物流、消費和城市。網際網路鋪開之後,真正偉大的不是光纖本身,而是搜尋、電商、社交、支付和廣告。雲端運算成熟之後,真正爆發的是 SaaS、協同、開發工具和資料平台。AI 也會是一樣的路徑。今天最先站上舞台中央的是基建公司。未來真正最有爆發力的,一定是超級應用。而且不是一兩個超級應用,而是大量行業會被 AI 重新洗一遍。企業軟體會被重做,客服、銷售、設計、研發、行銷、教育、醫療、金融、製造都會被重做。今天最容易看見的,是地基。明天真正拉開時代總量的,一定是跑在地基之上的大規模應用。07基礎模型不會吃掉所有應用應用層仍會百花齊放現在另一個很常見的擔憂是:模型越來越強,平台越來越集中,應用是不是會被一層層吞掉?我還是不這麼看。基礎模型會越來越強,這幾乎是確定的。頭部平台會越來越大,這也幾乎是確定的。可應用層不會因此消失,反而會被重新定義。理由很簡單:模型可以通用,產業不會通用;底座可以集中,場景一定分散。真正有價值的應用,不只是一個模型入口,而是行業 know-how、使用者關係、業務流程、資料閉環、結果交付和組織嵌入。一個通用模型再強,也不可能自動長成所有行業的最優解。中國市場眼下也在給出新的訊號。字節在大規模投入 AI,阿里則在 Qwen 之外明確把 Agent 作為新的核心主線。它們越強,越說明未來的入口會更多,協同會更深,而不是所有垂直場景都會被抹平。路透報導顯示,字節正在自研 AI 晶片並與三星洽談製造,阿里則在 Qwen 團隊調整後成立新的 AI 任務組和 AI 業務集團繼續加碼。模型會集中,應用仍然會分散。平台會變強,場景依然會百花齊放。08商業模式開始改變從賣軟體走向賣智能結果還有一個變化,很多人還沒有完全意識到,但它會越來越深刻。過去我們賣的是 SaaS,賣的是軟體,賣的是模組,賣的是一個功能,賣的是一個應用。現在不一樣了。未來越來越多商品形態,會從“功能型產品”變成“結果型智能”。企業買的,不再只是一個系統,而是一個更快的結果;不是一個工具,而是一種可持續輸出的智能能力。智能會像電一樣,慢慢變成無處不在的基礎供給。這意味著很多中間態、過渡態、低附加值的軟體和服務,會被一層層吞噬、一層層重寫、一層層擠壓。真正能活下來的,不是“有功能”的公司,而是“能交付結果”的公司。這個變化不會一夜之間完成,但方向已經很清楚。誰先理解這一點,誰就更容易在下一階段站住位置。09真正大的機會屬於留在牌桌上的人未來十年裡,最重要的能力,不是“猜中那家公司”,而是一直留在牌桌上。當然,留在牌桌上,不是簡單地熬著,也不是不下場就行。真正重要的是,一邊留在牌桌上,一邊持續升級自己。字節也好,阿里也好,今天能迅速長成中國 AI 牌桌上最大的玩家之一,不是因為某一天突然押中了 AI,而是因為它們一直在技術主戰場上,一直在調組織、調人才、調產品,去適應這場變化。中際旭創也是一樣。光模組不是今天才重要,而是它在這個點位上熬了很多年,持續積累、持續投入,終於等到了屬於自己的大時代。偉大的公司不是“突然偉大”,而是一直沒下牌桌,終於等到了時代轉身。這條規律,對公司如此,對個人也是一樣。不能因為未知而恐懼,不能因為看似跟不上就不跟。這一輪最大的機遇,本質上是技術平權。很多舊門檻正在被打碎,很多新機會正在重新分配。機會並不只屬於巨頭,也不只屬於天才,關鍵在於我們能不能取長補短,能不能用第一性原理理解變化,能不能讓自己一直留在牌桌上。10站在今天看未來還有沒有機會?我的答案非常明確:不僅有,而且非常大。今天已經跑出來的公司,不代表機會已經結束。恰恰相反,它們說明的是,地基已經開始打了,路已經開始修了,電已經接上了,高速公路已經鋪出來了。接下來真正的大遷徙、大重做、大重估,才會發生。今天最容易看見的,是晶片、算力、光模組、儲存、模型平台。明天更難看見、但更有爆發力的,是 AI 原生應用、AI 原生軟體、AI 原生服務,以及那些今天還沒被叫出名字的新入口。所以我越來越相信,未來十年,中國一定還會出現更多千億公司、兆公司。不是因為樂觀,而是因為今天我們看到的,還只是第一層。未來並不在遠處。它已經在這裡了。它以摩爾線程、沐曦、長鑫儲存、中際旭創、Zhipu、MiniMax、DeepSeek 這些公司的方式,分佈在現在。再往後,它也會以更多今天還不夠大、還不夠完整、還不夠清晰的應用公司的方式,繼續分佈在現在。DeepSeek 近期還在推進至少 3 億美元融資、目標估值約 100 億美元,並在 4 月預覽新一代模型、壓低 V4-Pro 價格,同時押注與華為更深的協同,這本身也在說明牌桌仍在快速洗牌。這才是今天中國 AI 最值得興奮的地方。不是未來會不會來。而是未來,其實已經來了。 (Space AIThinker)
允許梁文鋒再「偉大一次」
一個技術理想主義者,如何被中國AI的“工程現實”重新定義。過去幾年,梁文鋒幾乎拒絕了所有網際網路時代熟悉的劇本。別人融資,他拒絕;別人搶入口,他開源;別人卷參數,他卷效率;別人把AI當成生意,他卻一直在談AGI。DeepSeek因此看起來更像一家“研究機構”,而非創業公司。直到2026年春天,事情開始變化。GPT-5.5發佈不到24小時,DeepSeek-V4預覽版上線。發佈後不到五天,接連三次降價,昨天,DeepSeek“識圖模式”又開始灰度測試,補上了多模態這塊缺失最久的拼圖。DeepSeek多模態團隊研究員陳小康在X上的發帖與此同時,那個長期拒絕騰訊、阿里和頂級VC的梁文鋒,第一次主動打開了融資的大門。一邊把價格打到骨折,一邊卻伸手拿錢;一邊叫苦算力吃緊,一邊承諾還要降價,梁文鋒這位把AGI掛在嘴邊的人,是向商業現實“繳械投降”,還是在醞釀一場更大的風暴?01. “反常識”的72小時4月24日,GPT-5.5發佈不到二十四小時後,DeepSeek-V4預覽版悄然上線。沒有發佈會,就像這家公司的一貫作風:事情做完了,放出來,你們自己看。V4-Pro發佈後,最先引發討論的不是能力,而是價格。相比前代V3.2,這一次V4-Pro的定價看起來明顯更高。很多人第一反應是DeepSeek終於開始走向“正常商業化”了。但很快,事情又出現反轉。不到一天,官網低調更新價格,直接打到2.5折。隨後又一次更新:快取命中價格永久降至發佈價的十分之一。研究員甚至在社交媒體上直接打出“AGI for Everyone”的標籤,強調這是永久價格,而非促銷活動。更耐人尋味的,是官網價格頁面裡那行不起眼的小字:“受限於高端算力,目前Pro服務吞吐有限,預計下半年昇騰950超節點批次上市後,Pro價格會大幅下調。”這意味著DeepSeek公開承諾未來還會繼續降價,且這次價格下調繫結的,不再只是DeepSeek自己的技術最佳化,還有中國國產高端算力的量產節奏。與此同時,DeepSeek還啟動了成立以來的首次外部融資,目標估值從100億美元迅速抬升至200億美元乃至更高,騰訊、阿里相繼被傳洽談入局。降價、又融資,看起來很矛盾,但回看DeepSeek的發展歷程,會發現到它的野心從不只是“做模型”。過去兩年,全球大模型行業的默認邏輯一直是模型越強,成本越高,能力越強,價格越貴。OpenAI、Anthropic都建立在這套邏輯之上。但DeepSeek-V4要做的不是“賣更貴的智能”,而是不斷降低“智能”的邊際成本,實現AGI平權。這種對“邊際成本”的執念,從DeepSeek的前身幻方量化就已經開始了。2021年,當大多數科技公司還在討論AI概念時,幻方已經囤積了上萬張A100,自建了“螢火”算力叢集。在高度競爭的市場裡,成本結構本身就是護城河,這是梁文鋒在幻方時便想明白的,這套理念也被完整地繼承到了DeepSeek。DeepSeek V4-Pro約5.22美元,快取命中後進一步降至3.6美元左右。同等輸入輸出量下,GPT-5.5的API成本約35美元,Claude Opus 4.7約30美元。V4-Flash更激進,成本不到競爭對手的2%。這已經不是簡單的價格差,而是“量級差”了。“超低價”背後是模型架構、推理系統與算力調度共同最佳化後的結果。V4-Pro支援100萬token上下文,在部分長文字場景下,單token推理所需算力相比前代明顯下降,KV Cache佔用也大幅減少。過去行業處理長上下文,很多時候依賴的是持續堆視訊記憶體、堆頻寬;DeepSeek嘗試通過架構最佳化減少一部分無效計算與資源浪費。當然,效率上的突破並不等於全面超越。DeepSeek內部的真實評測顯示,V4目前已成為公司員工日常使用的Agentic Coding模型,使用體驗優於Sonnet 4.5,交付質量接近Opus 4.6的非思考模式,但與Opus 4.6的思考模式仍存在一定差距。開源和低價建立了影響力,可“一分錢一分貨”的道理,在頂級閉源模型身上依然成立。某種程度上,V4真正改變的,其實不是模型能力,而是行業對“智能應該值多少錢”的認知。極客肖恩·多納霍在Facebook發帖稱,自己把部分程式設計工具切換到DeepSeek之後,月帳單下降了90%以上,效果卻並未明顯下降。科技博主 Simon Willison 每次 DeepSeek 發佈新版本,他都會用同一句提示詞 生成一張鵜鶘騎自行車的 SVG。這次也一樣,測試之後他稱DeepSeek-V4-Pro 是“大型前沿模型中最便宜的一款”。上:DeepSeek-V4-Flash 版 下:DeepSeek-V4-Pro 版這幾位開發者或許只是個例,但他們背後折射出的趨勢值得關注:當價格差拉到“量級差”,開發者重新分配算力預算的動機也會增強。而當越來越多應用、Agent和開發工具開始基於同一種模型生態建構時,真正形成護城河的,未必只是模型能力本身,還包括開發者習慣、呼叫路徑以及整個生態的成本慣性。Deepseek想用極致的性價比,成為那個被開發者“持續依賴”的選項。02. DeepSeek 的“二度奇襲”2025年1月,Deepseek R1發佈,引發全球震動。Deepseek應用很快登頂蘋果中國和美國地區App Store免費榜首,Nvidia單日市值蒸發約6000億美元,美國風投家馬克·安德森稱之為AI領域的"斯普特尼克時刻"。一個杭州的量化團隊,用560萬美元的訓練成本,做出了對標OpenAI頂級模型的效果,並且開源了。彼時,世界對梁文鋒的理解,是"用更少的錢做更好的模型"。很多人後來把R1理解成“受限條件下的逆襲”,但其實並不完全精準。早在行業真正意識到大模型價值之前,幻方就已經開始大規模採購算力、建設叢集。後來外界看到的“低成本奇蹟”,更像一次長期積累後的集中爆發。梁文鋒真正厲害的地方,是他比大多數人更早意識到未來AI競爭的核心,不只是模型能力,還有算力效率。但隨著DeepSeek從技術黑馬變成核心玩家,新的問題也開始浮現。過去的DeepSeek,很像一個隱秘的研究組織,幻方量化在背後輸血,梁文鋒不缺錢,研究員埋頭做模型。Deepseek在X上的簽名都是“用好奇心揭開通用人工智慧的奧秘,用長遠的眼光回答根本問題”,學術味兒十足。但AI行業不會長期尊重“隱士”,尤其當你手裡真的有“真經”的時候。從2025年底到2026年,多位DeepSeek核心成員相繼離開。V3架構關鍵開發者羅福莉去了小米,第一代大語言模型核心作者王炳宣去了騰訊,R1核心研究員郭達雅被字節跳動以傳聞中“近億元的總包”帶走,多模態方向核心研究員阮翀轉投元戎啟行。過去,大模型公司的目標相對統一:訓練更強的基礎模型,到了2026年,行業開始迅速分化,Agent、多模態、端側AI、機器人、自動駕駛,陸續變成新的戰場。這時候,一個研究員如果想做Agent,去字節會面對真實月活場景;想讓AI理解物理世界,去自動駕駛公司顯然更有吸引力。DeepSeek太專注把模型本身做到極致,這種組織文化,能夠吸引最純粹的研究者,卻很難長期承載所有方向。它最強的地方,在這一刻成為它最大的桎梏。主流AI公司搶的是有經驗的工程師,梁文鋒卻更青睞頂尖高校的年輕博士生,因為在他看來這些人"渴望證明自己","可以完全不帶功利地投入去做一件事"。初期DeepSeek的確可以用技術理想主義吸引天才,但很難長期用理想主義支付機會成本,尤其在同行已經開始形成市場估值的時候。近兩年,OpenAI、Anthropic不斷刷新融資數字,投後估值高達8400億、3800億美元,國內的智譜、MiniMax相繼掛牌港交所,市值一度突破4000億和3800億港元。大廠給的是有行權價、有IPO預期、有內部回購機制的期權,而不融資的DeepSeek,沒有“度量衡”。在競爭白熱化的AI人才市場裡,沒有市場化估值錨點的期權,等於一張無法兌現的期票。梁文鋒或許也是意識到了這一點,所以開放了融資。但這依然是一個極具“梁式色彩”的融資方案。此次融資目標募集金額不低於3億美元,計畫以不低於200億美元的估值進行。與此同時,工商資訊顯示,梁文鋒在增資後直接持股佔比由1%提升至34%,其作為實際控制人的最終受益股份仍為84.29%,表決權比例仍為100%。他用大約3%的股權,換來了市場對這家公司的價值認證。董事會的控制權,一票未讓。對比同行,這個數字更加意味深長。OpenAI 2026年完成的最新一輪融資,募集1220億美元,投後估值8520億美元;Anthropic 2026年2月完成300億美元G輪融資,投後估值3800億美元。3億美元,放在今天的AI賽道里,甚至比不上同行一輪融資的零頭。梁文鋒選擇用這個體量融資,就是為給員工手中的期權,建立起相對清晰的估值錨點和兌現預期,穩住人才,同時讓公司不被短期增長所裹挾。03. 允許梁文鋒再“偉大一次”R1證明了中國AI可以做出世界級模型,V4之後,梁文鋒試圖證明中國AI可以建立起自己的“底座標準”,那怕這條路,很難。有個細節,V4發佈後,華為昇騰生態官方帳號,專門為DeepSeek-V4做了一場直播。晶片廠商親自下場給一款模型站台,並不常見。它釋放的訊號超出產品本身:DeepSeek第一次公開地,把自己的模型路線與國產算力的量產節奏綁在一起。過去幾年,中國AI行業有個默認順序,模型可以開源,演算法可以追趕,但輝達的生態護城河最難撼動。CUDA是輝達二十年攢下的工具鏈、算子庫、開發框架和開發者習慣,全球AI幾乎默認運行在這套底座之上。要脫離它,可不是“換塊顯示卡”那麼簡單。尤其在兆級參數模型上,難度會被進一步放大。參數越大,對視訊記憶體頻寬、通訊效率、叢集穩定性的要求就越高。模型團隊不僅需要針對國產晶片重寫和最佳化核心算子,甚至還需要自研確定性算子,保證長時間訓練過程中的精確可復現。更現實的問題是在萬卡叢集裡,硬體故障不是意外,而是必然。於是,訓練框架必須同時具備完整的檢測、容錯與恢復能力。如果效率跑不上去,成本就只是空談。V4延期超過十五個月,遷移代價是原因之一。目前V4的細粒度專家平行方案已經同時在輝達GPU和華為昇騰NPU兩個平台上完成驗證,在通用推理場景中實現了1.5到1.96倍的加速。推理層面跑通了,但開放原始碼主體仍基於CUDA,底層工具鏈尚未完全轉移,原因在於昇騰950超節點尚未批次上市,現有產能撐不起V4-Pro的大規模服務。不過DeepSeek已經把下一輪降價,公開寫進了國產算力的量產時間表裡。昇騰950PR單卡算力達到輝達H20的2.87倍,是目前國內唯一支援FP4低精度推理的產品,HBM容量112GB。規格是真實的,只等工業化落地。梁文鋒當年從幻方量化的GPU叢集起家,把算力當作研究的彈藥。如今他讓中國模型和中國晶片的命運,在商業上深度捆綁,並在所有人面前承諾,這是梁文鋒在晶片封鎖的現實下,做出的務實選擇。但這條路有個前提:模型能力必須始終足夠硬。V4把1M上下文做成標配、對Agent能力做專項最佳化、推出三檔推理強度,這些不是給評測榜單準備的,是給真實企業工作流準備的。只有先在真實生產場景裡證明自己不可替代,Deepseek的“底座”敘事才能成立。未來,梁文鋒和Deepseek要走的路還很長,國產算力的工業化時間表能否如期兌現,模型能力能否在閉源頂級模型高速迭代的壓力下保持競爭力,開發者生態能否形成足夠的黏性……它們像棋盤上尚未閉合的“氣眼”,每一個都關乎生死,可這些問題,現在都還沒有答案。Deepseek爆火後,被問及"商業公司做無限投入的研究性探索是否瘋狂"時說,梁文鋒曾說過一句話:"我們終其一生所渴望的,就是找到自己,然後成為自己。"這句話在R1發佈後的語境裡讀,是一個創始人的理想宣言。如今再讀,份量更重了些。AI競爭的上半場,他用技術效率、定價顛覆和算力豪賭,贏得了繼續下棋的資格,成就了Deepseek的"偉大"。下半場,允許梁文鋒再“偉大一次”,不是因為他已經攻下了某個技術的山頭,而是他正在為一場漫長的遠征搭建底座。不誘於譽,不恐於誹,率道而行,端然正己。這是荀子的精神,也是Deepseek的信條。 (奇點研究社)
黃仁勳的感慨正在成真
英國《經濟學人》近日刊文指出,中國正在全球AI人才競逐中逐步擴大對西方國家的領先優勢。輿論在予以關注的同時,紛紛解析中國的吸引力何在。多年來,發達國家對開發中國家的人才虹吸近乎碾壓。這些年,隨著中國綜合國力躍升與科研環境持續最佳化,全球人才流動逐漸轉向,“最大規模海歸潮”悄然出現。同時,一些西方國家出於政治私利,動輒對全球人才關上大門,客觀上也推動了人才洋流“一路向東”。近五年來,不僅海外留學人員回國就業人數逐年增加,不少領軍人物也選擇來華任職任教。更重要的是,中國已默默搭好“如何留人”的生態系統。人工智慧競爭,本質是算力、資料與演算法的“鐵三角”之爭。在晶片受限的相對被動局面下,中國AI經歷了從“大力出奇蹟”到“精益求精”的轉變,探索出一條“軟體定義算力、演算法驅動效能、人工智慧+賦能場景”的創新路徑。完善的工程體系、海量的優質資料、充沛的算力資源、豐富的應用場景,為天下英才提供了廣闊舞台。而對夢想上路時的成本焦慮與風險挑戰,相關政策給予穩穩支援,各類人才計畫為早期AI創新力量搭建了專業化、全周期的賦能平台。中國在AI人才競爭中佔有優勢,靠的不僅是攬才、留才,更是強大的本土造血能力。中國高度重視教育,擁有全球規模最大的教育體系,各級教育普及程度達到或超過中高收入國家平均水平。資料顯示,中國人才資源總量達2.2億人,其中高技能人才超7200萬人,科學家與工程師規模接近2000萬人;每年培養STEM專業畢業生超過500萬人,全球領先。這都為中國造就了領先全球的AI人才底座。以嶄露頭角的DeepSeek團隊為例,這支平均年齡僅20多歲的生力軍,核心成員均為本土培養,充分證明中國高等教育體系與科研環境已具備培養、吸引並成就世界級AI人才的深厚土壤。當然,人才之戰不是百米衝刺,而是一場漫長的馬拉松。前段時間,國務院印發《關於深入實施“人工智慧+”行動的意見》,明確提出到2030年人工智慧全面賦能高品質發展。此外,八部門聯合發文,提出要“超常規”建構領軍人才培養新模式。當然,也要看到,中國AI在“從0到1”的原創突破上仍有差距。要鼓勵弄潮兒心無旁騖試錯深耕,尤須營造更加包容寬鬆的創新環境,糾正科研領域的實用主義傾向。“美國絕對有可能在AI上落後於中國,因為人才在變。”輝達創始人黃仁勳曾如是感慨。AI人才“東流”無須大驚小怪,人才流向改變更不是終點。持續建構創新創業的優質生態圈,讓各類人才的創造活力競相迸發、聰明才智充分湧流,中國必能擁抱更廣闊的星辰大海。 (長安街知事)
國家級背書!中國信通院牽頭測試,DeepSeek V4改寫中國AI格局
近日,信通院正式官宣——啟動DeepSeek V4的國產化適配測試工作,這釋放了什麼訊號?簡單說,它是工信部直屬的科研事業單位,毫無疑問的“國家隊”!咱們平時聽到的5G、工業網際網路相關的產業規劃、技術標準,很多都有它的身影。這次由它牽頭做適配測試,真正的“國家級背書”,一劑強心針。這事其實早有鋪墊。還記得4月24號,DeepSeek剛發佈V4預覽版,就同步開源了——不管是智能體能力、世界知識,還是推理性能,在國內和開源領域都是頂尖水平。更關鍵的是,它分了兩個版本,開發者只要改個參數,就能直接呼叫API,門檻特別低。最讓人驚喜的是,發佈當天,多家國產硬體廠商就火速跟進,搞起了“0day適配”。說白了就是當天發佈、當天適配,一點不拖沓。這可不是簡單的“能運行”,而是真正的軟硬體協同最佳化,能把國產晶片的算力潛能充分發揮出來,從根本上解決咱們以前“有晶片、無生態”的難題。咱們來看看這些廠商的動作有多快:華為計算直接宣佈,昇騰超節點全系列產品都支援。DeepSeek V4,雙方深度協同,把芯模技術做到了無縫銜接。華為雲也不甘落後,首發適配,開發者不用自己部署,一鍵就能呼叫V4的API,特別方便。不止華為,其他國產晶片廠商也沒閒著。寒武紀當天就基於vLLM推理框架,完成了V4兩個版本的適配。摩爾線程在國產全功能GPU上,率先實現了對V4最新算子庫的支援。更有份量的是,全球智能體風向標OpenClaw,也官宣全面接入,還把V4 Flash當成了默認大模型。這就相當於,咱們的國產大模型,已經得到了全球行業風向標等級的認可,不再是“閉門造車”。再說說這次信通院牽頭的適配測試,可不是走過場。測試依託專門的重點實驗室和專業的測試工具,覆蓋了晶片、伺服器、開發框架等所有AI軟硬體產品,聚焦推理、微調這些核心流程,從易用性、性能、成本等多個維度做評估,形成了一套全方位的評測體系,就是要客觀檢驗適配效果,推動模型和硬體真正做到深度協同。結合之前中美科技脫鉤、中國限制美資滲透的背景,再看這次的適配測試,其實邏輯特別清晰:美國一邊搞資本封鎖,一邊卡我們晶片脖子,就是想讓我們的AI產業斷檔。但我們沒有被動挨打,反而主動發力。我個人覺得,這才是最硬氣的破局之路。以前我們可能還會依賴國外的晶片和資本,但現在,我們有了DeepSeek V4這樣的頂尖模型,有華為、寒武紀這些國產硬體廠商的全力配合,還有信通院這樣的“國家隊”牽頭護航,相當於把AI產業的“命脈”,牢牢握在了自己手裡。以前我們可能還會有僥倖心理,現在徹底清醒了:核心技術買不來、求不來,只能靠自己。而DeepSeek V4的國產化適配,就是我們打破封鎖、實現自主可控的重要一步。 (W侃科技)
講真,DeepSeek V4+Claude Code 就是中國最強 Agent
DeepSeek V4(預覽版)終於在四月底來了!眾望所歸啊。去年 V3 發佈之後大家就開始猜 V4 什麼時候出。之所以周期這麼長,原因很簡單——換卡了,V4 的整個訓練框架都切到了昇騰。要知道,DeepSeek 的深度思考模式,絕對是當時的大模型第一梯隊,甚至是引領者。從 V3 到 V4,這一步真不容易(我接觸到不少小夥伴都不抱期待了)。不管怎麼說,總算是來了。不誘於譽,不恐於誹,率道而行,端然正己。V4 端上來了,V4.1 就快了,威武,哦不,V5 肯定要不了這麼久。注意,V4 這次是全量上線,不需要排隊等資格,直接改 API 裡的 model 參數就可以用。Pro 版改成 deepseek-v4-pro,flash 版改成 deepseek-v4-flash,deepseek-chat 和 deepseek-reasoner 到 7 月 24 號就棄用了。定價方面,pro 比較貴,但 flash 一如既往地親民。在沒有 Coding Plan 的情況下,pro 完成一次開發,價格能接受,但略貴。別的廢話我就不多說了,直接開測。咱就不去寫什麼 demo 了,直接把 DeepSeek V4 接入到 Claude Code 中讓他猛猛幹活。01、Claude Code + DeepSeek V4講真,Claude Code+DeepSeek V4 就是國產最強 Agent。切換模型很簡單,我自己寫了個工具 PaiSwitch,銷售點一點,Claude Code 的底層模型就切到了 DeepSeek V4 Pro。切換底層模型後,重新打開一個終端,輸入 /claude 啟動。可以用 /status 確認下配置是否生效。提示詞:派聰明的聊天入口 http://localhost:9527/#/chat 現在是單窗口模式,我想改成多窗口——能開新對話,舊對話直接歸檔。V4 上來先把整個項目的程式碼結構讀了一遍。讀完之後給了一個改造計畫。要新增那些結構、更新什麼類、重構那塊儲存、頁面佈局怎麼調,都列得明明白白。我全程盯著 token 消耗。讀了那麼多程式碼,加上輸出計畫的量,一塊多。然後開始幹活。V4 規劃了五個任務,先攻後端,再弄前端。後端改了 7 個檔案,前端 5 個,前後大概 15 分鐘。編譯直接過了,有錯誤自己也修了。然後我讓它自己用 CDP 連到 Chrome 跑測試。提示詞:你自己能否 cdp 我的 Chrome 測試一下:http://localhost:9527/#/chat點點按鈕,驗證功能。測出問題自己修。修完繼續測歸檔功能。最後我還讓它最佳化了一下佈局。從頭到尾,Pro 一共花了 10 塊左右。能接受。當然了,有一說一,前端審美這塊確實還比較糙。佈局能用但說不上優雅。功能方面是沒出一點問題。一個好的模型,配上 Claude Code 這種頂級 Harness 架構,能幹的事情就很多了。Claude Code之所以牛X,就是因為。它不只是把你的提示詞轉發給模型,還在中間加了任務拆解、檔案讀寫、終端操作、自動糾錯這些能力。所以同一個 Harness 換不同的底層模型,就能直觀地看出模型之間的差距在那。10 塊錢完成一個完整的功能開發,從程式碼到測試到修 bug,這個成本不算貴。但也不便宜,注意上圖中的小子,下半年卡升級後,pro的加個會大幅下調。很期待下一個版本。02、派聰明 RAG 接入 DeepSeek V4由於我們派聰明RAG做了模型管理。所以我第一時間,也是把 Pro 和 Flash 接上去體驗了一下。問了一模一樣的問題:「派聰明是什麼?」Flash 的回答是這樣的:派聰明是一個企業級的 RAG(檢索增強生成)知識庫項目,最初是技術派實戰項目中用於和 AI 大模型聊天對話的部分(不含檢索增強),後來獨立發展並沿用“派聰明”名稱,旨在延續正宗的皇家血脈。Pro 的回答是這樣的:派聰明是一個企業級 RAG(檢索增強生成)知識庫系統,基於企業文件實現精準的智能問答與知識管理。它最初是技術派實戰項目中的 AI 聊天模組(不含檢索增強),後獨立發展並沿用“派聰明”名稱,旨在延續項目的正統性。系統核心能力包括:文件自動解析與分塊、豆包 Embedding 向量化、關鍵詞與語義混合檢索、基於 DeepSeek 模型的生答、Self-RAG 自驗證機制、JWT+RBAC 多租戶權限隔離、SSE 流式推送等。通過全鏈路閉環,它有效解決知識分散與更新滯後問題,避免大模型“幻覺”,可應用於客服、培訓、合規審查等場景。派聰明完全開源(MIT 協議),教學託管在技術派平台,支援企業私有化部署與二次擴展。一個簡略,一個詳細。畢竟 Pro 啟動參數 49B,Flash 只有 13B,差了將近 4 倍。但重點不在誰答得長。RAG 場景裡,檢索質量才是天花板,模型能力決定的是在這個天花板下能發揮幾成。Flash 的回答雖然短,但核心資訊都抓到了——項目來源、名稱由來、定位。Pro 多出來的那些內容(Self-RAG、JWT+RBAC、SSE 流式推送),其實全都是從知識庫裡檢索出來的原始文件內容,它只是組織得更完整。換句話說,如果你的知識庫文件質量高、分塊合理,Flash 完全夠用。03、DeepSeek V4 值得聊的一點傳統 Transformer 的注意力機制,每個 token 要和前面所有 token 都算一遍相似度。上下文能從 10 萬拉到 100 萬,這是長上下文一直跑不起來的根本原因。DeepSeek 的解法是把注意力拆成兩種,交替堆疊起來用。第一種叫 CSA,全名 Compressed Sparse Attention,壓縮稀疏注意力。它的邏輯是先把每 4 個 token 的 KV 快取合併成一條摘要,然後用 Lightning Indexer 快速估算相關性,讓每個 query 只從這些摘要裡挑出最相關的 top-1024 個去算。DeepSeek V4 pro繪圖第二種叫 HCA,全名 Heavily Compressed Attention,重度壓縮注意力。每 128 個 token 才合併成一條,但不做稀疏選擇,所有壓縮後的摘要全部參與計算。HCA 的定位是維持全域視野,保證模型不會丟了對整段文字的把控。再加一個 128 token 的滑動窗口管局部依賴。也就是說,CSA 負責精細化檢索,HCA 負責全域審視,滑動窗口管好眼前。可以這樣理解這個設計:讀一本 1000 頁的書,傳統注意力是把每一頁和前面所有頁都對比一遍,翻到第 1000 頁的時候要同時記住前 999 頁的細節,腦容量直接爆炸。CSA 的做法是把每 4 頁貼一張便簽紙,唯寫摘要,然後看到某一頁時只去翻最相關的 1024 張便簽紙。HCA 的做法更絕——每 128 頁才貼一張便簽紙,但所有便簽紙都看一眼。再加上手裡的那一頁(滑動窗口),局部細節、中程邏輯、全域脈絡都有了,但腦容量得消耗只有原來的十分之一。04、DeepSeek 真的很克制最讓我意外的是 DeepSeek 官方這次的措辭。公告裡是這樣寫的:使用體驗優於 Sonnet 4.5,交付質量接近 Opus 4.6 非思考模式,但仍與 Opus 4.6 思考模式存在一定差距。沒有「吊打」,沒有「碾壓」,沒有「遙遙領先」。在充斥著「超越 GPT」「全球最強」「里程碑式突破」的當下,這種「我們確實還差一截」的表態真的很真誠。「不誘於譽,不恐於誹,率道而行,端然正己。」V4 不是一個完美的模型。就我自己的使用體感下來看,前端這塊的處理我認為還是有很大進步空間的。這種實心的線條來佈局,有點回到返璞歸真的。😄下一版不急,按你的節奏來。 (沉默王二)
DeepSeek V4 震撼發佈!帶來的不僅是性能怪獸,更是中國AI的長期主義
不誘於譽,不恐於誹,率道而行,端然正己。2026年4月24日,全球AI圈期待已久的DeepSeek V4終於正式發佈!這一次,DeepSeek不僅帶來了技術上的重大突破,更重要的是,它標誌著中國大模型發展邁入了全新的階段。雙版本齊發,性能比肩頂級閉源模型此次DeepSeek V4發佈採用了"頂配+性價比"的雙版本策略:DeepSeek-V4-Pro:性能怪獸參數規模:1.6T總參數,49B啟動參數核心優勢:Agent能力達到開源模型最佳水平世界知識儲備大幅領先其他開源模型,僅稍遜於Gemini-Pro-3.1在數學、STEM、競賽型程式碼測評中超越所有已公開的開源模型內部評測顯示:使用體驗優於Sonnet 4.5,交付質量接近Opus 4.6非思考模式DeepSeek-V4-Flash:經濟之選參數規模:284B總參數,13B啟動參數核心優勢: 推理能力接近Pro版本在簡單Agent任務上與Pro旗鼓相當更快捷、經濟的API服務百萬上下文成為"標配"從今天開始,1M(一百萬)上下文長度將成為DeepSeek所有官方服務的標配。一年前,百萬上下文還是Gemini的獨家王牌,而今天,DeepSeek通過技術創新將這一"高端功能"變成了"水電煤"般的基礎設施。技術創新實現突破DeepSeek V4開創了一種全新的注意力機制,通過以下技術創新大幅降低了計算和視訊記憶體需求:混合注意力架構:結合壓縮稀疏注意力(CSA)和高度壓縮注意力(HCA)流形約束超連接:增強傳統殘差連接,提高訊號傳播穩定性Muon最佳化器:加速收斂,提升訓練穩定性DSA稀疏注意力:在token維度進行壓縮,實現高效長上下文處理資料對比:DeepSeek-V4-Pro相比前代V3模型,FLOPs降低73%,KV快取大小減少90%。攜手華為昇騰,打破技術封鎖此次發佈最大的亮點之一,就是DeepSeek V4將採用華為昇騰晶片。從CUDA到CANN的轉變過去幾年,中國大模型開發高度依賴輝達GPU和CUDA生態。而DeepSeek V4的反向操作令人矚目:完全運行在華為最新AI晶片上(主要為Ascend 950PR)從CUDA生態轉向CANN框架的軟體架構適配Agent能力專項最佳化DeepSeek V4針對當前最火的Agent應用場景進行了專門最佳化:適配主流Agent產品:Claude Code、OpenClaw、OpenCode、CodeBuddy等程式碼任務表現突出:在Agentic Coding評測中達到開源模型最佳水平文件生成能力提升:能夠高品質完成各類文件創作任務官方發佈的PPT生成示例顯示,V4-Pro在Agent框架下的表現已經相當成熟。API同步更新,開發者友好即時可用官網和App:登錄chat.deepseek.com或官方App即可體驗API服務:修改model_name為deepseek-v4-pro或deepseek-v4-flash即可呼叫介面相容:支援OpenAI ChatCompletions介面與Anthropic介面重要提示舊有API介面的兩個模型名deepseek-chat與deepseek-reasoner將於三個月後(2026年7月24日)停止使用。當前階段,這兩個模型名分別指向deepseek-v4-flash的非思考模式與思考模式。開源同步發佈,踐行開放承諾DeepSeek延續了其開源傳統,V4預覽版同步開源:Hugging Face:https://huggingface.co/collections/deepseek-ai/deepseek-v4ModelScope:https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4技術報告:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf行業影響與意義DeepSeek V4的發佈對中國AI產業具有深遠意義:技術路徑的自主創新從跟隨CUDA生態到建構基於國產硬體的完整技術堆疊,為行業發展提供了新路徑。性能與成本的雙重突破在性能比肩頂級閉源模型的同時,保持了極具競爭力的成本優勢。開源生態的建設者通過持續開源高品質模型,推動了整個開源AI社區的發展。AGI目標的務實探索正如DeepSeek在發佈稿中所說:"我們將始終秉持長期主義的原則理念,在嘗試與思考中踏實前行,努力向實現AGI的目標不斷靠近。"寫在最後在過去的幾個月裡,關於V4何時發佈、是否跳票、是否被超越的傳言在AI圈來回傳播。但DeepSeek沒有回應任何傳言,而是選擇在某個周五的上午,默默地將V4放出來,同步開源,同步上線所有服務。"不誘於譽,不恐於誹,率道而行,端然正己。"這不僅是DeepSeek的態度,也應該是中國AI產業發展的寫照。DeepSeek V4的發佈,讓我們看到了中國AI在技術創新、生態建設、產業協同方面的巨大潛力。未來,讓我們期待更多這樣的突破。 (半山AI進化論)