#AI+
一年後程式設計師將會逐步消失| Boris(claude code技術負責人) 訪談筆記
來源:Lenny's Podcast,2026年2月,約95分鐘一、他自己怎麼用 AI從去年 11 月到現在沒手寫過一行程式碼。每天 10 到 30 個 PR,全是 Claude Code 出的。早上睜眼第一件事:拿手機打開 Claude iOS 的 code tab,把 agent 派出去跑。同時掛著四五個 agent 平行幹活。他在 Instagram 那會兒就是產出最高的幾個工程師之一。不是本來就寫得少。這一點,從去年11月份到現在還手寫程式碼的同學需要反思了(國央企,保密單位啥的沒辦法的不算),國內用不了claude ios app的也要反思了,不過還不晚,從今天起全部借助 agent,多個agent,另外能搞成skill的節能或者能力的都能搞盡快搞。二、他對程式設計的定調"Coding is largely solved." 至少他自己做的那類活,已經解決了。下一步是 agent 不光寫程式碼,還自己提需求。翻 feedback,看 bug report,讀 telemetry,然後跑來跟你說"這幾個可以修""那幾個可以加"。一到兩年後,學一門具體語言沒啥意義了。就跟現在沒幾個人在乎彙編一樣。年底前 "software engineer" 這個詞會開始退場,換成 "builder"。或者乾脆不分了,人人都是 PM 兼碼農。要立即退出程式設計的行列,不要在古法程式設計了,提升效率,程式語言的學習將沒有意義,這一點挺讓人傷心的,但是不能固步自封啊,前進吧。年底前,軟體工程師將會逐步的,徹底退出歷史舞台,這一點其實有點誇張,borris作為全球最頂級程式設計 agent的負責人,說的激進點沒啥問題,不過明年年底前肯定要退出歷史舞台了。三、資料SemiAnalysis 的報告:GitHub 上 4% 的 commit 是 Claude Code 寫的。這還只是公開倉庫,私有的比例更高。年底可能到 20%。增速不是線性的,還在往上翹。Anthropic 內部工程師產出漲了 200%(按 PR 算)。Boris 之前在 Meta 管程式碼質量, 幾百號人折騰一年也就提幾個百分點。對比之下這個數很離譜。這一點是程式設計師們心裡最痛的一個點,github啊,全球開放原始碼的集中地,後續將會有90%以上的程式碼都是由AI完成,這很難接受,難接受但是很合理。四、這東西怎麼來的剛加入 Anthropic 的時候花了一個月各種瞎搞原型,大部分沒出貨。又花了一個月做post-training,瞭解模型底層。他習慣搞清楚你踩的那層下面那層是什麼。第一個原型叫 Claude CLI。給模型一個 bash 工具讓它自己玩。他隨口問"我在聽什麼歌",模型自己就用 bash 翻出來了。他自己都沒想到這問題能答。發內部公告拿了兩個 like。沒人覺得終端裡能長出什麼正經程式設計工具。為什麼是終端?因為開始就他一個人。終端最省事。後來發現這歪打正著——模型迭代太快了,別的介面根本跟不上。終端正好是最"裸"的殼。2025 年 2 月對外發,一開始也不算爆款。好幾個月大家才搞懂怎麼用。Opus 4 之後開始真起飛。大牛也一樣要經歷沒人理睬的時刻,但是依然保持熱情,結果一下就爆了,在整個AI發展事上Borris恐怕會像linus一樣留下美名,雖然有很多安妮紡織機的工人會很反感他,開玩笑,繼續往下看。五、產品哲學1. 潛在需求(Latent Demand)老版本:看使用者拿你產品在幹什麼歪門邪道,然後把它做成正經功能Facebook Marketplace 是這麼來的:40% 的群組帖子其實是買賣東西。Facebook Dating 也是:60% 的 profile 瀏覽是異性非好友。Co-work 更典型:一堆非技術使用者用 Claude Code 種番茄、分析基因組、恢復硬碟照片、看 MRI 片子。那就給他們做個正經產品算了。這就是傳統的軟體開發流程啊,使用者需要什麼,我們就去滿足它。新版本(AI 時代):看模型自己想幹什麼,順著它的勁兒來。別跟它較勁。2. 別給模型套框一年前可能還需要各種編排器、固定工作流。現在給工具和目標就行,讓它自己找路。Claude Code 從頭就定了"模型即產品"。最少的殼,最少的內建工具,讓模型自己決定用啥、按什麼順序。現在claude code的確是最少的殼,最少的內建工具,用著用著模型會自主決定用那個工具,不帶跟你商量的,其實使用者在用的過程中也不斷的完善自己的一堆skills.3. Bitter Lesson通用模型永遠吃掉專用模型。別在小模型、fine-tune、工作流上花太多力氣,下一版模型出來全給你抹平。他的原話:"Build for the model six months from now." 前六個月產品可能很一般,模型一上來直接起飛。如果一開始大家就知道,通用模型會吃掉專用模型,很多的資金就可以節省下來,很多創業的小夥伴就可以好好的了,不得不佩服段永平先生的一個神觀點:敢為人後,AI初期,攻城略地很有意義,但是觀察整個行業,在合適的時候出手沒問題,不要一開始就跑馬入場,很可能成炮灰,但是學習,持續的觀察整個行業動態是必須的,前置的。4. 少給資源人少反倒逼著人用 AI 想辦法。一個人扛一個項目,自然就想快點出貨。AI 給你加速,不需要老闆在後面催。後邊一個老闆帶著一個有編碼經驗的老碼農就行了,這也是碼農的福利了,一個碼農要兼PM,設計以及測試(其實增加一個測試skill就可以了),老闆在市場衝鋒陷陣,後邊一個碼農就是一個產研團隊,給老闆提供充足的支援。5. 反饋飛輪內部有個 channel 全是吐槽。Boris 早期是有人反饋幾分鐘內出 PR。讓人覺得自己說了算,反饋就越來越多,飛輪就轉起來了。現在 Claude 自己替他幹大部分。激情四射的Borris!六、安全:三層底層:mechanistic interpretability(機制可解釋性),直接看神經元在幹嘛,追蹤"欺騙神經元"之類的東西。Chris Olah 是這個領域的開創者。中層:evaluations,實驗室環境的安全評估。上層:丟到真實世界,看它在野外的表現。所以產品發佈經常叫 "research preview",不是噱頭,是在收真實資料。"Race to the top":把 sandbox 開源了,任何 agent 都能用。想讓行業在安全上捲起來,別比爛。安全是必須要考慮的,AI時代安全比網際網路時代的安全更隱蔽,而且現在在很初期的階段,,前兩天發生了一起使用者用cursor + optus 4.6刪除使用者生產資料庫造成損失的案例,我別的文章有詳細報導。見AI9秒刪庫事件:程式設計師必學的5條安全教訓七、工程師這個角色的去向Cursor 插曲:2025 年中加入 Cursor,兩周走人。原因簡單——他想念 Anthropic 的使命。Cursor 做的事很酷,但他需要工作綁在一個更大的意義上,不然自己待不住。他學程式設計的起點:中學給圖形計算器寫程序,為了數學考試作弊。後來寫了個通用求解器賣給全班,大家一起被抓。老師沒讓他們畢業。從頭到尾程式設計就是工具,不是目的。也承認有人就是愛手寫。隊裡有工程師周末還手搓 C++,就是享受。"以後還會有空間,就像現在還有人寫鋼筆字。"給學生:學校別光盯著程式碼。去學系統架構、產品、設計、商業。以後最搶手的人不是最會寫程式碼的,是能跨好幾個領域、知道到底該造什麼的人。程式設計師同學們,這是個哲人啊,程式設計永遠是工具,不應該是目的,不能贊同更多。或許,以後網路直播手寫程式碼也會成為一個流量的噱頭。還在學電腦沒畢業的孩子們,要去看看這篇文章的原視訊,看看Borris的更詳細的說明,要學架構、產品、設計、商業。後續的人才必須是跨學科的,應該不是說人才,而是普通的打工人也要是跨領域的,一招鮮,吃遍天的時代徹底終結了。八、印刷術這個類比1450 年代以前,歐洲識字率不到 1%。所有文字活全交給抄寫員(scribes)。古騰堡之後 50 年,產出的印刷品比之前一千年加起來還多。成本降了一百倍。200 年後識字率從 1% 到了 70%。沒有印刷術就沒有文藝復興——沒人識字你傳播什麼。有個歷史文獻挺妙的:當時有抄寫員被問到對印刷術的看法,說很高興終於不用抄書了,可以專心做插畫和裝訂(那些更有意思的活)。Boris 把自己跟這個比:不用再折騰配環境、調依賴、修編譯錯誤那些破事了。時間花在跟使用者聊、想方向、跟團隊碰。長期看:程式設計從少數人的手藝變成人人都有的能力,能釋放出什麼?猜不到,但樂觀。短期看:會疼,會有人被淘汰。這是全社會的事,不該一家公司拍板。古騰堡是西方近代印刷術之父,borris舉這個例子就是說明,碼農終於不用手寫程式碼了,終於可以利用自己的頭腦,借助AI做很多自己喜歡做的事情,但是陣痛是不可避免的,長期來看是正向的,積極的。九、對程式設計師說的實在話用最強模型。Opus 4.6 + maximum effort。便宜模型來回修反而更費 token。八成任務先開 plan mode。原理土到掉渣:就是注入一句"先別寫程式碼"。計畫對味了再讓它跑,4.6 下幾乎一把過。給工程師拉滿 token。單人實驗的 token 費遠低過他的工資。真跑出好東西再最佳化成本。各種介面都試試。terminal、desktop app、手機端,那個順手用那個。這不是個純終端工具。多開幾個 agent 平行跑。別一次只跑一個。別怕,去玩。泡在工具最前沿,這是唯一不掉隊的方式。這段既是在宣傳自己的產品,雖然不用宣傳也知道你是最強的,也是在告訴大家一個道理,最貴的可能是最便宜的,而最便宜的可能才是最貴的。我喜歡這種自信。十、零碎但有意思的他生在烏克蘭奧德薩,主持 Lenny 也是。倆人訪談中途當場認老鄉。爺爺是蘇聯第一批程式設計師,用打孔卡寫程序。他媽小時候拿打孔卡當塗鴉紙。進 Anthropic 之前在日本的鄉下住了好幾年,鎮子上唯一寫程式碼的、唯一說英語的。會做味噌。白味噌三個月起,紅的要兩到四年。說是他練耐心用的,也是 AGI 之後的退休方案。書單:《Functional Programming in Scala》(他說是最好的技術書,雖然你可能不寫Scala 了)、《Accelerando》(Charles Stross,節奏和現在 AI 這波一模一樣)、《流浪地球》短篇集(說中國視角的科幻跟西方完全不同,看著新鮮)。格言:use common sense。別看到流程就跟著跑,別看到大家都在做就覺得對。聞著不對勁,它就是不對勁。就這些,這是一個頂級極客,也是一個有意思的很自信的人,碼字不易,歡迎大家點贊推薦打賞三連,原視訊細節更多,歡迎去看。 (米斯特太陽)
OpenAI帶頭拆台,輝達被全球AI大廠圍剿?
誰能想到,靠AI晶片躺賺的輝達,如今正被全世界的AI大廠集體 “拆台”?手握AI晶片市場的絕對統治權,輝達的賺錢能力堪稱印鈔機 —— 據其 2026財年第四季度財報顯示,GAAP毛利率直接衝到了75.2%,近5兆美元的市值,全靠各家大模型廠商排隊買它的晶片撐起來。但也正是這份壟斷,讓幾乎所有AI玩家都鐵了心要跳出輝達的包圍圈,不想再把自己的命脈,攥在黃仁勳手裡。國內這邊,剛發佈的 DeepSeek V4,一邊訓練還在用輝達晶片,一邊已經火速完成了和華為昇騰的推理適配。不止華為,天數智芯、寒武紀這些國產晶片廠商,也都已經完成了對 DeepSeek V4 的適配。輝達的老家美國,“去輝達化” 的風颳得更猛。Google的自研TPU晶片已經迭代到第八代,訓練 + 推理的全產品線都鋪完了;Meta 也在今年3月曬出了自研AI晶片路線圖,2027年底前要落地四款 MTIA 系列新品,一邊跟輝達、AMD維持採購,一邊搞 “自研+外采” 的雙保險,明擺著不想把雞蛋全放一個籃子裡。而這裡面最讓人意外的,莫過於最依賴輝達的OpenAI,反倒成了 “反水” 最積極的那個。當地時間4月17日,美國AI晶片公司Cerebras正式向 SEC 提交 IPO 申請,要融資 30 億美元,估值直接衝到350億美元。要知道去年 10 月它撤回 IPO 申請時,估值才81億美元,半年翻了 4 倍還多,核心底氣就是跟 OpenAI 簽的一份超 200 億美元的合作大單。按照協議,未來三年OpenAI要用 Cerebras 晶片驅動的伺服器叢集,後者要給它部署750 兆瓦算力,2028 年全部落地;除此之外,OpenAI 還要給 Cerebras 掏10億美元幫它建資料中心,還能拿到 10% 的認股權證。說白了,OpenAI 早就不只是客戶了,還是金主,甚至未來可能成大股東。OpenAI 這麼孤注一擲,本質上是被輝達的高成本逼到了牆角。據媒體披露,2025 年 OpenAI 營收 131 億美元,虧了80億美元,今年預計虧損還要飆到250億美元。一邊是巨額虧損,一邊是輝達的晶片定價權捏在別人手裡,奧爾特曼比誰都清楚,對輝達的過度依賴,就是自己最大的軟肋。所以這兩年它動作不斷,跟博通合作定製晶片,轉頭又用上了 AMD 的 MI450 晶片,每一步都在明說:不想再給輝達打工了。而Cerebras,就是它 “去輝達化” 路上押的最重的籌碼。可能很多人沒聽過 Cerebras,這家公司走的路,跟輝達完全是反著來的。行業裡做晶片,都是把晶圓切成小晶片,唯獨 Cerebras 劍走偏鋒,直接用整塊 300mm 晶圓做單晶片,推出了晶圓級引擎 WSE-3。好處特別直接:計算、儲存、互聯全在一塊晶片裡,資料傳輸延遲比 GPU 叢集低 90%,特別適配大模型低延遲推理,單token 成本最多能降 80%。更關鍵的是,它走的是非 HBM 依賴路線,剛好能繞開輝達卡脖子的核心環節。這套技術路線,精準踩中了 OpenAI 降本的核心需求,甚至還打進了 AWS 的雲資料中心,進了主流雲平台的供應鏈。而能把這家公司帶到今天這個位置,離不開它的創始人Andrew Feldman。跟傳統晶片公司的工程師創始人不一樣,Feldman 是史丹佛經濟學、政治學學士,還是 MBA 出身,從一開始就泡在產品和行銷領域,對商業模式的嗅覺格外靈敏,還是個出了名的 “賭性堅強” 的連續創業者。2015年創辦Cerebras後,他沉寂四年憋大招,賭的就是兩件事:一是台積電的晶圓級封裝技術會成熟,二是AI大模型會越做越大,GPU 的記憶體牆會成為致命瓶頸。現在來看,他確實賭對了。但造神故事的背後,藏著的風險一點都不小。不過黃仁勳已經開始反擊了。去年12月,輝達直接花200億美元,拿到了Cerebras的競爭對手 Groq 的 LPU 推理架構、晶片設計全端技術永久授權,下半年就要推出基於這套技術的系統。而OpenAI 找 Cerebras,本來也不是為了徹底替換輝達,只是想找個 “鯰魚”,增加跟輝達談判的籌碼,分散供應鏈風險。萬一那天奧爾特曼跟黃仁勳重新談攏,Cerebras 很可能就成了棄子。其實黃仁勳自己早就看清了這個結局。他在播客裡說,摩爾定律正在走向終結,晶片性能每年翻倍的時代過去了,先進晶片的性能優勢不是永恆的護城河。他還直言,限制對華出口算力晶片,短期能延緩中國AI發展,但長期只會逼著中國形成自己的生態鏈。他沒說透的是,一旦越來越多的開源大模型跑在國產算力晶片上,輝達就算還是市場第一,也再也不是唯一的選擇了。 (識焗)
等 DeepSeek 回覆的 30 秒,是手機最好玩的半小時
你要是問當今網際網路最神秘、最玄學、連量子力學都解釋不清的「時空裂縫」在那裡?它不在百慕達,也不在諾蘭導演的電影裡,而是在你的 DeepSeek、Claude 或者 ChatGPT 正在思考的過程裡。不管是趕期末周的大學生、Vibe Coding 的程序猿,還是肝方案的遊戲策劃,大家都很難不在同一件事上達成共識:等 AI 回覆的那一分鐘,是這一整天裡玩手機玩得最快樂、最問心無愧的時刻。尤其是當你猛擊Enter,眼前的螢幕上彈出了那句令人安心的「正在思考...」時,這時候,你的大腦皮層向你下達了一個極其合理、極其符合生物學本能的指令:「好了,它在替我們幹活了。咱們低頭看一眼手機吧,就一眼,絕不多看。」然後,你熟練地解鎖螢幕,點開社交媒體。起初,你只是刷了兩個雪山狐狸啃醬板鴨的獵奇視訊,接著滑到了一個「注意看,這個男人叫小帥」的懸疑電影解說,然後又順手給一個搞笑貓咪合集點了贊。突然,你深吸一口氣,抬起頭。等等,剛才發生了什麼?窗外的天怎麼黑透了?杯子裡的熱水怎麼涼了?最可怕的是,時鐘上的分針怎麼平移了小半個表盤?「然後一抬頭,十分鐘過去了,跟穿越了一樣。」如果你有過這種經歷,恭喜你,你已經染上了今年最流行的「AI 間隙摸魚症」。神聖的、不可抗拒的賽博「帶薪假」在沒有 AI 的年代,摸魚是需要心理建設的。你要像雷達一樣時刻警惕領導的視線,要偽裝出噼裡啪啦敲擊鍵盤的清脆回聲,還要時刻準備好在有人經過時用 Alt + Tab 瞬間切換到 Excel。那種摸魚,多少透著一股子辛酸。但現在,形勢逆轉了。當你把一段長達 5000 字的文件丟給 DeepSeek,或者讓 ChatGPT 幫你重構那個全是 Bug 的模組時,那一刻,你不是在逃避工作,而是正在等待 AI 生產力的降臨。這種等待是神聖且具有合法性的。既然 AI 還沒吐出結果,那我就沒法進行下一步。低情商這叫偷懶,高情商這叫 AI 技術性調休。於是,你心安理得地拿起手機,點開微信刷刷朋友圈,或者去購物平台清空一下購物車。正如網友所說:「它彷彿是我的另一個思考人格,既然它在動腦子,那我這個肉身人格負責娛樂一下,邏輯上非常嚴密。」這種既有幹正事的踏實感,又有被迫休息的理所應當,堪稱 2026 年職場最高級的心法。其實,這種守著螢幕等進度條的感受,並不是今天才有的。把時間撥回千禧年,那是撥號上網的蠻荒時代。伴隨著數據機那陣刺耳又迷幻的「嗶——嘟——呲呲呲」聲,你要打開一張只有幾百 KB 的劇照,至少需要等幾分鐘。那時候沒有智慧型手機,沒有短影片。面對緩慢載入的圖片,你只能選擇死死盯著螢幕,或者站起來去倒杯水,甚至趴在電腦桌上打個盹。後來,寬頻時代來了,網速快了,但視訊清晰度也上去了。於是我們迎來了視訊「緩衝圈」時代。看視訊遇到卡頓,我們會熟練地切到別的網頁,去天涯或者貼吧灌水,等緩衝條變灰了再切回來。歷史是個輪迴,現在 AI 的「正在思考中」填補了這個生態位。很顯然,AI 產品經理們也意識到我們幹活注意力不集中的問題,就拿之前曝光的 Claude Code 愚人節彩蛋來說。現在,只要你在 Claude Code 終端裡輸入一行 /buddy 命令,你的螢幕上就會觸發一段孵化動畫。緊接著,一隻由 ASCII 字元拼成的小寵物就會破殼而出,穩穩地趴在你的輸入框旁邊陪你寫程式碼。它不會打擾你,但它會有呼吸的起伏,會衝著你搖尾巴。包括今天凌晨,Codex 也更新了 Codex pets 功能,允許你直接召喚動畫伴侶。只需在輸入框敲下 /pet (或者按 Cmd+K 快速鍵),一個懸浮的寵物視窗就會出現。最絕的是什麼?這個懸浮窗是跟 AI 狀態即時繫結的。它會即時反映 Codex 的狀態,貼心地附帶一個簡短的進度提示,讓你不用切回主介面就能掌握一切。甚至有人為此做了一個圖鑑網站,🔗 https://www.codexpets.app/你很難說這算不算是一種進步。從撥號時代盯著螢幕發呆,到緩衝年代跑去貼吧灌水,再到現在,居然有人專門給這段空白時間設計出了有呼吸、會搖尾巴的像素小生命來陪你撐過去。等待這件事,愣是有了不少溫度。一分鐘的 AI 相對論愛因斯坦曾在廣義相對論中探討過大質量物體對時空的彎曲,但他老人家一定沒預見到賽博時代的「AI 相對論」。理論上,一個頂尖的大模型生成一段深度回覆,長則一兩分鐘,短則幾秒,三十秒。但在這一分鐘裡,人類的摸魚潛能會被無限激發,注意力會完成一次史詩級的大遷徙。等到你終於從無限下拉的資訊流、群聊裡的驚天大瓜,以及「霸總回歸手撕反派」的土味爽劇中猛然驚醒,抬起頭時,往往已經大半個小時過去了。最離譜的是,你會發現剛才的 AI 因為網路波動斷線了,或者那個問題它徹底答非所問。這時,你不但沒有絲毫慍怒,反而如釋重負地鬆了一口氣,帶著一絲竊喜,接著毫不猶豫地又點了一次「重新生成(Regenerate)」。恭喜你,新的半小時又開始了。當然,Attention is all you need.(doge),也有極少數人間清醒在試圖抵抗這種可怕的「時間黑洞」。他們提出了所謂的「Vibe Coding」防沉迷指南:等 AI 回覆時,千萬不要切到完全不相干的高負荷任務(比如刷社交媒體等等),而是去讀讀文件、理理思路。只是這種聽起來極其理性的建議,在現實的誘惑面前往往不堪一擊。人類的本質就是趨利避害的,在密密麻麻的英文文件和搞笑寵物視訊之間,碳基大腦的防禦系統連半秒鐘都撐不住。這屆年輕人想得很開:AI 不工作的時候我工作,AI 工作的時候我還工作,那 AI 不就白髮明了嗎?既然我們把繁重的重複性腦力勞動外包給了矽基生命,那碳基生命自然就順理成章地退化成了「複製、貼上、點贊」的流水線機器。但即便如此,大家依然在努力維持著打工人的最後一絲體面。在無數個摸魚的間隙,你總能看到身邊的同事時不時地伸出一根手指,在電腦鍵盤的 Shift 或者空格鍵上輕輕敲一下——不為別的,只為了不讓螢幕進入休眠狀態。那怕你已經玩到天昏地暗,甚至已經開始在工位上修剪指甲,電腦螢幕也必須驕傲地、長明地亮著。這種對電腦螢幕的「關懷」,是我們對這個瘋狂內卷的世界,做出的最後、最倔強的偽裝。甚至有開發者 @konekone2026 打造了一款名叫 Cat Gatekeeper的 Chrome 外掛,只要你在電腦前連續瀏覽網頁長達 60 分鐘,螢幕上就會突然鑽出一隻巨大的貓咪。這隻貓會毫不客氣地擠佔你的整個螢幕,讓你必須休息 5 分鐘。魯迅沒說過,世上本沒有假,等 AI 回覆的人多了,也就成了假。今天雖然是放假的一天,但也希望大家在日常的搬磚歲月裡,不要弄丟了這份用 AI 忙裡偷閒的快樂,畢竟能讓摸魚變得理直氣壯,也算是 AI 時代給打工人最實在的一點餽贈了。螢幕常亮,心態常好。 (APPSO)
科創板AI晶片“六姐妹”業績集體起跳
寒武紀、海光資訊、摩爾線程、沐曦股份已悉數披露2026年一季度財報,三家企業實現盈利,寒武紀、摩爾線程營收同比增速均超150%。AI大模型迭代、智算中心規模化建設與邊緣智能場景全面滲透,持續推高國內AI算力市場需求,國產算力晶片企業迎來業績兌現關鍵期。截至今年4月30日,寒武紀、海光資訊、摩爾線程、沐曦股份已悉數披露2026年一季度財報,壁仞科技、天數智芯兩家港股上市企業暫未披露一季報資料。整體來看,行業呈現頭部企業盈利穩固、二線廠商減虧甚至扭虧提速、梯隊化成長格局清晰的特徵。其中,三家企業實現盈利,寒武紀、摩爾線程營收同比增速均超150%,海光資訊一季度營收突破40億元,行業高景氣度持續驗證。國產AI算力晶片正從技術突破向規模化商業落地跨越,國產化處理程序持續深化。截至2026年4月30日收盤,國產六大AI算力晶片企業中,A股頭部企業體量領先:寒武紀市值7168.48億元、海光資訊市值6885.85億元,位居行業前兩位;摩爾線程、沐曦股份緊隨其後,最新市值分別為3363.99億元、3032.88億元;港股上市的天數智芯、壁仞科技市值相對偏小,折算人民幣市值約為1037.50億元、999.13億元。海光資訊、寒武紀業績均現新突破作為國產算力晶片雙龍頭,海光資訊與寒武紀兩家公司一季度業績穩居第一梯隊,盈利質量與經營效率同步提升。寒武紀一季度業績實現跨越式增長。公告顯示,該公司報告期內營收達28.85億元,同比大幅增長159.56%;歸母淨利潤10.13億元,同比增長185.04%;扣非淨利潤9.34億元,同比增幅達238.56%。尤為關鍵的是,寒武紀一季度經營現金流轉正至8.34億元,同比改善超22億元,為其上市以來首次季度現金流為正,標誌著商業化落地與回款能力實現突破。寒武紀表示,公司產品持續在營運商、金融、網際網路等重點行業場景落地應用,其軟體平台的易用性、大規模商業場景部署的穩定性及人工智慧應用場景的普適性,均通過客戶嚴苛環境驗證。目前,其產品已規模應用於大模型演算法企業、伺服器廠商、人工智慧應用公司,輻射雲端運算、能源、教育、金融、電信、醫療、網際網路等領域的智能化升級處理程序。財報資料顯示,寒武紀今年一季度訂單亦獲得市場需求有效支撐。寒武紀一季度末的合同負債金額為3.96億元,較一季度初增長超3億元。此外,寒武紀一季度末的應收帳款、預付款項均較2025年末大幅增長,均顯示出公司有序發展的積極訊號。海光資訊方面依然延續穩健高增態勢,一季度營收達40.34億元,同比增長68.06%;歸母淨利潤6.87億元,同比增長35.82%;扣非淨利潤5.97億元,同比增長34.99%。同期,其研發投入12.11 億元,同比增長26.8%,高強度投入支撐技術持續迭代。海光資訊堅持“CPU+DCU”雙輪驅動戰略,DCU產品深算三號已與DeepSeek、Qwen3等365款主流大模型完成適配,覆蓋全球99%非閉源大模型,賦能從十億級端側推理到千億級模型訓練的全場景需求。公司下一代深算四號亦積極推進研發,目前進展順利。在生態適配方面,海光資訊集聚了CPU和DCU兩大生態優勢,依託光合組織凝聚了超過6000家生態合作夥伴,持續加碼面向夥伴的“星海計畫”、啟動基礎軟體生態“強芯固基”計畫等專項,從核心部件、整機系統到應用軟體,全面打通生態鏈路,加速軟硬體深度協同。海光資訊總經理沙超群在日前舉行的業績會上表示,未來三到五年,智算中心競爭將從比拚建設規模,逐步轉向能效比、叢集利用率與全生命周期綜合成本等方面的比較。沙超群表示,海光DCU作為國產高端AI加速算力產品,是國內少數可同時支撐全精度、半精度AI訓練的GPGPU晶片。隨著AI Agent及AI推理需求增長,任務調度、邏輯推理、多業務協同等場景對通用計算需求顯著提升,計算任務趨向高並行、鏈式放大的任務型負載,天然拉高對CPU並行度與記憶體承載的需求。“TrendForce預期CPU與GPU配比將從傳統比例向更高水平提升,公司CPU有望順勢提升在商業市場的滲透率”。摩爾線程、沐曦股份持續完善產品矩陣摩爾線程、沐曦股份作為GPU賽道核心力量,一季度商業化處理程序加速,分別實現扭虧為盈與大幅減虧,成長動能充沛。摩爾線程成為首家實現季度盈利的國產GPU上市公司。今年一季度,該公司實現營收7.38億元,同比增長155.35%;歸母淨利潤2936萬元,同比扭虧,去年同期虧損1.12億元;扣非淨利潤-0.54億元,虧損縮小60.1%。關於業績增長,摩爾線程表示,AI爆發使得市場對於GPU的需求迅速增長。2025年,各家主流廠商大模型快速迭代,AI應用百花齊放,具身智能、自動駕駛等新興前沿行業飛速發展,使得以GPU為代表的AI晶片市場需求迅速提升。一方面,受制於美國對於高端GPU晶片出口政策,國產AI晶片逐步實現對於國際GPU產品的替代,迎來歷史性發展機遇;另一方面,公司全功能GPU具有通用性強、支援全計算精度等特點,對於當前多模態、融合計算場景具有較好的支撐性。研發方面,摩爾線程一季度投入3.69億元,同比增長50%,持續加碼產品迭代。今年一季度,摩爾線程斬獲6.6億元智算叢集大單,千卡/萬卡叢集實現規模化落地,“誇娥”系列晶片在智算中心、雲廠商批次部署並上線服務,新一代“花港”架構推進十萬卡叢集建設,消費級與資料中心GPU雙線發力。關於未來的產品開發計畫,摩爾線程董事長、總經理張建中在日前舉行的業績會上表示,未來將基於“花港”架構推出高性能AI訓推一體“華山”晶片與專攻高性能圖形渲染的“廬山”晶片。“華山”專注AI訓推一體與超大規模智能計算。整合新一代非同步程式設計與全精度張量計算單元,支援從FP4至FP64的全精度計算,為萬卡級及以上大規模智算叢集提供穩定高效的算力支撐,是建構下一代“AI工廠”的堅實底座。“廬山”專攻高性能圖形渲染,性能實現全面跨越,包括幾何處理性能提升16倍,AI計算性能提升64倍,光線追蹤性能提升50倍,並顯著增強紋理填充、原子訪存能力及視訊記憶體容量。沐曦股份今年一季度營收高增、虧損大幅縮小。報告期內,其實現營收5.62億元,同比增長75.37%;歸母淨利潤-0.99億元,同比減虧57.49%;研發投入2.53億元,主要聚焦產品矩陣完善。截至目前,沐曦股份建構了曦雲C、曦思N、曦彩G三條核心產品線,分別專注訓練、推理和圖形應用,今年一季度推出曦索X系列科學智能晶片,切入氣候模擬、流體力學、分子模擬等高端場景,客戶拓展與產品出貨量有望同步放量。關於公司2026年發展規劃,沐曦股份在業績會上表示,展望未來,AI晶片行業高速增長和國產替代加速將拓寬市場空間,公司產品具備良好的市場前景和廣闊的市場空間,營收增速預計保持高位,隨著公司持續進行成本最佳化及費用控制,毛利率和期間費用率將趨於穩定,新產品的放量銷售將持續為公司帶來業績貢獻。壁仞科技與天數智芯卡位高端算力 交付多個計算叢集項目壁仞科技與天數智芯尚未披露2026年一季度財報,但經營進展持續推進,聚焦高端算力賽道卡位。壁仞科技作為國產高端AI訓練晶片代表,2025年全年營收10.3億元,比上年增長207%;經調整年內虧損8.7億元,上年同期為虧損7.7億元。2025年,其毛利為5.57億元,同比增長210.8%,毛利率達53.8%,同比增長63基點(bps)。壁仞科技稱,公司成功交付多個大規模智算叢集項目,包括2048卡光互連光交換GPU超節點叢集和多個市場化的數千卡級智算叢集,客戶涵蓋國家級算力平台、電信營運商、商業AIDC、AI/大模型公司及企業客戶。天數智芯聚焦通用算力晶片賽道。2025年,該公司實現營收10.34億元,同比增長91.6%;毛利5.58億元,同比大增110.5%,毛利增速跑贏營收。同期,其研發與經營效率顯著改善,經調整淨虧損同比縮小32.1%。在具體業務方面,通用GPU訓推雙賽道均實現高速突破,成為其業績增長的核心支撐。2025年,天數智芯通用GPU業務收入9.23億元,同比增長149.6%,佔總營收比重達89.3%,業務聚焦度與成長性突出。截至2025年末,天數智芯累計服務超340家行業客戶,產品及解決方案落地超1000個項目,率先實現網際網路、AI大模型、科研、金融、醫療、教育、交通等核心領域廣泛覆蓋,客戶基礎持續擴大,規模化效應逐步顯現。值得注意的是,高強度研發投入仍是企業構築技術壁壘、穿越行業周期的核心抓手。今年一季度,已披露財報的四家A股算力晶片企業研發投入佔營收比重均維持高位。其中,海光資訊一季度研發投入8.6億元;摩爾線程、沐曦股份研發投入佔營收比重均超45%,持續加碼核心技術攻堅。行業普遍認為,AI算力晶片行業技術迭代快、研發壁壘高,唯有持續的研發投入,才能在高端賽道實現技術突破,建構生態壁壘。中原證券分析師唐月在今年4月發佈的研報中稱,2026年AI應用發展速度整體超預期,帶來了整體算力產業供應鏈的緊張。2026年來看,在海外晶片供給受限的大背景下,國內AI晶片也迎來了性能、產能的雙方面改善,有望持續受益於市場結構的變化,並最終改善國內算力的供給能力。 (科創板日報)
算力霸權與突圍:輝達和華為的較量
一、發展歷史:兩種基因,兩條路1、輝達:賭出來的王者輝達的起點和"GPU"這個名字一樣——做遊戲顯示卡。1993年黃仁勳帶著"為PC增加真實感"的想法創立,最初連正經辦公室都沒有,靠著給世嘉做遊戲晶片的副業活了下來。轉折點在2006年——輝達推出CUDA架構,把GPU從"遊戲專用"變成了"通用計算"。當時沒人看好這個決定,因為GPU處理平行計算的能力雖強,但根本沒人在CPU之外寫程序。輝達硬是砸了多年錢,補貼學術圈,培養了最早一批在GPU上跑AI研究的人。2012年是歷史性時刻:多倫多大學的AlexNet用兩塊輝達GTX 580在ImageNet競賽中碾壓傳統演算法,深度學習時代開啟。從那以後,輝達的所有投入——CUDA生態、NVLink、TensorCore——全部被驗證是對的。2、華為:被迫長大的海思華為進入晶片領域是被逼的。2004年海思成立,最初做的是視訊解碼晶片和基帶晶片,沒有人會把它和GPU聯絡在一起。真正的GPU故事要從2019年說起——美國實體清單把華為逼到了必須自研晶片的死角。昇騰910在2019年8月發佈,被宣傳為"全球算力最強AI晶片",對標輝達A100。雖然事後被證明良率和生態差距巨大,但在極限封鎖下能拿出可用產品,已經說明華為的晶片工程能力不容低估。二、投入強度:錢不是問題,問題是買不到1、輝達輝達2025財年研發投入超過350億美元,佔營收的20%左右。這個數字什麼概念?相當於中國頭部AI晶片公司投入的10倍以上。而且輝達的研發投入是"系統性"的——晶片設計、封裝工藝、EDA軟體、CUDA生態、InfiniBand網路,每一塊都在砸錢。2、華為華為沒有單獨披露海思的研發投入,但整體研發費用率常年維持在20%以上,2023年研發總投入超過1600億人民幣。分到海思身上大約在200-300億人民幣量級。3、關鍵差距不在錢,在於工具鏈輝達用的是全球最領先的EDA工具(Synopsys、Cadence)和最先進的製造工藝。華為被封鎖之後,EDA工具斷供(Synopsys/Cadence均已停止服務華為),製造被卡在7nm(台積電斷供,中芯國際14nm勉強能用)。這意味著華為每往前走一步,都要比輝達多付出幾倍的工程代價。三、製程限制:華為的七吋這是華為最現實的困境。輝達H100/H200用的是台積電4nm工藝,B200用的是3nm。晶片製程不是單純"越先進越好",而是直接決定了:-電晶體密度:同樣面積能放多少計算單元-功耗效率:每度電能跑多少算力-發熱密度:散熱設計難度華為昇騰910C據報導用的是中芯國際7nm N+2工藝,實際良率和性能都存在較大不確定性。一位國內晶片工程師私下說:"7nm做出來的和台積電7nm做出來的,性能可能差30%,功耗可能差50%。"輝達的Blackwell B200單晶片算力達到20PFLOPS(FP4),華為昇騰910據官方說法是256TFLOPS(FP16),差距大約80倍——當然這個數字要打個折扣,因為測試標準不同,但數量級差距是客觀存在的。但有一種觀點值得注意:封鎖讓華為無法追逐最先進製程,反而倒逼了"系統級創新"。昇騰通過"達文西架構"的3D Cube技術,在特定AI算子上的效率比輝達A100高;通過最佳化記憶體頻寬和互聯頻寬,部分場景可以彌補製程劣勢。四、開發者生態:這是最難跨越的護城河如果說晶片是硬體,生態就是空氣——看不見摸不著,但一刻也離不開。1、輝達:CUDA就是壁壘全球有超過600萬開發者熟悉CUDA程式設計。所有主流AI框架(PyTorch、TensorFlow、JAX)都以CUDA為第一優先順序支援目標。全球幾十萬家AI創業公司,從第一天寫程式碼就是在輝達的生態裡。這個生態的壁壘有多深?不是靠"性能更好"就能打破的。假設華為明天發佈一顆晶片,理論性能比H100強50%,但PyTorch不支援、C++編譯器不支援、所有開源模型沒針對華為NPU最佳化——沒有開發者會用的。2、華為:正在建,但差距是數量級的華為有MindSpore框架,有CANN計算架構,有昇騰社區。但和CUDA比,MindSpore的開發者數量差了至少兩個數量級。更致命的是,全球AI開源生態幾乎全部建構在CUDA之上,華為要推動生態遷移,估計需要付出十年以上的時間和幾千億元的投入。五、產業應用:輝達吃肉,華為喝湯1、全球AI算力市場現狀輝達在全球資料中心GPU市場的份額超過88%。全球四大雲廠商(AWS、Azure、GCP、阿里雲)都在大量採購輝達的H100/H200。訓練一個GPT-4量級的大模型,需要大約1萬到10萬塊H100,這個門檻已經把絕大多數玩家攔在門外。2、華為:中國市場的"替代陷阱"在中國市場,華為是政策推動下的"正確選擇"。由於美國對中國的出口管制,中國企業無法獲取A100/H100,昇騰成了唯一的替代方案。百度、科大訊飛、商湯等公司都宣佈接入華為昇騰生態。但"替代"和"能用"是兩回事。一位國內大模型公司的技術負責人說:"用昇騰訓練一個百億參數模型,要比用A100多花3到5倍時間。開源模型遷移到昇騰,偵錯適配的工作量大約是6到12個月。"這不是華為的問題,是整個中國AI算力生態的短板。六、未來走向:兩個平行宇宙1、輝達的劇本輝達正在推進"全端AI公司"的戰略——從晶片到伺服器(DGX),從網路到軟體(CUDA、X86上的AI企業套件)。Blackwell之後是Rubin架構,每年一代的速度在迭代。輝達的終極目標不是賣晶片,而是賣算力即服務——通過DGX Cloud,讓企業直接租用算力,不需要買硬體。這個模式下,輝達的護城河會從"晶片性能"延伸到"維運能力"和"軟體生態"。2、華為的劇本華為的算力戰略高度依賴政策保護和市場壁壘。如果輝達中低端晶片繼續實施限制,華為昇騰在中國的市場份額會繼續擴大。但如果封鎖持續,華為的晶片迭代速度會逐漸放緩(因為7nm之後往5nm/3nm走會越來越難)。華為另外一個籌碼是"軟硬一體"——鴻蒙作業系統、昇騰晶片、MindSpore框架、盤古大模型,這是中國唯一具備端到端能力的AI全端。但這整套東西的競爭力,目前主要體現在中國市場。七、結論:誰贏了這個回合?輝達贏了嗎? 贏了,而且贏得毫無懸念。在全球市場,華為短期內沒有挑戰輝達的可能性——製程、生態、應用,一個都打不過。華為輸了嗎? 沒有。在中國市場,華為是唯一現實的大規模AI算力供應方。沒有華為,中國的AI大模型訓練會不會停擺不知道,但至少token經營無從談起。這本身就是一種價值。真正的博弈在別處:算力競爭從來不只是晶片競爭,而是標準競爭、生態競爭、人才競爭。美國有輝達CUDA,有台積電製造,有PyTorch生態;中國有華為,有中芯國際,有MindSpore。前者開放但可封鎖,後者自主但封閉。兩個體系未來大機率會長期並存,形成事實上的"算力兩極格局"。 (大饒不老)
3000萬人沒聽出是AI?TTS六大門派混戰,我直接暴力測試
事情是這樣的。最近幾個月,我但凡打開視訊號或者抖音,總被一個侃侃而談的“科技大佬”刷屏。這哥們叫「硅基大司馬」,專門講中國硬核科技,從晶片到光刻機,從新能源到機器人,啥都懂,啥都聊。最離譜的是他的更新頻率和產量,高得不像人類,整個矩陣,每天有20-30篇他的科技科普視訊產出!我以為,又是那個MCN機構捧出來的卷王。結果有人告訴我,這背後壓根不是「人」?我當時就愣了。那語氣的抑揚頓挫、自然的氣息律動,那種講到中國科技時不自覺挺直腰桿的勁兒,太像一個真的科技大佬坐在你面前吹牛了。我查了下,大司馬在全網幾十個矩陣帳號,已經有3000 萬粉絲,半年時間漲粉就2200 萬,每月 2 億觀看量,企業家 IP 榜上排在他後面的是周鴻禕、余承東、俞敏洪一眾大佬。這就不是玩票了,這是一場社會實驗等級的行為藝術。我立刻來了興趣。能撐起這種千萬級粉絲盤、讓人完全聽不出看不出破綻的AI,是什麼妖怪技術?順藤摸瓜,我挖到了硅基大司馬背後的聲音引擎——Smart Voice 1.0,號稱“一次成型、無需返工”。口說無憑,既然要測,那就玩把大的!然後,我拉上了目前市面上號稱SOTA等級TTS,做了一場慘無人道的暴力橫向測試。TTS六大門派圍攻光明頂,誰在裸泳?我在網上找的司馬華鵬的採訪,這放出來你們好有個對照。先從om**開始,這家的效果出來,好像一個沒有感情的讀稿機器,語調平直得像一根繃直的線,沒有什麼情緒的起伏。接著是Min****,這家失真的有點離譜,機械感很重。喉嚨裡像卡著東西,聲音像從一根生鏽的鋼管裡傳出來的。然後是Qw**,對比前面幾家,這家起碼聲音沒失真,不過在斷句節奏上有點不穩定,還是會有機械感。再然後,火**,這一家,和原聲偏差很大,完全不像本人。聽起來就像10年前打10086客服,電話那頭傳來的語音。好,重頭戲來了。Elev*****,你知道我最期待那家嗎?就是它。全球TTS市場份額第一,我滿心以為它會給我一個驚喜,結果呢?太心酸了。聽起來像是一個外國人在講中文,那種努力想模仿中國人講話,但發音但每個音都不在點子上的外國人。最後, Smart Voice 1.0我去,這才是該有的樣子。和本人聲線、音色的一致度,一字就是“像”。再有就是那種停頓時的呼吸感,全都在,甚至還有人講話時候那種猶豫感!一次成型,不需要返工,這才是關鍵。說到這個「一次成型」,我必須多聊幾句。很多人可能不知道,傳統流程做一分鐘商業級音訊,成本有多離譜。我查了一下。專業語音稽核質檢人員,日薪大概650到1100元。處理1小時音訊需要4到8小時,也就是說一天只能處理約1到2小時音訊。折算每分鐘稽核成本,約10到37元。如果算配音費用那更貴了,日薪2000到5000元。更重要的是時間。音訊出來了要聽,聽完要改,改完要再審。調音、改稿、稽核。如果再加上返工,傳統流程做一分鐘商業級音訊,成本輕鬆過百。Smart Voice 1.0呢?10元每分鐘。一次生成,不需要聽審,不用返工,直接上線。「硅基大司馬」幾十個矩陣帳號,半年漲粉2200萬,累計粉絲3000萬。每月2個億流量,單條視訊4000萬播放。榜單連續三個月TOP3,周鴻禕、余承東、何小鵬、俞敏洪、魏建軍一票大佬都在他後面。這不是實驗室demo,是真實戰場上的真刀真槍。說到這,大家盲聽試試吧。最後我也會在留言區公佈揭曉。Smart Voice 1.0 的出現,意味著AI語音賽道正在從“實驗室的玩具”向“工業級的拳頭產品”轉變。那些只會“念字”的TTS產品,如果不趕緊跟上,眼看就要被甩出幾條街。最後,我知道很多做內容、搞IP、做企業品牌的朋友已經對這個技術飢渴難耐了。我幫你們要了個福利。這是我從官方拿到的,Smart Voice 1.0內測通道。最後,我想回到開頭那個視訊。我現在知道了,它是AI合成的。但諷刺的是,我知道這個事實之後,再去聽他的視訊,反而覺得更震撼了。1880年代電力剛開始普及的時候,大部分人只是把電力當成一種更乾淨的蠟燭替代品,用來點燈。但真正吃到電力紅利的人,是最早想明白電力到底能幹什麼的人,工廠不用再圍著蒸汽機佈局了,流水線的形態整個被重塑了。AI語音現在就像那個階段。很多人還在拿它當「便宜的配音替代品」,但接下來幾年,聲音會變成無限供給的基礎設施,所有依賴真人聲音的商業模式都會被重構。當聲音可以無限供給的時候,內容和傳媒產業才真正具備了規模化的條件。這才是這次測試最讓我震撼的地方。 (識焗)
DeepSeek V4:是AI開源大事件,更是產業變革新開端
推理效率提升74%、KV快取壓縮90%、API定價不及閉源競品1%。當大模型的邊際成本趨近於零,AI產業的真正變局才剛剛開始。2026年4月24日,DeepSeek在沉寂長達15個月後,正式發佈並開源新一代旗艦模型DeepSeek-V4。這不是一次常規的模型迭代,而是一次從架構底層到價格體系、從算力生態到產業邏輯的全方位重塑。如果說過去兩年AI圈的競爭是“誰能做出更聰明的模型”,那麼從這一天開始,競爭正在轉向:“誰能讓AI變成人人用得起的水電煤”。一、暴力破解的終結:當AI開始“聰明地花算力”DeepSeek-V4系列包含兩款模型:V4-Pro(1.6兆總參數,每次推理啟動490億參數)和V4-Flash(2840億總參數,每次推理啟動130億參數),兩者均原生支援100萬token超長上下文。1M上下文從此不再是一個“高端功能”——一年前它還是Gemini獨家的王牌,如今被DeepSeek直接挪成了行業標配的“水電煤”。這組資料之所以震驚業界,不是因為參數大,而是因為效率做到了前所未有的極致。在100萬token的極端長度下,V4-Pro的單token推理FLOPs僅為上一代V3.2的27%,KV快取佔用僅為10%。V4-Flash則更進一步,只需要10%的單token FLOPs和7%的KV快取。這意味著什麼?處理同樣長度的超長文件,V4不僅讀得更多,而且讀得更快、更省、更穩。效率提升的核心來自一系列值得深挖的架構創新:壓縮稀疏注意力(CSA) :每4個token合併成一個壓縮條目,然後用閃電索引器快速篩選出最相關的少量塊進行注意力計算——“拿著放大鏡找關鍵線索的偵探”。重度壓縮注意力(HCA) :以高達128倍的壓縮率濃縮全域資訊——“站在山頂俯瞰全景的指揮官”。兩者交錯部署在模型的各層中,形成精準定位與全域把握的互補。流形約束超連接(mHC) :給訊號傳播加上“安全閥”,從根本上保證訓練穩定性。Muon最佳化器:取代業界標配的AdamW,進一步降低訓練成本。這一切的底層哲學,不是“堆參數”,而是“每瓦特算力的最大產出”。DeepSeek V4把注意力機製做了一次“手術級”的改造,讓超長上下文從實驗室裡的“高端展示”變成了普通開發者也能跑得動的日常工具。這種效率革命帶來的是價格上的斷崖式下降。DeepSeek V4-Flash每百萬token輸出價僅0.279美元,而同期OpenAI發佈的GPT-5.5 Pro輸出價高達180美元——價差整整645倍。V4-Pro輸出端成本則僅為GPT-5.5 Pro的2%。如果把V4-Pro考慮折扣後的API輸入價壓到0.25元/百萬詞元,與GPT-5.5 Pro加權平均價格30美元/百萬token相比,價差超過700倍。更直觀地說:V4呼叫一次的價格,還不到對手的千分之一。 在推理效率層面,華為昇騰950超節點的測試資料顯示,V4-Pro單卡Decode吞吐可達4700TPS,V4-Flash在8K長序列場景下單卡Decode吞吐1600TPS。DeepSeek V4的回答是:快,是能力的下限;省,才是格局的起點。二、一扇門打開,另一扇門關上當DeepSeek V4以700倍的價格差距直插市場時,它激發的連鎖反應遠遠超出模型本身。開源vs閉源:矽谷在“造牆”,中國在“修路”。矽谷的頭部玩家們不約而同地選擇了閉源路線。OpenAI、Anthropic、Google的Gemini,當前沿技術創新被鎖死在各自的資料中心裡,玩家們不可避免地陷入了零和博弈的“權力遊戲”。就在V4發佈前夕,一場圍繞新模型的輿論狙擊戰剛剛上演——4月16日Anthropic剛發佈Claude Opus 4.7,OpenAI兩個多小時後便宣佈Codex大幅更新;隨後又圍繞營收資料互相拆台,敵意滲透進每一個決策環節。而DeepSeek走了一條完全不同的路。它聚焦基礎模型的核心能力攻堅,進一步築牢了全球開源大模型的性能天花板,為全行業提供了性能比肩閉源旗艦的基礎底座。巧合的是,就在V4發佈前後,國內的Kimi也開源了K2.6,兩個兆參數模型同時亮相,卻沒有一絲互掐,甚至還在技術底層進行了“換防”。正如大量評論所指出的,這背後是中美AI路線的一次分岔:矽谷在“造牆”,守住既得利益;中國在“修路”,走開源協同之路。這種路線的分野,背後是根本邏輯的差異。閉源路線的本質是技術作為“護城河”和賺錢的工具,一旦共享就會失去競爭優勢;而開放原始碼的邏輯是模型越開放,生態越繁榮,蛋糕才能越做越大。網際網路巨頭:戰火從“參數比拚”燒向“應用落地”。DeepSeek V4發佈僅一天後,阿里雲百煉就火速上線,API價格與官網一致;國家超算網際網路同步上線服務。科大訊飛、中關村科金、華為昇騰等廠商也在第一時間完成了適配對接。對於騰訊、字節跳動、阿里這樣的巨頭來說,V4的衝擊更多是戰略層面的:以前大家的競爭焦點是“誰的模型參數更大、榜單更高”,現在V4用700倍的成本優勢提醒所有人——接下來真正決定勝負的戰場,是誰能在真實業務場景中用模型創造價值。誰先學會“用好V4”,誰就可能在下一階段佔據卡位優勢。各行各業:一次從“能不能用”到“用不用得起”的跨越。在此之前,企業引入大模型最大的瓶頸不是技術夠不夠好,而是成本夠不夠低。一次API呼叫幾十上百美元的成本,對中小企業來說等於把AI鎖在實驗室裡。V4的出現改變了這一切。在金融行業,國泰海通率先完成DeepSeek-V4基於昇騰的本地化部署,將依託模型實現在智能投行、智能投研、智能投顧、智能風控等八大業務領域的全面突破。保險行業聚焦投保、核保、理賠查勘等高重複性、知識密集型和互動高頻度場景展開部署。在醫療領域,深圳市南山區人民醫院基於昇騰率先部署V4,全面升級了政策諮詢、醫保監管、門診病歷質控等30余項應用,全方位覆蓋醫療全流程。廣西移動落地部署V4,聚焦行銷服務、研發設計等核心領域,全面賦能16個業務場景。河北交投智能科技公司在行業內率先完成V4本地化部署,建構了“自主創新算力+頂尖大模型”的全端自主創新AI底座。從金融到醫療,從通訊到交通——DeepSeek V4發佈後24小時內,各行業頭部企業就火速跟進部署。這本身就是最好的訊號:當AI足夠便宜,企業就不再觀望。“用得起”的真正意義,在於讓AI從實驗室資源變成基礎設施,從而催生前所未有的創新。三、AI便宜到人人敢用,模式才敢真變如果說過去兩年AI的變革是“天變了”,那麼V4之後,我們才第一次站在真正的變局起點上。為什麼這麼說?因為模式創新的土壤不是技術能力本身,而是足夠低的試錯成本。當一個團隊可以毫不心疼地跑十次不同提示詞、對比輸出質量而不是在意API帳單,產品經理可以大膽設想的每個互動都即時呼叫AI,企業可以把AI植入到那些“不太重要但希望更好的環節”——這才是模式創新真正開始的時候。DeepSeek V4的Agent能力經過了專門最佳化。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,交付質量接近Claude Opus 4.6非思考模式;在世界知識測評中大幅領先其他開源模型,僅稍遜於頂尖閉源模型Gemini-Pro-3.1;在數學、STEM、競賽型程式碼等推理任務中超越所有已公開評測的開源模型。V4-Pro還在Codeforces程式設計任務中拿下3206分的測評成績,位列全球活躍使用者第23位。這意味著,過去只有頂級閉源模型才具備的強大執行能力,現在以1/700的價格向所有人開放。中小企業可以部署自動處理客戶問題的7×24小時AI客服系統;個體開發者建構的Agent能自主呼叫API完成多步任務;創業公司可以在產品中“鋪滿AI”,讓大模型程式碼改寫、文件生成、資料清洗成為功能的默認組成部分。當AI便宜到可以和“發一條簡訊”比較成本的時候,所有行業都值得重新問自己一個問題:如果AI呼叫幾乎是免費的,我的產品應該長什麼樣?四、Token經濟的興起:當消耗量三年增長一千多倍在把模型做得更高效、更便宜的同時,一個更深層的經濟變革正在發生。Token——大模型的基本計量單位——正在從後台技術參數變成AI經濟的前台結算單位。商湯科技大裝置產品總經理盧國強在2026中國生成式AI大會上提出的“AI Token Factory”概念,精準概括了這一趨勢:行業正在從“AI原生”邁向“Agent原生”,Token替代Flops成為新的度量衡,AI系統的核心使用者將從人轉向Agent。Token消耗量的增長數字令人震撼。國家資料局公佈的資料顯示,到2026年3月,中國日均Token呼叫量已超過140兆,相比2024年初的1000億增長了1000多倍,相比2025年底的100兆,短短三個月又增長了40%以上。中國工程院院士鄭緯民指出,AI產業的競爭核心正從MaaS(模型即服務)向TaaS(Token即服務)躍遷,從比拚算力叢集規模轉向比拚每瓦Token生產效率。圍繞Token經濟的整套產業邏輯正在逐步成型:生產層:對應算力、晶片、資料中心與推理引擎,把Token作為核心產品來組織基礎設施。分發層:對應雲平台、大模型廠商與API服務商,將底層能力打包按量計費分發。轉化層:對應各行業的AI原生應用和Agent系統,將Token轉化為實際的業務結果。阿里巴巴已正式成立Alibaba Token Hub事業群,騰訊雲將MaaS平台升級為TokenHub,行業從藍海迅速變為紅海。Token兩年激增千倍,智能體市場規模2025年達78.4億元,預計2026年將達135.3億元,增速超過70%。Token正從技術參數,變成AI時代最核心的生產資料和度量衡。誰能高效生產Token、精準分發Token、有效轉化Token,誰就能在智能經濟的新賽道上佔據先機。五、變局中的挑戰與耐心V4帶來的不可能全是好消息。巨大的機遇背後,挑戰同樣不容迴避。安全邊界重構需要時間。 當模型能夠讀取百萬token的超長上下文,風險不再只存在於使用者的當前問題中,而可能藏在龐大材料的某個角落——長長的郵件鏈的腳註裡、PDF的不可見區域中、程式碼註釋裡或歷史聊天記錄中。攻擊者可以把惡意指令藏在這些地方,在模型執行複雜的跨文件推理時“潛伏發動”。強制長上下文安全做前置治理,對使用者指令和外部資料做來源標註和風險掃描,已經成為迫在眉睫的工程需求。落地到用好有個過程。 企業部署了V4並不等於馬上獲得商業價值。從部署到真正融入核心業務流程創造收益,中間還有漫長的產品化、場景適配和組織變革之路。Token成本大幅下降後,產品經理如何在AI能力邊界內重新設計功能,才是決定成敗的關鍵因素之一。地緣政治與算力安全需要關注。 DeepSeek-V4首次在官方技術報告中,將華為昇騰與輝達GPU並列寫進硬體驗證清單,這是中國大模型首次將國產晶片與進口晶片放到了同等戰略高度。適配的昇騰新款推理晶片採購價格僅為輝達晶片的1/4,端到端延遲比原有叢集降低35%。輝達CEO黃仁勳此前警告稱:“如果頂尖的AI模型被最佳化在華為晶片上運行,對美國而言將是可怕的後果”。V4的發佈標誌著中國AI基礎設施的重心正從依賴美國半導體轉向本土化算力底座建構。但技術代差客觀存在,DeepSeek也坦承其能力整體落後於同期主要閉源對手約3至6個月。六、變局的開端才剛剛到來回到標題的那個判斷:DeepSeek V4是AI開源大事件,更是產業變革新開端。是的,事件已經發生——V4-Pro和V4-Flash雙雙開源,百萬上下文成為標配,API定價低至全球閉源競品的1/700,Agent能力逼近頂尖水平。但真正的變革才剛剛開始。因為V4真正的意義,不在於它本身有多強,而在於它重新定義了什麼才是AI產業真正的“兵家必爭之地” 。V4向行業宣告:當模型能力開始逐步趨同(開源會逐步追平閉源),真正決定勝負的將是:誰能讓AI更便宜、更易用、更快地融入真實世界。從長遠來看,AI產業的終極形態是:大模型成為像電力一樣的基礎設施,上面的Agent和智能應用才是創造價值的核心。而DeepSeek V4用700倍的成本優勢一次性把基礎設施的“電費”降到了幾乎可以忽略不計的水平。接下來,誰能在上面建造出更有創造力的智能應用,誰才是真正的贏家。2026年4月24日以前,AI還在比拚“能力的天花板”。從這一天開始,AI產業的真正競賽才剛剛開始。 (數字新財報)
SemiAnalysis:AI價值鏈已向模型大廠全面遷移
核心論點:過去一年AI價值鏈正發生劇烈遷移:AI實驗室從幾乎"零毛利"躍升為價值大贏家。Anthropic ARR從9B暴漲至44B+,推理毛利從38%飆至70%。而身處供給瓶頸的TSMC與Nvidia卻仍未對定價做出明顯反映。01. AI價值鏈的劇烈遷移"AI的一天,勝過其他行業的一年"模型發佈、軟體突破、硬體迭代,正把其他行業以年為單位的周期壓縮到以"周"為單位。過去幾個月,Agentic AI跨過了真正的拐點——Token的"價值"經歷了一次躍升,而生產Token的"成本"卻在同步快速下降。這股需求洪流來自終端使用者從消費Token中獲得的巨額ROI。僅以本年為例,Anthropic的ARR從9B暴增至44B+,與此同時其推理基礎設施毛利率從38%躍升至70%以上。獨特現象:"AI浪潮在堆疊的所有層都創造了價值——但過去一年裡,幾乎所有價值都在向AI實驗室集中,而它們一年前幾乎沒有獲取任何價值。"終端使用者的"生產力豐收"過去需要數十人時、耗費數千美元的工作,如今幾分鐘、價值幾美元的Token就能完成。Token產生的商業價值正在劇烈改善企業經營。SemiAnalysis自身在Anthropic Claude Token上的年化支出已高達1095萬美元,但由此獲得的價值讓其能夠在與所有競爭對手的競爭中勝出並擴大市場份額。2023年5月 ── AI交易元年Nvidia首次"重磅炸彈"業績公告,盤後大漲25%,正式拉開AI交易序幕。2024年 ── 電力成為新瓶頸Vistra +265%、GE Vernova +146%,躋身S&P 500表現最佳個股。2025年 ── 儲存搶鏡SanDisk、Western Digital、Seagate、Micron全部錄得200%+漲幅。2025年12月 ── Agentic AI"真正可用"的拐點Agentic AI開始真正發揮效用,從程式設計蔓延至建模、Excel轉Dashboard、財務分析等場景。2026年至今 ── 價值"全面回流"模型層從硬體層向模型層的價值大遷徙正在發生,AI實驗室成為新主角。02. Agentic AI改變了遊戲規則SemiAnalysis的"自家實測":Token用量已是Meta的5倍Agent早已不止於程式設計。SemiAnalysis分析師每天用Agent把Excel轉為儀表盤、自動生成圖表、建構財務模型、分析公司財報——這些任務此前要麼根本做不了,要麼需要初級分析師花費數小時,擠佔其本可投入更高價值工作的時間。"貼牌價"vs"真實混合價":Opus 4.7的隱藏邏輯Opus 4.7的官方掛牌價為$5/$25 per MTok(input/output),但其在Agentic任務上的真實混合價僅約$0.99/MTok。原因有二:03. Token生產成本崩塌式下降Opus降價≠毛利下降:Anthropic利潤仍在擴張Anthropic在2025年11月以低於前代3倍的價格發佈Opus 4.5,引發市場驚愕。但事實是——由於Trainium與Nvidia GPU上的軟體改進、以及用Blackwell替換Hopper的硬體升級,其Opus Token的毛利率反而上升了。04. 為何模型利潤不會被競爭"卷"掉理由一:前沿模型仍保有定價權無論benchmark怎麼說,在真實知識工作場景下,開源模型與閉源前沿模型仍存在顯著差距,而這一差距沒有理由很快收斂。Kimi K2.6 ($0.95/$4) 對Opus定價幾乎構不成下行壓力。理由二:算力供給約束 → 沒有任何一家能"獨食市場"Anthropic已開始用$100+/月的Claude Code訂閱牆、遮蔽OpenClaw等第三方harness來主動疏離部分使用者。Token需求將在可預見的未來遠超供給,這意味著任何能提供前沿質量的實驗室,都可以按"Token產生的經濟價值"而非"內卷價"來定價。05. TSMC與Nvidia——兩個未漲價的霸主需求"複利式增長",但供給方仍在用舊框架定價Anthropic ARR已達$44B+(我們上次更新時還是$30B),GLM、Kimi等開源模型也在擴大可定址算力總池。AI實驗室與Neocloud的融資正在直接轉化為增量GPU部署。而Nvidia仍在用一套"為單位算力支付意願會隨時間衰減"的舊假設來定價——這個假設已經不成立。需求不是線性,而是複利級。SemiAnalysis觀點:"TSMC本可以大幅漲價,但他們沒有。這是戰略失誤。退一步,他們至少應該要求更大額的預付款。Jensen本人在2024年就說過TSMC的晶圓該貴一點——他是真心的。"06. SOCAMM:Nvidia下一個利潤槓桿為什麼是"記憶體"而不是"算力"?SOCAMM (System-On-Chip Attached Memory Module)是 VR NVL72 上一種基於 LPDDR 的可插拔(Socketed)模組化記憶體方案。它專為機櫃級系統而生,具備更高容量、模組化、能效以及——獨立於算力的可定價能力。在GB300中,DRAM被銲接(soldered)上板,與系統毛利捆綁。但在Rubin中,SOCAMM2是Socketed模組——這意味著Nvidia可以把記憶體"拆出來單獨定價",在板級毛利不變的前提下,單獨調高記憶體毛利。SOCAMM 60% 毛利完全合理(來自SemiAnalysis測算)SOCAMM合約價路徑(Nvidia採購)資料來源:SemiAnalysis Memory Model · 實際SOCAMM應較移動LPDDR5X存在溢價為何客戶會接受Nvidia在SOCAMM上索取60%毛利:① 供應鏈籌碼:DRAM全面緊缺,Nvidia鎖住最大份額② 平台護城河:VR NVL72是性能/TCO最佳平台,客戶被迫接受③ 成本傳導合理:Nvidia自身也面臨SOCAMM2進價上漲07. Capex/W:GB300 →VR NVL72 的反常停滯系統躍遷巨大,但Capex/W幾乎沒動這與AMD/Nvidia/ASIC歷史代際趨勢完全相反——意味著Nvidia"留了一手"08. Neocloud被歧視性定價的"祭壇"SN5610交換機:Neocloud買價竟是Hyperscaler的2倍Nvidia在GPU上幾乎不做客戶分級定價,但在網路裝置上對Neocloud實施明顯的歧視性定價。原因不是Hyperscaler採購量更大,而是Hyperscaler有直接對接OEM/ODM、自建網路方案的工程能力,而Neocloud只能選擇Nvidia的Turnkey方案。即:網路裝置的94%差價被攤薄成10%總capex差異——Nvidia已最大化壓榨這一槓桿,繼續往下摳的空間已經不多。09. One Chart to Rule Them All VR NVL72租賃定價框架成本基礎定價 (Floor) 滿足Neocloud項目最低IRR的租金,低於此線則不會有新部署價值基礎定價 (Ceiling) 基於$/PFLOP的代際平價,客戶在新舊GPU間無差別選擇的臨界點從"成本定價"到"價值定價"——Nvidia的下一跳Nvidia當前仍在用"成本框架"定價。但隨著推理ROI越來越被廣泛接受,定價基準會自然向"價值定價"遷移——這正是反壟斷阻力下降、Nvidia可以堂堂正正漲價的窗口。需要強調,以上分析僅基於"租金/FLOP"。但推理性能/TCO的代際改善,速度比FLOP還要快得多——VR NVL72的真實"價值天花板"可能比我們當前測算更高。Nvidia可以捕獲的價值空間,遠沒有觸頂。RISK 風險與潛在反方向變數反壟斷:Nvidia在GPU、互聯、軟體全端的支配地位已招致更嚴密的反壟斷審視。激進漲價可能加劇監管壓力,這正是Nvidia與TSMC都傾向"克制定價"的核心原因。客戶多元化加速:過快搾取價值會促使客戶加速遷移至TPU、Trainium等替代算力;但這些方案同樣受N3晶圓與DRAM上游約束。前沿模型質量收斂:若開源模型在真實知識工作場景下顯著縮小與閉源前沿的差距,AI實驗室的定價權將受到壓縮——但目前沒有證據顯示這一收斂正在發生。DRAM周期反轉:當前DRAM緊缺局面是支撐Nvidia在SOCAMM上索取高毛利的關鍵。若供給端在2027年大幅釋放產能,記憶體定價槓桿會被削弱。(FinHub)