DeepSeek升級,氣到了黃仁勳

接下來,黃仁勳的無奈和氣憤大機率還將繼續。

“不誘於譽,不恐於誹,率道而行,端然正己。”

這是上周DeepSeek-V4發佈稿的結尾,DeepSeek自己引用的一句話。字面意思是,不被讚譽誘惑,不被誹謗嚇到,按自己認定的道往前走,端正自己。

過去一年多,同行動作頻頻,而DeepSeek除了零散的更新,幾乎毫無動靜,繼而引發不少質疑,但DeepSeek沒有回應過一次。

DeepSeek淡定地做自己,輝達卻不能從容了。

DeepSeek已明確表示,V4在下半年將正式支援華為算力。巧合的是,在此之前不久,黃仁勳在一檔播客節目裡提到:“如果像DeepSeek這樣頂尖的模型優先在華為晶片上運行,對我們來說將是‘可怕的後果’。”

過去兩年,黃仁勳一直苦口婆心地勸告美國:“如果中國不能從美國購買(高端晶片),他們就會自己建造。”

但勸告無果,他只能眼睜睜地看著輝達在中國的市場份額從2024年的70%降到2025年的55%。

接下來,黃仁勳的無奈和氣憤大機率還將繼續。

黃仁勳心裡的意難平,份量越來越重了

AI時代之前,黃仁勳只是眾多遊戲宅眼裡刀法精準的“黃狗”。

到了AI時代,黃仁勳迎來人生巔峰,輝達市值一路突破5兆美元,全球第一。

逆襲背後,靠的是一次豪賭。

2006年,輝達推出CUDA開發平台,能夠降低GPU程式設計門檻,讓多個GPU平行運算,從而大幅提升計算性能。

但當時除了輝達,誰都沒把它當回事。

一名輝達深度學習團隊的成員說道:“在CUDA推出十年以來,整個華爾街一直在問輝達,為什麼你們做了這項投入,卻沒有人使用它?他們對我們的市值估值為0美元。”

CUDA十年無人問津,輝達雖然痛苦,但也獲得了先發優勢。

所以當AI大潮轟然而至,輝達一飛衝天。時至今日,輝達的GPU更是變成了原油般的存在,幾乎所有大模型都奔跑在輝達的算力晶片上。

豪賭成功的黃仁勳,如今不論到那兒都是意氣風發。如果說他還有什麼意難平,恐怕只有中國市場了。

黃仁勳在2023年年底接受媒體採訪時表示,中國市場佔輝達銷售額的大約20%。騰訊、阿里、字節等巨頭的訓練叢集,清一色的輝達GPU。

此外,在發展得如火如荼的中國智駕市場裡,彼時有超過80%的輔助駕駛晶片也來自輝達。

然而一紙禁令,徹底攪了輝達在中國市場的美夢。

輝達的高端晶片無法繼續給中國的AI大業添磚加瓦,後來專門為中國市場開發的閹割版的A800和H800也沒能繞開管制,黃仁勳一邊鬱悶一邊絞盡腦汁。

2023年11月,矽谷DealBook峰會上,黃仁勳在對著全息演示屏上的中國地圖重申:“失去這個市場,我們沒有Plan B。”

2024年1月,黃仁勳來華,在北京、上海、深圳三地的年會連軸轉。上海那一場,他脫下黑皮衣,換上東北大花馬甲,扭起了大秧歌;11月在港科大的講台上,他又動之以理“開放研究是全球合作的最終形式”。

進入2025年,黃仁勳一方面繼續向中國市場示好,身著“唐裝”用生硬中文讚揚中國科技發展,一邊對著大洋彼岸曉之以利:“中國是一個不可替代的市場,服務這裡符合美國的利益。”

可惜任憑他做足了各種姿態,說盡好賴話,還是事與願違。

輝達在中國市場一家獨大的格局一去不復返,華為昇騰、阿里平頭哥、百度崑崙芯和寒武紀,毫不客氣地瓜分了它空出來的位置。

到嘴的鴨子越飛越遠,黃仁勳忍不了了。

DeepSeek-V4,戳中輝達的命門

2026年4月15日,黃仁勳做客美國知名播客節目。面對主持人的一連串追問,其中還夾帶著指責他為了利益不顧國家安全的暗示,黃仁勳罕見地發飆了。

他表示,管制的邏輯“極其愚蠢”,是典型的“失敗者心態”

在黃仁勳看來,如果是強者心態,一開始就不該關注要不要限制高端晶片出口。

他曾公開表示:“無論有沒有美國晶片,中國的人工智慧技術都在快速發展。問題不是中國是否會擁有人工智慧,它已經擁有了。真正的問題是,世界上最大的人工智慧市場之一是否將運行在美國的平台上。”

所以,黃仁勳反覆呼籲放開對華晶片銷售。他不只是怕少賣幾塊GPU,更擔心的是輝達的生態地位被挑戰。

一直以來,他真正在意的是CUDA生態。

有人比喻,如果把輝達GPU看作“電腦主機”,CUDA就是“Windows系統”。只要該生態能讓大部分人離不開,輝達就立於不敗之地。

截至2025年,全球超過450萬開發者在使用CUDA。幾乎整個AI圈子的人都習慣在CUDA上寫程式碼、開發應用。他們所有的學習成本、項目程式碼、工程經驗,全都有輝達的印記。

要離開這個生態也不是不行,但那就意味著程式碼重寫,工具鏈重搭,工程師重新培訓。有業內測算指出,非輝達平台上開發周期可能延長6個月,成本增加40%。

所謂“賣產品不如賣品牌,賣品牌不如賣標準”,科技行業同樣如此。

因此輝達不怎麼操心誰家的AI強不強,只關心他們的AI在不在自家生態裡

黃仁勳對於DeepSeek的態度,就是一個例子。

去年DeepSeek發佈R1,直接衝擊了行業對算力堆疊的路徑依賴,業內突然意識到原來搞頂級AI可能不需要海量GPU,於是輝達股價大跌,短短三天蒸發了6000億美元。

但當時黃仁勳對外沒有顯出一點慌亂,還宣稱DeepSeek及其開源推理模型所帶來的能量“令人無比興奮”,並且篤定這種技術創新反而會帶來更多算力需求。

那時他確實有底氣。畢竟R1再怎麼驚豔,終究是跑在輝達的GPU上,活在CUDA的生態裡。

DeepSeek-V4的出現,則是把他最擔心的事變成了現實。

V4預覽版上線的文件裡有一行小字寫著:“受限於高端算力,目前Pro的服務吞吐十分有限,預計下半年昇騰950超節點批次上市後,Pro的價格會大幅下調。”

言外之意是,等下半年華為昇騰950鋪開了,V4不但會更流暢,價格還能再砍幾刀。V4的存在也是在告訴其他人:離開輝達的晶片和生態,也能幹旗艦模型的活。

輝達的生態壁壘就此裂出了一條縫,雖然還微不足道,但對於喜歡把“輝達離倒閉只有30天”之類的話掛嘴邊的黃仁勳,不得不警惕。

“全面替代”的口號,不是說說而已

想挑戰輝達的遠不止國內企業。

2024年,AMD、英特爾、Meta、微軟、Google等9家科技巨頭成立了一個UALink聯盟,針對的就是輝達的護城河——NVLink。

OpenAI則是推出Triton編譯器,試圖繞開CUDA的“語言壟斷”。

所以段永平曾表達過對輝達的一個顧慮:輝達的護城河雖然很強大,但這麼多巨頭針對它,不能改變一些什麼嗎?

對此,輝達見招拆招,收效頗豐。客戶和競爭對手想在NVLink之外另起爐灶,輝達乾脆直接開放NVLink,讓出一部分權限,讓客戶可以把其他品牌的晶片也混進算力叢集裡。

中國這邊全然不同,局勢促使我們堅定自研,歷史也反覆證明了爹有娘有不如自己有,必須把輝達從“唯一選擇”變成“備選之一”,那怕中國的晶片在許多方面還暫時落後

這也成了許多中國企業的共識。

科大訊飛是一個典型案例,明知遷移成本極高,用輝達方案一個月能完成的任務,遷移到昇騰可能需要三個月,但其董事長劉慶峰直言:“這一步非走不可。”

這種不計代價的投入,大概才是真正會讓黃仁勳頭疼的東西。

更何況,中國同行也有不少與輝達對壘的底氣。

一個是基建優勢。

在播客裡,主持人認為輝達如果把高端晶片賣給中國企業,會幫助對手開發出頂尖AI模型。黃仁勳當即反駁道,頂尖的AI模型,不一定要最頂尖的晶片才能訓練出來。

中國企業的解決方案是“芯海戰術”,通過相關技術把數百甚至數千顆國產晶片高速互聯,形成一個龐大的算力叢集,用數量優勢彌補單點性能的不足。

叢集模式功耗巨大,但好消息是,中國不缺能源。

還有市場優勢。

晶片和AI好不好用,需要在市場裡驗證和迭代。

中國不僅內需市場足夠龐大,中國頭部AI公司還普遍採用開源策略,大幅降低了開發者和企業的使用和二次開發門檻,疊加成本優勢,中國的AI模型能輕易觸達全球使用者。

例如2024年初,Meta的大模型Llama下載量為1060萬次,而阿里的大模型Qwen下載量只有50萬次。但到了2025年10月,Qwen的累計下載量為3.853億次,超過了Llama的3.462億次。

就像最近很火的何潤東版項羽說的“打仗靠的是決心和勇氣”,挑戰輝達也需要實力、動力和決心。

還好這些我們也都不缺。

國產晶片“能用”了,“好用”還會遠嗎? (36氪)