中國 AI,被「晶片之王」親自蓋章了。
台北時間 1 月 6 日凌晨,拉斯維加斯 CES 2026 現場,身穿標誌性皮衣的黃仁勳站在台上回顧 2025 年 AI 行業進展時,PPT 上赫然出現了三個中國名字:Kimi K2、DeepSeek V3.2、Qwen。
並不是小小地一閃而過就沒了,而是放在了最顯眼的位置,向全球觀眾展示。
要知道,一年前中國開源大模型 DeepSeek R1 發佈時,直接引發輝達股價單日暴跌 17%,市值蒸發近 6000 億美元。華爾街一片恐慌,分析師們紛紛下調預期,質疑輝達的護城河是否還在。
但今天,老黃的態度卻是:
"Really, really exciting work — we're so happy with it."
從「威脅」到「座上賓」,這個轉變背後,藏著一盤更大的棋。
要理解老黃為什麼在 CES 上給中國AI站台,得先看看他過去兩個月經歷了什麼。
2025 年 11 月,Google放了一個大招:發佈 Gemini 3,並且高調宣佈:這個模型是用Google自研的 TPU 訓練的,不是輝達 GPU。
緊接著,消息傳出 Meta 正在和Google洽談,計畫 2027 年起在資料中心大規模部署 TPU。
要知道,Meta 是輝達 GPU 的最大買家之一,去年計畫採購超過 35 萬枚 H100。如果 Meta「倒戈」,這將直接衝擊輝達佔據的近 85% 市場份額。
消息一出,輝達股價一度暴跌超 7%。一個月內,市值蒸發超過 7000 億美元,約合人民幣 5 兆元。
同一時期,Google母公司 Alphabet 市值卻增長了 5300 億美元,逼近 4 兆美元大關。
老黃在內部會議上的吐槽被洩露了出來:
"業績差,會被當作AI泡沫破裂的證據;業績好,又會被說助長泡沫,我們現在就是左右為難。"
"史上沒人能幾周內蒸發5000億美元市值,畢竟得先有足夠高的估值,才虧得起這麼多。"
這是老黃罕見地流露出焦慮。
老黃沒有坐以待斃。
2025 年 12 月 24 日,平安夜,輝達突然宣佈與 AI 晶片公司 Groq 達成「非排他性授權協議」,金額約 200 億美元。
官方說法是「技術授權」,不是收購。但實際操作是:
這個 Jonathan Ross 是誰?Google TPU 的核心研發者。
沒錯,老黃花 200 億美元,挖走了當年幫Google造出 TPU 的人。
而Groq 的技術有多強呢?
它的 LPU(Language Processing Unit)晶片,片上 SRAM 頻寬高達 80TB/s,而輝達頂級 GPU 的 HBM 頻寬只有約 8TB/s。在 AI 推理速度上,Groq 曾讓Kimi K2 的性能飆升 40 倍。
美銀證券的分析師評價這筆交易:「令人意外、代價高昂但具有戰略意義』,這說明輝達意識到,市場正在從訓練轉向推理,而推理端可能需要比 GPU 更專業的晶片。
老黃這一手,既挖走了Google的技術火種,又堵死了其他競爭對手借 Groq 彎道超車的可能。
現在再看老黃的 CES 演講,邏輯就清晰了。
他需要回答一個問題:輝達憑什麼還是 AI 算力的唯一選擇?
答案就藏在那張PPT裡。
老黃展示了一張「開源模型逼近閉源前沿」的圖,被點名的是:Kimi K2、DeepSeek V3.2、Qwen。
然後,在展示新一代晶片平台 Vera Rubin 性能的環節,他選擇的 benchmark 不是Gemini,不是 Claude,而是 Kimi K2 Thinking 和 DeepSeek。
為什麼偏偏選這兩個呢?
因為它們是目前最吃架構、最吃視訊記憶體頻寬的模型。
Kimi K2 是兆參數的MoE模型,DeepSeek R1 是開源推理模型的標竿。如果輝達的新架構能把這兩個「怪獸」跑出 10 倍性能提升,那就證明了一件事:
不管你用什麼模型,最後還是得買我的卡。
輝達 12 月的官方部落格寫得很是直白:
"Kimi K2 Thinking在 GB200 NVL72 上性能飆升 10 倍,DeepSeek R1 的每百萬 token 成本降低超過 10 倍。"
老黃不是在給中國AI打廣告,他是在用最強的開源模型,證明輝達的硬體依然不可替代。
仔細扒老黃的PPT,還有一個有趣的細節。
在剛才那張展示開源模型的圖上,被點名的全是開源陣營:DeepSeek、Kimi、Qwen、Mistral。而OpenAI、Anthropic這些閉源巨頭,幾乎沒怎麼出現。
為什麼?
因為它們正在「叛逃」。
先看 Anthropic。2025 年 10 月,Anthropic 和Google敲定了一筆數百億美元的算力合作,Google將向 Anthropic 提供多達 100 萬顆 TPU,2026 年部署,算力規模超過 1 吉瓦。這是當前AI硬體領域規模最大的單筆交易之一。
再來看 OpenAI。
2025 年 10 月,OpenAI 與博通達成合作,開始自研 AI 推理晶片,目標 2026 年量產。項目由前Google TPU 核心研發
OpenAI 的總裁 Greg Brockman 說得很直白:
"我們正在尋找那些我們認為尚未得到充分服務的特定工作負載……通過垂直整合來實現我們的願景。"
翻譯一下:輝達的通用GPU,已經不能完全滿足我們的需求了。
在 AI 的成本結構裡,推理佔了絕大部分,模型訓練是一次性的,但每一次使用者呼叫都是推理。當 OpenAI、Anthropic 這些頭部玩家開始用 TPU 或自研晶片來跑推理,輝達的核心客戶就在流失。
這就解釋了老黃為什麼不在 PPT 上大談 OpenAI、Anthropic。
它們不是盟友,是正在轉投其他陣營的「潛在叛軍」。
而 Kimi K2、DeepSeek這 些開源模型不一樣,它們沒有自己的晶片,沒有自己的雲,沒有建構閉環生態的基礎。
它們的使用者在全球各地部署模型,用的都是輝達的卡。
Google想做的是 AI 版的 iOS:TPU 晶片 + Gemini 模型,軟硬一體,自成閉環。
老黃的反擊是 AI 版的Android:用開源模型 + 輝達硬體,建構一個開放生態。只要開源模型足夠強、部署足夠自由,Google的「算力+模型」捆綁銷售就失去了溢價能力。
而 Kimi K2、DeepSeek 這些中國開源模型,恰好是這個「Android聯盟」裡最能打的選手。
全球那麼多開源模型,為什麼偏偏是這兩個被放上輝達的官方 PPT?
光有 MoE 架構不夠,還得有實打實的硬實力。
先看 DeepSeek。
去年 R1 發佈時「讓世界驚訝」,老黃原話。它證明了一件事:頂級 AI 不一定要燒天價算力。這直接改變了行業對訓練成本的認知。
再看 Kimi K2。
7 月發佈的 Kimi K2 是全球首個兆參數的開源模型,11 月發佈的升級版 Kimi K2 Thinking,被獨立評測機構 Artificial Analysis 評為「當前最智能的開源模型」。
注意,不是「中國最強」,是「全球開源最強」。
但真正讓 Kimi K2 出圈的,是它的 Agent 能力。
傳統模型是「一問一答」。Kimi K2 Thinking 可以自主進行 200-300 次連續工具呼叫,自己規劃、執行、反思、調整——這叫「交錯思考」(interleaved thinking)。
之前只有閉源的 o3、Grok 4 才有類似能力。Kimi K2 是第一個把這個能力做到開放原始碼的。
這解釋了為什麼微軟 Azure、亞馬遜 Bedrock、輝達 NIM 都在搶著接入它,並不是因為它來自中國,而是因為它真的是目前 Agent 能力最強的開源模型。
順著老黃的 PPT 往下扒,會發現這三家中國公司路數完全不同。
DeepSeek 背後是杭州的量化基金,走「用金融思維做 AI」的路子,極致壓縮成本。
Qwen 背後是阿里,大廠資源加持,走「全面均衡」路線。
Kimi K2 的月之暗面算是其中的小廠了,但最近也拿到了 5 億美元的 C 輪融資,最新估值 43 億美元。
三條完全不同的路,三種完全不同的打法。
但在老黃眼裡,它們有一個共同點:都不會自己造晶片。
它們的使用者遍佈全球,部署在各種雲上、各種伺服器裡。而這些伺服器裡跑的,繫結的,依賴的都是輝達的卡。
這才是老黃把它們放上 PPT 的真正原因。
回到老黃的那盤大棋。
他面對的威脅不只是Google TPU,而是整個AI行業可能走向「閉環化」:
如果這些巨頭都用自研晶片跑自家模型,輝達的「賣水人」生意還怎麼做?
老黃的破局之道,就是扶持開源。
開源模型越強,用的人越多,輝達的 GPU 就賣得越好。
MIT Technology Review 在展望2026年時寫道:
"中國開源模型已經驅動了全球近 30% 的 AI 使用量,相比 2024 年底的 1.2% 大幅增長。"
"越來越多的矽谷應用,將悄悄地基於中國開源模型建構。"
從 1.2% 到 30%,只用了一年多。
而這 30% 的算力需求,最終還是要跑在輝達的卡上。
老黃在演講中說:
"當開源創新讓全球每個企業、每個行業同時被啟動時,人工智慧才能真正無處不在。"
這話聽著是在誇開源,但潛台詞是:開源模型的勝利,就是輝達的勝利。
當全球 AI 晶片霸主在自家發佈會上,把中國開源模型放在PPT最顯眼的位置;
當 Kimi K2、DeepSeek 成為輝達新晶片的官方 benchmark;
當老黃在經歷市值蒸發 5 兆之後,選擇用中國 AI 來發起反擊——
這本身就說明了一些事情。
一年前,中國開源模型讓輝達股價暴跌。
而僅一年後,它們成了老黃手裡最重要的武器。
遊戲規則正在改變。
開源與閉源的較量,才剛剛開始。 (AGI Hunt)