【CES 2026】一年前讓輝達蒸發6000億,一年後被老黃搬上PPT

中國 AI,被「晶片之王」親自蓋章了。

台北時間 1 月 6 日凌晨,拉斯維加斯 CES 2026 現場,身穿標誌性皮衣的黃仁勳站在台上回顧 2025 年 AI 行業進展時,PPT 上赫然出現了三個中國名字:Kimi K2、DeepSeek V3.2、Qwen。

並不是小小地一閃而過就沒了,而是放在了最顯眼的位置,向全球觀眾展示。

要知道,一年前中國開源大模型 DeepSeek R1 發佈時,直接引發輝達股價單日暴跌 17%,市值蒸發近 6000 億美元。華爾街一片恐慌,分析師們紛紛下調預期,質疑輝達的護城河是否還在。

但今天,老黃的態度卻是:

"Really, really exciting work — we're so happy with it."

從「威脅」到「座上賓」,這個轉變背後,藏著一盤更大的棋。

老黃的焦慮:一個月蒸發5兆

要理解老黃為什麼在 CES 上給中國AI站台,得先看看他過去兩個月經歷了什麼。

2025 年 11 月,Google放了一個大招:發佈 Gemini 3,並且高調宣佈:這個模型是用Google自研的 TPU 訓練的,不是輝達 GPU。

緊接著,消息傳出 Meta 正在和Google洽談,計畫 2027 年起在資料中心大規模部署 TPU。

要知道,Meta 是輝達 GPU 的最大買家之一,去年計畫採購超過 35 萬枚 H100。如果 Meta「倒戈」,這將直接衝擊輝達佔據的近 85% 市場份額。

消息一出,輝達股價一度暴跌超 7%。一個月內,市值蒸發超過 7000 億美元,約合人民幣 5 兆元。

同一時期,Google母公司 Alphabet 市值卻增長了 5300 億美元,逼近 4 兆美元大關。

老黃在內部會議上的吐槽被洩露了出來:

"業績差,會被當作AI泡沫破裂的證據;業績好,又會被說助長泡沫,我們現在就是左右為難。"
"史上沒人能幾周內蒸發5000億美元市值,畢竟得先有足夠高的估值,才虧得起這麼多。"

這是老黃罕見地流露出焦慮。

200億美元「收編」Google叛將

老黃沒有坐以待斃。

2025 年 12 月 24 日,平安夜,輝達突然宣佈與 AI 晶片公司 Groq 達成「非排他性授權協議」,金額約 200 億美元。

官方說法是「技術授權」,不是收購。但實際操作是:

  • Groq創始人兼CEO Jonathan Ross加入輝達
  • 90%的Groq員工被打包帶走
  • 員工人均套現約500萬美元

這個 Jonathan Ross 是誰?Google TPU 的核心研發者。

沒錯,老黃花 200 億美元,挖走了當年幫Google造出 TPU 的人。

而Groq 的技術有多強呢?

它的 LPU(Language Processing Unit)晶片,片上 SRAM 頻寬高達 80TB/s,而輝達頂級 GPU 的 HBM 頻寬只有約 8TB/s。在 AI 推理速度上,Groq 曾讓Kimi K2 的性能飆升 40 倍。

美銀證券的分析師評價這筆交易:「令人意外、代價高昂但具有戰略意義』,這說明輝達意識到,市場正在從訓練轉向推理,而推理端可能需要比 GPU 更專業的晶片。

老黃這一手,既挖走了Google的技術火種,又堵死了其他競爭對手借 Groq 彎道超車的可能。

CES 上的「反擊戰」

現在再看老黃的 CES 演講,邏輯就清晰了。

他需要回答一個問題:輝達憑什麼還是 AI 算力的唯一選擇?

答案就藏在那張PPT裡。

老黃展示了一張「開源模型逼近閉源前沿」的圖,被點名的是:Kimi K2、DeepSeek V3.2、Qwen。

然後,在展示新一代晶片平台 Vera Rubin 性能的環節,他選擇的 benchmark 不是Gemini,不是 Claude,而是 Kimi K2 Thinking 和 DeepSeek。

為什麼偏偏選這兩個呢?

因為它們是目前最吃架構、最吃視訊記憶體頻寬的模型。

Kimi K2 是兆參數的MoE模型,DeepSeek R1 是開源推理模型的標竿。如果輝達的新架構能把這兩個「怪獸」跑出 10 倍性能提升,那就證明了一件事:

不管你用什麼模型,最後還是得買我的卡。

輝達 12 月的官方部落格寫得很是直白:

"Kimi K2 Thinking在 GB200 NVL72 上性能飆升 10 倍,DeepSeek R1 的每百萬 token 成本降低超過 10 倍。"

老黃不是在給中國AI打廣告,他是在用最強的開源模型,證明輝達的硬體依然不可替代。

PPT裡的玄機:OpenAI去那了?

仔細扒老黃的PPT,還有一個有趣的細節。

在剛才那張展示開源模型的圖上,被點名的全是開源陣營:DeepSeek、Kimi、Qwen、Mistral。而OpenAI、Anthropic這些閉源巨頭,幾乎沒怎麼出現。

為什麼?

因為它們正在「叛逃」。

先看 Anthropic。2025 年 10 月,Anthropic 和Google敲定了一筆數百億美元的算力合作,Google將向 Anthropic 提供多達 100 萬顆 TPU,2026 年部署,算力規模超過 1 吉瓦。這是當前AI硬體領域規模最大的單筆交易之一。

再來看 OpenAI。

2025 年 10 月,OpenAI 與博通達成合作,開始自研 AI 推理晶片,目標 2026 年量產。項目由前Google TPU 核心研發

OpenAI 的總裁 Greg Brockman 說得很直白:

"我們正在尋找那些我們認為尚未得到充分服務的特定工作負載……通過垂直整合來實現我們的願景。"

翻譯一下:輝達的通用GPU,已經不能完全滿足我們的需求了。

在 AI 的成本結構裡,推理佔了絕大部分,模型訓練是一次性的,但每一次使用者呼叫都是推理。當 OpenAI、Anthropic 這些頭部玩家開始用 TPU 或自研晶片來跑推理,輝達的核心客戶就在流失。

這就解釋了老黃為什麼不在 PPT 上大談 OpenAI、Anthropic。

它們不是盟友,是正在轉投其他陣營的「潛在叛軍」。

而 Kimi K2、DeepSeek這 些開源模型不一樣,它們沒有自己的晶片,沒有自己的雲,沒有建構閉環生態的基礎。

它們的使用者在全球各地部署模型,用的都是輝達的卡。

Google想做的是 AI 版的 iOS:TPU 晶片 + Gemini 模型,軟硬一體,自成閉環。

老黃的反擊是 AI 版的Android:用開源模型 + 輝達硬體,建構一個開放生態。只要開源模型足夠強、部署足夠自由,Google的「算力+模型」捆綁銷售就失去了溢價能力。

而 Kimi K2、DeepSeek 這些中國開源模型,恰好是這個「Android聯盟」裡最能打的選手。

為什麼是Kimi和DeepSeek?

全球那麼多開源模型,為什麼偏偏是這兩個被放上輝達的官方 PPT?

光有 MoE 架構不夠,還得有實打實的硬實力。

先看 DeepSeek。

去年 R1 發佈時「讓世界驚訝」,老黃原話。它證明了一件事:頂級 AI 不一定要燒天價算力。這直接改變了行業對訓練成本的認知。

再看 Kimi K2。

7 月發佈的 Kimi K2 是全球首個兆參數的開源模型,11 月發佈的升級版 Kimi K2 Thinking,被獨立評測機構 Artificial Analysis 評為「當前最智能的開源模型」。

注意,不是「中國最強」,是「全球開源最強」。

但真正讓 Kimi K2 出圈的,是它的 Agent 能力。

傳統模型是「一問一答」。Kimi K2 Thinking 可以自主進行 200-300 次連續工具呼叫,自己規劃、執行、反思、調整——這叫「交錯思考」(interleaved thinking)。

之前只有閉源的 o3、Grok 4 才有類似能力。Kimi K2 是第一個把這個能力做到開放原始碼的。

這解釋了為什麼微軟 Azure、亞馬遜 Bedrock、輝達 NIM 都在搶著接入它,並不是因為它來自中國,而是因為它真的是目前 Agent 能力最強的開源模型。

開源模型背後的公司

順著老黃的 PPT 往下扒,會發現這三家中國公司路數完全不同。

DeepSeek 背後是杭州的量化基金,走「用金融思維做 AI」的路子,極致壓縮成本。

Qwen 背後是阿里,大廠資源加持,走「全面均衡」路線。

Kimi K2 的月之暗面算是其中的小廠了,但最近也拿到了 5 億美元的 C 輪融資,最新估值 43 億美元。

三條完全不同的路,三種完全不同的打法。

但在老黃眼裡,它們有一個共同點:都不會自己造晶片。

它們的使用者遍佈全球,部署在各種雲上、各種伺服器裡。而這些伺服器裡跑的,繫結的,依賴的都是輝達的卡。

這才是老黃把它們放上 PPT 的真正原因。

真正的戰爭:開源 vs 閉源

回到老黃的那盤大棋。

他面對的威脅不只是Google TPU,而是整個AI行業可能走向「閉環化」:

  • Google有 TPU + Gemini
  • 蘋果有自研晶片+自有生態
  • 亞馬遜有 Trainium+AWS
  • 微軟有 Maia + Azure
  • OpenAI 開始自研晶片

如果這些巨頭都用自研晶片跑自家模型,輝達的「賣水人」生意還怎麼做?

老黃的破局之道,就是扶持開源。

開源模型越強,用的人越多,輝達的 GPU 就賣得越好。

MIT Technology Review 在展望2026年時寫道:

"中國開源模型已經驅動了全球近 30% 的 AI 使用量,相比 2024 年底的 1.2% 大幅增長。"
"越來越多的矽谷應用,將悄悄地基於中國開源模型建構。"

從 1.2% 到 30%,只用了一年多。

而這 30% 的算力需求,最終還是要跑在輝達的卡上。

老黃在演講中說:

"當開源創新讓全球每個企業、每個行業同時被啟動時,人工智慧才能真正無處不在。"

這話聽著是在誇開源,但潛台詞是:開源模型的勝利,就是輝達的勝利。

結語

當全球 AI 晶片霸主在自家發佈會上,把中國開源模型放在PPT最顯眼的位置;

當 Kimi K2、DeepSeek 成為輝達新晶片的官方 benchmark;

當老黃在經歷市值蒸發 5 兆之後,選擇用中國 AI 來發起反擊——

這本身就說明了一些事情。

一年前,中國開源模型讓輝達股價暴跌。

而僅一年後,它們成了老黃手裡最重要的武器。

遊戲規則正在改變。

開源與閉源的較量,才剛剛開始。 (AGI Hunt)