矽谷三巨頭罕見結盟,目標只有一個:打擊"對抗性蒸餾"

最近,彭博社爆了個消息,說實話,我第一反應是沒當回事。

OpenAI、Anthropic、Google,這三家平時為了搶人才、比參數鬥得你死我活的公司,竟然坐到了同一張談判桌前。他們通過2023年共同成立的"前沿模型論壇"共享情報,目標只有一個:打擊"對抗性蒸餾"。

但讓我真正坐起來的是這個數字:數十億美元

美國官員估算,所謂未經授權的蒸餾行為,每年讓矽谷實驗室損失這麼多利潤。這可不是小錢,相當於一家中等規模上市公司的全年營收被蒸發。

我查了一下,這個數字在2026年2月就被OpenAI寫進了提交給國會的備忘錄裡。他們點名指責DeepSeek試圖“免費利用OpenAI及其他美國前沿實驗室開發的能力”。

這個數位很猛,但背後的邏輯更猛。

01. 蒸餾到底是什麼

先說個基本概念,別被嚇到。

蒸餾,就是用大模型的輸出去訓練小模型。2015年Hinton提出來的時候,學術界都覺得是個聰明的辦法:你問GPT-4一堆問題,把它的回答記下來,再拿去訓練一個更小的模型,就能以極低成本複製大部分能力。

這技術AI圈裡誰都在用。Meta的Llama文檔裡明明白白寫著“鼓勵研究者用其輸出做知識蒸餾",輝達的NeMo也提供官方蒸餾指令碼。就連Anthropic自己都承認:“AI實驗室經常蒸餾自己的模型來製作更小、更便宜的版本供客戶使用。”

但現在,同樣的技術,到了中國公司手裡,就變成了“對抗性蒸餾”、“工業級蒸餾攻擊”、“國家安全威脅”。

Anthropic今年2月發了個聲明,點名DeepSeek、月之暗面、MiniMax三家公司。他們說,這些公司用了約2.4萬個虛假帳戶,跟Claude進行了超過1600萬次交互,系統性“竊取”模型能力。

02. 真正的痛點

讓我困惑的是,這三家巨頭平時打官司、互挖人才、公開互嗆,那次不是拼個你死我活?這次怎麼突然就“大團結”了?

答案可能不在技術,而在利潤。

你想啊,OpenAI開發GPT-4花了多少錢?幾億美元甚至更多。訓練資料、算力、人才,每一樣都是天價。如果競爭對手能用1%的成本複製80%的能力,然後以更低價格搶佔市場,OpenAI的定價權、市場份額、估值邏輯都會受衝擊。

這就是護城河焦慮。

美國三巨頭走的是閉源高投入路線,他們靠技術領先賺錢。而蒸餾技術正在快速抹平這種代差。當低成本複製成為可能,他們投入鉅資構建的護城河就會形同虛設。

更重要的是,這已經不是理論上的擔憂,而是現實中的衝擊。

DeepSeek的R1模型在數學推理基準MATH上拿到47分,推理能力直追GPT-4。更讓矽谷緊張的是,DeepSeek還開源了70B參數版本,幾十行代碼就能跑通。國內高校實驗室拿去改個結構就能發Nature子刊。

這才是OpenAI們急刹車的真正原因。

03. 防禦體系是怎麼建的

現在問題來了,他們怎麼防?

簡單說,就是三招。

第一招,情報共用。三家巨頭通過前沿模型論壇交換“攻擊指紋”。比如Anthropic發現某個IP位址的API呼叫模式很可疑,馬上同步給OpenAI和Google。這個IP在Claude這兒被拉黑了,在GPT和Gemini那兒也別想混進去。

這跟網路安全行業的做法一模一樣。某家公司發現的漏洞特徵,幾小時內就會出現在全行業的防禦系統裡。

第二招,技術浮水印和請求監控。他們在模型輸出中嵌入隱形浮水印,人類看不出來,但一檢測就能知道內容是不是從他們這兒來的。同時,API層面即時監控呼叫頻率,如果突然有成千上萬個帳號瘋狂提問,直接觸發風控。

第三招,規則界定。他們向美國政府遊說,推動將未經授權的蒸餾納入技術竊取範疇。OpenAI的服務條款已經明確禁止用輸出來開發競爭模型,雖然執行起來很難,但至少給了他們技術反制的合同依據。

這三招組合起來,確實能大大提高蒸餾的難度和成本。

04. 爭議在那裡

但這裡有個問題,證據鏈完整嗎?

Anthropic說他們通過IP地址、請求中繼資料、基礎設施指標,把攻擊追溯到了具體實驗室。但被指控方質疑:從API調用到“工業級蒸餾”,中間是不是跳得太快了?

你說我調用了1600萬次API,就一定是在蒸餾?我在做安全研究、模型能力邊界測試不行嗎?個人開發者做測試、學術機構做研究,都會產生大量API調用,這很正常。

更尷尬的是,Anthropic自己的“黑歷史”也不少。他們曾從盜版網站下載了700萬本受版權保護的圖書訓練模型,最後賠了15億美元。還因為非法下載2萬首歌曲,被索賠30億美元。

馬斯克這次直接開嘲諷:“他們怎麼敢偷Anthropic從人類程式師那裡偷來的東西?”

這句話有點毒,但也不是完全沒道理。

DeepSeek在《Nature》封面論文裡明確表示,他們的R1模型訓練資料只來自普通網頁和電子書,沒有故意加入OpenAI生成的合成資料。論文還強調,資料截止時間是2024年7月,彼時先進推理模型還沒發佈。

當然,他們也承認,部分網頁中包含OpenAI模型生成的答案,這可能導致基礎模型“間接受益”。但這是網頁數據本身的問題,不是主動蒸餾。

05. 這意味著什麼

我有個判斷,這次事件其實是個信號:AI行業從“開源狂歡”進入了“閉源聯盟”階段。

以前大家覺得,AI技術應該開放共用,推動整個行業進步。但現在,當技術領先變成核心競爭力,巨頭們開始收緊口袋。

前沿模型論壇2023年成立時定位很模糊,說是AI安全性群組織。現在終於找到了具體戰場:打擊蒸餾。這個轉變本身就說明問題有多嚴重。

從商業角度看,這其實挺正常的。你投入幾十億美元研發的技術,被別人低成本複製,換你也不爽。

但從行業角度看,這可能不是個好信號。當AI巨頭開始像網路安全公司一樣運營,當“合法使用”和“對抗性利用”的界限由他們自己定義,創新的門檻會越來越高。

特別是對於那些靠蒸餾快速反覆運算的初創公司來說,這條路可能要堵死了。以後想追趕,要麼全棧自研,要麼另闢蹊徑。

06. 最後的話

說到底,這場“蒸餾之戰”表面上是技術爭議,實際上是商業競爭,底子裡是護城河焦慮。安全是切入點,利潤是落腳點。

如果你也在做AI相關的事情,我給個建議:別指望靠捷徑走太遠。當矽谷開始結盟,免費午餐的時代可能真的要結束了。

真正能活下來的,還是那些有自己核心技術和差異化能力的公司。

捷徑是最遠的路,這話現在看,還真是這麼回事。 (蛋殼盤科技)