既沒有駭客入侵,也沒有竊取OpenAI或Anthropic內部的核心參數、底層程式碼或演算法邏輯。將這種公開獲取資料的行為認定為不正當手段,在法律上非常牽強。
近日,美國AI初創公司Anthropic突然向中國大模型企業發難,指控包括DeepSeek等在內的三家中國企業,通過約24000個帳戶與其旗下模型Claude進行了超過1600萬次互動,涉嫌通過蒸餾技術竊取Claude的功能以改進自身模型。這一指控在社交網路上引發軒然大波,甚至引來首富埃隆·馬斯克的辛辣嘲諷“他們竟敢‘偷竊’Anthropic從人類程式設計師那裡偷走的東西?”
這一新聞事件極具戲劇性與諷刺性,作為專業人士,我們不妨適當剝離情緒化的爭論,從法律視角探討資料蒸餾的法律風險,審視Anthropic本次指控的法理困境及矛盾,探尋其隱藏在“正當維權”大旗下的真實目的。
在探討法律適用之前,我們必須先釐清技術事實。所謂蒸餾(Distillation),通俗來講,就是用一個已經訓練好的、能力強大的大模型(又稱“教師模型”,如GPT-5或Gemini 3.1)的輸出結果,作為教材來訓練一個體積更小、但效率更高的小模型(又稱“學生模型”)。這種方法能夠以極低的成本和極短的時間,讓小模型獲得接近大模型的能力。
正如網路梗圖所言,“不要問女人的年齡,不要問男人的薪水,不要問AI公司的訓練資料從那裡來。”在當前的人工智慧行業,蒸餾或者說利用他方模型的輸出進行二次微調,幾乎是行業內公開的秘密與常規操作。學術界普遍認為,蒸餾本身並無天然的違法性,大家相互借鑑經驗,對於不公佈程式碼的閉源模型而言,通過指令微調來學習其黑盒經驗是一種正常的技術迭代手段。
從智慧財產權角度來看,這種行為不可避免地觸及多項法律權利。首先,在著作權法層面,如果教師模型的輸出內容被視為受保護的作品,那麼學生模型對其進行的大規模抓取和分析,理論上可能會引發關於資料複製或改編的合規性疑問。
其次是商業秘密層面的考量。教師模型的演算法邏輯與機率分佈若被視為核心機密,通過API呼叫進行規律推導的行為,將涉嫌對商業秘密的刺探。
最後,在反不正當競爭與合同合規方面,利用大量帳戶規避區域限制並提取知識,涉嫌違反平台服務條款,也可能存在有違商業倫理的搭便車嫌疑。這些理論風險,構成了Anthropic等西方科技巨頭向後來者發難的法理外衣。
儘管上述理論風險客觀存在,但結合現行的智慧財產權原則與行業實踐來看,將蒸餾行為直接等同於著作權侵權,在邏輯上可能面臨很多挑戰。
其一,人工智慧生成內容的權利歸屬通常較為複雜。根據中美兩國的著作權法及近年的司法實踐,構成作品的核心要件是人類的智力創造。美國版權局在此前多起涉及AI生成圖片的註冊申請中,均明確拒絕了對純AI生成內容給予版權保護;中國北京網際網路法院在“AI文生圖第一案”中雖然認定特定情況下AI生成圖片具有可版權性,但其前提是人類使用者在提示詞輸入上付出了極其顯著的智力勞動,最近的其他法院對該等標準也把握較為嚴格。
中國大模型企業通過API或網頁呼叫Claude產生的資料,本質上是機器演算法的機率性輸出。Anthropic作為模型的開發者,並沒有對這些具體輸出內容進行直接的人類智力干預。既然這些輸出結果缺乏人類作者身份,它們就無法達到可版權性的標準,大機率屬於公共領域的產物。既然部分模型輸出的內容未必構成法定作品,平台方基於此主張版權受損的阻力便會增大。
其二,行業內普遍存在的使用者協議條款也可能限制了平台方的維權空間。許多大模型服務商(包括業內頭部的OpenAI等)在其使用者協議中通常會約定,平台不對使用者的輸入主張所有權,且將模型輸出內容的權益轉移給使用者。
目前,Anthropic在消費者服務協議(Consumer Terms of Service)中明確載明,在雙方之間,使用者擁有所有輸入(Prompts)和輸出(Outputs)的內容。Anthropic特此將輸出內容的所有權利、所有權和利益(如果有的話)轉讓使用者。在這種行業規則下,使用者獲得了對輸出內容的支配權,平台若再以智慧財產權為由限制使用者對輸出結果的使用(包括用於訓練新模型),在法理上可能存在爭議。
其三,基於思想與表達二分法原則,版權通常只保護對思想的具體表達,而不保護思想、方法或概念本身。在知識蒸餾中,學生模型學習的軟標籤、演算法規律與推理鏈條,更傾向於認知系統的建構原理,屬於不受保護的思想範疇 。蒸餾行為更像是在拜師學習,而非抄襲。同時,為了提取資料特徵而產生的臨時性資料處理,通常旨在挖掘規律,這在很大程度上契合了促進技術發展的轉換性使用原則,或許多國家設立的文字與資料探勘合理使用例外。
在商業秘密和不正當競爭的維度上,知識蒸餾的合理性同樣值得探討。商業秘密的保護前提是資訊具有一定的秘密性。但API介面和網頁對話方塊是平台向大眾公開的,第三方通過公開的介面合法輸入提示詞並獲取輸出,既沒有駭客入侵,也沒有竊取OpenAI或Anthropic內部的核心參數、底層程式碼或演算法邏輯。將這種公開獲取資料的行為認定為不正當手段,在法律上非常牽強。
搭便車和不正當競爭的指控,是Anthropic最可能發力的法律維度。我們必須認識到,反不正當競爭法的核心價值在於保護公平自由的市場競爭秩序,而非保護某一個特定競爭者的既得利益。在競爭法視野中,搭便車行為並非一律違法,模仿本身是技術創新的必經階段。判斷某項模仿行為是否構成不正當競爭的關鍵,在於模仿者是否通過創造性的勞動帶來了重大的技術增量,並在客觀上拓展了公眾的選擇空間。
以被捲入此次風波的DeepSeek為例,其模型的成功絕非對先進模型的簡單同質化復刻或不勞而獲。公開資料顯示,DeepSeek在模型架構與訓練方法上進行了大量獨立且底層的顛覆性創新。例如,其採用了極大規模的混合專家模型(MoE)、獨創的多頭潛在注意力機制(MLA),並在罕見地應用了純強化學習(RL)演算法來動態調整模型參數,這些創新提升了模型的推理能力並降低了訓練成本。這種為人工智慧技術演進貢獻了非線性創新增量與技術路線互補性的行為,顯然超越了單純搭便車的範疇,屬於正當的市場競爭行為。
雖然其他平台服務條款中可能包含禁止反向工程等限制性規定,但如果掌握技術優勢的企業借此絕對禁止他人對其公開產品進行規律性分析,可能會不當壓縮技術交流的公共空間,甚至引發關於限制競爭的懷疑,反而應當受到反壟斷法的嚴厲規制。
從法律實務的維度剖析,Anthropic在本次指控實踐中面臨著幾乎難以完成的舉證責任。
首先,高頻次的系統呼叫記錄並不能直接等同於侵權證據。Anthropic宣稱的1600萬次互動,客觀上描述了資料呼叫量級,但無法直接證明DeepSeek、Moonshot等企業實質性地利用了從這些互動中獲取的特定知識,並將其直接用於了自家大模型的底層訓練之中。
在法律意義上,相關呼叫記錄無法形成有效因果關係,高頻次的互動既可能是為了常規的複雜業務應用測試,也可能是為了建構開源資料集,沒有任何直接且有效的技術手段能夠確鑿證明,DeepSeek等企業將這些具體的互動資料實質性地喂給了其基礎模型的訓練引擎並構成了所謂的蒸餾。
其次,是當前網際網路普遍存在的資料污染現象。大模型在預訓練階段通常會廣泛抓取公開網頁資料 。而如今的網際網路上已經包含了大量由各種先進AI生成的文字和答案。後來者的模型在吸收這些公開資料時,不可避免地會間接受益於前沿模型的知識。這種並非出於主觀故意的被動吸收,使得區分惡意蒸餾與常規資料訓練變得異常困難。
模型蒸餾作為推動人工智慧向高效化、輕量化發展的有效路徑,其本身是具有技術合理性的創新手段,無需也不應受到不合理的法律過度限制。綜合Anthropic的侵權指控,其將面臨權利基礎薄弱、合理使用抗辯、以及嚴苛舉證責任的多重困境,其法理根基是非常脆弱的。
剝開法律與技術的層層外衣,我們不難推斷,為了打壓中國的新型競爭對手並維持高昂的資本估值,Anthropic不惜將純粹的技術競爭強行上升到國家安全問題,以迎合美國現政府的政策口徑,以此換取更寬鬆的監管環境以及持續不斷的政府訂單輸血。
透視Anthropic此次高調的指控,我們更應警惕其中潛藏的雙重標準:矽谷的科技巨頭們最初賴以起家的基座模型,正是建立在未經授權、大規模抓取網際網路公開資料的基礎之上;而如今,當它們形成了事實上的技術壟斷後,卻試圖通過一紙的使用者協議關上大門,將後來者合法的蒸餾學習污名化為偷竊。正如埃隆·馬斯克所嘲諷的那樣,這種“只許矽谷‘偷資料’,不許中國‘做蒸餾’”的做法,其實質是打著保護智慧財產權的幌子,行技術霸權與數字壟斷之實。 (騰訊科技)