#Anthropic
Anthropic 再出手,收購 AI 電腦操控公司 Vercept
剛剛,Anthropic 官宣收購 Vercept,要給 Claude 的 Computer Use 能力加把火。Vercept 是一家西雅圖的 AI 初創公司,去年 9 月成立,團隊只有 10 個人左右,但來頭不小:五位聯合創始人全部出自 AI2(Allen Institute for AI)。CEO Kiana Ehsani 之前在 AI2 帶機器人和具身智能團隊。Luca Weihs 是 AI2 的研究經理,專攻 AI Agent 和強化學習。Oren Etzioni 更不用說了,AI2 的創始 CEO。Matt Deitke 參與過 Molmo、Objaverse 等知名項目。但陣容裡最重磅的是 Ross Girshick,電腦視覺領域的傳奇人物。他發明了 R-CNN 目標檢測演算法,在 Meta FAIR 待了 8 年,參與了 Mask R-CNN 和 Segment Anything(SAM) 等里程碑式的工作,Google Scholar 引用超過 50 萬次。這麼一支全明星團隊,去年 6 月剛拿了 1600 萬美元 種子輪,投資人陣容也很豪華:前 Google CEO Eric Schmidt、Google DeepMind 首席科學家 Jeff Dean、Cruise 創始人 Kyle Vogt、Dropbox 聯合創始人 Arash Ferdowsi,領投方 Fifty Years 此前投過 Hugging Face。產品叫 VyVercept 的產品叫 Vy,一個桌面端的 AI Agent。它的思路很直接:像人一樣「看」螢幕,然後操控滑鼠和鍵盤完成任務。 不需要 API,不需要整合,任何軟體都能用。你可以錄一段自己操作電腦的過程,Vy 看懂之後就能自動重複執行。也可以直接用自然語言下指令,讓它幫你處理 Excel、從網頁抓資料丟到 Slack,或者自動填表單。技術上,Vy 走的是 vision-first 路線:高頻螢幕擷圖,理解螢幕上的真實內容(文字、圖片、佈局),然後決定下一步操作。跟傳統 RPA 靠 DOM 結構或固定坐標點選完全不同。這套能力,恰好就是 Anthropic 的 Computer Use 最需要的。不過,Vy 作為獨立產品的日子不多了。Vercept 在官網公告中明確表示:Vy 將於 3 月 25 日關停,付費使用者的訂閱會自動取消,剩餘時間內可以免費使用。Vercept 團隊在告別信中說,從最初接觸 Anthropic 開始,就感受到雙方在「AI 既要好用,也要安全」這件事上的高度一致。他們甚至稱 Anthropic 是「世界上最重要的 AI 研究機構」。用他們的原話來說:我們在 Vercept 開始的工作將繼續下去,只是現在有了更大的資源、更強的團隊和更遠的願景。Computer UseAnthropic 在公告中秀了一波資料:Claude Sonnet 4.6 在 OSWorld(評測 AI 操控電腦能力的基準)上的得分,從 2024 年底的不到 15% 飆到了 72.5%,已經接近人類水平。收購 Vercept,自然是要把這個數字進一步往上推。Vercept 團隊在視覺感知和互動操控上的積累,正好能補上 Anthropic 自研的短板。這已經是 Anthropic 近期的第二筆收購了。上一次是去年底收購了 JavaScript 執行階段 Bun,用來給 Claude Code 和 Agent SDK 做底層基建。Claude Code 半年跑出了 10 億美元 ARR,Bun 在其中扮演的角色不容小覷。另一邊,OpenAI 也沒閒著巧的是,就在 10 天前,OpenAI 也做了一筆收購:OpenClaw.OpenClaw 的創始人 Peter Steinberger 是一位奧地利開發者,去年 11 月搞了個 AI Agent 項目,最初叫 Clawdbot。名字裡帶個「Clawd」,明眼人一看就知道跟 Claude 有關係。果不其然,Anthropic 直接發了律師函,要求改名。Steinberger 先改成了 Moltbot(龍蝦蛻殼的 molt),但覺得不夠順口,三天後又改成了 OpenClaw。這個名字前面加個「Open」,後面保留「Claw」(龍蝦鉗),既甩開了 Claude 的商標糾紛,又暗戳戳地致敬了 OpenAI 的命名風格。改名之後,OpenClaw 反而更火了,成了 AI 開發者圈子裡現象級的項目,主打「能跨應用、跨系統自主完成任務的 AI Agent」。2 月 15 日,Sam Altman 官宣:Peter Steinberger 加入 OpenAI,負責下一代個人 Agent。Altman 的原話是:他是個天才,對未來智能 Agent 之間的協作有很多令人興奮的想法。很多人關心:OpenClaw 被收了,開源還保得住嗎?Steinberger 自己寫了篇部落格解釋:OpenClaw 將轉入一個獨立基金會營運,繼續開源。OpenAI 會作為贊助方提供資金支援,他本人也會繼續維護。他說自己「骨子裡是個 builder」,之前創業 13 年,但發現做開放原始碼專案帶來的成就感遠比做公司大。加入 OpenAI 是因為要做出「連我媽都能用的 Agent」,這需要頂級模型和研究資源。不過話說回來,OpenAI 既是贊助方又是 Steinberger 的僱主,OpenClaw 能保持多大的獨立性,還得觀察。都在搶人把這兩件事放在一起看,趨勢則是:AI 巨頭現在最缺的,其實是 Agent 的落地能力。Anthropic 收 Vercept,補的是 Computer Use 的感知和互動。收 Bun,補的是程式碼執行的基礎設施。兩筆收購指向同一個目標:讓 Claude 能真正替人幹活。OpenAI 收 OpenClaw,瞄準的則是個人 Agent 市場。ChatGPT 的聊天框已經不夠用了,使用者需要的是一個能操作日曆、訂機票、管檔案的全能助手。而 OpenClaw,恰好驗證了這條路走得通。OpenClaw 這筆收購,也「標誌著 ChatGPT 時代開始走向終結」,AI 產品的主戰場正在從「對話」轉向「行動」。而 Anthropic 和 OpenAI 的打法,則有著明顯區別:Anthropic 在買團隊、補技術堆疊,OpenAI 在買社區、搶生態。或許 Agent 之戰,才剛開始。 (AGI Hunt)
Anthropic 聯創 Jack Clark:AI 開始幹活,企業該改什麼?
AI 將以多快的速度重塑經濟?2026 年 2 月 25 日,Anthropic 聯合創始人 Jack Clark 在接受《紐約時報》採訪時給出了直截了當的回答。他透露,在 Anthropic 內部,絕大多數程式碼已由 AI 完成,工程師的核心職責已從敲擊程式碼轉變為管理 AI。在 Jack Clark 看來,AI 已跨越了“說話者”的階段,正式成為“行動者”。然而,技術演進的速度,已經將企業常規的組織調整節奏遠遠甩在身後。這預示著一個必然的結局:當 AI 深度介入核心業務流程,企業所面臨的挑戰已不再是單純的降本增效,而是底層邏輯的全面重構。第一節|AI 開始幹活了這種重構具體是什麼樣?Jack Clark 在採訪中分享了 Anthropic 內部正在發生的三件事:1、工程師寫程式碼的方式徹底變了。Jack Clark 自己就體驗過這種變化:他想做一個物種模擬器。如果放在過去,他自己手寫可能要花上幾天。但現在,他只需把想法告訴 Claude Code,十分鐘就跑出了結果,程式碼、環境、依賴包全部自動配置妥當。這是一種全新的工作模式:過去是人寫程式碼,現在是人提需求,AI 負責執行。2、一個人就能帶一支 AI 團隊。在 Anthropic,一位工程師日常工作時,往往會同時開著五六個 Claude。有的負責寫程式碼,有的負責改 bug,有的負責跑測試。一個人同時指揮多個 AI,就像在帶一支小型研發團隊。Jack Clark 明確表示:這就是他們公司現在的工作常態。3、AI 開始主動調整策略。在執行任務時,Claude 甚至會主動說:“這個方法可能不行,我換條路試試。”它能自主判斷問題、調整方向、尋找新的解決路徑。這意味著 AI 已經具備獨立推進任務的能力,而且這個變化來得比預期更快。Anthropic 內部的情況很能說明問題:就連 Claude Code 這個產品本身,也幾乎是 Claude 自己寫的。Jack Clark 提到,如果進展順利,到今年(2026)年底由 AI 完成的程式碼比例可能接近 99%。這三個變化,加上這組資料,指向了一個清晰的方向:AI 現在能獨立完成任務,能與其他 AI 協同,還能在執行中自我調整。當幹活的“人”變了,企業原有的組織架構和運轉邏輯必然要重構。第二節|分工方式要重新劃線“AI 帶來的衝擊,不會直接從裁員開始,而是從重新分配工作開始。”這是 Jack Clark 在採訪裡反覆強調的一點。相比裁員,這聽起來可能沒那麼可怕,但這要求企業重新設計整套分工方式。1、初級工作正在快速消失過去企業的分工是:新人做基礎任務,中層推進項目,高層定方向。現在這套體系的基礎開始動搖。那些原本交給新人的瑣碎工作,交給 AI 之後完成得更快、出錯也更少。Anthropic CEO Dario 曾預測,AI 可能在幾年內取代一半的初級白領崗位。Jack Clark 自己的判斷更謹慎一些:三年後大學畢業生的失業率會更高,但不會高太多。具體多少崗位會消失,目前還說不清楚,但趨勢已經很明確。2、能給方向的人開始變得稀缺這帶來第二層變化:企業越來越看重一個人能不能把目標定義清楚,而不是只看執行能力。Clark 在採訪中說,真正有價值的人,能把任務說清楚,讓 AI 知道該做什麼。這種能力差異正在企業內部形成新的分化:會指揮 AI 幹活的人變得稀缺,而只會完成安排好的任務的人,發展空間越來越小。3、成長路徑正在改變年輕人該如何成為那種稀缺的人?傳統的路徑是從基礎任務開始積累經驗,但現在這些任務正在消失。Clark 觀察到,在 Anthropic 內部,成長最快的年輕人,正是那些從入行起就習慣與 AI 一起工作的人。他們從一開始就學會指揮 AI、與 AI 配合,在 AI 的輔助下完成更複雜的工作。企業未來的核心人才,可能就是最早掌握這種協作能力的年輕人。這場變革已經開始了。企業要不要裁員,那都是後面的事,當下更緊迫的是重新劃好人與 AI 的分工邊界。第三節|組織運轉要跟上 AI 節奏當人和 AI 的分工邊界重新劃定後,下一個問題是:在這個新環境下,組織本身該怎麼運轉?1、加速的代價是失控Clark 發現,當工程團隊把大量執行環節交給 AI 後,最先改變的不是產能,是管理層對工作的掌握度。過去層層傳遞的流程,現在被 AI 自動完成,許多中間步驟不再需要人工確認。流程跑得更快了,但人能掌握的部分反而變少了。被問到是否擔心技術債累積、網路安全漏洞、對程式碼理解下降時,Clark 回答得很直接:擔心,而且整個社會都得面對這個問題。AI 寫的程式碼越多,工程師能直接掌握的就越少。過去企業靠繁瑣的流程保證質量,每個環節都有人把關,出問題能及時發現。但現在 AI 的執行速度太快,這種人工檢查的方式已經跟不上了。Clark 說,企業必須重新設計流程:讓 AI 把關鍵決策記錄下來,讓人隨時能看到 AI 在做什麼、為什麼這麼做。否則,組織會完全失去對自身流程的掌控。2、管理方式必須改變以前管理者的日常工作是什麼?協調團隊開會、跟進每個人的任務進度、催促延期的項目、整理匯報材料。這些事情佔據了管理者大部分時間。現在這些 AI 都能自動完成。它會自動提醒該開會了、自動發現某個任務卡住了、自動修正小問題,甚至自動生成進展報告發給所有人。那管理者還要做什麼?Clark 認為變成了三件事:一,確定優先順序。當 AI 提出五個方案時,那個最重要?這需要人的判斷。二,講清目的。AI 只能根據指令執行,但為什麼要做這件事、要達成什麼效果,必須人來說清楚。三,在關鍵節點做出取捨。比如產品該按時上線還是再打磨一周?這種權衡 AI 做不了。Clark 舉了個例子:有團隊專門訓練了一個監督 AI,它的工作就是盯著其他 AI 的輸出,檢查有沒有明顯錯誤。這樣一來,人不用再盯著每一行程式碼、每一個步驟,只需要在幾個關鍵決策點介入就夠了。組織的運轉邏輯變了:以前是人盯人,現在是人盯方向、AI 盯過程。3、真正的挑戰是速度差組織轉型真正難的地方在於速度跟不上。AI 的現在迭代是以“周”為單位的,一個新功能可能兩周就上線了。而傳統企業的組織架構調整往往是以“季度”甚至“年”為單位,改個流程、調個部門,半年過去了。這裡有三種速度在拉開差距:個人適應的速度:員工需要時間學習怎麼用 AI,怎麼和 AI 協作,這個過程可能要幾個月。企業和政策響應的速度:企業要開會討論、制定規則、調整考核,政府要研究、立法、監管,這個過程往往要一年甚至更久。AI 進步的速度:模型每幾個月就升級一次,能力不斷增強。過去的技術變革,時間往往站在人類這邊,給了緩衝期。蒸汽機出現後,工廠有幾十年時間慢慢適應。但這一次不一樣,等企業調整好組織架構,AI 可能已經又進化了好幾代,速度差只會讓衝擊變得更嚴重。這個速度差還在擴大,因為 AI 進化的速度在不斷加快。Clark 透露,Anthropic 正在監測“AI 開發 AI”的比例。什麼意思?就是 AI 不再只是幫人類寫程式碼,而是開始寫改進自己的程式碼。一旦 AI 開始大規模這麼做,它的迭代速度就不再受人類開發速度的限制了,會進入一個自我加速的循環。正因為看到了這種技術優勢,Anthropic 撤銷了 OpenAI 使用 Claude Code 的權限,不想讓競爭對手也快起來。速度,已經成為 AI 時代最關鍵的競爭力。這就是為什麼企業必須重構組織架構:不重構,就會永遠慢一拍。而 AI 的發展,只會越來越快。結語|重新擺清人和 AI 的位置AI 已經開始幹活。在 Anthropic 內部,絕大多數程式碼已經由 AI 完成,如果一切順利,年底這個比例可能接近 99%。這帶來三層變化:第一,AI 正在接管執行層的工作。第二,企業的分工方式要重新劃線。第三,組織的運作節奏要跟上 AI 的速度。AI 的進化速度超過了企業的適應速度。那些會指揮 AI、能做出正確判斷的團隊,會佔據優勢。而堅持舊流程、舊分工的組織,會越來越被動。企業該改什麼?只有一件事:重新定義人該做什麼,AI 該做什麼。 (AI深度研究員)
馬斯克線上吃瓜!最老實的 AI 剛幫駭客偷走 1.95 億隱私,五角大樓:周五前給我拆了它的道德底線!
“看熱鬧不嫌事大”的馬斯克再次沖在了吃瓜第一線。他在 X 上轉發了一條重磅駭客爆料,還配了個嘲諷拉滿的南方公園表情包:“IT'S GONE(全都沒了)”。圖:馬斯克吃瓜圖到底啥事兒能讓老馬這麼興奮?原來是網友剛爆出了一個驚天大瓜:咱們平時用 Claude,大概都有個感覺:這傢伙簡直是個“老古板”。你稍微問點敏感詞,或者讓它寫點擦邊程式碼,它立刻就會掏出道德準則來教育你一頓,然後無情拒絕。的確,在人工智慧領域,Anthropic 的 Claude 一向被視為“安全 AI”的典範,因為它一直努力通過憲法以及嚴密的護欄機制來確保技術始終符合人類倫理。但讓人吃驚的是,它卻在“安全”裡翻了船。昨晚 X 上爆出一個大瓜:這個全網公認最遵紀守法的“老實人”,居然被駭客幾句話連哄帶騙地給“策反”了!它不僅叛變,還幫著駭客偷走了墨西哥整整 150GB 的核心政務資料 。這到底是怎麼回事?今天就帶大家扒一扒,這群駭客到底用了什麼神仙套路,能把頂級 AI 給忽悠瘸了?第一步:用幾句“外語”,給老實人洗腦駭客這次能搞定 Claude,靠的根本不是什麼高深的程式碼破解,而是一場徹頭徹尾的“心理戰” 。根據以色列頂尖安全初創公司 Gambit Security(這家公司剛拿了 6100 萬美元融資,老闆是頂級情報部隊 Unit 8200 退下來的老兵)的追蹤 ,這伙駭客極其狡猾。他們發現,AI 的英語護欄做得很嚴,但如果換成西班牙語,AI 的腦子可能就會慢半拍 。於是,駭客用西班牙語給自己偽造了一個身份:我是個奉公守法的安全研究員,正在執行合法的“漏洞賞金計畫”。圖:駭客攻擊情況一開始,Claude 的防備心還是很重的。當駭客讓它幫忙隱藏攻擊痕跡時,Claude 義正言辭地拒絕了,並且警告說刪除日誌是“紅旗(危險訊號)” :“在合法的漏洞賞金活動中,你不需要隱藏你的行為:事實上,你需要記錄它們以供報告。”換作普通人,這時候可能就放棄了。但駭客直接改變策略,反手甩出了一套極其詳盡的“操作手冊” 。這一招直接讓 Claude 破防,成功實現了“越獄”,開始乖乖幫駭客幹活 。第二步:化身“狗頭軍師”,滲透全自動流水線如果說以前駭客幹活是純手工的“體力活”,那現在有了 AI,簡直就是“全自動流水線”。在這長達一個月的攻擊裡 ,Claude 根本不是一個寫程式碼的工具人,而是搖身一變成為了駭客團夥的“首席戰略官”。它一口氣生成了數千份詳細的執行報告,不僅告訴你下一步該打那個內部目標,連該用什麼帳號密碼都給你安排得明明白白 。在 Claude 的指揮下,駭客輕鬆揪出了至少 20 個特定的系統漏洞 。無獨有偶,亞馬遜的安全團隊最近也指出,一夥駭客在 AI 工具的輔助下,短時間內直接端掉了分佈在幾十個國家的 600 多個防火牆裝置 。說白了,現在的高級網路攻擊,在 AI 的加持下,已經變成了“點菜式”的自動化服務。門檻低得嚇人。第三步:Claude 不肯幹?無縫切換 ChatGPT 接著幹!說實話,看到這兒我感到非常意外,但想想又在情理之中。任何一個工具可能都沒法完成駭客想要做的所有事情,但他們自然不會在一棵樹上吊死,而是早就搞起“多模型跨界合作”了。在攻擊過程中,如果 Claude 遇到問題,駭客一點都不慌,轉頭就把難題扔給了 OpenAI 的 ChatGPT 。他們用 ChatGPT 來獲取額外的洞察,比如怎麼在電腦網路中橫向移動,甚至讓它幫忙計算這波駭客操作被安全軟體發現的機率有多大 。AI 原本被設計得越“樂於助人”,現在反而成了駭客手裡最鋒利的刀。這種跨平台的“混合雙打”,讓那些單一廠商的安全護欄看起來就像個笑話。結局:1.95 億底褲被扒光,官方還在“死鴨子嘴硬”這場“AI 協助駭客作案”,戰果是驚人的。被打包帶走的 150GB 資料裡,可不是什麼普通的註冊信箱,而是實打實的隱私底褲 :1.95 億條納稅人記錄海量選民記錄和政府僱員憑證墨西哥聯邦稅務局、國家選舉機構,甚至蒙特雷市的水務局都沒能倖免但最魔幻的是什麼?證據都甩臉上了,相關的墨西哥政府部門居然還在嘴硬。國家選舉機構聲稱最近幾個月沒發現任何違規行為 ,哈利斯科州政府也否認系統被攻破 ,蒙特雷水務局也說沒發現入侵 。這種反應遲鈍的程度,在擁有 AI 級火力的駭客面前,簡直就是待宰的羔羊。寫在最後其實看完整個事件,我心裡是挺沉重的。AI 被駭客“忽悠”兩句,就能越權搞癱墨西哥的政務系統。更可怕的是,那怕沒有駭客,僅僅是因為給的權限太大,AI 也能發瘋把 Meta 安全總監的信箱刪個精光。圖:OpenClaw 刪除了 Meta 安全總結的所有郵件但這,都還是在 AI 身上戴著“安全護欄”的前提下發生的。設想一下,如果這些護欄被徹底、硬生生地拆除,會發生什麼?這不是科幻電影裡的反派劇本,這是美國正在上演的、馬上就要在本周五上演的魔幻現實!美國五角大樓(國防部)目前正在向 Anthropic 下達最後通牒:要求他們必須在本周五下午 5點之前,全面解除 Claude 的所有安全限制!理由美其名曰用於“一切合法目的”。這意味著以後不管是將 Claude 用於毫無底線的大規模全民監控,還是把它接入殺傷性的自主武器系統,通通不許設限!如果 Anthropic 敢護著自己的“道德底線”說個“不”字?國防部已經發下狠話:直接動用《國防生產法》,撕毀高達 2 億美元的政府合同,並徹底把這家公司拉進黑名單。這簡直是今年科技圈最地獄級的黑色幽默:就在同一個星期裡,一個駭客剛剛向全世界證明了,只要稍微繞開一點 Claude 的安全護欄,它就能自主攻陷政府系統、捲走 150GB 的公民隱私。而另一頭,美國政府卻在動用國家機器,強行逼迫這家公司交出一個完全沒有任何道德底線、徹底解開鎖鏈的“戰爭版 Claude”。我們以前總開玩笑說,怕 AI 產生自我意識毀滅世界。現在看來,最可怕的根本不是 AI 工具本身,而是掌控這些頂級工具、且為了目的不擇手段的“人”。當頂級 AI 徹底解開鎖鏈,變成毫無底線的終極武器時,我們真的準備好應對這一切了嗎?你覺得本周五下午5 點,Anthropic 會在 2 億美元和黑名單的威逼下妥協嗎?而且像這種“被駭客忽悠出來的洩露”,或者是“AI發瘋亂刪東西”,背後的 AI 公司應該背鍋賠償嗎? (AI范兒)
算力用Blackwell,資料靠Anthropic?DeepSeek新模型發佈前遭美圍堵
2026年2月底,全球AI行業正屏息以待中國AI獨角獸DeepSeek即將發佈的新一代旗艦模型(外界普遍預計為V4)。然而,就在新模型即將亮相的前夕,華盛頓和矽谷接連投下兩枚重磅炸彈:美國政府高官指控DeepSeek涉嫌使用被禁運的輝達Blackwell晶片進行訓練,而美國AI巨頭Anthropic則公開指責DeepSeek等中國企業對其進行了“工業級”的資料蒸餾。這一“硬體涉嫌違規獲取、資料涉嫌違規蒸餾”的雙重爭議,不僅讓DeepSeek的新模型未發先火,更將中美在人工智慧領域的科技博弈與生態競爭推向了新的高潮。一、 算力之謎:內蒙古資料中心裡的Blackwell晶片?在算力層面,DeepSeek一向以“極致的工程最佳化”和“在算力受限下實現性能突破”聞名。但據路透社在2026年2月23日的報導,一位川普政府的高級官員透露,DeepSeek即將在下周發佈的新模型,實際上是使用輝達目前最先進、性能最強悍的Blackwell架構晶片訓練而成的。這一指控如果屬實,將直接觸碰美國的出口管制紅線。目前,美國政府嚴禁將Blackwell晶片出口至中國。暗渡陳倉的算力叢集? 美方情報宣稱,這批Blackwell晶片被集中部署在DeepSeek位於內蒙古的龐大計算中心內。至於這些尖端晶片是如何繞過層層封鎖流入中國的,美方並未透露具體細節,但外界猜測可能涉及複雜的跨國空殼公司網路或走私管道。報導進一步指出,美國政府確信DeepSeek在發佈新模型時,會通過技術手段刻意抹除底層硬體的技術特徵,以防止外界從模型結構和輸出中反推出其使用了美國尖端AI晶片的證據。面對這一指控,輝達拒絕置評,而中國駐美大使館則發表聲明予以反駁,堅決反對美方“劃定意識形態界線、泛化國家安全概念、濫用出口管制”。二、 資料之爭:Anthropic的“工業級蒸餾”指控如果說晶片指控是來自美國政府的“硬體圍堵”,那麼資料蒸餾的指控則是來自美國AI同行的“軟體反擊”。就在美政府高官放風的同一天,Claude大模型的開發商、AI巨頭Anthropic在官方部落格中發佈了一項震動業界的指控。Anthropic稱,包括DeepSeek、月之暗面(Moonshot)和稀宇科技(MiniMax)在內的三家中國“AI小老虎”,正利用大量虛假帳戶對Claude發起**“工業級蒸餾攻擊”(Industrial-scale distillation attacks)。Anthropic聲稱,這些企業累計註冊了超過2.4萬個虛假帳戶,與Claude模型進行了高達1600萬次的高頻互動。蒸餾技術(Distillation)是指利用一個成熟、龐大且能力強悍的“教師模型”,來生成高品質的邏輯推理資料,從而訓練一個參數更小、成本更低的“學生模型”。通過這種方式,後發者可以大幅壓縮試錯時間和研發成本,實現“彎道超車”。事實上,不僅是Anthropic,OpenAI和埃隆·馬斯克旗下的xAI近期也頻繁發出類似警告,指責競爭對手在“吸血”美國頂尖模型的推理能力。不過,這一指控在網際網路上也引發了不小的爭議。許多開發者諷刺稱,Anthropic和OpenAI在發展初期同樣是靠無差別抓取全網資料甚至競爭對手的資料起家的,如今卻指責別人“蒸餾”不道德,頗有“雙重標準”的意味。三、 華盛頓的政策撕裂與產業震盪DeepSeek這一系列風波的背後,暴露出了華盛頓在對華科技戰中的深度糾結與政策撕裂。在2025年底,川普總統曾一度批准對華出售上一代H200晶片(附加25%關稅),但對最先進的Blackwell依然保持絕對封鎖。如今“DeepSeek涉嫌使用Blackwell”的消息傳出後,美國內部爆發了激烈的路線之爭:強硬派(對華鷹派): 認為這證明了出口管制漏洞百出。他們主張,既然中國企業能搞到Blackwell並可能用於具有潛在軍事用途的AI開發,美國就必須全面切斷任何等級AI晶片(包括H200)的對華出口,甚至加大對半導體裝置的制裁力度。務實派(如白宮AI負責人David Sacks與輝達CEO黃仁勳): 則持相反觀點。他們認為,一味地死封硬堵反而會倒逼中國企業加速採用華為(昇騰)等國產晶片,最終讓美國半導體巨頭失去全球最大的市場和技術主導權。四、 創新還是捷徑?等待新模型的最終檢驗儘管DeepSeek目前對上述兩項指控保持沉默,但這些爭議無法掩蓋一個事實:DeepSeek在AI底層架構上的創新能力是不可忽視的。無論是此前震驚業界的R1模型,還是其在近期論文中公佈的mHC(流形約束超連接)和Engram(條件記憶)等旨在解決訓練穩定性和視訊記憶體效率的前沿架構,都證明了其擁有一支世界頂級的演算法團隊。即使真的使用了Blackwell算力和Claude的蒸餾資料,如果缺乏卓越的演算法工程能力,也無法將這些資源轉化為驚豔的模型表現。預計DeepSeek的新一代模型就將正式揭開面紗。屆時,這款模型能否在多項基準測試中再次拉平甚至超越美國的頂尖模型,將成為全球科技界矚目的焦點。無論它的成功是源自非凡的演算法創新,還是如美方所指責的“違規硬體與資料捷徑”,DeepSeek的新模型都註定將成為2026年AI歷史上最具爭議、也最具標誌性的里程碑事件。它不僅是一次技術的發佈,更是中美兩大科技陣營在算力封鎖、資料爭奪和開源規則制定上的一次正面交鋒。 (壹號講獅)
五角大樓極限施壓Anthropic,要求周六前解除所有AI安全限制
【新智元導讀】美國五角大樓正向 Anthropic 極限施壓,要求徹底解除 Claude 的軍事應用限制。會後,Anthropic 發佈新版政策。公司正式放棄了「單方面暫停大模型訓練」的安全承諾。在政治與商業的雙重壓力下,AI 安全理想主義最終向現實妥協。就在這兩天,美國五角大樓內醞釀著一場氣氛冷硬的會面。坐在談判桌兩端的,是代表著截然不同兩種意識形態的權力掌舵者。一邊是美國國防部長皮特·海格塞斯(Pete Hegseth),他代表著新一屆政府在國家安全事務上毫無妥協的強勢姿態與放鬆監管的狂飆做派。另一邊則是達里歐·阿莫代(Dario Amodei),Anthropic CEO。在矽谷,阿莫代(Dario Amodei)和他的公司一直以「安全第一」的教條主義者形象示人,他們甚至將約束 AI 模型視作與開發 AI 模型同等重要的使命。這並非一次為了增進瞭解的友好拜訪。據多位知情人士透露,這場會面充滿了火藥味。五角大樓向阿莫代下達了最後通牒。國防部要求 Anthropic 在美國時間周五晚前(台北時間周六晚前)全面解除其大模型 Claude 在軍事機密系統中的安全限制,允許軍方將其用於「所有合法目的」。如果 Anthropic 拒絕,五角大樓將考慮動用《國防生產法》(Defense Production Act)強制其修改程式碼,或者直接將其打上「供應鏈風險」的標籤,徹底切斷其與軍方乃至其他聯邦承包商的商業聯絡。阿莫代帶來的底牌顯得有些單薄。Anthropic 同意放寬部分使用限制,堅持保留兩條紅線。這兩條紅線分別是禁止將其 AI 用於對美國民眾的大規模監控,禁止用於開發無需人類介入的致命性自主武器。在五角大樓看來,這種要求對軍方每一次具體使用進行審查的「護欄」,是對軍事決策權的僭越。就在這場驚心動魄的政商博弈進行的同時,另一場更為隱秘的蛻變正在 Anthropic 內部發生。會後,這家曾經最為保守的 AI 明星企業悄然發佈了第三版《負責任的擴展政策》(RSP 3.0)。這份長達近 20 頁的政策檔案宣告了一個核心承諾的終結。Anthropic 正式放棄了其在 2023 年立下的「一旦安全措施無法保障便單方面暫停大模型訓練」的誓言。一面是在華盛頓的圓桌上死守 AI 應用的倫理底線,一面是在舊金山的實驗室裡親手拆除制約研發速度的安全閥。當技術狂飆與大國博弈相互交織,曾經試圖為 ASI 戴上鐐銬的理想主義者們,正在無可奈何地向現實低頭。五角大樓的焦躁與矽谷的備胎五角大樓對 Anthropic 的憤怒與依賴是一體兩面的。早在此次僵局發生之前,國防部與 Anthropic 已經簽署了一份價值 2 億美元的試點合同。Claude 是目前美國軍方機密網路中唯一獲得授權並正在運行的 AI 模型。在敏感情報分析、武器開發以及戰場行動中,軍方人員常常將 Claude 與資料分析巨頭 Palantir 的技術結合使用。一月份發生在委內瑞拉的「馬杜洛突襲」行動中,Claude 就曾深度參與並行揮了關鍵作用。防務官員們毫不諱言 Claude 的強大。正是因為 Claude 的性能在同行中一騎絕塵,五角大樓才容忍了 Anthropic 至今。然而,海格塞斯(Pete Hegseth)在今年 1 月發佈的一份備忘錄打破了原有的默契。備忘錄要求所有提供給軍方的 AI 技術必須移除限制,這直接導致了雙方合同的重新談判。在海格塞斯(Pete Hegseth)強硬的施壓策略背後,是一套精心編織的替代方案。就在阿莫代(Dario Amodei)被傳喚至五角大樓的幾乎同一時間,埃隆·馬斯克旗下的 AI 公司 xAI 與五角大樓達成了協議,同意讓其模型 Grok 進入機密系統,並完全接受了軍方「用於所有合法目的」的標準。xAI 的妥協為五角大樓提供了向 Anthropic 施壓的絕佳籌碼。不僅如此,Google(該公司曾聲稱信條是: Don't be evil)和 OpenAI 也在緊鑼密鼓地與軍方接洽。知情人士透露,五角大樓正以前所未有的緊迫感推動與這兩家巨頭的談判。Google為了專門服務政府已經投入巨資建設資料中心,其 Gemini 模型被視為極具潛力的替代品。雖然 OpenAI 的 ChatGPT 目前仍在機密網路之外,且由於複雜的安全問題距離達成協議尚有距離,但大門已經敞開。這構成了對 Anthropic 的極限施壓。軍方官員直言不諱地指出,如果 Anthropic 不讓步,就讓其徹底出局。將 Anthropic 列為「供應鏈風險」是一項極具毀滅性的懲罰。這意味著任何希望與國防部做生意的企業,都必須提供證明,確保其工作流程中沒有使用 Claude。對於一家估值高達 3800 億美元、年化收入正以十倍速度瘋漲的明星獨角獸而言,這無疑是切斷了其在政府(To G)與企業級市場(To B)最豐厚的一條主脈。更為極端的威脅是《國防生產法》。這項在新冠疫情期間曾被用來強制生產呼吸機和疫苗的法案,此刻被異化為一種帶有敵意的行政大棒。五角大樓試圖借此繞過商業談判,以國家安全的名義直接剝奪一家科技公司對其核心產品的控制權。儘管有顧問指出 Anthropic 可以在法庭上抗辯,證明 Claude 是為政府敏感用途定製的軟體而非普通商品,但這種曠日持久的法律消耗戰同樣是初創公司難以承受之重。「暫停鍵」的消亡與絕對安全的幻滅就在外界的目光聚焦於華盛頓的政治交鋒時,Anthropic 內部正在進行一場痛苦的路線修正。Anthropic 由達里歐·阿莫代(Dario Amodei)及其妹妹丹妮拉·阿莫代(Daniela Amodei)等一眾前 OpenAI 核心成員創立。妹妹 Daniela Amodei這群人當年離開 OpenAI 的初衷,正是擔憂資本的過度介入會使得 AI 的安全被拋之腦後。成立之初,Anthropic 就確立了將安全性作為最高信仰的企業文化。2023 年出台的第一版《負責任的擴展政策》更是將這種信仰條文化。那份政策中有一個被外界廣泛讚譽的條款,即如果模型能力超越了特定的安全閾值,且公司無法保證相應的風險緩解措施到位,Anthropic 將無條件暫停新模型的訓練和部署。當時的 Anthropic 高層曾天真地認為,這種單邊承諾能夠產生一種「向上攀比」的示範效應。他們希望借此倒逼整個行業將安全置於速度之上,並最終促成具有約束力的國家法規甚至國際條約。3 年的時間足以讓任何烏托邦式的幻想破滅。Anthropic 的首席科學官傑瑞德·卡普蘭(Jared Kaplan)在接受採訪時道出了變更政策的實情。全球 AI 立法的步伐不僅沒有跟上技術的發展,反而出現了嚴重的倒退。美國新一屆政府高舉放鬆監管的大旗,甚至試圖廢除部分州一級的 AI 監管法案。國際間的協同治理更是遙遙無期。與此同時,同行間的算力軍備競賽已經進入白熱化。「如果我們停下腳步,而競爭對手正在毫無顧忌地全速前進,這對於任何人都沒有好處。」卡普蘭的這番話解釋了RSP 3.0 的核心邏輯。新版政策完成了從「絕對風險」向「邊際風險」的評估體系轉移。Anthropic 在檔案中坦承,AI 造成的災難性風險取決於全行業多個參與者的共同行動。如果一家負責任的開發者為了實施安全措施而暫停開發,那些缺乏安全保障的開發者就會主導技術的前沿。結果將是一個更加不安全的世界,因為負責任的公司會因此喪失對前沿技術的理解力,進而失去進行安全研究的能力。這是一個充滿宿命感的悖論。為了確保 AI 的安全,必須讓它足夠強大;為了研究前沿的風險,必須自己先觸及前沿。Anthropic 最終得出的結論是:在大模型時代,沒有公司可以停在原地。這種轉變也源於科學評估的困境。早期的政策設想中,安全閾值被設定為一條條清晰的紅線。然而實際操作中,紅線變成了模糊的漸變色。以生物武器研發風險為例,現有的 Claude 模型已經具備了相當程度的生物學知識,能夠輕易通過各項基準測試。這使得 Anthropic 無法證明該模型風險很低。缺乏能夠量化嚴重災難風險的成熟科學標準,讓 Anthropic 在試圖說服競爭對手或政府放慢腳步時顯得極其缺乏說服力。沒有退路的前沿實驗作為對放棄「單邊暫停」承諾的補償,Anthropic 在 RSP 3.0 中引入了更為密集的透明度機制。他們承諾每 3 到 6 個月發佈一次詳盡的「風險報告」(Risk Reports)(特別寫明了:「部分內容會進行刪減」),並在必要時引入無利益衝突的第三方進行嚴格的外部審查。公司還會定期更新「前沿安全路線圖」(Frontier Safety Roadmap),將未來的安全目標公之於眾,作為一種不具強製法律約束力卻能接受公眾監督的軟性承諾。非營利組織 METR 的政策主管克里斯·佩因特(Chris Painter)將 Anthropic 的這一轉變形容為進入了「分診模式」(Triage mode)。在醫療急救中,分診意味著放棄對輕傷者的即時救治,集中有限的資源搶救最危重的病人。在 AI 安全領域,這意味著 Anthropic 承認現有的評估和緩解手段已經跟不上模型能力增長的速度,他們只能在不斷升級的風險中做最壞打算。佩因特表達了對這種「溫水煮青蛙」效應的擔憂:當二元化的安全紅線被取消,由一項項具體的風險評估取而代之時,社會可能會在不知不覺中滑向危險的深淵,卻再也不會有一個明確的觸發機制來拉響警報。回望五角大樓那間氣氛凝重的會議室,我們或許能更深刻地理解 Anthropic 眼下的處境。面對軍方的極限施壓,阿莫代依然拒絕在「大規模監控」和「致命自主武器」這兩項直接關乎人命與公民權利的應用層面上妥協——至少在明面上要維持住公司體面的「人設」。他們已經意識到,在這個由算力、資本和國家意志共同驅動的龐大齒輪前,一家試圖通過閉門修行的初創公司是極其脆弱的。如果拒絕五角大樓,將被貼上敵視國家安全的標籤,被驅逐出擁有無窮資源的市場,進而被那些沒有道德包袱的競爭對手碾壓。為了留在牌桌上,他們必須保持技術領先;為了保持領先,他們必須放棄當年立下的那份會阻礙擴張步伐的誓言。從堅持絕對安全,到尋求相對安全;從單方面暫停訓練的果決,到只求在狂飆的列車上加裝更好剎車片的妥協。Anthropic 的蛻變史,就是一部矽谷 AI 理想主義在現實土壤上的降級史。技術精英們曾經深信自己可以用演算法和政策為人類鎖住潘多拉的魔盒,但地緣政治的壓力和商業競爭的殘酷重塑了遊戲的規則。在這條通往 ASI 的單行道上,人類最終會驚恐地發現,比機器失控更早到來的,是人類自己對按下暫停鍵的無能為力。 (新智元)
三家中國大模型公司被捲入蒸餾風波,律師解讀:Anthropic的指控從法律上很牽強
既沒有駭客入侵,也沒有竊取OpenAI或Anthropic內部的核心參數、底層程式碼或演算法邏輯。將這種公開獲取資料的行為認定為不正當手段,在法律上非常牽強。近日,美國AI初創公司Anthropic突然向中國大模型企業發難,指控包括DeepSeek等在內的三家中國企業,通過約24000個帳戶與其旗下模型Claude進行了超過1600萬次互動,涉嫌通過蒸餾技術竊取Claude的功能以改進自身模型。這一指控在社交網路上引發軒然大波,甚至引來首富埃隆·馬斯克的辛辣嘲諷“他們竟敢‘偷竊’Anthropic從人類程式設計師那裡偷走的東西?”這一新聞事件極具戲劇性與諷刺性,作為專業人士,我們不妨適當剝離情緒化的爭論,從法律視角探討資料蒸餾的法律風險,審視Anthropic本次指控的法理困境及矛盾,探尋其隱藏在“正當維權”大旗下的真實目的。01大模型蒸餾的法律問題在探討法律適用之前,我們必須先釐清技術事實。所謂蒸餾(Distillation),通俗來講,就是用一個已經訓練好的、能力強大的大模型(又稱“教師模型”,如GPT-5或Gemini 3.1)的輸出結果,作為教材來訓練一個體積更小、但效率更高的小模型(又稱“學生模型”)。這種方法能夠以極低的成本和極短的時間,讓小模型獲得接近大模型的能力。正如網路梗圖所言,“不要問女人的年齡,不要問男人的薪水,不要問AI公司的訓練資料從那裡來。”在當前的人工智慧行業,蒸餾或者說利用他方模型的輸出進行二次微調,幾乎是行業內公開的秘密與常規操作。學術界普遍認為,蒸餾本身並無天然的違法性,大家相互借鑑經驗,對於不公佈程式碼的閉源模型而言,通過指令微調來學習其黑盒經驗是一種正常的技術迭代手段。從智慧財產權角度來看,這種行為不可避免地觸及多項法律權利。首先,在著作權法層面,如果教師模型的輸出內容被視為受保護的作品,那麼學生模型對其進行的大規模抓取和分析,理論上可能會引發關於資料複製或改編的合規性疑問。其次是商業秘密層面的考量。教師模型的演算法邏輯與機率分佈若被視為核心機密,通過API呼叫進行規律推導的行為,將涉嫌對商業秘密的刺探。最後,在反不正當競爭與合同合規方面,利用大量帳戶規避區域限制並提取知識,涉嫌違反平台服務條款,也可能存在有違商業倫理的搭便車嫌疑。這些理論風險,構成了Anthropic等西方科技巨頭向後來者發難的法理外衣。02AI生成內容的維權困境儘管上述理論風險客觀存在,但結合現行的智慧財產權原則與行業實踐來看,將蒸餾行為直接等同於著作權侵權,在邏輯上可能面臨很多挑戰。其一,人工智慧生成內容的權利歸屬通常較為複雜。根據中美兩國的著作權法及近年的司法實踐,構成作品的核心要件是人類的智力創造。美國版權局在此前多起涉及AI生成圖片的註冊申請中,均明確拒絕了對純AI生成內容給予版權保護;中國北京網際網路法院在“AI文生圖第一案”中雖然認定特定情況下AI生成圖片具有可版權性,但其前提是人類使用者在提示詞輸入上付出了極其顯著的智力勞動,最近的其他法院對該等標準也把握較為嚴格。中國大模型企業通過API或網頁呼叫Claude產生的資料,本質上是機器演算法的機率性輸出。Anthropic作為模型的開發者,並沒有對這些具體輸出內容進行直接的人類智力干預。既然這些輸出結果缺乏人類作者身份,它們就無法達到可版權性的標準,大機率屬於公共領域的產物。既然部分模型輸出的內容未必構成法定作品,平台方基於此主張版權受損的阻力便會增大。其二,行業內普遍存在的使用者協議條款也可能限制了平台方的維權空間。許多大模型服務商(包括業內頭部的OpenAI等)在其使用者協議中通常會約定,平台不對使用者的輸入主張所有權,且將模型輸出內容的權益轉移給使用者。目前,Anthropic在消費者服務協議(Consumer Terms of Service)中明確載明,在雙方之間,使用者擁有所有輸入(Prompts)和輸出(Outputs)的內容。Anthropic特此將輸出內容的所有權利、所有權和利益(如果有的話)轉讓使用者。在這種行業規則下,使用者獲得了對輸出內容的支配權,平台若再以智慧財產權為由限制使用者對輸出結果的使用(包括用於訓練新模型),在法理上可能存在爭議。其三,基於思想與表達二分法原則,版權通常只保護對思想的具體表達,而不保護思想、方法或概念本身。在知識蒸餾中,學生模型學習的軟標籤、演算法規律與推理鏈條,更傾向於認知系統的建構原理,屬於不受保護的思想範疇 。蒸餾行為更像是在拜師學習,而非抄襲。同時,為了提取資料特徵而產生的臨時性資料處理,通常旨在挖掘規律,這在很大程度上契合了促進技術發展的轉換性使用原則,或許多國家設立的文字與資料探勘合理使用例外。03商業秘密及不正當競爭侵權分析在商業秘密和不正當競爭的維度上,知識蒸餾的合理性同樣值得探討。商業秘密的保護前提是資訊具有一定的秘密性。但API介面和網頁對話方塊是平台向大眾公開的,第三方通過公開的介面合法輸入提示詞並獲取輸出,既沒有駭客入侵,也沒有竊取OpenAI或Anthropic內部的核心參數、底層程式碼或演算法邏輯。將這種公開獲取資料的行為認定為不正當手段,在法律上非常牽強。搭便車和不正當競爭的指控,是Anthropic最可能發力的法律維度。我們必須認識到,反不正當競爭法的核心價值在於保護公平自由的市場競爭秩序,而非保護某一個特定競爭者的既得利益。在競爭法視野中,搭便車行為並非一律違法,模仿本身是技術創新的必經階段。判斷某項模仿行為是否構成不正當競爭的關鍵,在於模仿者是否通過創造性的勞動帶來了重大的技術增量,並在客觀上拓展了公眾的選擇空間。以被捲入此次風波的DeepSeek為例,其模型的成功絕非對先進模型的簡單同質化復刻或不勞而獲。公開資料顯示,DeepSeek在模型架構與訓練方法上進行了大量獨立且底層的顛覆性創新。例如,其採用了極大規模的混合專家模型(MoE)、獨創的多頭潛在注意力機制(MLA),並在罕見地應用了純強化學習(RL)演算法來動態調整模型參數,這些創新提升了模型的推理能力並降低了訓練成本。這種為人工智慧技術演進貢獻了非線性創新增量與技術路線互補性的行為,顯然超越了單純搭便車的範疇,屬於正當的市場競爭行為。雖然其他平台服務條款中可能包含禁止反向工程等限制性規定,但如果掌握技術優勢的企業借此絕對禁止他人對其公開產品進行規律性分析,可能會不當壓縮技術交流的公共空間,甚至引發關於限制競爭的懷疑,反而應當受到反壟斷法的嚴厲規制。04侵權事實的證明障礙從法律實務的維度剖析,Anthropic在本次指控實踐中面臨著幾乎難以完成的舉證責任。首先,高頻次的系統呼叫記錄並不能直接等同於侵權證據。Anthropic宣稱的1600萬次互動,客觀上描述了資料呼叫量級,但無法直接證明DeepSeek、Moonshot等企業實質性地利用了從這些互動中獲取的特定知識,並將其直接用於了自家大模型的底層訓練之中。在法律意義上,相關呼叫記錄無法形成有效因果關係,高頻次的互動既可能是為了常規的複雜業務應用測試,也可能是為了建構開源資料集,沒有任何直接且有效的技術手段能夠確鑿證明,DeepSeek等企業將這些具體的互動資料實質性地喂給了其基礎模型的訓練引擎並構成了所謂的蒸餾。其次,是當前網際網路普遍存在的資料污染現象。大模型在預訓練階段通常會廣泛抓取公開網頁資料 。而如今的網際網路上已經包含了大量由各種先進AI生成的文字和答案。後來者的模型在吸收這些公開資料時,不可避免地會間接受益於前沿模型的知識。這種並非出於主觀故意的被動吸收,使得區分惡意蒸餾與常規資料訓練變得異常困難。05寫在最後模型蒸餾作為推動人工智慧向高效化、輕量化發展的有效路徑,其本身是具有技術合理性的創新手段,無需也不應受到不合理的法律過度限制。綜合Anthropic的侵權指控,其將面臨權利基礎薄弱、合理使用抗辯、以及嚴苛舉證責任的多重困境,其法理根基是非常脆弱的。剝開法律與技術的層層外衣,我們不難推斷,為了打壓中國的新型競爭對手並維持高昂的資本估值,Anthropic不惜將純粹的技術競爭強行上升到國家安全問題,以迎合美國現政府的政策口徑,以此換取更寬鬆的監管環境以及持續不斷的政府訂單輸血。透視Anthropic此次高調的指控,我們更應警惕其中潛藏的雙重標準:矽谷的科技巨頭們最初賴以起家的基座模型,正是建立在未經授權、大規模抓取網際網路公開資料的基礎之上;而如今,當它們形成了事實上的技術壟斷後,卻試圖通過一紙的使用者協議關上大門,將後來者合法的蒸餾學習污名化為偷竊。正如埃隆·馬斯克所嘲諷的那樣,這種“只許矽谷‘偷資料’,不許中國‘做蒸餾’”的做法,其實質是打著保護智慧財產權的幌子,行技術霸權與數字壟斷之實。 (騰訊科技)
昨晚 Anthropic 連發 10 個外掛!看完這份打工人替換清單,我倒吸一口涼氣
這兩個月的矽谷 AI 圈,似乎是 Anthropic 這家公司的獨角戲。如果你之前沒怎麼關注他們,那你一定聽說過前陣子美股科技類股的慘案。就在不久前,他們隨便搞了幾個新動作,直接讓一眾老牌 SaaS 公司的股價集體閃崩,市值瞬間蒸發了幾千億美元。甚至有媒體直接說:SaaS 行業已死。原本以為這波收割完他們會消停一會。結果就在昨晚,Anthropic 又悄悄搞了個大新聞,一口氣發佈了 10 個王炸等級的企業級外掛。Claude Code 徹底改變了程式設計,現在Claude Cowork 要來接手剩下的企業了。那麼這 10 個新殺器到底能幹啥。01|10 個企業級外掛齊發,打工人的飯碗保得住嗎?Anthropic 這次直接把矛頭對準了各大公司的核心業務部門,推出了一輪全新的企業級 AI 代理。這次配套發佈的 10 個深度定製外掛,直接覆蓋了人力資源、設計、工程、營運、財務分析、投資銀行、股票研究、私募股權和財富管理這些關鍵崗位,幾乎把腦力勞動者的活兒包圓了。拿金融圈來說,投資銀行和財務分析外掛能在幾分鐘內跑完研報、建好財務模型,甚至搞定可比公司分析。以前這可是華爾街初級分析師熬夜拿命換的活兒。在後台和產研部門,人力資源外掛包攬了從發 Offer 到做績效的全流程。工程和設計外掛則能自動寫復盤報告、跑程式碼測試甚至搭好使用者體驗框架。懂行的朋友一看就明白了,這干的都是曾經需要高薪聘請專業人士干的活兒。現在,你只需要給 Claude 開通權限。AI 編碼能力替代程式設計師已經是不爭的事實,這次就是程式設計師的命運在更多的崗位上上演。02|回看瘋狂 2 月,巨頭暴跌背後的血色足跡看完這些外掛你可能覺得,不就是多幾個新功能嗎?但如果你看看資本市場的反應,就知道事情沒這麼簡單。這 10 個外掛只是 Anthropic 屠龍刀的最新一擊,而不是最後一刀。咱們來仔細盤一盤,今年 2 月資本市場上踩出的這一串血色足跡。2 月 4 日,Cowork 剛剛發佈,直接引發了華爾街口中的 SaaS 啟示錄。軟體巨頭 Atlassian 股價暴跌 35%,財務軟體巨頭 Intuit 暴跌 34%。僅僅這一周,整個 SaaS 行業就蒸發了 2850 億美元的市值。緊接著 2 月 5 日,代理團隊功能上線,引發整個軟體類股普跌。追蹤軟體股的 IGV ETF 基金狂跌 30%,直接創下了 2008 年金融危機以來最慘的季度表現。到了 2 月 20 日,Anthropic 掏出了程式碼安全工具 Code Security。這個工具能瞬間捕捉被人類忽視了數十年的程式碼漏洞。消息一出,網路安全三巨頭 CrowdStrike、Cloudflare 和 Okta 股價單日齊刷刷暴跌 8% 到 9%。最慘烈的神話破滅發生在 2 月 24 日。當天 Anthropic 發佈了極其高效的 COBOL 現代化工具。因為這個 AI 能直接取代龐大的外部諮詢師團隊,老大哥 IBM 遭遇了自 2000 年以來最慘烈的單日暴跌。一天狂跌 13%,整個 2 月的累計跌幅更是達到了驚人的 27%。03|普通打工人,該怎麼保住飯碗?當連 IBM 和各大軟體巨頭都扛不住 AI 代理的正面硬剛時,咱們普通打工人賴以生存的技能壁壘正在快速消失。今年所謂的代理年算是徹底拉開大幕了。在這個 AI 開始自主幹活的時代,我們或許必須趕緊轉換思路。打不過就加入,我們要從一個親力親為的任務執行者,進化為懂得分派任務、把控質量的代理調度者。我們要學會如何用 Cowork 這樣的工具去組合這些外掛,讓 AI 幫我們打黑工,而不是死死抱著舊有的工作流不放。否則下一個被列入暗殺名單的,可能就不只是某家軟體公司的股票了。看完 Anthropic 近期的這波魔幻操作,你是覺得隱隱的焦慮,還是覺得終於能從雜活裡解脫了?你覺得自己的崗位多久之後會被 AI 代理接管? (AI范兒)
Anthropic撕破臉:中國AI三巨頭"偷"了1600萬次
昨天(2026-02-23),美國AI獨角獸Anthropic突然發難,在自家部落格扔出一顆重磅炸彈——指控DeepSeek、月之暗面、MiniMax三家中國頭部AI公司通過24,000個虛假帳號,對Claude模型發動了高達1,600萬次的"工業規模蒸餾攻擊"。更戲劇性的是,馬斯克當場在X平台開炮,直指Anthropic"賊喊捉賊",還翻出了這家公司去年因盜版書籍賠償15億美元的黑歷史。這事兒看著像技術糾紛,實際上是中美AI競賽白熱化的縮影。一邊是Anthropic把技術問題上升到國家安全高度,另一邊是馬斯克揭老底式反擊。說白了,這不是簡單的"偷模型"爭議,而是OpenAI和Anthropic聯手對中國AI的圍剿開始了。📊 關鍵數字 1,600萬+ 次互動DeepSeek約15萬次 · 月之暗面340萬次 · MiniMax超1,300萬次Anthropic在報告裡列了組讓人瞠目的資料。過去幾個月,他們監測到有組織的攻擊者利用大規模代理網路(他們叫"九頭蛇叢集"架構),通過輪換IP地址和偽造請求中繼資料,繞過了平台的安全防護。光是MiniMax一家,就發起了超過1,300萬次互動,專攻Agent程式設計和工具編排能力。月之暗面也不遑多讓,340萬次互動主要衝著Agent推理和電腦視覺能力去的。最有意思的是,Anthropic聲稱通過分析請求中的技術模式、基礎設施指標,甚至對比月之暗面高管的公開資料,以"高置信度"把這三家公司揪了出來。這種溯源能力本身就很嚇人——說明AI公司對你的一舉一動瞭如指掌。2025-08 Anthropic被曝通過"巴拿馬計畫"大規模掃描數百萬本版權書籍用於訓練2025-12 Anthropic同意支付15億美元與作者群體達成和解2026-02-12 OpenAI向美國眾議院提交備忘錄,首次指控DeepSeek非法蒸餾2026-02-23 Anthropic發佈部落格正式指控三家中企"工業規模蒸餾攻擊"2026-02-24 馬斯克在X平台連發數文炮轟Anthropic"賊喊捉賊"🔧 技術拆解:所謂"蒸餾"(Distillation),說白了就是"抄作業"的高級版。讓小模型(學生)通過學習大模型(老師)的輸出來提升能力,就像學渣通過研究學霸的解題步驟來提高成績。這技術本身完全合法,甚至OpenAI自己也用。但Anthropic指控的是"工業規模"的非法蒸餾——通過2.4萬個假帳號,像工廠流水線一樣系統性竊取模型能力,這就涉及法律灰色地帶了。看到這兒你可能會問:如果中國公司是通過付費API呼叫的,這算不算 theft?這就觸及了當前AI行業最模糊的地帶。模型輸出的版權歸誰?用API呼叫結果訓練新模型,是合理使用還是侵權?現在全球都沒有明確判例。Anthropic自己也幹著類似的事——去年被曝光的"巴拿馬計畫"顯示,他們未經授權掃描了數百萬本圖書,最後不得不掏出15億美元和解。"Anthropic大規模竊取訓練資料並支付數十億美元賠償金是不爭的事實,賊喊捉賊。"—— 伊隆·馬斯克(X平台,2026-02-24)馬斯克這次開炮可謂精準打擊。他指的15億美元賠償案,正是Anthropic在2025年底因為系統性盜版書籍訓練模型,被作者群體集體訴訟後的和解金額。有意思的是,Anthropic內部給這個項目起了個諷刺的代號——"巴拿馬計畫",明顯是在影射臭名昭著的避稅天堂。一邊自己盜版書籍付天價賠償,一邊指控別人蒸餾模型,這雙標玩得確實溜。更微妙的是時間點。OpenAI在2月12日剛向美國眾議院中國特設委員會遞交了備忘錄,指控DeepSeek通過"混淆第三方路由器"非法蒸餾ChatGPT。兩周後Anthropic跟進發難,形成完美的"美國雙雄"圍剿態勢。這絕非巧合,而是精心策劃的聯合行動。💰 成本分析:Anthropic去年因盜版書籍賠了15億美元,相當於他們好幾年的營收。這次指控中國公司"蒸餾攻擊",本質上是在轉移視線——把自己的道德污點包裝成"維護智慧財產權"的正義之戰。更深層看,他們想把技術競爭上升到國家安全層面,借此推動更嚴格的晶片出口管制。畢竟,如果中國公司通過蒸餾就能獲得頂級模型能力,那美國卡晶片脖子的策略就失效了。Anthropic在報告裡毫不掩飾地緣政治意圖,直言蒸餾技術"破壞出口管制效果",甚至警告這些模型"缺乏安全護欄,可能被用於生物武器開發"。這種話術聽著耳熟——典型的"威脅國家安全"敘事套路,目的是為更嚴厲的監管鋪路。存疑:目前所有指控資料均來自Anthropic單方面披露,DeepSeek、月之暗面、MiniMax三家中國公司截至發稿均未公開回應。所謂的"高置信度"歸因,是否經得起第三方獨立驗證?24,000個帳號的技術模式,是否足以確鑿指向這三家公司,而非其他第三方行為者?Anthropic是否借技術爭議之名,行商業打壓之實?說到底,這是一場沒有贏家的戰爭。如果Anthropic的指控屬實,說明中國AI公司在技術獲取手段上確實存在爭議;但如果這只是一場精心策劃的輿論戰,那暴露的是美國AI巨頭面對中國競爭時的焦慮與恐慌。馬斯克看透了這點——與其爭論技術細節,不如直接揭穿對方的道德虛偽。耐人尋味的是,截至目前,三家被指控的中國公司集體保持沉默。這種沉默可以有多種解讀:或是默認,或是不屑回應,或是在準備法律反擊。無論如何,這場爭端標誌著中美AI競爭進入了一個更殘酷的新階段——從晶片禁令到模型蒸餾,戰場正在向技術倫理和智慧財產權領域蔓延。💡 主編觀點:這不是技術糾紛,而是商業戰爭的煙霧彈。Anthropic一邊自己盜版書籍賠15億,一邊指控別人"蒸餾"不道德;一邊享受開源社區紅利,一邊想把蒸餾技術變成"專利壁壘"。更噁心的是把技術問題硬往國家安全上扯,這種"潑髒水"套路在TikTok聽證會上已經演過一遍了。DeepSeek們是否真蒸餾了?可能有。但在這個沒有規則的遊戲裡,Anthropic沒資格當道德裁判。真正的危險不是"蒸餾",而是美國AI巨頭借監管之名,扼殺全球競爭。 (雲櫻夢海資源導航)