#2碼
Anthropic “王牌”Claude Code原始碼洩露 國產AI程式設計工具迎來機遇
2026年3月31日,一場因打包失誤引發的“意外開源”,讓Anthropic引以為傲的AI程式設計工具Claude Code的51.2萬行核心程式碼在全球開發者社群中瞬間擴散。這不是一次駭客攻擊,而是人為發佈錯誤——偵錯用的.map檔案被一同打包進npm包,暴露了完整架構與功能邏輯。短短數小時內,GitHub上湧現大量鏡像倉庫;次日,Anthropic為阻止擴散發出下架請求,卻因操作失誤誤刪約8100個倉庫,引發使用者強烈不滿。這場戲劇性的洩露事件,恰逢Anthropic籌備IPO的關鍵期,不僅重創其“安全標竿”形象,更意外地為全球AI開發工具的技術平權撕開了一道口子。▍戲劇性洩露:從低級失誤到 “自殺式” 下架這場原始碼洩露的開端,是一個幾乎所有開發者都熟悉的低級錯誤。2026年3月31日14 時,Anthropic 在 npm 倉庫發佈@anthropic-ai/claude-code v2.1.88版本,卻意外將包含完整原始碼的 59.8MB 偵錯用 cli.js.map 檔案打包其中。Web3 安全公司 FuzzLand 實習研究員Chaofan Shou(@Fried_rice在16時30分左右率先發現並披露了這一漏洞,檔案中的sourcesContent欄位直接包含了未經混淆的完整 TypeScript 原始碼,可直接還原 Claude Code 的全部核心邏輯。消息在開發者社區如野火般蔓延,數小時內GitHub上出現大量鏡像倉庫,星標數量迅速破千。更具諷刺意味的是,這已是Anthropic在13個月內第二次因同類source map問題導致原始碼洩露,暴露了其CI/CD流程存在嚴重漏洞,且未從歷史錯誤中吸取教訓。事件的戲劇性在4 月1日(愚人節)達到高潮。Anthropic為阻止程式碼擴散向 GitHub發出下架請求,卻因範圍判斷失誤,誤刪了約8100倉庫,其中包括自身開放原始碼專案的正常分支,引發全球開發者強烈不滿。Claude Code負責人鮑裡斯・切爾尼隨後緊急承認誤操作,撤回大部分下架請求,僅保留對1個倉庫及96個分支的處理,GitHub也已恢復多數受影響倉庫的存取權。一位不願具名的網際網路大廠技術專家對此評論道:“嚴謹地說,原始碼被洩漏的這種情況,沒有許可證來授權如何使用、修改、再分發的,不應該說是‘開源’,大概相當於說錢丟在路邊不算是‘功德’。” 這句評論精準點出了此次事件的本質 —— 一場由人為失誤導致的 “被動開源”,而非 Anthropic 主動開放技術的善舉。▍技術平權:從閉源壟斷到生態爆發儘管此次洩露源於失誤,卻意外成為AI領域的技術民主化催化劑。快思慢想研究院院長田豐告訴《科創板日報》記者:“2026 年 Claude Code 原始碼洩露事件,即是AI領域里程碑式危機,又是行業變革催化劑。51.2 萬行核心程式碼的意外公開,直接導致技術壁壘崩塌與開源生態爆發。”這場 “意外開源” 的直接成果,是韓國開發者Sigrid Jin的clean-room項目 ——Claw-Code。該項目採用 “淨室重寫” 原則,完全不接觸、不參考原始原始碼,僅根據對產品功能的外部觀察,從零重新實現一遍,2小時內獲5萬星標,目前已超10萬星標、9萬fork,更催生了多語言重寫版本。田豐指出,這標誌著閉源壟斷模式受重創,技術普惠加速,行業競爭核心從‘程式碼保密’轉向模型質量、生態整合與安全治理。對全球 AI 開發者而言,洩露程式碼提供了 “工程教科書” 級參考。在田豐看來,多 Agent 協作、超長上下文管理及六級權限沙箱等設計,已助力某國產團隊程式碼生成精準率提升 40%。這些技術細節此前被 Anthropic 視為核心商業機密,如今卻成為全球開發者的 “免費午餐”,大幅降低了 AI Agent 工程化門檻,加速了開發者生態競爭,助力中小團隊快速追趕。此次洩露還意外推動了AI開發工具領域的技術平權。田豐分析道:“Anthropic‘安全標竿’形象因兩次重大洩露徹底瓦解,警示全行業:安全漏洞將引發系統性信任危機。” 這一事件讓全球企業客戶開始重新審視對單一閉源工具的依賴風險,為技術自主可控的國產工具創造了市場窗口。▍國產AI程式設計工具:借鑑而非複製,創新而非跟隨對國產大模型與 AI 程式設計工具而言,此次洩露堪稱 “史詩級” 的技術補課與彎道超車機會。田豐認為:“機遇與挑戰並存,關鍵在於如何把握。”在技術層面,洩露程式碼為國產團隊提供了直接學習全球頂尖AI程式設計工具架構的機會。此前,國內AI程式設計工具在自主Agent、安全沙箱等領域與海外頭部產品存在差距,而Claude Code原始碼提供了可直接參考的工程方案,包括動態提示詞系統(分層快取省成本)、YOLO安全分類器(防誤刪)、Auto Dream記憶機制(後台整理不佔 token)及44個功能開關等核心元件。國內團隊無需再重複試錯,可直接基於現有架構最佳化迭代,快速推出具備競爭力的產品,實現 “彎道超車”。在市場層面,Anthropic的信任危機為國產工具打開了窗口。復旦大學復旦大學計算與智能創新學院一位人士指出:“企業客戶對資料主權、本地化部署的需求激增,國產工具可借勢強化安全可控與國產晶片適配性,在合規與信任上建立差異化優勢。”他指出,2025年底Claude曾對中資斷供,大量國內產品依賴Claude核心被迫緊急換模型、損失使用者。現在,國產團隊有能力完全自研程式設計agent架構,後端可自由切換國產模型(DeepSeek、Qwen、Seed、文心等),實現AI開發工具自主可控,不再被海外 “卡脖子”。田豐則特別強調,此次Claude Code原始碼提洩露,對於國內大模型企業的核心在於 “借鑑而非複製,創新而非跟隨”。他提出三點建議:一是差異化功能突破,如融合中文環境最佳化、國產IDE整合、本土程式碼規範檢查;二是安全能力升維,打造更嚴苛的發佈管控與透明審計機制,將安全作為核心賣點;三是生態突圍,聯合雲廠商建構託管服務,發展本土外掛生態。同時,他也警示必須警惕法律風險,避免直接使用洩露程式碼,而應通過clean-room重寫實現技術遷移。AI大模型業內普遍認為,這場 “意外開源” 雖源於失誤,卻加速了AI開發工具的技術平權。“未來競爭焦點將轉向資料積累、工作流整合深度及品牌信任,國產工具唯有從‘模仿’轉向‘價值創新’,才能把握技術民主化浪潮,建構自主生態系統。國產玩家需以安全為盾、創新為劍,在行業重構中搶佔制高點。” (財聯社)
突發!Claude Code開源,全網瘋傳
實習生扒出51萬行原始碼,GitHub已瘋傳。Claude Code“開源”了?智東西3月31日報導,剛剛,Anthropic的Claude Code在打包發佈時誤將source map檔案(.map)捆綁進了npm包,導致約1900個TypeScript檔案以及超過51.2萬行程式碼遭洩露。這件事的發現者是區塊鏈基礎設施公司Solayer的實習生Chaofan Shou,他第一個在X上發帖並直接給出了R2儲存桶的src.zip下載連結。用簡單的話解釋就是,Source map本來是給開發者偵錯用的“還原地圖”,它能把壓縮後的JS程式碼對應回原始TypeScript原始碼。結果Anthropic打包npm包時,不小心把.map檔案也塞了進去,而且地圖裡直接寫著他們Cloudflare R2儲存桶的公開地址。於是任何人只要下載這個npm包,打開.map檔案,就能順著地址下載到完整的、未混淆的TypeScript原始碼檔案,而這些TypeScript檔案就是Claude Code軟體的完整原始碼。目前,Anthropic已經迅速更新了npm包,移除了source map,但社區已經有人把原始碼鏡像到了GitHub中,並且獲得了超2萬顆星:https://github.com/instructkr/claude-code還有網友已經梳理出了Claude Code的運作邏輯,並行布了完整的“說明書”:https://www.mintlify.com/VineeTagarwaL-code/claude-code/guides/authentication那這約1900個TypeScript原始碼檔案,到底是什麼呢?簡單來說,這些檔案就是Claude Code客戶端工具的實現細節,包括它怎麼架構、用那些工具、支援那些命令、怎麼和IDE互動、怎麼管理記憶,以及一些還沒上線的功能,但不包含Claude大模型本身的權重、訓練資料、伺服器端程式碼或使用者敏感資訊。具體內容主要包括以下部分:1、核心架構和引擎QueryEngine(查詢引擎):這是整個工具的大腦,負責接收使用者指令、拆解任務、呼叫Claude模型、處理流式輸出、做快取、協調多步操作等。多Agent協作系統(swarms):讓多個AI Agent一起分工合作完成複雜任務。Memory記憶系統:將之前的對話、檔案內容、上下文持久化保存下來,方便長期使用。IDE Bridge:工具如何和VS Code、JetBrains等編輯器雙向通訊(包括使用 JWT 認證機制)。2、內建工具:這些工具讓Claude Code能真正“動手”幫你操作電腦、寫程式碼、搜尋資訊,而不是只聊天。3、命令系統:4、技術堆疊5、關鍵檔案QueryEngine.ts(約46K行):LLM API 呼叫的核心引擎,包括處理流式響應、工具呼叫循環、思考模式、重試邏輯和token計數等。Tool.ts(約29K行):定義所有工具的基本類型和介面,即輸入模式、權限模型和進度狀態類型。commands.ts(約25K行):管理所有斜槓命令的註冊和執行,使用條件匯入為每個環境載入不同的命令集。main.tsx:基於Commander.js的CLI解析器和React/Ink渲染器初始化。啟動時,它會優先處理MDM設定、鑰匙串預取和GrowthBook初始化,以加快啟動速度。6、值得關注的設計模式平行預取:通過在開始繁重的模組評估之前平行預取MDM設定、鑰匙串讀取和API預連接來最佳化啟動時間。懶載入:大型模組(OpenTelemetry、gRPC、分析和一些功能門控子系統)通過動態方式延遲執行,import()直到實際需要時才執行。智能體群:子Agent通過生成AgentTool,並coordinator/處理多代理編排。TeamCreateTool支援團隊級平行工作。技能系統:可重用工作流程中定義的元件skills/通過該元件執行SkillTool,使用者可以加入自訂技能。外掛架構:內建外掛和第三方外掛均通過plugins/子系統載入。7、主要未發佈特性標誌及功能:KAIROS:自主守護模式。支援後台持續運行、後台會話、自我記憶整合,讓Claude Code成為一個24×7線上的助手,能在無人值守時自主工作和總結。PROACTIVE:主動模式。Claude Code能主動監控項目、提出建議、提前處理任務,增強AI的自主性和前瞻性。VOICE_MODE:語音互動模式。支援通過語音輸入指令,目前部分命令可能已有限支援,但完整整合仍未發佈。DAEMON:背景執行/守護模式。將工具轉為常駐後台處理程序,支援長期任務執行,而無需一直保持終端窗口打開。BRIDGE_MODE:與IDE的深度橋接模式增強版本,可能包括更先進的雙向通訊或認證邏輯。BUDDY系統:一個趣味虛擬寵物系統,包含約18種不同物種,有鴨子、鵝、貓、龍、章魚、貓頭鷹、企鵝、烏龜、蝸牛、幽靈、軸足動物、卡皮拉、仙人掌、機器人、兔子、蘑菇等。有稀有度、閃光變體、即時狀態等玩法,是個隱藏的彩蛋式功能。但要注意,這並不是Anthropic主動開源,Anthropic依然對原始碼擁有版權。開發者們可以看程式碼、學架構,但不可以拿去修改後重新發佈成自己的工具或做成產品。否則,Anthropic有權通過DMCA(版權刪除通知)讓GitHub刪除相關項目,或者追究法律責任。 (智東西)
Google副總裁直言:AI轉型已經結束,真正的分化才剛開始
如果你還在想:AI什麼時候真正改變世界?我要不要現在開始學?這波浪潮會不會過去?那你可能已經慢了一步。在一期訪談中,Google研究院負責人Yossi Matias給出了一個非常明確的判斷:“AI的轉折點已經過去了,只是大多數人沒有意識到。”更關鍵的是——👉 真正的差距,現在才開始拉開。不是公司之間,而是:人與人之間。一、一個人,正在幹掉一個團隊過去你可能聽過一句話:👉 “一個人就是一家公司”但現在,這已經不是口號,而是現實。資料很直接:近幾年 👉 30%左右的新公司是“單人創辦”更誇張的是:👉 這些人做的事情,過去需要10人、100人團隊為什麼?因為AI正在做三件事:替你寫程式碼替你分析資料替你執行任務結果就是:一個人 + AI = 一個團隊二、6個正在重寫工作方式的趨勢(非常關鍵)這場對話中,最有價值的是這6個趨勢。它們不是未來,而是已經發生的現實。1️⃣ AI Agent:從“問答工具”變成“執行系統”大多數人還在用AI聊天。但真正的變化是:👉 AI開始替你“做事”比如:自動分析資料跟蹤社交媒體趨勢每天生成報告管理你的任務流甚至可以跨系統運行:👉 郵件、日曆、CRM、研究全部打通研究顯示:👉 35%的生產力提升,來自這種“上下文感知Agent”這意味著什麼?會用Agent的人,不是更快,而是在做“更高維的工作”。2️⃣ Vibe Coding:不會寫程式碼,也能做產品這是目前最被低估的變化。所謂Vibe Coding,就是:👉 你用自然語言描述,AI幫你寫完整程式碼真實案例:一個不會程式設計的人周二有想法周四做出產品甚至Google正在做“生成式UI”:👉 一句話 → 一個完整應用(介面+邏輯)這意味著:“想法無法實現”這個門檻,已經被抹平了。3️⃣ 技能正在重排:最重要的不是“會什麼”,而是“怎麼想”很多人以為:👉 AI時代要拼技術但Google給出的答案完全不同:他們最看重的,是思考、適應和學習能力尤其是一個能力:👉 判斷力(Judgment)為什麼?因為:AI可以給你100個答案但它不會告訴你那個是對的所以真正拉開差距的,是:👉 你問什麼問題 + 你如何做選擇4️⃣ 環境智能(Ambient Intelligence):AI正在“消失”有一個非常重要的趨勢:👉 AI會變得“看不見”就像:自動補全翻譯語音識別你已經習慣它們存在,但不會再意識到它們。這就是:“環境智能”——技術最強的時候,是你感覺不到它的存在。但這帶來一個變化:👉 標準被整體抬高現在職場中:精美PPT深度分析高品質報告已經不再是加分項,而是基本要求5️⃣ 教育被重寫:每個人都有“私人導師”AI正在徹底改變學習方式:同一內容 → 不同表達方式同一知識 → 不同難度版本同一主題 → 視訊、圖解、對話等多形式比如:👉 用足球解釋“重力”給孩子聽這意味著:未來的孩子,將擁有“10年的認知優勢”。6️⃣ 不可能的問題,正在被快速解決最震撼的一個案例:👉 洪水預測系統過去被認為“不可能”:資料太複雜變數太多但現在:覆蓋150個國家服務20億人提前7天預警完成時間:👉 不到5年這說明一件事:AI正在把“不可能”變成“常規”。三、一個殘酷現實:差距正在指數級擴大很多人覺得:AI會讓世界更公平。但現實是:👉 差距在加速擴大原因很簡單:會用AI的人 → 效率提升10倍不會用的人 → 原地不動甚至更關鍵的是:👉 真正領先的人,不只是“用AI”,而是“和AI一起工作”資料也在印證:與AI深度協作的人 👉 收入增長更快四、Google在2026年真正招聘什麼人?這個問題非常重要。答案不是:❌ 會某個工具 ❌ 會某種技術而是三類能力:1️⃣ 思考能力你是否能理解問題本質?2️⃣ 適應能力你是否能在工具變化中持續進化?3️⃣ 學習能力你是否能比技術變化更快地更新自己?換句話說:公司不再僱傭“會做事的人”,而是僱傭“會進化的人”。五、如何在這場分化中“站在前面”?(核心建議)最後,把這場訪談壓縮成3個可執行策略:1️⃣ 從“使用AI”升級到“建構AI工作流”不要只問問題。要開始:搭建Agent自動化流程讓AI幫你持續產出2️⃣ 訓練你的“判斷力”每天練習:什麼是好?什麼是有效?什麼值得做?👉 這是AI無法替代的核心能力3️⃣ 保持“高頻試錯”最領先的人,不一定最聰明。但一定是:👉 最愛嘗試新工具的人結語:真正的競爭,不在AI,而在你這場對話最值得反覆思考的一句話是:“趨勢正在發生,不管你是否參與。”AI不會等你準備好。世界也不會。真正的問題只有一個:👉 你是利用AI放大自己,還是被AI甩在後面?最後,留給你一個問題:如果一個人 + AI = 一個團隊那你現在,算不算一個“團隊”? (顧真emancipate)
Meta華人實習生搞出超級智能體!自己寫程式碼實現自我進化
能無限進步的「超級智能體」來了!最近,Meta研究團隊的一篇題為HYPERAGENTS(超級智能體)的論文迅速刷屏。這篇論文將LSTM之父Jürgen Schmidhuber二十年前提出的哥德爾機(Gödel Machine)思想,與達爾文開放演算法相結合,提出了能持續自我迭代的達爾文哥德爾機。基於此這一思想,Agent不僅能更好地完成具體任務、持續提高自身表現。更關鍵的是,它可以不斷最佳化“改進自身”的底層邏輯,實現“元學習(Meta-learning)”這,便是論文定義的新一代超級智能體——Hyperagents。論文更進一步提出:未來AI有望通過持續自我迭代,最終突破人類預設的初始演算法邊界,也正因如此,AI安全必須被擺在核心位置。不少網友也感慨道:元學習真正讓人既害怕又興奮的,是元層面的改進能夠跨領域遷移。這不是在某一件事上變得更厲害,而是學會了在一切事情上變得更厲害。目前,這篇論文已被ICLR 2026接收。從哥德爾機到達爾文哥德爾機要理解超級智能體Hyperagents,必須先瞭解它的基石——哥德爾機(Gödel Machine)。哥德爾機是一種假設性的自我完善型AI。它在數學上尋求證明:如果存在某種更好的策略,它會通過遞迴重寫自身程式碼來解決問題。而這一假設,最早由尤爾根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。在傳統機器學習中,AI的“學習方法”是人類預設的硬編碼,它只能通過調整內部參數來逼近目標;而哥德爾機則打破了這一限制,它能夠將演算法框架本身視為可編輯的程式碼,通過自主重寫程序來實現學習能力的自我演進。但問題也隨之而來:哥德爾機往往要求AI在自我演進之前,證明該改動具備淨收益。也就是說,改程式碼花掉的算力成本,未來能不能通過更強的性能賺回來?不幸的是,這種計算在現實中的複雜任務中幾乎是無法實現的。針對這一問題,Meta團隊提出達爾文哥德爾機(DGM),它利用開放式演算法(Open-ended algorithms),通過在大模型提議的程式碼改進方案中進行搜尋,獲取能從經驗上提升性能的方案。換句話說,DGM利用基礎模型來提議程式碼改進方案,並利用開放式演算法的最新創新成果,來搜尋並建構一個不斷增長的、多樣化且高品質的AI智能體庫。基於此,DGM能創造出各種自我改進方案,例如:增加補丁驗證(Patch Validation)步驟、最佳化檔案查看功能、增強編輯工具、生成並篩選多個解決方案以選出最優解,以及在進行新更改時,會自動加入歷史嘗試記錄(並分析失敗原因)以供參考。論文的實驗還表明,DGM獲得的算力越多,自我提升效果越好。超級智能體雖然DGM很強,但它存在一個致命限制:它主要在程式設計任務中有效。這是因為DGM依賴一個關鍵假設——評估任務與自我修改任務必須“對齊”。在程式設計領域,這種對齊是天然的:提升了程式設計能力,自然也就提升了修改自身程式碼的能力。也就是說,解決外部程式設計問題的邏輯工具,可以直接轉化為修改其自身底層程式碼的能力。相反,如果是在非程式設計領域(如寫詩),即便提升了寫詩能力,也無法直接轉化為修改程式碼的邏輯水平。在這種缺乏“自指性(Self-referentiality)”的任務中,DGM的遞迴進化鏈條就會斷裂,陷入停滯。基於此,文章提出超級智能體——它們既能修改自己的任務執行行為,也能修改生成未來改進建議的過程。這實現了所謂的元認知自我修改(metacognitive self-modification):不僅學習如何做得更好,還學習如何更有效地進行改進。進一步,論文將超級智能體實例化為DGM-Hyperagents (DGM-H)。DGM-H是對DGM的擴展,其中任務解決行為和自我改處理程序序都是可編輯且可進化的,其框架如下:自指性架構:它將“任務智能體(Task Agent)”與“元智能體(Meta Agent)”整合為一個單一的、可編輯的程序。元級進化:在Hyperagents中,“改進的方法”本身也是可以被改進的。這使得系統不再要求任務與修改必須對齊,從而實現了跨領域的“元認知自我修改”。打個比方,在Hyperagents中,運動員不僅在訓練,教練也在學習如何更好地執教。由此,運動員的表現和教練的執教水平不斷螺旋上升。此外,DGM-H還改進了生成新智能體的過程(例如引入持久化記憶、性能追蹤等),且這些元級改進具有跨領域遷移和跨運行累積的特性。實驗驗證:從20%到50%的跨越實驗證明,達爾文哥德爾機(Darwin Gödel Machine)能夠通過修改自身程式碼庫實現持續的自我提升。在SWE-bench上,DGM自動將其性能從20.0%提升至50.0%。在Polyglot上,DGM的性能從初始的14.2%躍升至30.7%,遠超由Aider開發的具有代表性的人工設計智能體。這些結果證明了DGM能發現並實施有效的自我改進。而實現這一點的關鍵在於其開放式進化搜尋策略:通過從現有智能體庫中採樣生成新智能體,DGM能夠平行探索多條進化路徑。性能稍遜的“祖先”智能體在發現新方法和功能方面起關鍵作用,避免了早熟收斂。此外,DGM的改進具有廣泛的遷移性:針對Claude 3.5 Sonnet最佳化的智能體,在切換到o3-mini或Claude 3.7 Sonnet時仍能提升性能。在Polyglot基準中,Python任務上的自我改進同樣提升了Rust、C++、Go等不同語言任務的表現。 (量子位)
這些都假設智能體有無限的擴充能力,但現實生活中都受限,無限分裂的子智能體或許還比較可行?