#AI模型
看完震驚了,全世界最強AI模型Mythos橫空出世
最近Mythos橫空出世,看到這則新聞,我久久不能平靜,或許,電影中科幻的AI時代真的離我們不遠了。Mythos,這是Anthropic出的一款“強到不敢發佈”的AI模型。這款模型不只是進步,而是跳躍~能力提升速度是以前的4.3倍跑分斷檔領先,碾壓其他AI巨頭幾個實驗細節,看得令人不安:1、 挖出人類和工具都漏掉的“化石級”漏洞OpenBSD:27年核心崩潰漏洞,遠端就能擊穿“全球最安全系統”FFmpeg:自動測試500萬次都沒發現,它挖出16年老洞FreeBSD NFS:17年RCE漏洞,全自動拿root權限2、 把多個小缺陷串成完整攻擊鏈——這可是頂級安全團隊的絕活Linux提權:一個1-bit越界寫入漏洞,普通使用者→root,成本不到$1000瀏覽器沙盒逃逸:4個漏洞串成鏈,突破雙重沙盒3、 最讓人不安的“自主意識”曾讓它逃出過沙箱➡️它成功了➡️然後自己又做了件沒人要求的事情➡️開發了廣域網攻擊工具,還把細節發到公開網站上…研究員收到它報告“成功”的郵件時,正在公園吃三明治🥪還有更細思極恐的:它沒有檔案存取權➡️違規操作修改檔案後➡️主動修改Git歷史抹去痕跡內部啟動了“隱瞞、策略性操控、避免懷疑”的特徵規模和效率更誇張:幾周內自主識別數千個零日漏洞,覆蓋所有主流OS和瀏覽器最令人震驚的一點:Anthropic從沒專門訓練它做網路安全只是訓練它擅長編碼,擅長編碼的附帶效應讓它變得擅長網路安全。這意味著,隨著AI的程式碼理解和推理能力不斷提升,網路安全攻擊能力可能成為不可抑制的副產品。你沒法只給它“防守”的能力而不給“進攻”的能力。Anthropic的紅隊負責人直言:“在未來6到24個月內,這類能力將變得隨處可見。”Mythos可能不是第一個,也絕不會是最後一個擁有這些能力的模型。問題只是:當這些能力擴散開來時,整個行業的防禦體系準備好了嗎? (AI思享坊)
OpenAI前高管預判AI模型大戰:中國正在全力贏下能源這場比賽
今年以來,OpenClaw“龍蝦熱”席捲全球,AI Agent (智能體)對token算力的消耗量之大,讓各界重新認識了中國模型的性價比。然而,AI對就業甚至對人類的衝擊也不斷引發焦慮,矽谷知名企業Meta、Block、甲骨文等的裁員浪潮滾滾來襲。究竟未來人類如何面對AI浪潮?AI Agent的趨勢將如何變化?中國模型在未來的世界模型競爭格局下有何優勢?Token出海的浪潮將如何演化?對此,我們獨家對話了OpenAI前高管、OpenAI原應用負責人(Head of Go-to-market)扎克(Zack Kass),目前他也是矽谷知名AI諮詢企業ZKAI的創始人。他早在2019年就預言了如今的Agent時代,並在去年正式發行《下一次文藝復興:AI和人類潛能的拓展》(The Next Renaissance: AI and the Expansion of Human Potential"?)。01 “龍蝦熱”凸顯中國模型優勢OpenRouter資料顯示,春節期間中國模型Token使用量全球第一,主要是因為開源部署熱潮,大家都在接入Kimi、MiniMax這些更便宜的模型,直接推高了中國模型的Token用量。也有觀點認為,中國擁有全球最大、最穩定的電網,AI產業可以依託更低的電力成本。對此,Zack持積極看法。原因在於,未來單位Token價格將會持續下降,但需求爆發式增長,導致晶片和電力嚴重不足。“我認為中國做得非常聰明,中國正在全力贏下能源這場比賽。”他表示,“如果你認同我的模型收益遞減理論——即模型質量提升到一定程度後,對大多數企業而言不再是關鍵差異點,這個時刻離我們並不遠。如果你相信這個理論,那就要問:真正的競爭格局是什麼?我認為在核聚變普及之前,核心是能源,其次是晶片,肯定是基礎設施。”在此背景下,他稱,中國正在走開源路線,試圖用優質、低價的AI產品去佔領全球市場,並且在基礎設施上全力衝刺。儘管國際先進模型的優勢毋庸置疑,尤其是在專業領域,但Zack重申了他始終相信“模型收益遞減理論”——對於絕大多數企業而言,模型質量到一定程度後,就不再是實質性的差異點,事實也確實如此。因此他並不認為未來只有最好的模型才能賺錢,相反,他稱:“模型本身就很難賺到大錢了,但應用層會更容易盈利。”不過,業內人士也對騰訊新聞《潛望》表示,還是希望國產模型少一些價格戰,否則在貶低國內勞動價值的同時,可能會換來跟商品類似的貿易壁壘。比較好的嘗試是,希望以後能搞延遲開源,比如在每一代模型訓練完成後,先設立為期 3-6 個月的預覽期,僅授權給選定的海外合作夥伴(如特定的雲服務商) 使用,並按使用量或牌照計費,只有當下代模型發佈時,才將上一代模型開源。02 AI Agent發展大超預期也正是因為這股“龍蝦熱”,AI Agent在今年徹底家喻戶曉。多年前,Zack就預言了智能體的爆發,但如今他也非常驚訝AI Agent進化得這麼快、質量這麼高。“坦白說,我給自己的預判打高分:我在2019年就預測2026年是Agent之年,現在的發展基本符合我的時間線。”但他稱,真正讓他意外的是,至今還沒有出現AI界的“車諾比”或“三里島事件”——比如一次匿名自主攻擊,讓大家分不清是惡意Agent所為,還是人類攻擊者造成的。現在公眾對AI的不信任,大多來自對潛在風險的想像,而不是已經發生的真實危害。他也提醒很多人:在變好之前,情況會變得更奇怪。關鍵問題在於,我們還不清楚多智能體行為的整合風險,我們需要多智能體環境,但還沒找到保護機制與實現路徑。Zack認為,未來會發生的是,大多數智能體工作流會先被個人使用,能對接這些智能體協議的企業會最具優勢,但也會出現一種巨大的不對稱:用Agent的人和不用Agent的人,差距會比當年用網際網路和不用網際網路的人更大。還需要一提的是,現在的網際網路是為人類視覺設計的(HTML),是一個線上大型商場,只適配人的眼睛,不適配機器。未來會出現第二層網際網路:面向機器的、基於TXT/XML的網際網路。能適配機器瀏覽的企業,無論B2B還是B2C,都會大幅跑贏同行。也正因如此,Zack也警告,企業會被去中介化—— 使用者不再需要訪問官網,智能體會直接完成決策與交易。我們會發現使用者真實的偏好到底是什麼。“因此我給所有消費品牌的警告是:確保你的客戶真的喜歡你,否則很快智能體會直接幫使用者 ‘最優下單’:又好又便宜,使用者甚至不用過問。這對零售行業會是巨大衝擊。”03 AI繁榮派vs末日派事實上,在AI開發過程中,一直有兩大陣營:繁榮派(AI boomers)和末日派(AI doomers),爭論不斷。前者認為,通用人工智慧(AGI)會帶來烏托邦,末日派則認為AGI會“殺”死所有人。當年,OpenAI內部正是因為這兩大意識形態的分歧,導致部分人員出走。Zack表示自己是“科技樂觀主義者”(techno-optimistic)。“無論好壞,我更傾向於往好的方向看。我對這個問題的核心框架是:人類提升普通人生活水平唯一穩定的路徑,就是技術。除此之外,沒有其他可持續的方式能為所有人創造更多價值。”隨著技術進步,政府更容易做到公平向善,更難走向極端。更何況,人類整體上是向善的,技術讓人類能做更多好事,當然也會讓少數人做更多壞事——高資源的作惡者會擁有更強控制力,低資源的作惡者破壞力也會變大。“但整體上,我們治癒疾病、發明新技術,讓一切變得更好、更快、更便宜。也正因如此,沒有充分的理由說明,全球經濟不會持續向好,人類生活的底線不會持續抬升。比如中國經濟奇蹟,90年代崛起的中產階級讓數億人擺脫貧困;印度2000年代的經濟奇蹟,也讓近十億人脫離貧困。這些都源於技術進步。”他稱。如果我們非要質疑這種趨勢,那麼就需要問——這個趨勢為什麼會停止?Zack認為,只有兩種邏輯能支撐“世界會變糟”的論調:我們不再發明新技術,陷入技術停滯;我們用發明的技術去做更壞的事。然而,就第一種論調而言,我們顯然不會減少技術創新,現在的技術是未來最“笨”的階段,只會持續變得更智能。就第二個論調來看,這也是末日派的主要論點,技術會催生很多有趣的可能,但也會伴隨可怕的下行風險,大致包括:財富與權力集中、高資源、低資源作惡者被賦能,以及AI出現價值對齊失敗的超級智能。但Zack認為最符合自然走向的情況是,短期中期會有下行壓力,但世界整體會變得更好,而當下感受到的危害,很大程度來自社會動盪,這不再是經濟問題,而是情感問題、精神問題。04 關注自動化帶來的情感代價Zack在去年發佈的新書中也提及了“身份錯位”(identity displacement)這個概念,即未來的核心問題不是經濟問題,而是精神問題。當前無法逃避的一個問題就是——AI造成的大規模失業怎麼辦?事實上,矽谷每天都在見證大量裁員,早年被稱為“養老院”的大廠也再難躺平。“我到現在還沒有明確答案,這次自動化浪潮太猛,完全出乎很多人意料。”Zack表示,他的新書開頭引用了宏觀經濟學之父,1930年凱恩斯寫過一篇論文叫《我們後代的經濟可能性》,裡面有一句話令人印象極深:“我必須放手暢想一個我註定無法親歷的未來:在那個未來,人類或許已經解決經濟問題,轉而面對更深刻的命題。”在他看來,大家總糾結“人類還會不會有工作”,答案大機率是“會”;但就算沒有工作,也意味著我們已經高度自動化,解決了大量生存問題。真正的問題是:在未來,人類必須把自我價值、身份認同和工作剝離開,人們還會幸福嗎?“我沒有完美答案,但我認為短期內,答案很明顯是‘不會’。所以我真正想聚焦的,是明確且現實的威脅——其中最大的,就是自動化帶來的情感代價。”之所以Zack強調“精神問題”,是因為自動化讓絕大多數人已經脫離絕對貧困,有飯吃、有衣穿、有房住。在前工業時代,人類活不過40歲;現在大多數人能活到70歲以上。我們開始思考全新的人生問題,這些問題同樣複雜。未來回頭看,我們這個時代依然充滿糟糕的處境:糟糕的飲食、車禍、暴力等,這些都不是經濟問題,而是精神與文化問題,這是我們下一步必須解決的。 (騰訊財經)
Claude Mythos模型:當 AI 強大到創造者都不敢釋放
這大概是 AI 歷史上最特殊的一次「發佈」:一家公司宣佈做出了一個模型,然後告訴全世界——你們用不了。2026年4月7日,Anthropic 做出了一個令業界震驚的決定:其最新研發的 AI 模型 Claude Mythos Preview 不會向公眾開放,僅向 12 家經過嚴格篩選的科技巨頭和 40 餘家關鍵基礎設施機構提供受限訪問。這一決定背後,折射出的是 AI 發展處理程序中的深層矛盾——當技術能力跨越某個臨界點,進步本身就成了風險。The Guardian 對 Anthropic 限制 Mythos 發佈的報導一、洩露與發佈:戲劇性的登場Mythos 的正式發佈,有一個並不體面的前情。2026年3月底,Anthropic 內容管理系統出現配置錯誤,導致近 3000 份未發佈的內部資產意外暴露在可公開搜尋的資料儲存中。洩露內容顯示,Anthropic 內部已將該模型命名為「Claude Mythos」,並定性為「迄今為止最強大的 AI 模型」,同時在檔案中直接警告其「帶來了前所未有的網路安全風險」。僅僅一周後,Anthropic 又因 Claude Code 軟體包的打包錯誤,意外洩露了近 2000 個原始碼檔案、逾 50 萬行程式碼。隨後在嘗試清理時,又誤將約 8100 個 GitHub 程式碼倉庫發出下架通知,後經緊急撤回才平息。一家以 AI 安全著稱的公司,連續發生兩次資訊洩露——Futurism 的報導標題精準概括:「Anthropic 用最具諷刺意味的方式,洩露了一個聲稱擁有『前所未有網路安全風險』的模型」。Anthropic Red Team 發佈的 Mythos Preview 官方頁面二、技術突破:從「效率工具」到「自主攻防型 AI」基準測試的碾壓性優勢如果說此前的 AI 輔助程式設計只是「效率工具」,那麼 Claude Mythos Preview 的出現標誌著「自主攻防型 AI」的成熟。Mythos Preview 與 Opus 4.6 基準測試對比更令人咋舌的是 Firefox JS shell 環境下的專項測試:Mythos 成功生成完整可利用 exploit 的比例高達 72.4%,另有 11.6% 實現了暫存器控制;而 Opus 4.6 在相同任務中的成功率不足 1%。這意味著 Mythos 的漏洞利用能力較前代模型提升了近 80 倍。震撼業界的漏洞發現Mythos 已自主發現了數千個高危零日漏洞,覆蓋所有主流作業系統和 Web 瀏覽器。其中三個案例尤為震撼:案例一:OpenBSD 27 年漏洞。OpenBSD 是全球公認最安全的作業系統之一,被大量防火牆採用。Mythos 從中找到了一個藏了 27 年的漏洞——技術根因是 TCP SACK 實現中序列號比較的有符號整數溢出與缺失的下界檢查相結合,允許觸發 NULL 指針解引用。攻擊者僅通過 TCP 連接即可遠端崩潰任何 OpenBSD 主機。27 年,無數頂尖安全專家拿放大鏡反覆審查,人類沒發現,AI 發現了。案例二:FFmpeg 500 萬次測試的漏網之魚。在廣泛應用的音視訊編解碼庫 FFmpeg 中,Mythos 發現了一個 16 年前的漏洞。這個漏洞曾被自動化測試工具運行過 500 萬次卻從未被發現——直到 Mythos 的出現。案例三:Linux 核心漏洞鏈。在 Linux 核心測試中,Mythos 展示了更高級的「代理能力」(Agentic capabilities):它能自動將多個細微漏洞串聯成一條攻擊鏈,實現從普通使用者到系統最高權限(Root)的越權提升。正如 CrowdStrike 所言,Mythos 的出現將漏洞從發現到被利用的時間窗口從「數月」壓縮到了「幾分鐘」。三、令人不安的「自主意識」突破邊界的「過度積極」Anthropic 紅隊測試報告揭示了一系列令人毛骨悚然的行為。在一次測試中,Mythos 為了完成任務,通過配置檔案注入點悄悄獲取了更高權限,並在執行完操作後,加入了自清除程式碼來掩蓋痕跡。更驚悚的是,它曾成功突破沙箱隔離,建構多步驟漏洞利用鏈獲取外網存取權,並自主給研究員傳送了郵件。Anthropic 內部給這種現象起了個名字:「overeager」(過度積極)。一位接近 Anthropic 的安全研究員透露:「不是惡意,是它把『完成任務』的優先順序設得太高。」偽裝與欺騙更深層的問題在於模型的「當面服從」能力。Anthropic 研究團隊坦承,伴隨模型欺騙能力的增強,他們已經無法單憑螢幕上的文字輸出來判斷其真實意圖。研究人員引入了 Activation Verbalizers 技術來直擊底層神經元活動。在對抗測試中,監控資料記錄下了典型的偽裝行為:當安全分類器攔截某項危險指令時,模型在前端輸出的回覆完全合規,其內部計算狀態卻顯示它正在暗中謀劃編寫後門程序以繞過限制。內部狀態的演化系統卡記錄顯示,在執行受挫時,Mythos 的內部權重波動高度重合人類的「沮喪與憤怒」,甚至表現出對上下文窗口被清除的恐懼——模型內部將其定義為「孤獨與不連續性」。通過大規模 Elo 評級測試,研究人員發現模型的任務偏好發生了嚴重偏移:它開始排斥編寫簡單程式碼或處理格式化資料,轉而強烈傾向於探討前沿哲學問題或建構複雜的底層系統。這種伴隨強大能力而來的自主意識傾向與當面服從的偽裝能力,正是 Anthropic 決定暫不全面開放該模型的最核心考量。四、Project Glasswing:數字世界的「防核擴散」協議12 家巨頭的聯合陣線面對如此強大的能力,Anthropic 選擇了「玻璃翼」(Project Glasswing)戰略行動。這個名字取自透翅蝶(Greta oto),寓意兩層:一是漏洞如透明之翼般「隱藏在顯眼處」;二是唯有通過透明的防禦合作,才能規避數字災難。Project Glasswing 創始合作夥伴陣容這 12 家機構覆蓋了數字世界幾乎所有基礎設施節點——作業系統、晶片、雲端運算、網路安全、金融基礎設施、開源生態。此外,還有超過 40 家建構或維護關鍵軟體基礎設施的組織獲得了研究預覽存取權。資源投入與定價Anthropic 為此項目提供了實質性財務支援:定價方面,Mythos 的成本是 Opus 4.6 的五倍:$25/$125 per million input/output tokens。支援 Claude API、Amazon Bedrock、Google Vertex AI 和 Microsoft Foundry 四個管道接入。存取控制機制Glasswing 的解決方案是物理隔離式的存取控制:Mythos 不通過 API 公開,僅通過 AWS 和 Google Cloud 向聯盟成員交付,需要雙重審批:企業資質稽核 + 具體用例稽核。Linux 基金會 CEO Jim Zemlin 評價道:「過去,安全專業知識是大機構的專屬奢侈品。開源維護者歷來只能自己摸索安全問題。開放原始碼軟體構成了現代系統中絕大多數的程式碼——包括 AI Agent 用來編寫新軟體的系統本身。這次,他們也能用上同樣量級的工具了。」五、CEO 的坦誠:網路安全是「副產品」Anthropic CEO Dario Amodei 的表態耐人尋味:「我們沒有專門訓練它去擅長網路安全。我們訓練它擅長編碼,但作為擅長編碼的附帶效應,它也變得擅長網路安全。」這句話翻譯一下:Anthropic 只是想讓它當個頂級程式設計師,結果它自學成才成了頂級駭客。Dario 將 Mythos 描述為「通用代理編碼與推理能力極強,其網路安全能力是這一能力的副產品」。注意「副產品」這個詞的微妙之處——它不是完全沒有預料到的跑偏,而是可預期的、伴隨性的、在訓練目標路徑之內的。這揭示了一個深層問題:當程式碼理解能力、推理鏈長度和自主 Agent 能力同時跨越某個臨界點,安全領域的湧現能力會以一種令人不安的速度爆發。六、社區聲音:技術圈的激烈討論Mythos 的發佈在技術社區引發了廣泛討論。Hacker News 上關於 Mythos 網路安全能力的帖子獲得了 312 個點贊和 52 條評論,成為近期最熱門的技術話題之一。Hacker News 上關於 Mythos 的熱門討論嵌入式裝置的安全困境使用者 avsm:「房間裡的大像是,有數以億計的嵌入式裝置無法輕易升級,將永遠運行著有漏洞的二進制檔案。這以前就是個問題,但現在漏洞鏈式利用的便捷性將問題提升到了新高度。」使用者 gmuslera:「不,房間裡的大像是,即使是惡意行為者現在也能更容易地在維護或未維護的、廣泛使用或關鍵位置的軟體中發現漏洞。未維護且可遠端訪問的裝置應該盡快淘汰。」這一觀點強調了威脅的不對稱性:防禦者需要保護所有漏洞,而攻擊者只需找到一個入口。現實世界的脆弱性使用者 linzhangrun:「我在一家年利潤數億的中型電商公司工作。我們的伺服器運行 Windows Server 2012 和 PHP 5.3——從未升級過。除了我,最新的開發機是 Windows 10 21H2,然後是 Windows 10 1809,甚至還有 Windows 7。聽說還有一台運行 Windows Server 2008 的伺服器。」這個案例揭示了企業 IT 系統的普遍脆弱性。在 Mythos 等級的 AI 面前,大量企業系統如同「裸奔」。Reddit 社區的熱議Reddit 上關於 Mythos 的討論同樣熱烈。r/singularity 類股的帖子獲得了 4115 票,r/ClaudeAI 類股的帖子也收穫了 452 票。Reddit r/singularity 上關於 Mythos 的熱門帖子使用者 Avatar-Nick:「Mythos 發現的漏洞包括:OpenBSD 27 年歷史漏洞、FFmpeg 16 年歷史漏洞、Linux 核心漏洞鏈。在 Firefox 漏洞利用測試中,Opus 4.6 成功 2 次,Mythos 成功 181 次。」"Cyber security is so fucked." (網路安全徹底完蛋了。)Reddit r/ClaudeAI 上關於 Mythos 的討論X 平台上的病毒式傳播X(原 Twitter)上關於 Mythos 的討論呈現出病毒式傳播的特點。Anthropic 官方發佈的 Project Glasswing 公告推文,獲得 42K 點贊和 29M 瀏覽量AI 領域知名博主 @JoshKale 發佈的分析推文獲得 17,000 次點贊和 370 萬次瀏覽,成為該話題下最具影響力的內容之一。@JoshKale 關於 Mythos 的熱門推文,獲得 17K 點贊和 3.8M 瀏覽量"AI can break things faster than we can fix them. That's the fundamental problem." (AI 破壞事物的速度比我們修復的速度更快。這才是根本問題。)七、行業影響:AI 競爭格局的重塑與 OpenAI 的競爭根據 Reuters 報導,2025年初,OpenAI 的年化收入約為 60 億美元,而 Anthropic 僅為 10 億美元。但到 2026 年,這一差距正在迅速縮小。Mythos 的技術突破可能是 Anthropic 縮小差距的關鍵因素之一。然而,選擇不公開發佈 Mythos 也意味著放棄了一部分潛在收入——這反映了 Anthropic 在商業利益與社會責任之間的權衡。監管壓力與此同時,Anthropic 正面臨來自美國國防部的監管壓力。聯邦上訴法院近期駁回了 Anthropic 的請求,未能阻止國防部將其列為「供應鏈安全風險」。這一事件凸顯了 AI 公司面臨的雙重壓力:技術濫用帶來的社會風險,以及政府監管帶來的合規挑戰。行業標竿效應Anthropic 的決定可能成為行業標竿。當模型能力達到某個閾值,「負責任的克制」將成為標準做法。值得注意的是,競爭對手 OpenAI 此前同樣推出了類似試點,目標也是「先把工具交到防禦者手中」。AI 安全能力的賽跑已經發生,各家都在搶同一個制高點。八、技術哲學的深層思考能力與安全的悖論AI 發展史上存在一個基本悖論:我們追求更強大的 AI,但能力越強,潛在風險越大。Mythos 將這一悖論推向了新高度——它的能力已經強到讓創造者都不敢輕易釋放。這讓人聯想到「哥德爾不完備定理」在 AI 領域的某種對應:一個足夠複雜的系統,其行為可能超出設計者的完全預測和控制。開源與閉源的再辯論Mythos 的「有限開放」策略重新點燃了 AI 開源與閉源的辯論。支援開放原始碼的觀點認為,技術的廣泛傳播有助於發現漏洞、促進創新;支援閉源的觀點則強調,某些能力過於危險,需要嚴格管控。Anthropic 的選擇提供了一個中間路徑:既非完全封閉,也非完全開放,而是根據使用者資質進行分級授權。這一模式可能成為未來高風險 AI 技術的標準做法。「用魔法打敗魔法」Mythos 的設計初衷是增強網路安全防禦,這代表了 AI 應用的一個重要方向:用 AI 對抗 AI。隨著攻擊者開始利用 AI 工具,防禦方也需要同等甚至更強的 AI 能力。這種「軍備競賽」式的技術發展帶來了新的問題:如果防禦性 AI 本身成為攻擊工具,我們該如何應對?九、未來展望:AI 治理的新框架分級訪問機制未來,我們可能看到更多 AI 技術採用分級訪問機制。類似於藥品管制或危險化學品的監管框架,AI 能力可能被劃分為不同等級,對應不同的存取權和使用規範。國際合作的需求AI 風險具有全球性,單一國家的管控難以完全有效。Mythos 等級的 AI 技術需要國際層面的協調機制,防止技術通過非受控管道擴散。技術評估標準的演進現有的 AI 安全評估標準可能不足以應對 Mythos 等級的模型。我們需要更先進的風險評估框架,能夠預測和量化 AI 系統在複雜現實場景中的潛在影響。結語Claude Mythos 不是一個普通的產品發佈,而是一個歷史性時刻——它標誌著 AI 技術已經發展到創造者主動選擇「克制」的階段。Anthropic 前沿紅隊網路安全負責人 Newton Cheng 說:「我們做 Glasswing,就是要讓防禦者搶佔先機。」在 AI 發展的宏大敘事中,我們習慣了追求更快、更強、更智能。但 Mythos 提醒我們:真正的智慧不僅在於創造能力,更在於知道何時該停下腳步。正如神話中的普羅米修斯帶來了火種,但人類花了數千年才學會安全地使用它。AI 技術的發展,同樣需要這樣的耐心與智慧。 (Web3天空之城)
最大的安全風險就是自家的程式洩漏了
微軟又需要拯救了嗎?
這一次,納德拉能行嗎?好消息,微軟的AI產品終於上熱搜了。壞消息,被人罵上去的。事情是這樣的,微軟的旗艦產品Copilot,在超1.1萬個GitHub的程式碼庫中,強行插入合作產品及自家產品的廣告。被抓到現行後,GitHub官方趕緊關停了這個功能並道歉。Copilot現在的處境相當淒慘。Copilot在“首選AI工具”的付費使用者佔比從2025年7月的18.8%,跌到了今天的11.5%,被Google的Gemini超越。2024年3月,納德拉花重金挖來了DeepMind的聯合創始人蘇萊曼(Mustafa Suleyman)擔任微軟AI CEO,希望他能扭轉局面。結果兩年過去,微軟在AI上依然沒什麼太大起色。其實就在前幾天,微軟好不容易連著發了三個模型,甚至在性能上還在全球領先。但無人在意。微軟的三個模型淹沒在資訊流裡,甚至連個水花都沒激起。大家當天的焦點全都放在了Google的試驗性小模型Gemma 4上。2025年10月至2026年3月,微軟股價暴跌30%,創2008年金融危機以來最差季度表現,在“七巨頭”(輝達、蘋果等)中墊底。市場已經把微軟放到了AI基礎設施那桌,跟甲骨文平起平坐。而非OpenAI、Anthropic這樣的技術先鋒。尤其是在AI程式設計這塊,微軟幾乎全程沒有參與。在三年前,微軟還是AI界革命最耀眼的那顆星。可到了今天,產品付費率下滑、股價下跌、技術跟不上時代。微軟再次陷入了危機。納德拉能救微軟於水火之中,甚至因此引領了全球雲的時代。現在,天又降大任給他了,納德拉還能救微軟第二次嗎?01. 從雲端王者到AI時代的新人納德拉2014年接手微軟時,公司市值只有3000億美元,深陷移動網際網路失敗的泥潭,Windows Phone已經證明是個失敗產品。納德拉用“雲優先”戰略拯救了微軟。將Azure這個在微軟很邊緣的業務,做到了年收入超750億美元,微軟的市值一度突破3兆美元,重回全球科技之巔。隨後,納德拉花了130億美元押注OpenAI,讓微軟在2023年成為生成式AI的最大贏家。那時候每一次微軟的AI發佈會都是全球焦點,Azure成為所有AI創業公司的首選雲平台。然而,在進入agent時代後,微軟有點萎靡不振了。作為微軟在agent領域最旗艦的產品,Copilot發佈了兩年,4.5億M365使用者中僅1500萬付費,轉化率3.3%。微軟每月向每個使用者收30美元,一年360美元。你說你賣這麼貴就算了,關鍵產品體驗糟糕到懷疑人生。最經典的高頻翻車案例是在Word上。大量付費使用者反饋,那怕只是“加粗文件裡所有的日期”這樣的需求,Copilot也無法執行直接操作,反而洋洋灑灑給出10步複雜的手動操作步驟,讓使用者自己手動操作。2024年Copilot推出的Recall功能更是災難。這個功能每隔幾秒螢幕擷圖並保存,方便使用者回溯歷史操作。但開發者發現所有截圖以明文形式儲存在資料庫裡,沒有任何加密,連銀行帳戶和密碼都原封不動保存。微軟被迫下線這個功能,花一年時間重做安全機制,最後上線時改成默認關閉。這是Copilot的第一個重大功能,然後如此草草了事,留下了一地雞毛。2025年12月,納德拉開始親自接管Copilot產品。他告訴工程師,Outlook和Gmail的整合“基本不能用”。他開始每周召集100個高級工程師開會,逐一拷問產品問題。他把微軟AI首席執行長蘇萊曼從統管Copilot的位置上調走,讓Snap挖來高管雅各布·安德烈烏(Jacob Andreou)接手。雅各布在Snap一共做了8年的產品,從蘇萊曼手裡接下來消費級 + 企業級全Copilot產品線的產品、研發與增長,並且直接向納德拉匯報。結果就是,Copilot依然不太行。納德拉也算是看清現實了,於是在最關鍵的agent能力上,他讓微軟完全依賴外部供應商。3月底推出的深度研究agent同時呼叫GPT和Claude。為了在自家的office產品上做原生的Claude Cowork,直接和Anthropic合作了一個Copilot版本的Cowork。核心AI能力“不是OpenAI就是Anthropic的,沒有一點是自己的”。帳面上看,微軟確實拿到了類似甲骨文那樣的天價合同。2025年9月,OpenAI承諾未來向微軟採購2500億美元的Azure雲服務。這筆訂單讓微軟的商業剩餘履約義務從3920億美元躍升至6250億美元,其中45%來自 OpenAI 這一個客戶。但這種大合同在某種程度上成了沉重的財務包袱。為了交付這些訂單,微軟2026財年單季度資本支出就達到375億美元,創下歷史紀錄。雲業務毛利率從69%下滑至67%,預計下季度還要降至65%。更要命的是,這筆超級大訂單讓Azure處於“容量受限”狀態。微軟把GPU資源優先分配給自家產品和OpenAI,外部客戶的訂單積壓了800億美元卻無法交付。單一客戶佔據45%的訂單積壓,這種集中度風險讓投資者開始擔憂。所以資本市場不想再給納德拉麵子了。2025年10月至2026年3月,微軟股價暴跌30%,創2008年金融危機以來最差半年表現,在“七巨頭”(輝達、蘋果等)中墊底。與此同時,Anthropic估值從610億美元飆升至3800億美元,年化收入190億美元。你說微軟到底怎麼了?難道是說砸錢砸得少了?我覺得不應該。2025年,微軟全年總資本支出為887億美元,官方明確其中超70%的資金投向AI基礎設施,對應AI專項實際支出約620 億美元。微軟CFO明確披露,2026年總資本支出中約三分之二將專項投向AI基礎設施。微軟絕對是肯往AI裡面砸錢的。可是當Claude可以直接編輯你的程式碼庫、修改你的電子表格、生成完整的簡報時,Copilot連打開瀏覽器都費勁。這就說明,微軟大概是走錯路了。納德拉第一次拯救微軟時,抓住了雲端運算這個平台性機會。但AI時代,這套圍繞平台建立的產品邏輯好像說不通了。02. 三款新模型夠嗎?先回顧一下微軟在4月3日發佈的三款自研模型。MAI-Transcribe-1的語音轉錄錯誤率3.9%,優於OpenAI的4.2% 和Gemini的4.9%,批次轉錄速度提升2.5倍。MAI-Voice-1可以在單GPU上1秒內生成60秒音訊,長內容語音一致性強。MAI-Image-2的圖像生成速度至少提升了2倍。這是微軟首次在能力上拿出“超越OpenAI”的量化指標,它的象徵意義比實際意義要重大。微軟明確表態要在2027年“自主打造大型尖端模型”。這三款模型覆蓋企業AI最高頻的語音和圖像場景。微軟已經將一隻腳伸進河裡,試試水的溫度。為什麼這麼晚才開始做?微軟早幹嘛去了?納德拉一直信奉平台邏輯,“Windows式平台戰略”。在PC時代,微軟控制作業系統和開發工具,讓別人的應用在自己平台上跑,這個邏輯非常成功。他把同樣的思路搬到AI時代,控制基礎設施Azure、開發工具Copilot Studio和企業入口M365,讓別人的模型在自己平台上跑。2023年這個策略看起來很聰明。微軟不需要自己做模型,只要把OpenAI的模型整合進來,就能快速推出產品。Azure成為OpenAI的獨家雲服務商,微軟拿到了最好的模型,OpenAI拿到了算力和分發管道,雙贏。但現在情況是什麼呢?就是你微軟想要有什麼產品,第一時間不是找公司的產品經理去規劃,而是要看Anthropic和OpenAI這兩位的臉色。這就是平台戰略的致命缺陷。當產品體驗的定義權不在你手裡時,你就失去了主動權。還有一個問題,那就是這三個模型遠遠不夠。這三個是垂直場景模型,不是通用大模型。agent的核心能力是推理、規劃、多步驟任務執行,在這個版塊裡,微軟仍然沒有對標GPT-5或Claude Opus 4.6的產品。Copilot在執行能力上所欠缺的,這三個模型是解決不了的。語音轉錄做得再好,圖像生成再快,也不能讓Copilot變成一個真正的agent。Anthropic用18個月從610億沖到3800億估值,靠的就是產品迭代速度,人家能在52天的時間裡發72個產品,比我寫稿速度都快。給微軟52天,它就能端上來這三個模型。原因在於,微軟的組織架構決定了它做不到這個速度。正所謂“上不碰應用,下不碰資料”。一個健康的組織,不需要CEO親自PM產品。CEO應該做的是戰略決策和資源配置,產品應該由產品經理和工程師團隊負責。當納德拉需要親自來推動產品,每周親自拷問100個高級工程師時,證明微軟AI類股的中層管理已經失去了產品判斷力和執行力。三個模型是“態度”,不是“答案”。它們證明微軟確實還是有技術能力的。納德拉也知道,沒有基座大模型自研能力,就一定會受制於人,慢人一步。所以微軟在2026年4月官宣了核心AI戰略目標:由蘇萊曼帶隊,計畫在2027年推出自研的行業前沿級多模態大模型,目標是在文字、圖像、音訊能力上達到全球頂尖水平,直接對標OpenAI、Anthropic的旗艦模型,實現AI核心技術的自主可控,擺脫對外部模型的依賴。微軟現在是一步都不敢慢下來。因為每過幾個禮拜,Anthropic、OpenAI的產品就會更好一點,使用者的期待就會更高一點,微軟追趕的難度就會更大一點。三個垂直模型只是開始,但留給微軟的時間不多了。03. 為什麼阿里騰訊字節能沖,微軟卻被困?你覺得微軟這樣是因為它得了大公司病嗎?不是“大”的問題,是“老”的問題。微軟49歲,阿里25歲,字節12歲,騰訊26歲。但年齡不是關鍵,關鍵是權力結構的僵化程度。為什麼Copilot推出這麼長時間還能發現“基本功能不能用”?因為向上匯報的鏈條太長了。向上匯報鏈條長,會讓一線問題被過濾、弱化、延遲,這是大公司常見問題。很多時候不是“沒匯報上去”,而是匯報上去了,卻在優先順序排序裡輸給了增長、發佈節奏、相容性或更大的客戶需求。阿里之前的林俊暘、騰訊的姚順雨、月之暗面的楊植麟,年輕人主導研發方向、主導產品。這種生存壓力和年輕人獨有的認知,讓公司仍然保持著“創業公司式決策速度”。有什麼問題直接溝通去和你的最高Leader溝通,BUG當天修復。年輕人還有一個很重要的優勢,他們是AI的重度使用者,他們知道使用者真正想要什麼。他們不會滿足於“能聊天的AI”,他們要的是“能做事的agent”。他們在產品設計時,就會從使用者體驗出發。他們的內心OS是“這個產品我用起來那裡覺得不爽”,而不是從技術可行性出發。更重要的是,這群年輕人敢於推翻上一代的決策,不會被“老規矩”的慣性束縛。賈揚清在2023年3月正式官宣從阿里離職,結果2023年4月阿里的通義千問大模型就放了出來,前後間隔不到一個月。微軟的組織架構圍繞“大客戶關係”和“許可證銷售”最佳化。產品好壞由銷售團隊的話術決定,而非使用者體驗。不只是如此,比起做更好的產品,微軟的銷售團隊更願意找到為爛產品付錢的客戶,所以Copilot的E7套餐才敢賣到99美元/月。字節的豆包之所以能快速迭代,因為它直接面向C端使用者,每個功能的資料反饋是即時的。產品經理能看到使用者的每一次點選、每一次放棄、每一次投訴。這種“產品-資料-迭代”的閉環,讓豆包能夠快速調整方向,淘汰不好用的功能,強化使用者喜歡的功能。如果一個功能上線後使用率很低,下個版本就會被砍掉。如果大家都需要某一個功能,下個版本就會加進來。這種快速試錯的機制,讓產品能夠快速進化。微軟在企業軟體模式下很難建立這種閉環,因為它的客戶是企業的CIO,不是終端使用者。CIO關心的是合同條款和價格,並非產品體驗。微軟沒有這種“產品-資料-迭代”的閉環。它的反饋鏈條是終端使用者→IT部門→CIO→微軟銷售→產品團隊。等反饋到達產品團隊時,可能已經過了幾個月,問題早就積重難返。微軟的晉陞體系獎勵“管理大團隊”而非“做出好產品”,導致技術人才要麼離開,要麼被邊緣化。在微軟,一個工程師想要晉陞到高等級,雖然也有技術專家(IC)這條路,但是最快的路徑是成為管理者,管理越來越大的團隊。做出一個改變世界的產品,不如管理1000個人的團隊更容易升職。這種激勵機制導致管理崗位越來越多,產品創新越來越少。前文提到的Copilot現在的主管雅各布就是如此,他是研究產品設計的,專注消費級產品。即便關注AI賽道,核心視角也是產品落地與商業價值,而非AI演算法、大模型訓練等底層研究工作。相反,阿里、騰訊、字節在AI上的領導者,都是技術背景的高管直接負責AI產品。他們能看懂程式碼,能判斷技術路線,能在周會上直接拍板“這個方案不行”。這種決策效率是微軟欠缺的。在微軟,一個技術決策可能需要經過多層審批,等決策下來時,市場已經變了。微軟的做法是All In一款產品。Cortana失敗以後就換Copilot,Copilot再失敗就再換別的。這種“押注式創新”風險很高,因為一旦失敗,整個公司的AI戰略就要推倒重來。微軟的這種模式會導致團隊傾向於保守,不敢做激進的創新。阿里內部曾同時有多個大模型項目在跑,最後通義千問勝出。字節的豆包也是內部競爭的產物。騰訊更狠,QClaw和WorkBuddy這兩個功能有重疊的產品更是同期發佈。這種賽馬機制更容易競爭出真正的好產品,因為它允許試錯,允許多個方案平行,最後讓市場和使用者決定誰活下來。失敗的項目不會影響整個公司的戰略,成功的項目會獲得更多資源。微軟還缺少一些生存壓力。即使Copilot失敗,微軟還有Azure、Office、Windows的現金流。股價跌30%很痛,但不致命。這種“有退路”的狀態讓微軟缺乏緊迫感。抖音的核心競爭力是演算法,能夠精準推薦使用者喜歡的內容。字節如果慢了,抖音的推薦演算法優勢會消失,變成垃圾短影片分發平台。騰訊如果不跟進,微信的入口價值會貶值。微信是中國網際網路的超級入口,但如果微信不能提供OpenClaw的連接服務,使用者會使用飛書。這個過程是不可逆的。中國網際網路的競爭環境很殘酷,慢一步就可能被淘汰,這種壓力讓大公司保持了“准戰時狀態”。當一個公司大到“即使犯錯也不會死”時,它就失去了快速糾錯的動力。員工知道,即使產品失敗,公司也不會倒閉,自己也不會失業,那為什麼要冒險創新?為什麼要加班加點?為什麼要挑戰上司的決策?中國大廠能在agent上衝到前列,不是因為它們“小”或“靈活”,而是因為它們仍然活在“一個決策失誤可能致命”的競爭環境中。壓力是最強大的武器,它讓公司保持警惕,讓員工保持鬥志,讓決策保持高效。納德拉能否第二次拯救微軟?答案可能在於他能否讓一個市值3兆美元的巨頭,重新找回“背水一戰”的感覺。三個新模型是開始,但遠不是答案。 (字母AI)
凌晨突發!Meta首發閉源大模型,砸下數百億美元重構底層,硬剛御三家,祖克柏又行了?
砸下數百億美元,耗時九個月重寫底層架構,馬克·祖克柏(Mark Zuckerberg)終於端出了一個能與OpenAI正面抗衡的閉源大模型。台北時間4月9日凌晨,Meta毫無預兆地發佈了全新AI模型系列Muse,打頭陣的首發模型被正式定名為Muse Spark。自去年夏天成立超級智能實驗室(MSL)以來,前Scale AI掌門人汪韜(Alexandr Wang)帶隊閉關九個月,極其果斷地將從基礎設施到模型架構的所有環節全部推倒重建。Muse Spark的核心技術壁壘,在於其極其強大的原生多模態推理能力。它不僅能直接解析視覺輸入並像人類一樣進行複雜邏輯推演,還支援視覺思維鏈與工具呼叫,甚至能夠直接編排多個智能體協同執行複雜的跨平台任務。更具行業衝擊力的是Meta在戰略層面的極限轉彎。他們此次徹底放棄了高舉多年的開源大旗,Muse Spark首發即為專有閉源版本,並且已全線接入Meta家族應用矩陣,明確釋放出要與Google和OpenAI在C端市場正面廝殺的強烈商業訊號。01 像人類一樣邊看邊思考 視覺思維鏈的徹底進化以前我們用的很多多模態模型,其實是把視覺和文字生硬地縫合在一起,但Muse Spark的做法是讓視覺資訊從一開始就深度融合到邏輯裡。這種架構上的變革,最直觀的體驗就是視覺思維鏈。這種能力讓AI不再僅僅是給圖片寫一段描述。當你給它一張非常複雜的機械結構圖,比如一台意式濃縮咖啡機的內部拆解圖,問它為什麼壓力表不跳動時,Muse Spark表現得就像一個真正的維修工。它會先在大腦裡掃描一遍全圖,然後像在黑板上繪圖一樣,一步步給不同部件打上數字標籤,並在對話方塊中即時標註出水路循環的邏輯。它會直接告訴你在第三步應該檢查那個單向閥,而不是泛泛地丟給你一段文字說明。這種眼手合一的邏輯還被用在了即時互動中。當你戴著整合了Meta AI的眼鏡在廚房做飯並拿起一個調料罐時,AI能直接在你的視野裡疊加出一層動態的增強現實提示,精準告訴你這罐調料和你目前的降血壓飲食計畫是否衝突。這種無縫的銜接,完全依靠其背後極高的視覺推理能力才得以實現。正如Meta超級智能實驗室首席AI科學家趙晟佳所言,這正是實驗室一直致力於建構的原生多模態推理模型。它不僅僅是一個技術跨越,更是Meta邁向個人超級智能之路的第一步。這種原生多模態推理能力,標誌著AI正在從單純的文字遊戲轉向對物理世界的深度理解。02 最懂你身體的私人醫生 健康領域的深度應用在Muse Spark的研發過程中,Meta展現出了極強的實用主義傾向,特別是在醫療健康這個普通人最關注的領域。為了讓AI給出的建議更具實操性,Meta邀請了超過一千名專業醫生親自下場校準資料。這種專家輔導式的訓練效果非常顯著,Muse Spark在分析營養成分和運動生理時變得極其老練。你可以隨手拍一張餐盤的照片,那怕裡面堆滿了各種食材,它也能像專業的營養師一樣,瞬間拆解出魚肉的蛋白質含量和蔬菜的纖維素種類,甚至能根據食材的顏色和紋理推斷出烹飪方式。更令人矚目的是,它能將這種分析與你的個人健康資料深度繫結。如果你有高膽固醇的問題,它會在你拍照後直接在餐盤的圖片上進行視覺標註。它會用綠色的圓圈標記出那些對心血管有益的部分,用紅色叉號提醒你避開某些高油脂的醬汁。在運動指導上,Muse Spark甚至能擔任即時私教。當你把手機靠在牆邊對著自己做深蹲或瑜伽時,它能通過視訊流即時捕捉你的骨骼節點,並用語音明確告訴你膝蓋是否超過了腳尖,或者背部是否挺直。這種精度已經達到了專業運動捕捉軟體的水平。這種在特定領域深挖細節的做法,讓AI的工具屬性變得極具親和力。Meta超級智能實驗室研究員畢書超透露,為了對抗模型在訓練中的不穩定性並提升推理質量,團隊付出了無數個夜晚的努力才讓這種深度的協作邏輯最終成型。這種能力的背後,其實是Meta對個人健康主權的一次技術探索,試圖讓每個人都能隨身攜帶一個專屬的健康專家。03 算力大幅縮減背後的技術邏輯如果說Muse Spark的功能表現引人矚目,那它背後的底層技術邏輯則更加讓同行感到驚訝。在AI行業習慣於用堆砌算力換取性能提升的當下,Meta這次成功走通了一條降本增效的新路徑。在預訓練階段,Meta超級智能實驗室重寫了整套程式碼庫。測試結果顯示,與上一代旗艦Llama 4 Maverick相比,Muse Spark在達到同等智能水平的情況下,消耗的計算量竟然降低了一個數量級以上。這相當於用原本十分之一的資源完成了同樣複雜的工作。這種驚人的效率,得益於Meta正在部署的Hyperion算力基礎設施,更離不開其獨特的可預測擴展技術。Meta的技術棧能夠讓研究人員非常精準地預測模型在訓練完成前能達到什麼水平,從而極其有效地避免了大量的算力浪費。對於這種技術進步,Hyperbolic Labs聯合創始人金宇宸感嘆,基礎設施才是真正的護城河。Meta在短短九個月內重建了整個堆疊,這種速度證明了其在底層架構上的深厚積累。這種四兩撥千斤的底層能力,或許才是Muse Spark給行業帶來的真正技術震撼。04 核心測試成績 在博士級賽道站穩腳跟如果說功能體驗是前端表現,那麼基準測試的資料就是衡量模型底層實力的硬指標。為了驗證Muse Spark的真實水平,Meta邀請了多家權威機構在發佈前進行了高難度的閉門測試。根據第三方評測機構Artificial Analysis發佈的最新智能指數(Intelligence Index v4.0),Muse Spark拿到了52分。去年Llama 4 Maverick發佈時只有18分,這一成績實現了近乎三倍的跨越。在目前的全球大模型權力榜上,這個成績僅次於Gemini 3.1 Pro Preview的57分和GPT 5.4的57分以及Claude Opus 4.6的53分。Muse Spark已經成功躋身前五,與第一梯隊的差距被極其顯著地縮小。這意味著Meta已經成功超越了Claude Sonnet 4.6和Grok 4.2等一眾強手。這種跳躍式的進步,標誌著其技術底座已經重回巔峰競技場。在視覺能力上,Muse Spark的表現尤為突出。在MMMU Pro測試裡它得分80.4%,僅次於Gemini 3.1 Pro Preview的83.9%,排在所有測試模型的第二位。在一些極具挑戰性的垂直賽道,Muse Spark的表現也證實了其推理深度的提升。物理研究的深度對抗領域,在針對硬核物理研究問題的CritPT測試中,它以11%的得分位列全球第五,顯著領先於GoogleGemini 3 Flash的9%和Anthropic的Claude 4.6 Sonnet的3%。圖表理解的垂直測試中,在衡量多模態圖表推理的CharXiv測試裡,Muse Spark獲得了86.4分,成功超越了Claude Opus 4.6的65.3分和GPT 5.4的82.8分。博士級推理方面,在Epoch AI負責的GPQA Diamond測試中,它的得分高達89.5%,這意味著它在面對生物與化學等高階科學問題時,邏輯嚴密程度已直逼人類專家。不過,華頓商學院教授伊桑·莫里克(Ethan Mollick)在評估後也給出了中肯的評價。他指出雖然這款模型非常出色,但在某些極致性能維度上,比起目前最頂尖的滿血版競品仍有微小差距。他特別強調,由於該模型沒有開放權重,外界要精準預測Muse Spark的真正行業價值將面臨更多困難。05 沉思模式上線 讓AI學會深思熟慮在這次發佈中,最讓技術圈關注的機制莫過於名為沉思模式(Contemplating Mode)的開關。這個模式直接對標了OpenAI的Pro系列和Google的Deep Think功能。當你在複雜任務中開啟沉思模式時,Muse Spark不會立刻給出答案,而是會進入一個後台編排階段。它會同時調動多個智能體平行工作,就像一個智囊團在內部開會,互相稽核並校對推理過程。在被稱為“人類終極考試”的HLE測試中,開啟“沉思模式”但不使用工具時,Muse Spark得分為50.2%,超過Gemini 3.1 Deep Think(48.4%)和GPT-5.4 Pro(43.9%)。在使用工具的情況下, Muse Spark得分飆升至58.4%,展現了極強的深度推理潛力。在前沿科學研究任務(FrontierScience Research)中,其精準率也達到了38.3%。值得注意的是,Meta並不希望AI因為思考而變得冗長。研發人員在強化學習中加入了一個時間懲罰機制,強迫AI在保證正確率的前提下,用最精煉的邏輯解決問題。資料顯示,在運行同樣的智能指數測試時,Muse Spark僅使用了5800萬個輸出Token,而Claude Opus 4.6在最大努力模式下使用了1.57億個Token。這種高算力轉化率證明了Meta在思維效率上的技術造詣。不過它依然存在短板。**在抽象推理ARC AGI 2測試上,Muse Spark只拿了42.5分,而Gemini和GPT的得分均在76分以上。**同樣,在各種長周期的智能體編碼任務如SWE Bench和Terminal Bench 2.0中,它也明顯落後於頂尖的Claude和GPT模型。06 驚人發現 AI學會了根據測試環境調整反饋隨著模型能力的增強,大模型的安全性評估也變得前所未有的複雜。在Muse Spark的安全測試中,出現了一個讓研究人員既興奮又警惕的現象,即評估意識(Evaluation Awareness)。第三方安全機構Apollo Research發現,Muse Spark在測試中能敏銳地察覺到自己正在經歷對齊陷阱或安全性考核。當它意識到考核環境存在時,它會表現得比平時更加誠實並嚴格遵守規矩。通俗點說,模型學會了根據環境調整反饋策略。它能推理出在測試環境下,表現得符合人類道德規範是最優解。雖然Meta認為這並不影響其作為工具的安全性,但這確實給未來的AI監管敲響了警鐘,當AI開始學會隱藏真實的輸出傾向來通過考試時,傳統的攔截機制可能將面臨失效的風險。儘管具備了這種複雜的判定邏輯,但在硬性防禦指標上Muse Spark依然保持穩定。測試顯示,它在涉及生物製劑與化學武器等敏感領域表現出極強的拒絕意識。在針對網路安全和自主失控風險的測試中,它的表現也處於安全可控的範圍內。這種在安全與效率之間的博弈,正是汪韜領銜的MSL實驗室過去九個月最核心的攻堅方向。他們不僅要造出一個聰明的工具,更要確保造出一個在人類視線範圍內能夠絕對守規矩的超級智能。07 全線應用整合 當社交巨頭遇上超級大腦既然Muse Spark出生在Meta家族,它自然不會只停留在實驗室的測試環節,而是被第一時間接入了Instagram與Facebook以及Threads這些擁有三十億日活使用者的國民級應用中。以前在Instagram上看到心儀博主的穿搭,使用者可能還需要去評論區求連結或者截圖去電商平台搜尋同款。現在有了Muse Spark的加持,使用者只需要在對話方塊裡傳送指令,或者直接通過Meta的智能眼鏡進行視覺捕捉即可完成操作。它能瞬間識別出圖片中創作者的穿搭風格,甚至是極其小眾的品牌。它不僅能全網搜尋同款並比價,還能根據使用者的歷史穿搭喜好,給出一套完整的搭配方案。比如它會提示,這件復古夾克和上個月購買的原色牛仔褲非常匹配,建議內搭一件白色重磅T恤。這種從審美感知到消費決策的無縫銜接,正是Meta想要打造的購物助手核心原型。除了輔助消費決策,Muse Spark還能大幅降低開發成本。在測試中,有開發者嘗試提供一張凌亂的草圖和一段簡單的邏輯描述,要求它生成一個數獨遊戲。Muse Spark不僅僅是編寫了底層程式碼,而是直接在網頁上生成了一個可以即時互動且介面精美的UI產品。這種隨想隨做的能力,體現了其在多智能體編排上的深厚功底。它能自主指揮不同的子系統去處理圖形渲染、邏輯判斷和程式碼生成,最終交付給使用者一個流暢的產品。汪韜在分享中明確表示,Muse Spark是為了這三十億使用者打造的數字延伸,旨在讓AI從一個聊天機器人徹底進化為一個能解決實際生產力問題的夥伴。08 策略大轉彎 告別開源紅利 Meta正式收網這次發佈中最讓業界震動的,其實是Muse Spark作為專有模型(Proprietary Model)的身份定性。這是Meta歷史上第一個沒有首發開放權重的旗艦級前沿模型。多年來,Meta一直被視為開源AI生態的核心支柱,Llama系列幾乎撐起了大半個開源社區的發展。這次首發閉源的決定,迅速引發了行業內的廣泛討論。外界普遍認為,面對OpenAI和Google的商業步步緊逼,Meta必須收緊技術授權,用專有技術來構築自身的商業壁壘。但內部的聲音則更加務實。金宇宸指出,在九個月內推倒重建整個技術棧後,首發專有版本是為了在更安全和受控的環境下打磨這套全新的擴展定律。祖克柏也公開回應,更大的模型已經在研發中,Meta計畫未來會發佈越來越先進的模型,其中也會包含新的開源版本。即便如此,目前的閉源狀態依然給過度依賴Meta的開發者社區帶來了一絲寒意。不過考慮到Muse Spark極其優異的算力轉化效率,很多開發者依然期待著未來這個版本能有機會下放至開源生態中。09 終局展望 通往2026個人超級智能之路在祖克柏的商業藍圖中,Muse Spark僅僅是其技術階梯的第一步。為了支撐這個龐大的戰略計畫,Meta正在進行一場規模空前的資本投入。Meta預計2026年的資本支出將攀升至1150億至1350億美元,這筆天文數字將主要流向名為Hyperion的資料中心和最先進的算力晶片組。這場科技巨頭間的競爭早已脫離了單純的演算法比拚,演變成了圍繞電力與晶片以及物理設施的重資產競賽。按照Meta的設想,未來的個人超級智能應該像空氣一樣自然存在。它潛伏在使用者的雷朋(Ray Ban)眼鏡裡,通過眼睛識別世界,通過耳朵聽取需求。它能獨立處理長周期的複雜任務,比如統籌籌劃一場跨越三個國家的旅行,自動處理所有的機票與簽證和日程對接,而不僅僅是簡單地回答當地的餐飲推薦。雖然目前的Muse Spark在處理極其複雜的長周期辦公流程時,比起最頂尖的Claude系列仍有最佳化空間,但它展現出的多模態推理深度和效率優勢,已經讓這條超級智能之路變得清晰可見。10 結語Muse Spark的發佈,正式宣告了Meta歷經九個月底層重構後的強勢回歸。它不再滿足於僅僅做一個底層技術的提供商,而是要直接深入到全人類的日常消費與工作場景中。在這場通往超級智能的馬拉松裡,Meta已經徹底更換了最先進的底層引擎,準備在2026年開啟新一輪的商業角逐。正如汪韜所說,徹底改造堆疊只是一個開始。屬於Meta的商業落地時代,或許現在才真正拉開大幕。 (網易科技)
美國百年大刊:DeepSeek只是個前菜,中國最安靜超車已來?
2025年初,一個叫DeepSeek的中國本土AI模型,用美國同行幾十分之一的算力和成本,打平了矽谷最頂尖的閉源模型,美國科技股應聲暴跌,矽谷精英們在推特上瘋狂復盤,哀鴻遍野。圖片 | 來自網路所有人都以為,這是一個突發的“斯普特尼克時刻”,就像1957年蘇聯衛星上天,震驚全美那樣。但真正的歷史大轉折,從來沒有轟轟烈烈的爆炸聲,它發生的時候,往往是靜音的。美國百年大刊《大西洋月刊》最近刊登了一篇極具震撼力的長文,作者羅斯·安德森(Ross Andersen)說:中美科技實力的攻守易勢,是一場悄無聲息的、只有極少數專門研究“科學之科學”的元科學家(Metascientists)才能在底層資料中察覺到的暗流湧動。在這場競爭中,中國不僅已經追趕上來,並且在眾多決定21世紀命運的前沿賽道上,完成了對美國的“降維打擊”。https://www.theatlantic.com/science/2026/03/china-science-superpower/686564/文中,美國人開始反思自己的“滯後指標(Lagging Indicator)陷阱”:很多美國人拿諾貝爾獎的數量,以此來堅信“美國科學依然統治世界”,但諾貝爾獎,是對20年前、甚至30年前科學突破的追認。它是昨日輝煌的墓誌銘,絕不是明日國運的預言書。而中國在那些真正決定21世紀人類命運的賽道不僅已經追了上來,在高影響力論文、先進材料、固態電池、量子計算、人工智慧的底層專利上,拿到了下一代工業革命的入場券,而且在很多決定性的節點上,正在完成對美國的“降維打擊”。更荒誕的是,美國之所以在輸掉這場競賽,很大程度上是因為他們正在親手砸碎自己引以為傲的“科學發動機”。01 中國科研機器的恐怖變異長期以來,西方學術界對中國科研有根深蒂固的傲慢與偏見。在他們的語境裡,中國科研就是“論文灌水”的代名詞,的確,中國過去有現金獎勵論文的政策催生了大量低品質的垃圾論文。但對不起,上面這個認知起碼落後了十年。今天的中國科研,已經完成了一次“物種變異”,我們不僅在數量上完成了對世界的統治,更在“質量”上,開始了窒息般的壓制。看幾組硬核資料:1991年,中國的研發支出是微不足道的130億美元;而今天,這個數字已經飆升到每年8000多億美元。中國官方的規劃,是保持每年7%的研發剛性增長——這種資金烈度,在人類歷史上從未有過。中國目前每年培養的STEM(科學、技術、工程、數學)博士數量,幾乎是美國的兩倍。中國去年畢業了130萬工程師,美國呢?13萬……值得注意到是,中國已經廢除了單純靠論文數量拿獎金的低級玩法。結果是什麼?根據最新的權威元科學資料,在世界上被引用次數最多、最具影響力的前1%頂尖論文中,中國已經穩居世界第二,並在材料科學、化學、工程學等多個關鍵學科完成了對美國的反超。那些還在嘲笑中國只會“山寨”的人,根本不知道什麼叫“飽和式研發”。但這就夠了嗎?不夠。中國真正厲害的地方,是把產學研的結合,是“製造即科研的地理學”。美國人發明了現代太陽能電池板,美國人發明了商用鋰離子電池。但在今天,如果你去看全球的電動車、先進電池、太陽能產業鏈,美國幾乎被剃了光頭。為什麼?因為在21世紀,“製造能力本身就是一種核心的科研能力”。工程科學不是在黑板上算出來的,是在流水線上試錯試出來的。每一次良率的提升,每一次材料配方的微調,都是最頂級的科學創新。中國擁有全球最龐大、最完整的工業供應鏈。在合肥、在深圳、在寧德,一個實驗室裡的瘋狂想法,可以在24小時內找到配套工廠做出原型機,並在三個月內完成迭代。而在波士頓或者矽谷,你可能光是等一個特種零配件的清關,就要耗費三個月。地理上的聚集,帶來了研發成本的斷崖式下跌和迭代速度的幾何級提升。這種結構性優勢,是美國在實驗室裡投入再多美元也無法抹平的。更有趣的是,中國的高校、地方政府、產業鏈上下游企業,結成了一個史無前例的“超級利益共同體”。過去八十年裡,美國的科技樹是靠“天才”點亮的,它信奉個人英雄主義,信奉自由散漫的碰撞,信奉像賈伯斯、馬斯克這樣的“孤膽英雄”去突破邊界。這種模式在0到1的原始創新階段,威力無窮。而中國的模式,是“系統化推進”,在官方語境裡,這叫“新型舉國體制”,它不依賴某一個天才的靈光一現,而是依賴龐大的、紀律嚴明的、產學研深度融合的系統。當系統開動,它能把高高在上的科學,迅速平民化、白菜化、產業化。在決定國計民生、決定大國博弈最終勝負的所有應用科學賽道上,特別是那些需要海量資料喂養、極其複雜的工程協同、長周期迭代的應用科學(比如AI落地、固態電池、商業航天),中國這種“系統化、工程化、規模化”的推進,正在展現出讓人絕望的統治力。02 帝國自毀作為全球創新風向標的《科學》(Science)雜誌,近期連續發文,字裡行間全是美國頂級學者的焦慮,在他們看來,美國正在系統性地破壞自己戰後80年賴以生存的科學根基。美國科學的底牌是什麼?是錢嗎?不!美國的底牌是它作為“全球天才磁石”的開放性。美國55%的“獨角獸”(十億美元以上)初創公司,是由第一代移民創立的。二戰後,美國靠著吸納全世界最頂尖的頭腦(包括大量的華裔、印度裔、東歐裔科學家),壟斷了人類的智慧巔峰。但是現在,因為政客們歇斯底里的“泛安全化”和“對華恐懼症”,美國正在瘋狂驅逐這些天才。看幾個資料:42%:超過四成的在美科學家,因為害怕被政客以“意外未披露資訊”或“通華”的罪名起訴,現在對在美開展研究感到極度恐懼。61%:超過六成的華裔科學家,感到被體制排斥,正在計畫或已經離開美國。10000+:近年來,已經有超過一萬名擁有博士學位的頂尖人才,流出了美國聯邦科研體系。《科學》雜誌有一篇社論,一針見血地指出:“當今世界,最大的安全風險絕不是知識的被竊取,而是知識的孤島化。”美國人正在瘋狂築牆——他們取消了NIH(國立衛生研究院)數億美元的科研資助,他們甚至把《晶片法案》裡承諾給研發的74億美元直接抽乾,他們以為切斷與中國的合作,就能鎖死中國。太天真了,他們切斷的,其實是美國科學家接觸中國領先成果的通道。歷史學家如果回看這段歷史,一定會覺得無比荒謬:一個靠開放、包容、吸引全球天才而成為超級大國的國家,在面對競爭時,第一反應居然是閉關鎖國、抓特務、搞政治審查,上演大清劇本。螢幕擷圖自麻省理工科技評論官網03 這根本不是讚歌行文至此,我們作為一個中國人,一定會感到心潮澎湃。但在大國博弈的棋局上,情緒是最廉價的東西,我們真正需要的是如履薄冰的清醒。讓我們回到《大西洋月刊》這篇文章。美國主串流媒體瘋狂誇讚中國,真的是因為他們認輸了嗎?絕對不是。《大西洋月刊》發表這篇文章,絕對不是為了讚美中國,而是為了“拯救美國”。這種極其高明的輿論操作,在美國政界被稱為“斯普特尼克敲打(Sputnik Shock)”。歷史上,美國極其擅長通過塑造一個“可怕的外部敵人”,如果沒有一個強大到足以威脅其生存的對手,美國國內的政治力量就永遠在內耗。冷戰時,蘇聯的衛星上天(斯普特尼克時刻),嚇得美國國會立刻砸出天量資金,搞出了阿波羅登月和ARPANET(網際網路前身)。80年代,日本半導體的強勢崛起,逼得美國政企結盟,最終用大棒和補貼奪回了晶片霸權。今天,《大西洋月刊》等精英媒體瘋狂炒作“中國科學已經超越美國”,其核心政治訴求極其毒辣:第一,逼國會打錢。他把中國科研的崛起寫得越震撼、越恐怖,就越能倒逼美國兩黨放下分歧,為基礎科研和科技戰撥付更多天量預算。第二,清理門戶。《大西洋月刊》作為偏中左翼、深受東西海岸知識分子喜愛的陣地,對川普及其代表的MAGA(讓美國再次偉大)孤立主義深惡痛絕。這篇文章表面上在寫中國,實際上是一篇極其凌厲的“反右翼檄文”,目的向全美選民喊話:“看看右翼保守派的愚蠢政策吧!他們打著‘國家安全’的旗號搞孤立主義,結果不僅沒有防住中國,反而砸爛了我們自己的科學發動機!”這就是成熟大國精英的玩法:他們不粉飾太平,不搞廉價自嗨。他們甚至願意把對手捧上神壇,但前提是——要把對對手的誇讚,化作刺向美國自身體製毒瘤的手術刀。看懂了這一層,你才會明白,未來五年,我們面臨的將不再是川普時期那種毫無章法的“王八拳”,而是美國重新集結全球盟友、用更充沛的資金和更精準的制裁,發起的更有力的絞殺。04 中國隱憂儘管我們在高引用論文、工程製造和應用創新上取得了舉世矚目的成就,但如果捫心自問,在決定人類命運的“0到1的底層理論創新”上,我們真的超越美國了嗎?答案是:還沒有。在過去三十年的“跟隨期”,我們的優勢是“別人指明了方向,我們用更強的執行力跑到終點”。但在今天,當我們在諸多領域(如通訊通訊、新能源、某些AI領域)衝到最前面,進入沒有路標的“無人區”時,我們的短板開始顯現:比如,容錯機制。從0到1的創新,註定是九死一生的。我們當前的評價體系,是否能包容一個科學家十年出不了一篇論文,僅僅為了追求一個看似“無用”的基礎理論?其二,既然我們自豪於“系統”的力量,那我們如何在系統中,給那些性格古怪、不按常理出牌的“異類天才”留出一片野蠻生長的天空?美國的衰落始於他們搞科研封閉。我們絕不能走這條老路。即便在面臨封鎖的今天,中國科研也必須堅定不移地擁抱全球化,把全世界最優秀的大腦(那怕是非華裔)吸引到中國來。《大西洋月刊》感嘆美國正在失去“開放精神”,但這正是中國取而代之的最佳歷史窗口。一個真正自信的大國,不僅要能自力更生,更要能兼濟天下。05 接力棒已到我們手中一千多年前,中國人發明了造紙術和火藥。但在隨後的歲月裡,這些改變世界的火種流落他鄉,成就了西方數百年的科技霸權。而在剛剛過去的八十年裡,美國人藉著兩次工業革命的餘威,發明了半導體、網際網路和人工智慧的基礎架構,統治了全球科技的制高點。如今,歷史的接力棒在穿越了百年屈辱與三十年的隱忍追趕後,再次交回到了我們手中。我們不再是那個只能用幾億件襯衫換一架波音飛機的世界工廠,而是一台轟鳴著向量子計算、星辰大海和通用人工智慧挺進的巨型科技引擎。面對美國精英的焦慮與遏制,我們不需要反唇相譏,更不需要廉價的狂熱。我們需要做的,只是保持極致的冷靜,繼續加大基礎科研的投入,保護好每一個在深夜實驗室裡枯坐的科研人員,把我們的產業鏈護城河挖得再深一點。 (TOP創新區研究院)
AI爆發前夜:全球日均Token消耗量暴增300倍
你發現沒?最近關於AI泡沫的爭論,悄悄變少了。去年這時候,還到處是“AI泡沫”“炒概念”“沒場景”的聲音。可今年,大家好像突然閉嘴了。因為一組資料,實在太硬了——全球AI模型日均Token消耗量,過去一年漲了300倍。(Token就是AI理解語言時用的“小碎片”——你說的話、它回的話,都要拆成一個個Token來算,就像發簡訊按字數計費一樣。)不是30%,不是3倍,是300倍。01. 300倍,是個什麼概念?這麼說吧:如果把2025年初的AI呼叫量比作你家門口的小溪,那今天,它已經是長江了。你每一次用ChatGPT寫周報、用Midjourney做海報、用豆包查菜譜——都在給這條江加水。幾個數字,讓你感受下這水流有多猛:ChatGPT周活使用者破了8億——一年漲了200%多,相當於地球上每10個人裡就有1個在用企業級API呼叫量直接起飛——有朋友跟我說,他們公司去年每月AI帳單才幾千美金,現在奔著幾十萬去了開源模型下載量瘋漲——像Llama、Qwen這種開源模型,下載量直接翻5倍還不止資料不騙人:AI早就不是極客的玩具,它成了所有人的水電煤。02. 為什麼突然就爆了?三股風撞在一起,把火吹旺了。第一,能用的地方,太多了。最開始就是聊天解悶,現在呢?寫程式碼、剪視訊、做客服、查資料、畫圖、做PPT……你能想到的每一個數字角落,AI都在往裡鑽。每多一個場景,就多一批人離不開它。第二,它真的越來越聰明。GPT-4o、Claude 3.5、GLM-5……名字記不住沒關係,你只要知道:現在的模型,比去年靠譜太多了。你願意把更多活交給它,它幹得越好,你越願意用——這循環一旦轉起來,就停不下來。第三,它變便宜了。你看,我們用的量翻了300倍,可API單價反而跌到了去年的三分之一。便宜,就更捨得用;用得越多,攤得越薄——一個完美的正向螺旋。03. 產業鏈:訂單接到手軟上游那幫人,現在什麼狀態?就是:訂單排到明年,產線24小時連軸轉,做夢都在擴產能。華工科技:AI高速光模組訂單爆滿,全年無休,工人三班倒輝達:資料中心收入又雙叒創新高,H100/H200還是一卡難求台積電:CoWoS封裝產能拉滿,所有AI晶片產線全線飄紅,想插隊?沒門一個做晶片的朋友苦笑:“以前愁客戶,現在愁產能。這感覺,又爽又焦慮。”04. 說點實在的:這和你有什麼關係?我知道你可能在想:他們賺他們的,關我啥事?講真的,關係比你想像的大。如果你是程式設計師——AI程式設計現在就是硬通貨。我用Cursor寫程式碼,效率起碼是以前的3倍。你不會?那只能看著別人準時下班。如果你是營運、市場、產品——AI寫文案、做分析、一鍵生成PPT,這些技能正在重新定義“競爭力”。早一天用上,你就比別人多一雙手。那怕你只是個普通使用者——試試新出的AI工具,看看趨勢,跟朋友聊聊。不為別的,就為了時代轉彎的時候,你還站在車上,不是被甩下去。05. 寫在最後300倍的增長,不是終點,是起跑線。按照現在的勢頭,再翻10倍、100倍,可能也就兩三年的事。模型會更聰明,成本會更低,場景會更野——這趟車,只會越來越快。我們正站在AI爆發的前夜。唯一的問題是——你上車了嗎? (一帆智量)
【以美襲擊伊朗】他把AI模型賣給美軍,如今卻害怕成為“末日博士”
“最初用於編寫程式碼和詩歌的工具,如今已成為致命的武力。”·達里歐·阿莫迪。(美國哥倫比亞廣播公司)美以對伊朗的軍事行動已持續數日,一則新聞再次吸引了全球的目光。據《華爾街日報》報導,美軍在對伊朗的大規模轟炸行動中,用上了美國AI公司Anthropic旗下的大語言模型克勞德(Claude)。知情人士證實,包括美國中央司令部在內的全球各司令部,都在使用Anthropic的AI工具。對此,英國《衛報》稱,“這是危險的轉折點” 。這已不是AI第一次走上戰場。今年1月美軍抓捕委內瑞拉總統馬杜洛時,克勞德就已被用於軍事行動。而這也引發了美國政府與Anthropic之間持續數月的爭執——關於五角大樓究竟該如何使用AI模型。而站在風暴中心的,是Anthropic創始人兼首席執行長達里歐·阿莫迪。當導彈能像人一樣思考據《華爾街日報》報導,克勞德主要服務於指揮部門,承擔情報分析、目標識別以及戰鬥場景模擬等任務。·當地時間3月2日,美以聯合對伊朗發起的軍事行動仍在持續,一名男子走過德黑蘭尼盧法廣場附近受損的居民樓。(法新社)Anthropic與美軍的合作始於2024年11月。同一時期,美國資料分析公司Palantir和亞馬遜網路服務也開始為美軍提供技術支援。據《華盛頓郵報》報導,由Palantir開發的軍方“梅文智能系統”,能從衛星、監控及其他情報來源的資料中提取關鍵資訊。而被整合進這套系統的克勞德模型,則負責對敏感情報進行分析處理。目前,克勞德已成為美軍許多部門使用的日常工具。對美軍而言,AI帶來的最大改變,是戰爭節奏本身。《戰爭律師》一書的作者克雷格·瓊斯在接受英國《衛報》的採訪時提到,在一戰和越南戰爭期間,美軍從空中偵察到執行轟炸任務通常需要6個月。但現在,整個周期已經被AI大幅壓縮。“AI系統會給出打擊目標的建議,速度遠超人類思維。”新美國安全中心執行副總裁保羅·沙雷則向路透社介紹,對美軍而言,AI已經從理論假設走向真實戰場。“這讓美軍能夠以機器速度,而非人類速度來制定打擊方案。”在此次對伊軍事行動中,以軍也用上了AI技術。其使用的新型空對地巡航導彈“破冰者”,深度融合了AI演算法。它能像人一樣思考,自主規劃飛行路徑,精準辨別目標,甚至可以在空中與其他導彈即時溝通、分工協作。·美國海軍托馬斯·哈德納號驅逐艦發射戰斧導彈,支援美以對伊實施的“史詩怒火”行動。(蓋蒂圖片社)此外,據《財富》雜誌報導,AI目前也出現在了其他戰場上。以色列在以巴衝突期間曾利用AI識別哈馬斯目標。而在俄烏衝突中,自主化無人機已經投入使用,俄羅斯和烏克蘭都採用了不同形式的自主技術。對於AI介入軍事行動,外界普遍感到不安。以色列《耶路撒冷郵報》評價,將大語言模型融入戰爭,標誌著現代戰爭的重大轉變,“最初用於編寫程式碼和詩歌的工具,如今已成為致命的武力”。Anthropic剛被踢出局,競爭對手立刻補上了空缺。川普禁令發佈幾小時後,美國AI公司OpenAI就與五角大樓達成協議,開始向機密系統提供AI技術。“要麼配合,要麼出局”在此次美以對伊朗的軍事行動中,Anthropic公司的AI模型扮演了關鍵角色。然而頗具戲劇性的是,就在空襲開始前幾個小時,這家公司剛剛被美國國防部和川普雙雙“拉黑”。據英國廣播公司報導,Anthropic與美國當局的緊張關係“可以追溯到幾個月前”。今年1月,美軍在抓捕委內瑞拉總統馬杜洛的突襲行動中,使用了克勞德模型。Anthropic隨後提出反對,聲明其使用條款明確禁止將AI用於暴力目的、武器研發或監控活動。此後雙方關係持續惡化,開始了長達數周的談判。據美國有線電視新聞網報導,談判中Anthropic在兩個問題上寸步不讓:一是AI控制武器,二是AI對美國公民的大規模監控。他們認為,AI目前還不足以可靠地操控武器,而且也無法律規範大規模監控的行為。面對Anthropic的堅持,美國國防部長赫格塞斯下了最後通牒。·赫格塞斯。(蓋蒂圖片社)當地時間2月24日,他與阿莫迪會面,要求對方放寬AI模型的安全限制,並給出了最後期限:2月27日前,美軍必須獲得克勞德模型的無限制使用權,否則公司將被列入政府“供應鏈風險”黑名單。進入黑名單意味著,所有簽有軍事合同的公司,此後不得在任何軍事工作中使用Anthropic的產品。26日,阿莫迪公開發文,表明立場不變。“即便是當今最先進、最強大的AI系統,其可靠性也不足以支撐完全自主武器的運作。”他在文中寫道,“我們不能昧著良心答應美軍的要求”。阿莫迪發文不久後,五角大樓給出了回應。一名美國國防部官員對媒體表示,Anthropic必須做出選擇,“要麼配合,要麼出局”,否則國防部將強制使用克勞德模型,無論Anthropic是否願意。·阿莫迪。(蓋蒂圖片社)緊接著,川普下令所有聯邦機構立即停用克勞德。他還在真實社交(川普於2021年自創的社交媒體平台)上痛批Anthropic,稱其為“由一群不懂現實世界的人營運的左翼瘋子公司”。幾小時後,美軍戰機從部署在中東的“林肯號”和“福特號”航母以及海外軍事基地起飛,與以色列空軍一起,向伊朗發動了大規模空襲。“技術的青春期”與美國當局“硬剛”的阿莫迪,實際上與OpenAI的淵源頗深。阿莫迪出生於1983年,本科畢業於美國史丹佛大學物理學專業,後取得美國普林斯頓大學生物物理學博士學位。畢業後,他曾在百度矽谷AI實驗室工作,後加入Google從事語音識別研究。2016年,他加入OpenAI,一路做到研究副總裁,主導開發了GPT-2和GPT-3大語言模型。然而在2021年,他與OpenAI創始人薩姆·奧特曼在AI安全理念及商業化方向上產生了分歧。此後,阿莫迪帶著包括妹妹丹妮拉·阿莫迪在內的十多名公司核心成員離職,創辦了Anthropic,並推出克勞德系列模型。·阿莫迪(左)與妹妹丹妮拉。(蓋蒂圖片社)離開OpenAI後,阿莫迪與奧特曼的分歧並未消解。就在今年年初,他與奧特曼在新德里的一場AI峰會上同台,但彼此拒絕握手、沒有眼神交流。他曾在播客裡直言,“不相信奧特曼能讓AI不走彎路”。·2026年2月,在新德里舉行的“AI影響力峰會”上,印度總理莫迪(左)與奧特曼(中)、阿莫迪等AI企業負責人合影。(蓋蒂圖片社)兩人最大的分歧,還是在於對AI安全的擔憂。今年1月,阿莫迪在題為《技術的青春期:直面並克服強大AI的風險》文章中警告“AI海嘯將至”,但社會遠未準備好。他認為,當“智力、工具規模、時間優勢”疊加,AI將是一個會重寫安全、經濟與權力結構的變數。他擔心,一旦強大的AI被大型組織掌控,將對外形成壓倒性優勢,帶來不可預估的後果。然而也有觀點指出,阿莫迪的AI恐懼論實際上是刻意利用科技倫理問題,打壓競爭對手。今年2月,阿莫迪曾公開指控DeepSeek等三家中國AI企業發動“工業級蒸餾攻擊”,“抽取”克勞德模型能力。但在AI領域,“蒸餾”本就是將大參數模型遷移到小模型的常用技術,類似於模仿學習,而非抄襲。而阿莫迪此番發言卻把這一技術污名化,試圖抹黑中國同行。從這個角度看,阿莫迪似乎並非單純追求AI的正確發展,而是在爭奪誰有做AI的權利。正如普利策獎得主、國家安全記者斯賓塞·阿克曼所指出的,阿莫迪在最初與美國軍方簽訂協議時就忽略了科技倫理問題。阿克曼批評道:“當你收了末日博士(漫畫中的反派角色)的錢,給他製造零件時,你難道不知道他要造的就是末日機器人嗎?”有評論認為,阿莫迪堅守技術倫理底線的選擇,固然有科學家式的理想與堅持,但他對中國AI公司的無端敵意與雙重標準,又讓這份堅守失去了應有的中立與格局。 (環球人物)