#Anthropic
Claude母公司硬剛五角大廈:AI軍事化的紅線到底在那?
拒絕五角大廈,代價幾何?就在 OpenAI 擁抱軍方合作的同時,另一家 AI 巨頭 Anthropic 選擇了截然相反的道路。面對五角大廈的合作邀約,Anthropic明確拒絕放開軍事 AI 使用限制,隨後被美國國防部列入「供應鏈風險」名單。這意味著什麼?簡單說:美國政府機構在採購 AI 服務時,可能會被要求優先排除 Anthropic 的產品。對一家商業公司來說,這無疑是巨大的經濟壓力。Anthropic 為什麼敢說不?Anthropic 的創始團隊大多來自 OpenAI,正是因為對 AI 安全問題的分歧才選擇出走創業。公司從成立第一天起就把「負責任的 AI 開發」寫進了基因。Anthropic CEO Dario Amodei 曾多次公開表示:AI 技術用於軍事目的存在不可控風險,公司不會為短期商業利益突破這條底線。這不是一時的公關姿態,而是貫穿公司發展始終的核心原則。兩條路線,兩種未來OpenAI 和 Anthropic 的選擇,恰好代表了 AI 行業的兩條路線:實用主義路線——技術是中性的,政府是最大客戶之一,合作能帶來資金和影響力。OpenAI、Palantir、Meta 都在走這條路。原則優先路線——某些應用場景的風險太大,再多錢也不值得冒。Anthropic 目前堅守在這一邊。沒有絕對的對錯,但使用者的反應很說明問題:越來越多人開始關心自己用的 AI 產品背後站著誰。對普通使用者意味著什麼?你可能會想:「我只是用 AI 寫寫文案、翻譯個文件,軍不軍事跟我有什麼關係?」關係其實很大:資料流向——與軍方合作的公司,資料治理標準可能向國防需求傾斜,你的使用資料更容易被納入更廣泛的分析體系。產品方向——服務軍方意味著研發資源向特定方向傾斜,民用產品的創新可能受到影響。選擇權——瞭解每家公司的立場,才能做出符合自己價值觀的選擇。寫在最後AI 公司的軍事化紅線之爭,本質上是一場關於技術應該服務於誰的辯論。Anthropic 的選擇證明了一件事:在這個行業裡,說「不」有時候比說「好」需要更大的勇氣。你覺得 AI 公司應不應該與軍方合作? (Teemo的探索記錄)
Codex不打算讓Claude Code好過
2月6日,OpenAI總裁Greg Brockman在X上公開發了一條面向全公司工程團隊的帖子,設了一個deadline:到3月31日,任何技術任務,工程師的第一工具應該是agent,而不是編輯器或終端。這是OpenAI對自己下的動員令。如果只看這句話,你可能會覺得又是一條矽谷式的願景聲明。但接下來六周發生的事情表明,Brockman不是在喊口號。OpenAI的Coding Agent平台Codex,正在經歷一輪罕見的產品衝刺,密度之高,節奏之快,甚至讓一些長期關注AI編碼工具的開發者開始重新審視自己的工具鏈。與此同時,Codex在程式設計師群體中的熱度和口碑也在肉眼可見地上升。一切動作都指向“狙擊”Anthropic 如日中天的Claude Code。六周的瘋狂迭代拉一下時間線就能感受到這個節奏。2月2日,Codex桌面App發佈(macOS),OpenAI同時宣佈向ChatGPT免費和Go使用者開放Codex,所有付費使用者的速率限制翻倍。2月5日,GPT-5.3-Codex發佈,OpenAI稱它為"第一個幫助創造了自身的模型"。同一天,Anthropic發佈Claude Opus 4.6。2月12日,Codex-Spark發佈,與AI推理硬體公司Cerebras合作,推理速度超過每秒1000 tokens。OpenAI的說法是,“當模型能力越來越強,互動速度就成了明確的瓶頸。”2月14日,OpenClaw創始人Peter Steinberger宣佈加入OpenAI。據Pragmatic Engineer報導,Steinberger用Codex編寫了OpenClaw的全部程式碼,偏好長時間運行的agentic loop。Sam Altman在X上稱他為“天才”,說他將“推動下一代personal agents”。3月4日,Codex桌面App登陸Windows。3月5日,GPT-5.4發佈,是OpenAI第一個同時具備reasoning、coding和原生computer use能力的通用模型,在Codex和API中支援100萬token上下文。3月6日,Codex Security進入research preview。這是OpenAI推出的應用安全代理,前身為內測階段的Aardvark,能夠分析程式碼倉庫、建構項目級威脅模型、在沙盒中驗證漏洞並提出修復建議。過去30天的beta測試中,它掃描了超過120萬次commits,發現792個critical等級漏洞和超過10000個高危問題,覆蓋OpenSSH、GnuTLS、Chromium等重量級開放原始碼專案。誤報率降低超過50%,噪音降低84%。使用資料也在同步攀升。Sam Altman在X上確認,Codex的周活使用者自年初以來增長超過三倍;Codex團隊負責人Thibault Sottiaux(Tibo)告訴Pragmatic Engineer的Gergely Orosz,1月以來它的使用量增長了5倍,周活開發者超過100萬。Tibo還在播客中提到,Super Bowl周日播出的Codex廣告讓系統幾乎立即承受了巨大負載。六周,七次重大產品動作,這成了OpenAI在產品上最激進的衝刺之一。要理解這個節奏,一方面要看供給側的變化。GPT-5系列模型的agent能力在過去幾個月出現了質的飛躍,從上下文窗口、工具呼叫到長時間自主執行,模型本身的能力到了一個可以支撐Coding Agent這個產品形態的臨界點。另一方面,需求側的訊號同樣強烈。據SemiAnalysis報導,Anthropic的Claude Code已經做出25億美元的年化收入,佔其企業收入的一半以上。Claude Code用真金白銀證明了Coding Agent可以成為AI公司的核心收入引擎。對於估值據報已達數千億美元的OpenAI來說,放棄這個賽道不是一個現實的選項。根據SemiAnalysis的預測AnthropicARR增速一度超過OpenAI時間點上的貼身肉搏也值得注意。GPT-5.3-Codex和Claude Opus 4.6在2月5日同一天發佈。Codex Security和Claude Code Security幾乎同期推出。這種節奏本身就是訊號,兩家公司正在把Coding Agent平台視為正面戰場。開發者開始從Claude Code的單一模式變成混合模式在很長一段時間,Anthropic旗下的Claude Code看起來似乎已經沒有了對手,使用者對它的依賴變得越來越重。而OpenAI顯然不想讓Anthropic 這麼舒服。在Codex的一通激進衝刺後,開發者社區的反應也開始發生一些變化。過去一個月,Reddit和Hacker News上關於Codex和Claude Code的討論,出現頻率最高的詞不是更好或替代,而是stacking。也就是說,越來越多的開發者不是在兩者之間選擇,而是同時使用。Calvin French-Owen是一個典型案例。他是Segment聯合創始人,曾在OpenAI參與Codex web產品的發佈,同時也是Claude Code的深度使用者。他在今年2月寫的一篇部落格裡說,自己選擇工具的核心標準是“我有多少時間,以及我想讓它多自主地跑”。他的日常工作流是用Claude Code做規劃、編排終端和管理git操作,然後切到Codex做實際編碼。他說Opus在跨上下文窗口的工作中效率更高,會同時啟動多個子代理平行探索程式碼庫;而Codex在長時間自主編碼任務上更穩定。Reddit上也出現了更具體的分工模式。有開發者詳細描述了一個五段式workflow,先讓Claude Code出計畫,再讓Codex review計畫,然後由Claude實施,最後交給Codex做code review和QA迭代。還有人直接把Claude Code和Codex串成了一個CLI bridge,因為手動在兩者之間複製貼上太累了。一篇社區分析總結了500多條Reddit評論後的結論,Claude Code在一組小樣本盲測中勝率達到67%,質量更高;但Codex 20美元的套餐能編碼一整天不斷,而Claude Code同價位十幾個prompt就用完了。“Claude Code質量更高但用不完,Codex稍弱但全天能用”,這是2026年3月開發者社區最真實的共識。在Cursor官方的benchmark中,GPT系列整體領先其他模型。開發者社區還流傳著一個比喻來描述兩者的氣質差異,Claude像美國人,適合做充滿創造力的探索和頭腦風暴,Codex像德國人,代表極致的效率和專注執行。“它就像一條咬住骨頭不放的狗,非常固執,會一直嘗試直到解決問題。”當然也有反面聲音。Hacker News上有開發者說Codex對自己來說“每一項都比Claude Code差”,尤其是code review會製造看似合理但實際不存在的問題,他最後只把Codex用來覆核Claude的產出。但大方向已經很明確了,社區討論正在從那個更好就用那個,變成兩個都用,各佔一個工位。比的不再是benchmark,是誰是更實用的產品只看模型benchmark,你不太容易理解Codex為什麼起勢。在SWE-Bench這類編碼評測上,Claude Opus 4.6仍然領先。真正讓Codex拉開差異的地方在別處,OpenAI正在圍繞它建構一整套工程系統。Orosz今年2月發表了一篇對Codex團隊的深度報導。其中最引人注目的事實是,Codex超過90%的程式碼是由Codex自己編寫的。Anthropic方面也有類似的說法,Claude Code的建立者Boris Cherny告訴Orosz,Claude Code的資料大致相當。當然,這裡的90%需要打個折扣理解,在一個成熟項目中,樣板程式碼、測試用例、常規重構佔了大量行數,核心架構決策仍然由人來做。但兩家AI實驗室都在用自己的coding 工具來編寫自己的coding 工具,這種自舉本身就說明了這些工具已經深度嵌入了日常工程流程。Codex 的基本工作原理Codex團隊在工程組織層面走得更遠。Orosz的報導描述了一種新的工作方式,Codex團隊的典型工程師同時運行4到8個平行agent,分別處理feature開發、code review、安全審計、程式碼庫理解、bug修復等任務。工程師的角色正在從寫程式碼的人變成管理agent的人。技術選型上,Codex CLI選擇了Rust(Claude Code使用的是TypeScript)。團隊負責人Tibo給出的理由不僅是性能和正確性,還有工程文化,選擇Rust是為了給團隊設定一個高工程標準,同時減少對npm依賴生態的依賴。他們甚至招募了Rust終端UI庫Ratatui的維護者全職加入團隊。更值得關注的是分層程式碼審查機制。Codex團隊訓練了一個定製的code review模型,據Tibo說約9/10的評論能指出有效問題。審查分兩層,非關鍵程式碼在AI review後可以直接merge,核心agent程式碼和開源元件仍然要求強制人工審查。這套機制的意義在於,審查本身開始分層了。還有兩個細節能說明Codex正在從工具走向系統。Codex可以運行自己的完整測試套件來測試自身;團隊還設定了夜間巡檢,讓Codex自動掃描程式碼庫並生成待審修復建議,工程師每天早上進公司時就有一批修復等著review。一家名為Wonderful的AI開發公司的首席架構師在今年3月寫了一篇文章,描述了他們四個月前禁止手動coding後的經驗。他對兩個工具的定位是,Codex是坐在房間後面戴耳機的工程師,默默讀完你整個程式碼庫15分鐘才寫第一行程式碼,Claude則更有產品感,更擅長判斷什麼感覺對。他們把Codex用於低延遲系統工作、即時語音管線、性能敏感程式碼,Claude則用於UI和前端。從coding工具到Agent平台拉遠來看,Codex六周衝刺的方向指向一個更大的野心。Peter Steinberger的加入是一個人事訊號。他日常同時平行5到10個agent,加入OpenAI後的方向是下一代personal agents,不是coding工具。OpenAI正在用Codex作為agent戰略的入口。Codex Security則是另一個方向的延伸。當Codex從幫你寫程式碼走向幫你審計安全,它的定位就已經變了。GPT-5.4進一步加速了這個轉變。作為OpenAI第一個具備原生computer use能力的通用模型,它在Codex中不僅能寫程式碼,還能操作電腦、跨應用執行工作流。配合正在成型的外掛/skills生態系統和企業級權限管理,Codex的輪廓越來越像一個AI原生的開發平台。Codex團隊在Every的播客中透露了他們眼中的下一個瓶頸,就是程式碼審查。模型生成程式碼的速度已經遠超人類review的速度,驗證產出的正確性成了最緊迫的問題。他們已經在嘗試讓模型通過重現使用者操作路徑來“證明”修復有效,而不是讓人類逐行讀程式碼。這些野心和Claude Code已經越來越清楚的發展方向有很多重合,在從Claude Code那裡迅速搶走了一些使用者和使用場景之後,Codex的勢頭正在起來。回到Greg Brockman 2月6日的那條帖子。他設的deadline是3月31日,目前距離deadline還有兩周多,而從過去六周的節奏來看,Codex的衝刺還遠沒有結束。OpenAI把曾經在模型上呈現出的狠勁兒和卷王的氣質,都放到了Codex上,接下來它和Claude code之間短兵相接的故事,會更精彩了。 (硅星人Pro)
Agentic AI時代,“老大”OpenAI成了“老登”?
ChatGPT的發佈讓OpenAI一戰封神,所有人都覺得這家AI公司會一直贏下去。然而在AI程式設計這條賽道上,佔據先機的卻並非OpenAI。2025年2月份,競爭對手Anthropic低調發佈了Claude Code。這款能夠直接操作電腦、自主完成程式設計任務的AI智能體,在短短幾個月內為Anthropic帶來了超過25億美元的年化收入。與之相比,OpenAI的同類產品Codex,同期年化收入約為10億美元。雙方的差距不止一倍。更令OpenAI尷尬的是,Anthropic的核心創始團隊,正是幾年前從OpenAI離開的那批人。OpenAI位於舊金山Mission Bay的新總部大樓是一棟現代化的玻璃幕牆建築。接待處擺放著介紹公司發展歷程的宣傳資料,樓梯間的牆壁上掛滿了一系列里程碑事件的紀念海報:GPT系列、DALL·E、ChatGPT——每一幅都記錄著這家公司過去幾年的高光時刻。但其中沒有AI程式設計。01. 從Codex到Copilot,OpenAI錯失的先發優勢OpenAI其實很早就開始了AI程式設計方向的探索。2021年,奧特曼和OpenAI聯合創始人格雷格·布羅克曼(Greg Brockman)還在舊金山Mission區的老辦公室,向《連線》雜誌記者展示了一個叫Codex的項目。它是GPT-3的一個分支版本,在GitHub的數十億行開放原始碼上訓練而成。使用者輸入一句自然語言描述,它就能生成一段相應的程式碼。“它可以代表你在電腦世界裡執行操作,”布羅克曼當時說,“你擁有一個可以執行命令的系統。”但這個早期的技術積累,最終沒有轉化為產品層面的持續投入。Codex被微軟看中了。這家軟體公司當時正在開發一個叫GitHub Copilot的產品,這是一款能嵌入程式設計師編輯器、提供程式碼補全功能的工具。一位早期加入OpenAI的員工回憶,當時的Codex“除了自動補全之外做不了太多事情”,但微軟已經將其視為未來產品的重要方向。2022年6月,GitHub Copilot正式發佈,幾個月內就吸引了數十萬使用者。正常情況下,OpenAI應該會加大對這一方向的投入。但接下來發生的事情,讓後來負責Codex產品的團隊感到遺憾。最初的Codex團隊被解散了。一部分成員轉去做DALL·E 2圖像生成項目,一部分去參與GPT-4的訓練。當時公司的首要目標是實現AGI,AI程式設計沒有被視為需要獨立投入的領域。一位前團隊成員說,之後的幾年裡,OpenAI沒有專門的團隊在開發AI程式設計產品。“當時的感覺是,這個領域已經被GitHub Copilot覆蓋了,”畢竟微軟會繼續使用OpenAI的模型來迭代這個產品,不需要OpenAI自己操心。幾個月後,ChatGPT上線,兩個月內使用者數突破1億。OpenAI完全被這次成功轉移了注意力。接下來的2023年和2024年,OpenAI把主要資源投入到多模態模型的研發上,致力於讓AI理解圖像、視訊、音訊,像人一樣操作游標和鍵盤。當時Midjourney等產品正在興起,行業普遍認為大語言模型需要具備處理多模態資訊的能力,才能邁向更高層次的智能。這個方向的選擇本身沒有問題。只是在這段時間裡,AI程式設計這條賽道正在悄然生長,而OpenAI的注意力並不在這裡。02. 競爭對手Anthropic突圍Coding賽道Anthropic選擇了另一條發展路徑。這家公司也做多模態模型和聊天機器人,但有一個方向始終沒有放鬆:程式設計能力。布羅克曼後來在一個播客節目裡談到,Anthropic“從早期就非常專注在程式設計上”。他們不僅用演算法競賽題目訓練模型,還往訓練資料裡加入了真實項目中那些結構混亂的程式碼,就像普通開發者日常面對的那種。“這是我們沒有及時意識到重要性的地方,”他說。2024年6月,Anthropic發佈Claude Sonnet 3.5。很多開發者試用後發現,這個模型的程式設計能力確實突出。一家叫Cursor的初創公司最先受益於此。幾個二十多歲的年輕人做了一款產品:在程式碼編輯器裡用自然語言提需求,AI直接幫忙修改程式碼。他們接入Sonnet 3.5後,使用者量開始快速增長。據熟悉Cursor的人士透露,幾個月內,Anthropic就開始內部測試自己的獨立版本了,也就是後來的Claude Code。Cursor火起來之後,OpenAI曾試圖收購這家公司,但遭到拒絕。對方認為程式設計賽道潛力巨大,希望保持獨立。收購未能達成,OpenAI內部也開始有團隊嘗試AI程式設計方向。2024年底,幾個小型團隊陸續啟動。一個是安德烈·米申科(Andrey Mishchenko)和蒂博·索蒂奧(Thibault Sottiaux)帶領的團隊,這兩人分別是Codex的研究負責人和前GoogleDeepMind研究員。他們最初的動機比較務實:用AI程式設計來加速AI研究,讓AI自動管理訓練任務、監控GPU叢集,研究員就能騰出時間做更有創造性的工作。另一個是亞歷山大·恩比里科斯(Alexander Embiricos)帶領的團隊,他之前負責多模態智能體的研發。他做了一個叫Jam的演示項目,在公司內部引起了不少關注。Jam和2021年的Codex有本質區別。Codex是輸出程式碼讓人來執行,Jam則可以直接進入命令列,自己運行程式碼。恩比里科斯看著電腦螢幕上那個跟蹤Jam操作的自建頁面一遍遍自動更新,感到有些不可思議。“我以前一直以為多模態互動可能是實現AGI的路徑,也許我們以後就是整天和AI共享螢幕,”他說,“但後來逐漸意識到,讓模型以程式設計方式直接訪問電腦,可能是更有效的方向。”這幾個團隊磨合了幾個月後合併在一起。等OpenAI在2025年初完成o3(比o1更針對程式設計任務最佳化的模型)的訓練,他們終於有了建構產品的技術基礎。但這時,Claude Code已經準備公開發佈了。03. 收購受阻與內部衝刺,OpenAI的雙線應對2025年2月,Claude Code以“有限研究預覽”的形式首次亮相。5月,全面開放使用。這個產品和之前流行的“氛圍編碼”模式不同。氛圍編碼是人主導、AI輔助的程式設計模式,由人做決策,AI執行具體操作。而Claude Code可以直接在命令列工作,訪問使用者的所有檔案和應用程式,開發者可以把部分工作真正交給AI來完成。OpenAI也開始加快節奏。索蒂奧在3月組建了一個“衝刺團隊”,把內部幾個小組整合在一起,計畫在幾周內推出競品。與此同時,奧特曼開始尋找收購目標,他們看上了一家叫Windsurf的AI程式設計初創公司,報價30億美元。如果收購完成,產品、團隊、企業客戶都能快速補齊。但這筆交易被微軟擱置了數月。據《華爾街日報》報導,微軟希望獲得Windsurf的智慧財產權。這家雲巨頭從2021年起就用OpenAI的模型支撐著GitHub Copilot,每次財報電話會都會提及這個產品。但Cursor、Windsurf、Claude Code陸續出現後,GitHub Copilot的產品形態顯得有些過氣。此時OpenAI再推一個新的編碼產品,微軟的態度自然變得複雜。Windsurf的交易正趕上OpenAI和微軟重新談判合作協議。OpenAI希望從微軟那裡爭取更多自主權,不希望產品和算力資源被過度控制。這筆收購成了雙方博弈過程中的犧牲品。到7月,交易正式告吹。後來Google招攬了Windsurf的創始人,剩餘團隊則被另一家編碼初創公司Cognition收入麾下。“我本來挺希望做成這筆交易的,”奧特曼說,“但不是每一筆交易都能控制。”不過他提到,Codex團隊的表現讓他有些意外。談判那幾個月,索蒂奧和恩比里科斯一直在迭代產品,沒有停下來。到8月,OpenAI開始加速推進自己的產品。04. 從5%到40%:Codex猛追市場份額布羅克曼有一個自己設計的測試方法,叫“反向圖靈測試”。他多年前親自編寫了這套程序,規則是這樣的:兩台電腦前各坐一個人,每人螢幕上有兩個聊天窗口,一個連接著對面的人,一個連接著AI。目標是判斷那個窗口是AI,同時還得讓對方以為你才是AI。去年大部分時間,OpenAI最好的模型要完成這個遊戲的程式碼編寫,需要好幾個小時,中間還得有人一步步引導。到12月,Codex用GPT-5.2做引擎,一個結構清晰的提示詞輸入後,就能直接生成一個可運行的遊戲。感受到變化的不僅僅是布羅克曼。開發者社區裡開始頻繁討論AI程式設計智能體的能力提升,話題從矽谷擴散到更廣的範圍。一些沒有程式設計背景的人,也開始嘗試用這些工具做些簡單的軟體項目。Anthropic和OpenAI都在爭搶使用者。有開發者表示,自己每月支付200美元的Codex或Claude Code訂閱費,實際能用到價值1000多美元的服務。兩家公司都在用慷慨的用量限制把使用者往工作流裡引導,等人用習慣了,再按實際用量收費。從資料上看,OpenAI確實在縮小差距。2025年9月,Codex的使用量大約是Claude Code的5%。到2026年1月,這個比例上升到接近40%。Notion的聯合創始人西蒙·拉斯特(Simon Last)說,他和團隊在GPT-5.2發佈後從Claude Code切換到了Codex,主要原因是後者更穩定。“我發現Claude Code有時候會給出不精準的資訊,”他說,“它說自己正在處理任務,實際上並沒有進展。”在OpenAI負責Codex行為研究的凱蒂·施(Katy Shi)說,有些使用者覺得Codex的回應風格偏“干”,但越來越多人開始接受這種不刻意迎合的特點。“工程領域的工作,本來就需要能夠接受批評性反饋,不能因為表達方式直接就覺得被冒犯。”企業客戶也在逐步進入。OpenAI應用部門的CEO菲吉·西莫(Fidji Simo)稱:“ChatGPT已經成為AI領域的代表性產品,這在B2B市場是一個明顯優勢,多數企業傾向於使用員工已經熟悉的技術。”OpenAI銷售Codex的策略,主要是將其打包進ChatGPT的企業套件中一併提供。思科的總裁傑圖·帕特爾(Jeetu Patel)告訴員工,不用太在意使用Codex產生的費用,關鍵是要熟悉這個工具。有員工問他用了之後會不會失業,他的回答是:“不會,但不用一定會失業。不熟悉這些工具的人,慢慢會失去競爭力。”有開發者認為,OpenAI在B端市場的管道優勢正在發揮作用。不少公司已經採購了ChatGPT的企業版,在此基礎上增加一個Codex功能,決策成本並不高。也有分析指出,Codex最近的能力提升與GPT-5.2的推理能力最佳化直接相關。o系列模型採用的訓練方法,即讓模型在結果可驗證的程式設計任務中不斷試錯、獲得反饋,這對程式碼生成的質量有明顯幫助。程式設計本身就是一個反饋訊號明確的領域,程式碼要麼能運行要麼不能,這種特性對模型迭代很有利。05. 奧特曼的難題:既要速度,又怕失控AI程式設計智能體的影響已經不限於開發者社區。《華爾街日報》上個月將科技股1兆美元的拋售部分歸因於Claude Code,因為投資者擔心軟體本身的價值可能被壓縮。之後Anthropic宣佈,Claude Code可以對IBM那些運行COBOL語言的老系統進行現代化改造,IBM的股票遭遇了25年來最大單日跌幅。OpenAI也在加大投入。今年的超級碗廣告,他們投放的是Codex,而不是ChatGPT。在OpenAI總部,Codex的使用已經相當普遍。多位工程師提到,他們現在很少手寫程式碼,每天的工作主要是和Codex互動。一位參與了內部駭客馬拉松的工程師描述說,現場大約100人,用四小時時間通過Codex搭建一個可用的演示項目。不少項目既是用Codex開發的,目標也是為了讓工程師更好使用Codex。有的團隊做了個工具,把Slack消息自動彙總成周報,有的團隊用AI生成了一個內部服務的百科式指南。以前這些事情可能需要幾天才能完成,現在一個下午就能跑通流程。凱文·維爾(Kevin Weil)是前Instagram高管,目前負責OpenAI for Science部門,為研究人員開發AI產品。他說Codex現在會在夜間幫他處理一些項目,早上到公司檢查進度就行。這種做法已經成了他和幾百名同事的日常工作方式。OpenAI 2026年的目標之一是開發一個能夠自主進行AI研究的AI實習生。西莫表示,Codex最終會整合進ChatGPT和所有產品線,不僅是用來程式設計,而是協助處理各種任務。奧特曼說他想發佈一個通用版本的Codex,但對安全性還有些顧慮。1月底,他一個非技術背景的朋友請他幫忙安裝OpenClaw,但他沒有答應,認為“現在還不是時候”,那個智能體可能會誤刪重要檔案。但這件事過去幾周後,OpenAI就把OpenClaw的創作者招進了公司。不少開發者認為,Codex和Claude Code之間的差距確實在縮小,但也有機構對OpenAI的進度表示擔憂。一個叫Midas Project的非營利組織發佈報告稱,OpenAI在GPT-5.3-Codex上沒有完整披露網路安全風險,安全承諾的落實情況不夠透明。OpenAI的對齊負責人阿米莉亞·格拉澤(Amelia Glaese)否認為了推進Codex而犧牲安全,表示Midas對公司的承諾存在誤解。布羅克曼對AGI的進展保持樂觀,認為“項目正在按計畫推進”。但在不少矽谷工程師的印象裡,他一直是那種產品發佈前夜還在檢查程式碼庫細節的負責人。現在的狀況不太一樣了。布羅克曼面對的是幾十萬個AI智能體,在執行具體的任務和項目。他說這種新的工作方式“讓人感覺輕鬆了一些,因為以前確實需要記住很多細節”。但有時候,“你不太清楚那些事情具體是怎麼被解決的”。他說,這種變化會讓你“感覺對問題的感知不像以前那麼敏銳了”。 (騰訊科技)
Anthropic深夜血洗500億美金行業!程式碼審計末日來了
全球AI圈地震了:Anthropic的一個新功能,直接幹掉了價值500億美元的傳統程式碼審計行業!年費5萬美元的傳統安全廠商,現在直接被一鍋端掉,新工具最低只要15美金。前幾天,Anthropic又出手了!Claude Code之父重磅官宣:Claude Code新增程式碼評審(Code Review)新功能。這一次,它瞄準了一個價值500億美元的產業——程式碼安全審計。Anthropic剛剛發佈的新功能,可以說是在用極其簡單粗暴的方式,直接挑戰整個程式碼安全行業。有人驚呼:價值500億美元的行業,被Anthropic一夜干翻了!現在,可以坐等安全股大跌了。在Anthropic,幾乎每個PR都測試了此系統。經過數月的測試,結果如下:包含實質性評審意見的PR比例從16%增加到54%。工程師認為評審結果錯誤的比例不到1%。在大型Pull Request(1000行以上)中,84%的PR存在表面問題,平均每份PR存在7.5個問題。目前,該功能已給Claude Team和Enterprise測試版中作為研究預覽上線。500億美金市場的噩夢Anthropic的這個產品,簡直是讓全球AI圈和網路安全界(AppSec)發生了一場足以載入史冊的大地震。資深開發者紛紛驚呼,價值500億的程式碼審計行業被端了!這是因為,在過去,大公司為了防止程式碼裡的Bug或安全漏洞流向生產環境,每年要支付給傳統安全廠商(如Snyk、Checkmarx 等)高達5萬美金甚至更高的授權費,僱傭專業團隊進行掃描和審計。而現在,Claude卻可以直接派一隊AI智能體潛伏在你的PR裡,24小時待命。而且,按token計算,它的單次Review成本,平均只要15-25美元!5萬美金和25美金,差了2000倍。這根本不是功能更新,這是給傳統程式碼審計吹響了終結的號角。Code Review,開發者最痛苦的環節如果你問一個任何一個工程團隊:軟體開發中最大的瓶頸環節,是那一個?相信很多人的答案,都是程式碼評審(Code Review)。過去幾年,AI寫程式碼的能力是日新月異,突飛猛進,無論是GitHub Copilot、Cursor、Claude Code還是ChatGPT,用上這些工具的開發者,寫出的程式碼量直接暴漲。結果,問題來了——雖然程式碼被飛速產出,審程式碼的人卻並沒有變多。Anthropic發現,過去一年裡,每位工程師的程式碼產出增加了200%,但很多PR(Pull Request)只是被快速掃了一眼。連開發者自己都承認,很多程式碼評審,不過是在走流程而已。於是,大量Bug、漏洞、邏輯問題就這樣被帶進生產環境。這也就是為什麼,很多企業願意花天價去買安全掃描工具。然而問題來了——這些工具並不聰明。傳統程式碼掃描工具,到底有什麼問題?如果你用過傳統AppSec工具,比如Snyk、Checkmarx、Veracode、SonarQube等,你大機率會有這樣的感受:誤報太多了。原因在於,這些工具大多數基於靜態規則和已知漏洞庫,可以掃描程式碼,卻無法真正理解程式碼。經常發生的一個場景,就是工具提醒「可能有SQL隱碼攻擊風險」,開發者檢查了半天,卻發現沒有問題。於是大家慢慢開始忽略警告,而真正危險的問題,就往往被忽略過去。因此,企業仍然需要大量人工Code Review,而Anthropic這次做的,就是把它自動化。Anthropic,扔出一個AI程式碼評審軍團這一次,Claude Code Review的思路其實很簡單。在Claude Code中,系統可以自動分析Pull Request,並從多個角度進行檢查,例如:程式碼規範是否符合項目規則是否存在潛在bug修改是否與歷史程式碼邏輯衝突之前PR中提出的問題是否再次出現最終,它們會輸出兩個結果:一個高訊號總結評論,和一個具體程式碼位置的inline評論。也就是說,你打開PR時,就能看到一份AI評審報告,看到真正重要的問題,而不是幾十頁的流水帳。「AI寫程式碼,AI評審」的時代,終於還是來了。Claude自我循環、自我遞迴,苗頭出現了。隨著AI能力日益強大,以後人類唯一的作用可能就是打開AI開關了,鍵盤上只需要Claude按鍵了。多Agent系統,Claude Code評審軍團出動Claude Code Review最大的特點就是,它不是一個AI,而是一個團隊。當一個PR被建立時,系統會自動啟動一支AI Agent團隊。據介紹,Claude新的程式碼評審功能會派出多個AI「評審智能體」平行工作,每個智能體負責不同類型的檢查。這些智能體通過驗證來過濾誤報,並根據嚴重性對錯誤進行排序。最終結果會作為一條高訊號的綜合評語,以及針對特定錯誤的內聯評論,呈現在PR上。評審規模會隨PR大小調整。大型或複雜的變更會獲得更多智能體和更深入的審閱;微小的變更則會快速通過。根據Anthropic的測試,平均評審時間約為20分鐘。最終,通過多Agent相互驗證,就可以減少誤報。這個過程中,它會重點尋找邏輯錯誤、安全漏洞、邊界條件(edge case)缺陷和隱蔽的回歸問題。所有發現的問題都會按嚴重等級(severity) 標記。紅色圓點表示普通問題,即合併程式碼前應修復的bug;黃色圓點表示輕微問題,建議修復,但不會阻止合併;紫色圓點表示既存問題,非本次PR引入的bug。每條評審評論還包含一個 可折疊的推理說明(extended reasoning)。展開後,你可以看到:Claude 為什麼標記該問題它是如何驗證這個問題確實存在的需要注意的是,這些評論不會自動批准或阻止PR合併,因此不會破壞現有的程式碼評審流程.默認情況下,Claude Code Review主要關注程式碼正確性(correctness)。也就是說,它重點檢查:會導致生產環境故障的bug實際邏輯問題而不會重點關注程式碼格式、風格偏好、是否缺少測試等問題。如果希望擴展檢查範圍,需要使用者進行配置。內部測試結果,堪稱恐怖Anthropic的內部測試結果,堪稱恐怖!也更加證明了,傳統的程式碼評審,基本就是個笑話。內部資料實在是觸目驚心:只有16%的PR獲得了實質性的評審意見。在1000行以上的大型PR中,84%的程式碼都被它揪出了問題,平均每個PR抓到7.5個Bug。為什麼?原因就是,工程師太忙了。Anthropic在過去一年裡,每個工程師的程式碼產出增長了200%。程式碼越來越多,誰還有功夫一行一行細看?而在實施該功能後,程式碼庫中有實質性修復建議的PR比例,從16%暴漲到了54%。這意味著,以前有近40%的潛在屎山程式碼,是在人類程式設計師眼皮子底下溜過去的,而現在,它們全被Claude揪了出來。更恐怖的是小於50行的小PR,從前大家覺得,就這麼幾行,能有什麼問題。結果,其中的31%都被發現了問題,每三個小改動,就有一個藏著bug。而那些被揪出來的問題,工程師的的認可度直接達到99%以上!只有不到1%的結果,被工程師標記為誤報。這個精準率,已經超過了絕大多數人類reviewer。Anthropic舉了自己內部的一個例子:對一個生產服務的一行程式碼更改,看起來是常規操作,屬於通常會快速獲得批准的差異。但程式碼評審將其標記為嚴重問題。該更改會導致身份驗證失效,這種故障模式在差異對比中容易被忽略,但一經指出就非常明顯。該問題在合併前得到了修復,工程師事後表示,他們自己可能不會發現這個問題。再講一個真實案例。iXsystems,一家做TrueNAS的公司,在用Code Review評審了一個ZFS加密相關的程式碼重構。這是一個很深度的技術改動,review的人都是這個領域的專家。結果,Code Review幹了一件讓所有人意外的事:它在「相鄰程式碼」裡發現了一個潛在的bug。那個bug不在這次改動的核心範圍,只是程式碼「恰好被改動涉及到了」。這個類型不匹配的問題,會導致每次同步時悄悄擦除加密金鑰快取。這是一個隱藏了很久很久的bug,一直在那裡,只是沒人發現。人類專家幾乎不可能發現,因為它不在diff裡,不是要關注的重點,但說不定某一天,它就會炸掉你的系統。但是,現在Code Review一下子將它揪出。行業大洗牌,來了現在,安全公司和SaaS廠商都在哀嚎。每年收5萬美金的程式碼安全公司,還能活多久?不是它們的技術不好,而是商業邏輯變了。如果Anthropic可以用智能體團隊,花20美元就能解決深度的業務邏輯安全審計,誰還會去買那些動輒幾萬美金、誤報率還高得離譜的傳統掃描器?如果你還在手動Review幾千行程式碼,或者還在為高昂的安全審計費買單,醒醒吧,時代變了。 (前瞻經濟學人)
巴倫周刊—微軟今年下跌16%,與Anthropic的合作能成為“解藥”嗎?
微軟“化敵為友”,將Anthropic的Claude Cowork AI整合到自有平台,Copilot迎來AI智能體,軟體股或迎來轉機。如果你已經淡忘了AI對股市的威脅,微軟正通過加深與Anthropic的Claude的整合來提醒你一把。但這或許意味著:AI終於要從軟體股的風險因素變成助力了。微軟CEO薩提亞·納德拉周一表示,公司將推出“Copilot Cowork”,這是一款把Anthropic的Claude Cowork AI整合到微軟自有Copilot平台中的工具。沒錯,這個命名確實讓人頭大。但關鍵在於,微軟正試圖把外界此前認為對其軟體業務構成重大威脅的對手,轉變為自己的盟友。Anthropic被公認為處在“智能體”(agents)的前沿——也就是能夠獨立完成多步驟任務的AI。將其技術加入Copilot,應該能讓微軟的軟體更具自主運行能力。投資者可能會問的問題是:為什麼客戶會選擇通過微軟使用Cowork,而不是直接去找Anthropic。答案可能在於易用性和安全性——這樣可以降低讓智能體直接訪問客戶資料和裝置所帶來的風險。微軟業務應用與智能體部門總裁查爾斯·拉曼納在一篇部落格文章中表示:“Copilot Cowork 運行在Microsoft 365的安全與治理邊界之內。身份、權限以及合規政策默認適用,且其行為與輸出都可被審計。”微軟表示,Copilot Cowork工具目前正在測試中,將於本月晚些時候向微軟早期訪問的 Frontier項目使用者開放。微軟還在周一宣佈,將自5月1日起推出Agent 365(一款用於管理AI智能體的產品,月費15美元),以及Microsoft 365 Enterprise 7套件,該套件將其現有的Enterprise 5工具集、365 Copilot平台和Agent 365整合在一起,打包價為每月99美元。從更宏觀的角度來看,微軟的這項宣佈應能進一步讓人安心:Anthropic希望其AI工具是對現有軟體套件的補充,而不是對其進行徹底替代。Barron's認為,許多現有軟體供應商的股價因市場對AI威脅的擔憂而遭受了過度打擊,華爾街分析師也持相同看法。D.A. Davidson分析師吉爾·盧里亞在周一的一份研究報告中寫道:“對AI影響的誤解,幫助軟體估值在5年多以來首次回到合理水平。”盧里亞指出,在今年迄今下跌16%之後,微軟成為看起來頗具吸引力的股票之一,其他軟體公司還包括ServiceNow、Dynatrace、JFrog、Snowflake、Datadog和Shopify。他表示,近期軟體公司在發佈財報後的股價反應顯示,市場對該類股的信心正在增強,而且AI有望幫助削減成本並推動盈利能力改善。“投資者可能低估了這樣一點:AI驅動的成本削減,最大潛力實際上就在軟體公司自身,”盧里亞寫道。 (Barrons巴倫)
Fortune雜誌—OpenAI發佈其最強模型GPT-5.4,直指Anthropic核心市場
OpenAI發佈了新一代人工智慧模型GPT-5.4。公司稱,這是其迄今為止面向專業場景能力最強的人工智慧系統。該模型融合了高級推理能力、程式設計能力以及自主操作電腦和軟體的功能,使企業級人工智慧市場的競爭陷入白熱化,而這一領域此前一直是Anthropic的優勢陣地。OpenAI首席執行長薩姆·奧爾特曼。圖片來源:Kyle Grillot/Bloomberg via Getty Images新模型整合了OpenAI此前分散在不同模型中的多項能力,整合了公司領先程式設計模型GPT-5.3-Codex的程式設計能力、更強的推理能力,以及模型能夠自主在桌面、瀏覽器和軟體應用之間操作的智能體能力。該模型於3月5日向ChatGPT Plus、Team和Pro訂閱使用者推出,同時通過公司的API開放。針對需要處理複雜任務、追求更高性能的使用者,OpenAI還提供了更強版本GPT-5.4 Pro。在發佈模型的同時,OpenAI還宣佈推出Excel和Google Sheets版ChatGPT(測試版)。該版本將ChatGPT直接嵌入電子表格中,可以用於建構、分析並更新複雜的財務模型。公司還發佈了一系列新的ChatGPT應用整合,包括FactSet、MSCI、Third Bridge和穆迪(Moody’s),旨在讓團隊能夠將市場資料、公司資料以及內部資料整合到同一工作流程中。此舉也讓OpenAI與競爭對手Anthropic展開了更直接的較量。Anthropic在2025年7月推出了面向金融行業的“Claude金融服務版”(Claude for Financial Services)產品,並在當年晚些時候進一步擴展相關功能。兩家公司正在競相爭奪企業市場,面向已經準備好採用人工智慧的行業推出可以完成實際工作的工具。新模型的發佈還可能引發投資者對人工智慧衝擊傳統金融資料提供商的新一輪擔憂。由於市場普遍擔心人工智慧將顛覆企業軟體行業,這類公司的股價此前已經受到影響。今年早些時候,Anthropic發佈Cowork外掛後,市場一度出現大規模拋售SaaS股票的情況,因為投資者擔心人工智慧工具可能讓傳統軟體供應商被淘汰。新智能體能力對於企業使用者而言,GPT-5.4最重要的升級之一是其“開箱即用”的智能體能力。該模型可以自主操作電腦和軟體,根據需要搜尋並呼叫外部工具,還能夠處理複雜的多步驟任務,而開發者無需自行搭建相應的底層架構。OpenAI表示,GPT-5.4是公司迄今最注重事實、最可靠性的模型。公司在一篇部落格文章中稱,與GPT-5.2相比,該模型產生“幻覺”的機率明顯下降:單個陳述出現錯誤的可能性降低33%,完整回覆包含錯誤的機率降低18%。GitHub的首席產品官馬里奧·羅德里格斯在評價該模型時說:“開發者不僅需要一個可以寫程式碼的模型,更需要一個能夠像他們一樣思考問題的模型。我們看到GPT-5.4在邏輯推理以及執行複雜、多步驟、依賴工具的工作流程方面表現非常出色。”這些新功能使OpenAI在競爭日益激烈的智能體產品領域中,成為更直接的參與者。當前市場上的類似產品包括Perplexity Computer、微軟(Microsoft)的Copilot Tasks以及OpenClaw。近期OpenClaw的走紅也表明,使用者越來越青睞可以在儘量減少人工干預的情況下處理長工作流程的人工智慧系統。OpenAI還指出,與此前的模型相比,GPT-5.4在詞元使用效率方面有明顯提升,也就是說它能夠用更少的詞元解決問題。雖然該模型每個詞元的定價略高於GPT-5.2,但由於完成許多工所需的詞元數量更少,對於部分使用者而言,這種效率提升可能抵消價格上漲帶來的成本。(財富中文網)
OpenAI和輝達,終究還是到了這一步|AGI焦點
AI頂流們正在加緊“梭哈”晶片。Meta、OpenAI和Anthropic等公司今年以來已簽下了數千億美元訂單。憑此賺得盆滿缽滿的,自然還是“賣鏟人”。在本周ASIC晶片龍頭博通公佈的財報中,一季度(2025年11月至2026年1月)AI半導體收入84億美元,同比大漲106%;Q2預期環比再漲27%達107億美元,同比將暴增143%。此前,輝達的業績更是炸裂,公司同期總營收已達681億美元,同比增長73%,新財季營收預期更是增至780億美元,預計同比增長77%。核心指標全都大幅刷新紀錄。這些公司的掌舵者也對未來一致樂觀。博通CEO陳福陽說,明年,公司光AI晶片營收就能超過1000億美元,比上個財年的公司總營收還高出至少五成。輝達CEO黃仁勳說,在截至2026年底的五個季度中,公司主力晶片Blackwell和下一代晶片Rubin的訂單至少有5000億美元,這個數字是輝達此前年收入的兩倍還多。表面上看,“狂飆突進”仍在加速,甚至每一次破紀錄都像是新的指數級增長曲線的起點。但在風光背後,從晶片到雲,從大模型到應用,一系列技術、產業與社會的變化正在發生,某種約束已若隱若現:Scaling Law(縮放定律)和通用GPU多年來的統治地位受到挑戰,雲廠商巨額Capex(資本開支)的驗證時間窗口縮小,“定製化”和“個性化”等分佈式需求愈發吃重,讓集中式的迅猛增長有落潮之虞。一邊狂賺千億,一邊“友誼破裂”作為AI大模型時代並駕齊驅的造浪者,今年以來,輝達與OpenAI之間的關係明顯鬆動。年初,媒體爆出輝達不滿OpenAI的商業策略,欲大幅削減投資。此後,又有消息稱,OpenAI對輝達最新晶片在推理環節的表現不滿,會繼續探索替代方案。傳言難以證實,但輝達在OpenAI新一輪融資中出資300億美元,相較此前的千億美元投資方案明顯縮水。在3月4日的摩根士丹利TMT會議上,黃仁勳親口表示,這次投資“可能是最後一次”,去年11月被他稱為“一代人僅有一次機會”的千億美元合作大機率會不了了之。為什麼會突然發生這樣的轉變?背後有些行業趨勢值得探討。首先是,Scaling Law和GPU性能提升飛輪,已有觸頂跡象。電腦科學家伊利亞·蘇茨維克(Ilya Sutskever)已表示,此前Scaling Law能夠主導大模型發展,是因為預訓練的道路走通了。誰的大模型喂得越飽,就顯得越聰明。但隨著大模型領域競爭白熱化,高品質、結構化的公開資料實際上已被吃盡。光有算力不足以支撐這條路走到頭。業界對Scaling Law的未來,有很多討論,比如轉向後訓練,轉向推理時擴展,或者改進Transformer核心架構。但拆解這些方法,其關鍵詞多與“提升效能”、“合理分配算力”和“特定領域針對性最佳化”相關聯,實際上,也意味著預訓練階段的性能躍遷不會再現。GPU面臨的境況是相似的。在Scaling Law時代,成熟度高、通用性和靈活性強、適合大規模平行運算的GPU,無疑是大模型的最佳搭檔。其性能在近十年間飛速進化,是大模型能力提升和規模化復刻的重要動力。所以,儘管輝達產品售價極高,毛利率常年在75%左右,還是屢屢供不應求。半導體行業知名研究機構SemiAnalysis分析稱,晶片領域先進製程的演進速度已明顯放緩,典型案例是台積電3nm帶來的性能增幅與成本增加已不成正比。全球計算聯盟GCC資料也顯示,摩爾定律放緩正導致AI晶片性能增幅下滑,2018-2022年間,AI晶片性能年均提升50%,到2023-2025年已降至20%以下(未計入尚未量產投入市場的新一代產品)。而就在2025年,追求特定場景下更極致的性能,功耗更低、體積更小、量產後成本更優的定製化AISC晶片強勢崛起。以GoogleTPU的市場良好反饋為標誌,其市佔比開始向GPU發起挑戰。而包括Meta、亞馬遜、微軟乃至OpenAI等都在加緊自研AISC晶片,2026年預計就將迎來量產和商業化的集中爆發期。資料來源:各公司官網、野村證券、公開報導;作者製表這條技術多元化路線的核心,又是“定製化”“高效能”“低延遲”和“性價比”,實際就是通用硬體效率狂飆的階段已經落幕。從這個視角再來看,OpenAI與輝達之間隱現的“友誼裂痕”,所謂不滿晶片推理表現,是因為GPU不再能通過“暴力破局”來“包打天下”。而所謂對商業策略有疑義,則是在大模型能力“無限增長”故事講不下去後,希望確證能有可觀商業回報維持其需求的穩定。是誰在給輝達們“潑冷水”?當然,性能增幅放緩絕不意味著需求會驟降,反而可能推動更加平穩、持續的增長。而在2025年“DeepSeek衝擊波”中,描述效率最佳化往往導致消耗總量增加的“傑文斯悖論”也屢被提及。不過,前提是盡快切換到更加“細水長流”的發展模式,而目前AI產業的慣性動能,卻與此存在一定錯位。最核心的,是拚命壓縮時間周期可能帶來的系統性病灶。早期以GPU為主的AI晶片,迭代周期約為18-24個月。隨著AI熱潮來臨,需求方競爭壓力加劇,對迭代速度的渴求愈發極端,這讓輝達和Google等將晶片迭代周期壓縮到“年更”。但即使這樣還是不夠。目前,頂尖大模型基本每三個月就要迭代一次。SemiAnalysis創始人迪倫·帕特爾(Dylan Patel)此前在參與The MAD Podcast with Matt Turck播客節目時表示,即使晶片廠商將迭代周期壓縮到半年,也無法很好適配模型進步的速度,也難言確保自身優勢。即使晶片和模型的性能增幅雙雙放緩,這種“賽跑”也未見稍顯的跡象。而考慮到前文提到的製程、技術演進等方面的瓶頸,以及美國能源供給方面愈發緊迫的硬性約束,結果可能演變成跑著跑著增長動能斷檔,甚至雙雙“撞牆”,讓原本可能在斜率放緩中更加平衡的供需被打破。更不可小覷的是這種“賽跑”對Capex的依賴。處在晶片與模型之間,被這種“你追我趕”來回拉扯的雲廠商,承擔了最集中的資本支出,他們往往同時也涵蓋AI業務,投資與回報都面臨風險和壓力。根據亞馬遜、微軟、Google、Meta和甲骨文這五大雲廠商披露的資訊,其2026年Capex總額將超過7000億美元。資料來源:公司財報及電話會議;作者製圖按照較為傳統的算力基礎設施五年折舊周期來計算,大約對應1400億美元的AI銷貨成本,這對AI行業目前的ARR(年度經常性收入)來說是天文數字。雖然OpenAI預計2026年ARR能夠突破450億美元,Anthropic也有望達到類似規模,但這兩巨頭本身的市佔比已接近八成,即使不考慮利潤,行業的淨收入也很難支撐資本開支。而正是由於晶片和模型迭代速度越來越快,市場對折舊周期的計算也產生了疑惑。知名投資人“大空頭”麥可·貝瑞(Michael Burry)自去年起,就一再“炮轟”當下的折舊周期不符合實際,認為如今AI晶片的實際經濟價值可能在2-3年內就會因技術過時而大幅衰減。雖然此類觀點爭議頗多,但如果大模型和晶片的“賽跑”繼續,甚至還要加速,那麼,有關折舊周期的質疑只會越來越多。而且,資本端的超額支出,往往以Scaling Law和大模型性能的繼續躍遷為由。從前文提及的趨勢來看,Scaling Law的退潮,也會讓Capex的狂飆不再“師出有名”。2025年下半年至今,雲巨頭的投資回報率(ROI)愈發成為市場矚目的核心指標,美股對缺乏利潤增長的Capex往往報以拋售,典型如微軟,其公佈的財報營收、淨利均超預期,但股價隨即暴跌10%。而晶片企業即使持續創造新的紀錄,但以去年11月輝達市值從5兆高點回落為節點,市場始終未給出匹配增速的估值溢價,空頭聲音反而愈發顯眼。這些,也構成了時下盛行的“AI泡沫論”的核心焦慮。不過,值得注意的是,相較於泡沫本身的存在與規模,人們看待和對待其方式,可能更加重要。當市場持續不給單純的拼規模、拼速度以正向反饋後,這一趨勢更可能會以幾次陣痛為代價放緩步伐。目前晶片大廠和部分大模型、雲廠商對未來兩年已有明確規劃,迭代速度和支出規模可能仍然維持高位,高盛也預測2025至2027年是AI伺服器出貨量增長最迅猛的三年,其中增速峰值出現在2026年。但在這之後,全產業鏈的增長可能都會面臨結構性放緩。如果只在商業和技術層面考慮,對AI增速形成影響的變數還有很多,但最近兩大標誌性熱門事件,為AI產業的發展,蒙上了一層不確定性陰影。其中一個就是,Citrini Research的《2028全球智能危機》(The 2028 Global Intelligence Crisis)。報告幾乎是以“近未來科幻”的方式,描述了從2025年末起Agent(智能體)登堂入室開始,直到2028年人類社會在新的AI時代可能面臨的窘境。圖片來源:CitriniResearch報告本身是虛構,且先進技術替代人類工作種類,也不是什麼新鮮論調,但是,當下的時點討論這個問題,卻意外引發空前共鳴。畢竟,就在2026年初,OpenClaw、Anthropic的Claude Cowork及一系列Agent外掛的出現,將AI的“替代力”十分直接地擺上了檯面。在種種預警和焦慮下,人類社會加以反制AI嗎?AI發展得越快,替代性危機的發酵就可能越快,但AI落地真實工作場景的實戰能力和可持續性,卻需要進一步探索,但顯然,我們正在看到的景像是,大小公司集體AI化的步調已經加快了。 (鈦媒體)
【以美襲擊伊朗】他把AI模型賣給美軍,如今卻害怕成為“末日博士”
“最初用於編寫程式碼和詩歌的工具,如今已成為致命的武力。”·達里歐·阿莫迪。(美國哥倫比亞廣播公司)美以對伊朗的軍事行動已持續數日,一則新聞再次吸引了全球的目光。據《華爾街日報》報導,美軍在對伊朗的大規模轟炸行動中,用上了美國AI公司Anthropic旗下的大語言模型克勞德(Claude)。知情人士證實,包括美國中央司令部在內的全球各司令部,都在使用Anthropic的AI工具。對此,英國《衛報》稱,“這是危險的轉折點” 。這已不是AI第一次走上戰場。今年1月美軍抓捕委內瑞拉總統馬杜洛時,克勞德就已被用於軍事行動。而這也引發了美國政府與Anthropic之間持續數月的爭執——關於五角大樓究竟該如何使用AI模型。而站在風暴中心的,是Anthropic創始人兼首席執行長達里歐·阿莫迪。當導彈能像人一樣思考據《華爾街日報》報導,克勞德主要服務於指揮部門,承擔情報分析、目標識別以及戰鬥場景模擬等任務。·當地時間3月2日,美以聯合對伊朗發起的軍事行動仍在持續,一名男子走過德黑蘭尼盧法廣場附近受損的居民樓。(法新社)Anthropic與美軍的合作始於2024年11月。同一時期,美國資料分析公司Palantir和亞馬遜網路服務也開始為美軍提供技術支援。據《華盛頓郵報》報導,由Palantir開發的軍方“梅文智能系統”,能從衛星、監控及其他情報來源的資料中提取關鍵資訊。而被整合進這套系統的克勞德模型,則負責對敏感情報進行分析處理。目前,克勞德已成為美軍許多部門使用的日常工具。對美軍而言,AI帶來的最大改變,是戰爭節奏本身。《戰爭律師》一書的作者克雷格·瓊斯在接受英國《衛報》的採訪時提到,在一戰和越南戰爭期間,美軍從空中偵察到執行轟炸任務通常需要6個月。但現在,整個周期已經被AI大幅壓縮。“AI系統會給出打擊目標的建議,速度遠超人類思維。”新美國安全中心執行副總裁保羅·沙雷則向路透社介紹,對美軍而言,AI已經從理論假設走向真實戰場。“這讓美軍能夠以機器速度,而非人類速度來制定打擊方案。”在此次對伊軍事行動中,以軍也用上了AI技術。其使用的新型空對地巡航導彈“破冰者”,深度融合了AI演算法。它能像人一樣思考,自主規劃飛行路徑,精準辨別目標,甚至可以在空中與其他導彈即時溝通、分工協作。·美國海軍托馬斯·哈德納號驅逐艦發射戰斧導彈,支援美以對伊實施的“史詩怒火”行動。(蓋蒂圖片社)此外,據《財富》雜誌報導,AI目前也出現在了其他戰場上。以色列在以巴衝突期間曾利用AI識別哈馬斯目標。而在俄烏衝突中,自主化無人機已經投入使用,俄羅斯和烏克蘭都採用了不同形式的自主技術。對於AI介入軍事行動,外界普遍感到不安。以色列《耶路撒冷郵報》評價,將大語言模型融入戰爭,標誌著現代戰爭的重大轉變,“最初用於編寫程式碼和詩歌的工具,如今已成為致命的武力”。Anthropic剛被踢出局,競爭對手立刻補上了空缺。川普禁令發佈幾小時後,美國AI公司OpenAI就與五角大樓達成協議,開始向機密系統提供AI技術。“要麼配合,要麼出局”在此次美以對伊朗的軍事行動中,Anthropic公司的AI模型扮演了關鍵角色。然而頗具戲劇性的是,就在空襲開始前幾個小時,這家公司剛剛被美國國防部和川普雙雙“拉黑”。據英國廣播公司報導,Anthropic與美國當局的緊張關係“可以追溯到幾個月前”。今年1月,美軍在抓捕委內瑞拉總統馬杜洛的突襲行動中,使用了克勞德模型。Anthropic隨後提出反對,聲明其使用條款明確禁止將AI用於暴力目的、武器研發或監控活動。此後雙方關係持續惡化,開始了長達數周的談判。據美國有線電視新聞網報導,談判中Anthropic在兩個問題上寸步不讓:一是AI控制武器,二是AI對美國公民的大規模監控。他們認為,AI目前還不足以可靠地操控武器,而且也無法律規範大規模監控的行為。面對Anthropic的堅持,美國國防部長赫格塞斯下了最後通牒。·赫格塞斯。(蓋蒂圖片社)當地時間2月24日,他與阿莫迪會面,要求對方放寬AI模型的安全限制,並給出了最後期限:2月27日前,美軍必須獲得克勞德模型的無限制使用權,否則公司將被列入政府“供應鏈風險”黑名單。進入黑名單意味著,所有簽有軍事合同的公司,此後不得在任何軍事工作中使用Anthropic的產品。26日,阿莫迪公開發文,表明立場不變。“即便是當今最先進、最強大的AI系統,其可靠性也不足以支撐完全自主武器的運作。”他在文中寫道,“我們不能昧著良心答應美軍的要求”。阿莫迪發文不久後,五角大樓給出了回應。一名美國國防部官員對媒體表示,Anthropic必須做出選擇,“要麼配合,要麼出局”,否則國防部將強制使用克勞德模型,無論Anthropic是否願意。·阿莫迪。(蓋蒂圖片社)緊接著,川普下令所有聯邦機構立即停用克勞德。他還在真實社交(川普於2021年自創的社交媒體平台)上痛批Anthropic,稱其為“由一群不懂現實世界的人營運的左翼瘋子公司”。幾小時後,美軍戰機從部署在中東的“林肯號”和“福特號”航母以及海外軍事基地起飛,與以色列空軍一起,向伊朗發動了大規模空襲。“技術的青春期”與美國當局“硬剛”的阿莫迪,實際上與OpenAI的淵源頗深。阿莫迪出生於1983年,本科畢業於美國史丹佛大學物理學專業,後取得美國普林斯頓大學生物物理學博士學位。畢業後,他曾在百度矽谷AI實驗室工作,後加入Google從事語音識別研究。2016年,他加入OpenAI,一路做到研究副總裁,主導開發了GPT-2和GPT-3大語言模型。然而在2021年,他與OpenAI創始人薩姆·奧特曼在AI安全理念及商業化方向上產生了分歧。此後,阿莫迪帶著包括妹妹丹妮拉·阿莫迪在內的十多名公司核心成員離職,創辦了Anthropic,並推出克勞德系列模型。·阿莫迪(左)與妹妹丹妮拉。(蓋蒂圖片社)離開OpenAI後,阿莫迪與奧特曼的分歧並未消解。就在今年年初,他與奧特曼在新德里的一場AI峰會上同台,但彼此拒絕握手、沒有眼神交流。他曾在播客裡直言,“不相信奧特曼能讓AI不走彎路”。·2026年2月,在新德里舉行的“AI影響力峰會”上,印度總理莫迪(左)與奧特曼(中)、阿莫迪等AI企業負責人合影。(蓋蒂圖片社)兩人最大的分歧,還是在於對AI安全的擔憂。今年1月,阿莫迪在題為《技術的青春期:直面並克服強大AI的風險》文章中警告“AI海嘯將至”,但社會遠未準備好。他認為,當“智力、工具規模、時間優勢”疊加,AI將是一個會重寫安全、經濟與權力結構的變數。他擔心,一旦強大的AI被大型組織掌控,將對外形成壓倒性優勢,帶來不可預估的後果。然而也有觀點指出,阿莫迪的AI恐懼論實際上是刻意利用科技倫理問題,打壓競爭對手。今年2月,阿莫迪曾公開指控DeepSeek等三家中國AI企業發動“工業級蒸餾攻擊”,“抽取”克勞德模型能力。但在AI領域,“蒸餾”本就是將大參數模型遷移到小模型的常用技術,類似於模仿學習,而非抄襲。而阿莫迪此番發言卻把這一技術污名化,試圖抹黑中國同行。從這個角度看,阿莫迪似乎並非單純追求AI的正確發展,而是在爭奪誰有做AI的權利。正如普利策獎得主、國家安全記者斯賓塞·阿克曼所指出的,阿莫迪在最初與美國軍方簽訂協議時就忽略了科技倫理問題。阿克曼批評道:“當你收了末日博士(漫畫中的反派角色)的錢,給他製造零件時,你難道不知道他要造的就是末日機器人嗎?”有評論認為,阿莫迪堅守技術倫理底線的選擇,固然有科學家式的理想與堅持,但他對中國AI公司的無端敵意與雙重標準,又讓這份堅守失去了應有的中立與格局。 (環球人物)