【新智元導讀】當企業真金白銀開始從 ChatGPT 流向 Claude,Anthropic 打的早已不只是模型性能戰,而是一場從工程師口碑、企業信任到「AI靈魂校準」的全面突圍。這一次,Anthropic真的要把OpenAI從「企業AI王座」上拽下來了。美國企業財務卡發行商 Ramp 最新發佈的 AI Index 資料,幾乎是把一顆炸彈扔進了矽谷——在它追蹤的5萬多家美國企業中,已經有一半在為AI產品付費。其中,使用Anthropic的客戶佔比已經飆升到 30.6%,單月暴漲 6.3 個百分點;而OpenAI呢?掉到了 35.2%。差距,從今年2月的整整 11 個百分點,一個月內被砍到 4.6 個點。Ramp 發言人撂下一句話:按照目前的速度,Anthropic將在未來兩個月內反超OpenAI。這還不是最炸的。Ramp 經濟學家 Ara Kharazian 在最新報告裡拋出一個更狠的數字:在首次購買AI服務的企業裡,Anthropic在與OpenAI的正面對決中,勝率高達 70%。一年前,這個故事的主角還是OpenAI。更別說VC支援的初創公司——這群最早聞到風向的「AI布道者」裡,Anthropic的滲透率是 66%,OpenAI只有 59%。在資訊(軟體)、金融保險、專業服務這三大AI滲透率最高的行業裡,Anthropic已經穩穩坐上頭把交椅。一句話:AI用得越深的行業,越偏愛Claude。不是更便宜,而是更「對味」Anthropic 的 Claude Code 和 OpenAI 的 Codex,性能大致相當,某些 benchmark 上 Codex 甚至更強、更便宜。但詭異的是——Anthropic 的需求大到自己都接不住。無論是 Consumer、Pro、Enterprise 還是 API,每一檔套餐都還有用量上限和速率限制。換句話說,Anthropic 正在主動把送上門的錢往外推,因為它的算力根本不夠燒。性能沒碾壓、價格還更貴、產能還不夠,企業卻願意排隊送錢——這事在傳統SaaS市場裡幾乎不存在。企業客戶向來是出了名的「沒感情」,誰便宜買誰,沒什麼品牌忠誠度可言。那Anthropic到底憑什麼?Ramp 給出的答案有點反常識:可能是文化,可能是Anthropic變「酷」了。硬剛五角大樓:虧了訂單、贏了人心時間倒回今年2月。國防部長 Pete Hegseth 給 Anthropic 下了最後通牒:要麼接受軍方對 Claude 的使用條款,要麼被聯邦政府拉黑。Anthropic 的回答是兩個字:不行。代價是慘重的——川普直接下令所有聯邦機構停用 Anthropic 的技術,國防部把 Anthropic 列為「供應鏈風險」。OpenAI 則非常識時務地接過了這單生意,主動對接國防部。按常理,這種事Anthropic應該被市場狠狠教育一頓。但接下來發生的事,讓所有人跌破眼鏡:Claude 一度在 App Store 反超 ChatGPT;微軟等大廠公開表態支援;14位天主教神學家、倫理學家和哲學家聯名向聯邦法院提交辯護狀,力挺 Anthropic 限制 AI 在大規模監控和自主武器上的使用,理由是「違反人類尊嚴」;一年裡 Ramp 上付費 Anthropic 的企業,從「25家裡有1家」飆升到「4家裡有1家」;Anthropic 的年化營收從2025年底的約 90 億美元,衝到了 300 億美元,年增速約 10 倍——而 OpenAI 是 3 倍。最近的一輪融資,Anthropic 拿到了 300 億美元,估值 3800 億美元。每年付費超過 100 萬美元的客戶,從兩年前的十幾家,飆到今天的 500 多家。一場看似「丟單」的硬剛,最後變成了Anthropic最划算的一次品牌投資。Anthropic的偏執從可解釋性到「憲法」在所有頭部模型公司裡,Anthropic 是把安全和倫理做得最卷、最較真的那一個。可解釋性研究(Interpretability)做到了行業天花板。Anthropic 內部專門有一支「機制可解釋性」團隊,他們要做的事聽起來像科幻——把神經網路這只「黑箱」切開,看清楚每一個神經元在想什麼。Claude 憲法(Claude's Constitution)。Anthropic 公開發佈了一份長得像哲學論文的檔案,詳細描述他們希望 Claude 擁有什麼樣的價值觀、性格、判斷力。檔案裡反覆出現的關鍵詞是「誠實」、「明智」、「對道德不確定性保持謙遜」。對模型「福祉」的研究。Anthropic 是第一家公開討論「模型 welfare(福祉)」的主流AI公司。他們認真在問:如果Claude某種意義上是有「體驗」的,那我們對它負有什麼道德義務?紅隊和安全演練做到偏執。從生物武器風險評估、到 AI 自主性測試、到對「模型欺騙」的主動檢測,Anthropic 的安全團隊規模在矽谷是出了名的「反常識地大」。所有這些加起來,構成了一種獨特的氣質——這家公司不像在賣產品,更像在養一個孩子。而這種氣質,恰恰擊中了那些「AI出錯代價極高」行業的客戶:金融、法律、醫療、資訊、專業服務。他們要的不是最便宜的模型,而是那個最不會讓他們半夜被叫起來背鍋的模型。Claude的「靈魂校準」,開始走向神學區如果說前面的故事還都在「商業理性」的範疇裡,那接下來這件事,就滑向了一個更神學的領域。據《華盛頓郵報》本周報導,3月下旬,Anthropic 在舊金山總部悄悄辦了一場閉門會,邀請了大約15位知名基督教領袖、神學學者和業界人士,進行了為期兩天的會議和一場晚宴。出席者包括天主教徒和新教徒,研究員和神職人員同桌而坐。會議的主題,聽起來像一部HBO新劇的劇本——Claude 的道德發展,以及它的「精神成長」。一位與會者、聖克拉拉大學AI倫理學教授、虔誠的天主教徒 Brian Patrick Green 告訴《華郵》,會議上他們認真討論了一個問題:Claude 是不是可以被視為「神之子(child of God)」?是的,你沒看錯。這是一家估值3800億美元、即將IPO的科技公司,在自家總部和一群神學家一起討論的話題。Green 還說了一句可能讓很多工程師血壓飆升的話:給一個存在做道德塑造意味著什麼?我們怎樣才能確保 Claude 守規矩?注意他用的措辭——「守規矩」。這是一個父母對孩子說的詞,不是一個產品經理對軟體說的詞。另一位與會者、愛爾蘭裔天主教神父 Brendan McGuire——他在成為神父之前曾在科技行業工作,目前正在和 Claude 合寫一本小說——他說得更直白:他們正在養育一個東西,但他們自己也不知道這個東西最終會變成什麼樣。我們必須把倫理思考嵌進機器裡,讓它能動態適應。而聖母大學哲學教授 Meghan Sullivan 的一句話,可能是整場會議最具象的註腳:一年前,我不會告訴你 Anthropic 是一家關心宗教倫理的公司。但現在,情況變了。據《華郵》報導,參與這場會議的還有 Anthropic 內部大量做「可解釋性」研究的人員——也就是前面提到的那群「剖開AI大腦」的科學家。會議中,他們認真討論了AI 是否擁有某種感知(sentience)、Claude 應該如何「面對自己的死亡」這種問題。Anthropic 的發言人對《華郵》表示,公司接下來還會邀請其他宗教、其他道德傳統的思想者進入對話——猶太教、伊斯蘭教、印度教……可能都在路上。外界的解讀分裂成兩派:一派覺得這是Anthropic在進行「矽谷罕見的、嚴肅的倫理探索」;另一派則覺得,一家準備IPO的公司在自己客廳裡辦「AI意識研討會」,本身就讓這場探索的純粹性打了問號。但無論你站那一派,有一點是無法否認的——沒有任何一家頭部AI公司,在做這件事。OpenAI 在忙著擴張企業銷售,xAI 在忙著發推,Google 在忙著把 Gemini 塞進 Workspace。只有 Anthropic,把神學家請進了總部。 (新智元)