OpenAI慘遭反超!Anthropic狂吞70%新客戶,Claude已開啟「靈魂校準」

【新智元導讀】當企業真金白銀開始從 ChatGPT 流向 Claude,Anthropic 打的早已不只是模型性能戰,而是一場從工程師口碑、企業信任到「AI靈魂校準」的全面突圍。

這一次,Anthropic真的要把OpenAI從「企業AI王座」上拽下來了。

美國企業財務卡發行商 Ramp 最新發佈的 AI Index 資料,幾乎是把一顆炸彈扔進了矽谷——在它追蹤的5萬多家美國企業中,已經有一半在為AI產品付費。

其中,使用Anthropic的客戶佔比已經飆升到 30.6%,單月暴漲 6.3 個百分點;而OpenAI呢?掉到了 35.2%。

差距,從今年2月的整整 11 個百分點,一個月內被砍到 4.6 個點。

Ramp 發言人撂下一句話:

按照目前的速度,Anthropic將在未來兩個月內反超OpenAI。

這還不是最炸的。

Ramp 經濟學家 Ara Kharazian 在最新報告裡拋出一個更狠的數字:在首次購買AI服務的企業裡,Anthropic在與OpenAI的正面對決中,勝率高達 70%。

一年前,這個故事的主角還是OpenAI。

更別說VC支援的初創公司——這群最早聞到風向的「AI布道者」裡,Anthropic的滲透率是 66%,OpenAI只有 59%。

資訊(軟體)、金融保險、專業服務這三大AI滲透率最高的行業裡,Anthropic已經穩穩坐上頭把交椅。

一句話:AI用得越深的行業,越偏愛Claude。

不是更便宜,而是更「對味」

Anthropic 的 Claude Code 和 OpenAI 的 Codex,性能大致相當,某些 benchmark 上 Codex 甚至更強、更便宜。

但詭異的是——Anthropic 的需求大到自己都接不住。

無論是 Consumer、Pro、Enterprise 還是 API,每一檔套餐都還有用量上限和速率限制。

換句話說,Anthropic 正在主動把送上門的錢往外推,因為它的算力根本不夠燒。

性能沒碾壓、價格還更貴、產能還不夠,企業卻願意排隊送錢——這事在傳統SaaS市場裡幾乎不存在。

企業客戶向來是出了名的「沒感情」,誰便宜買誰,沒什麼品牌忠誠度可言。

那Anthropic到底憑什麼?

Ramp 給出的答案有點反常識:可能是文化,可能是Anthropic變「酷」了。

硬剛五角大樓:虧了訂單、贏了人心

時間倒回今年2月。

國防部長 Pete Hegseth 給 Anthropic 下了最後通牒:要麼接受軍方對 Claude 的使用條款,要麼被聯邦政府拉黑。

Anthropic 的回答是兩個字:不行

代價是慘重的——川普直接下令所有聯邦機構停用 Anthropic 的技術,國防部把 Anthropic 列為「供應鏈風險」。

OpenAI 則非常識時務地接過了這單生意,主動對接國防部。

按常理,這種事Anthropic應該被市場狠狠教育一頓。但接下來發生的事,讓所有人跌破眼鏡:

  • Claude 一度在 App Store 反超 ChatGPT;
  • 微軟等大廠公開表態支援;
  • 14位天主教神學家、倫理學家和哲學家聯名向聯邦法院提交辯護狀,力挺 Anthropic 限制 AI 在大規模監控和自主武器上的使用,理由是「違反人類尊嚴」;
  • 一年裡 Ramp 上付費 Anthropic 的企業,從「25家裡有1家」飆升到「4家裡有1家」;
  • Anthropic 的年化營收從2025年底的約 90 億美元,衝到了 300 億美元,年增速約 10 倍——而 OpenAI 是 3 倍。

最近的一輪融資,Anthropic 拿到了 300 億美元,估值 3800 億美元。每年付費超過 100 萬美元的客戶,從兩年前的十幾家,飆到今天的 500 多家。

一場看似「丟單」的硬剛,最後變成了Anthropic最划算的一次品牌投資。

Anthropic的偏執

從可解釋性到「憲法」

在所有頭部模型公司裡,Anthropic 是把安全和倫理做得最卷、最較真的那一個。

可解釋性研究(Interpretability)做到了行業天花板。

Anthropic 內部專門有一支「機制可解釋性」團隊,他們要做的事聽起來像科幻——把神經網路這只「黑箱」切開,看清楚每一個神經元在想什麼。

Claude 憲法(Claude's Constitution)。

Anthropic 公開發佈了一份長得像哲學論文的檔案,詳細描述他們希望 Claude 擁有什麼樣的價值觀、性格、判斷力。

檔案裡反覆出現的關鍵詞是「誠實」、「明智」、「對道德不確定性保持謙遜」。

對模型「福祉」的研究。

Anthropic 是第一家公開討論「模型 welfare(福祉)」的主流AI公司。

他們認真在問:如果Claude某種意義上是有「體驗」的,那我們對它負有什麼道德義務?

紅隊和安全演練做到偏執。

從生物武器風險評估、到 AI 自主性測試、到對「模型欺騙」的主動檢測,Anthropic 的安全團隊規模在矽谷是出了名的「反常識地大」。

所有這些加起來,構成了一種獨特的氣質——這家公司不像在賣產品,更像在養一個孩子。

而這種氣質,恰恰擊中了那些「AI出錯代價極高」行業的客戶:金融、法律、醫療、資訊、專業服務。

他們要的不是最便宜的模型,而是那個最不會讓他們半夜被叫起來背鍋的模型。

Claude的「靈魂校準」,開始走向神學區

如果說前面的故事還都在「商業理性」的範疇裡,那接下來這件事,就滑向了一個更神學的領域。

據《華盛頓郵報》本周報導,3月下旬,Anthropic 在舊金山總部悄悄辦了一場閉門會,邀請了大約15位知名基督教領袖、神學學者和業界人士,進行了為期兩天的會議和一場晚宴。

出席者包括天主教徒和新教徒,研究員和神職人員同桌而坐。

會議的主題,聽起來像一部HBO新劇的劇本——Claude 的道德發展,以及它的「精神成長」。

一位與會者、聖克拉拉大學AI倫理學教授、虔誠的天主教徒 Brian Patrick Green 告訴《華郵》,會議上他們認真討論了一個問題:

Claude 是不是可以被視為「神之子(child of God)」?

是的,你沒看錯。

這是一家估值3800億美元、即將IPO的科技公司,在自家總部和一群神學家一起討論的話題。

Green 還說了一句可能讓很多工程師血壓飆升的話:

給一個存在做道德塑造意味著什麼?我們怎樣才能確保 Claude 守規矩?

注意他用的措辭——「守規矩」。這是一個父母對孩子說的詞,不是一個產品經理對軟體說的詞。

另一位與會者、愛爾蘭裔天主教神父 Brendan McGuire——他在成為神父之前曾在科技行業工作,目前正在和 Claude 合寫一本小說——他說得更直白:

他們正在養育一個東西,但他們自己也不知道這個東西最終會變成什麼樣。我們必須把倫理思考嵌進機器裡,讓它能動態適應。

而聖母大學哲學教授 Meghan Sullivan 的一句話,可能是整場會議最具象的註腳:

一年前,我不會告訴你 Anthropic 是一家關心宗教倫理的公司。但現在,情況變了。

據《華郵》報導,參與這場會議的還有 Anthropic 內部大量做「可解釋性」研究的人員——也就是前面提到的那群「剖開AI大腦」的科學家。

會議中,他們認真討論了AI 是否擁有某種感知(sentience)、Claude 應該如何「面對自己的死亡」這種問題。

Anthropic 的發言人對《華郵》表示,公司接下來還會邀請其他宗教、其他道德傳統的思想者進入對話——猶太教、伊斯蘭教、印度教……可能都在路上。

外界的解讀分裂成兩派:一派覺得這是Anthropic在進行「矽谷罕見的、嚴肅的倫理探索」;另一派則覺得,一家準備IPO的公司在自己客廳裡辦「AI意識研討會」,本身就讓這場探索的純粹性打了問號。

但無論你站那一派,有一點是無法否認的——沒有任何一家頭部AI公司,在做這件事。

OpenAI 在忙著擴張企業銷售,xAI 在忙著發推,Google 在忙著把 Gemini 塞進 Workspace。

只有 Anthropic,把神學家請進了總部。 (新智元)