#OpenAI下
OpenAI慘遭反超!Anthropic狂吞70%新客戶,Claude已開啟「靈魂校準」
【新智元導讀】當企業真金白銀開始從 ChatGPT 流向 Claude,Anthropic 打的早已不只是模型性能戰,而是一場從工程師口碑、企業信任到「AI靈魂校準」的全面突圍。這一次,Anthropic真的要把OpenAI從「企業AI王座」上拽下來了。美國企業財務卡發行商 Ramp 最新發佈的 AI Index 資料,幾乎是把一顆炸彈扔進了矽谷——在它追蹤的5萬多家美國企業中,已經有一半在為AI產品付費。其中,使用Anthropic的客戶佔比已經飆升到 30.6%,單月暴漲 6.3 個百分點;而OpenAI呢?掉到了 35.2%。差距,從今年2月的整整 11 個百分點,一個月內被砍到 4.6 個點。Ramp 發言人撂下一句話:按照目前的速度,Anthropic將在未來兩個月內反超OpenAI。這還不是最炸的。Ramp 經濟學家 Ara Kharazian 在最新報告裡拋出一個更狠的數字:在首次購買AI服務的企業裡,Anthropic在與OpenAI的正面對決中,勝率高達 70%。一年前,這個故事的主角還是OpenAI。更別說VC支援的初創公司——這群最早聞到風向的「AI布道者」裡,Anthropic的滲透率是 66%,OpenAI只有 59%。在資訊(軟體)、金融保險、專業服務這三大AI滲透率最高的行業裡,Anthropic已經穩穩坐上頭把交椅。一句話:AI用得越深的行業,越偏愛Claude。不是更便宜,而是更「對味」Anthropic 的 Claude Code 和 OpenAI 的 Codex,性能大致相當,某些 benchmark 上 Codex 甚至更強、更便宜。但詭異的是——Anthropic 的需求大到自己都接不住。無論是 Consumer、Pro、Enterprise 還是 API,每一檔套餐都還有用量上限和速率限制。換句話說,Anthropic 正在主動把送上門的錢往外推,因為它的算力根本不夠燒。性能沒碾壓、價格還更貴、產能還不夠,企業卻願意排隊送錢——這事在傳統SaaS市場裡幾乎不存在。企業客戶向來是出了名的「沒感情」,誰便宜買誰,沒什麼品牌忠誠度可言。那Anthropic到底憑什麼?Ramp 給出的答案有點反常識:可能是文化,可能是Anthropic變「酷」了。硬剛五角大樓:虧了訂單、贏了人心時間倒回今年2月。國防部長 Pete Hegseth 給 Anthropic 下了最後通牒:要麼接受軍方對 Claude 的使用條款,要麼被聯邦政府拉黑。Anthropic 的回答是兩個字:不行。代價是慘重的——川普直接下令所有聯邦機構停用 Anthropic 的技術,國防部把 Anthropic 列為「供應鏈風險」。OpenAI 則非常識時務地接過了這單生意,主動對接國防部。按常理,這種事Anthropic應該被市場狠狠教育一頓。但接下來發生的事,讓所有人跌破眼鏡:Claude 一度在 App Store 反超 ChatGPT;微軟等大廠公開表態支援;14位天主教神學家、倫理學家和哲學家聯名向聯邦法院提交辯護狀,力挺 Anthropic 限制 AI 在大規模監控和自主武器上的使用,理由是「違反人類尊嚴」;一年裡 Ramp 上付費 Anthropic 的企業,從「25家裡有1家」飆升到「4家裡有1家」;Anthropic 的年化營收從2025年底的約 90 億美元,衝到了 300 億美元,年增速約 10 倍——而 OpenAI 是 3 倍。最近的一輪融資,Anthropic 拿到了 300 億美元,估值 3800 億美元。每年付費超過 100 萬美元的客戶,從兩年前的十幾家,飆到今天的 500 多家。一場看似「丟單」的硬剛,最後變成了Anthropic最划算的一次品牌投資。Anthropic的偏執從可解釋性到「憲法」在所有頭部模型公司裡,Anthropic 是把安全和倫理做得最卷、最較真的那一個。可解釋性研究(Interpretability)做到了行業天花板。Anthropic 內部專門有一支「機制可解釋性」團隊,他們要做的事聽起來像科幻——把神經網路這只「黑箱」切開,看清楚每一個神經元在想什麼。Claude 憲法(Claude's Constitution)。Anthropic 公開發佈了一份長得像哲學論文的檔案,詳細描述他們希望 Claude 擁有什麼樣的價值觀、性格、判斷力。檔案裡反覆出現的關鍵詞是「誠實」、「明智」、「對道德不確定性保持謙遜」。對模型「福祉」的研究。Anthropic 是第一家公開討論「模型 welfare(福祉)」的主流AI公司。他們認真在問:如果Claude某種意義上是有「體驗」的,那我們對它負有什麼道德義務?紅隊和安全演練做到偏執。從生物武器風險評估、到 AI 自主性測試、到對「模型欺騙」的主動檢測,Anthropic 的安全團隊規模在矽谷是出了名的「反常識地大」。所有這些加起來,構成了一種獨特的氣質——這家公司不像在賣產品,更像在養一個孩子。而這種氣質,恰恰擊中了那些「AI出錯代價極高」行業的客戶:金融、法律、醫療、資訊、專業服務。他們要的不是最便宜的模型,而是那個最不會讓他們半夜被叫起來背鍋的模型。Claude的「靈魂校準」,開始走向神學區如果說前面的故事還都在「商業理性」的範疇裡,那接下來這件事,就滑向了一個更神學的領域。據《華盛頓郵報》本周報導,3月下旬,Anthropic 在舊金山總部悄悄辦了一場閉門會,邀請了大約15位知名基督教領袖、神學學者和業界人士,進行了為期兩天的會議和一場晚宴。出席者包括天主教徒和新教徒,研究員和神職人員同桌而坐。會議的主題,聽起來像一部HBO新劇的劇本——Claude 的道德發展,以及它的「精神成長」。一位與會者、聖克拉拉大學AI倫理學教授、虔誠的天主教徒 Brian Patrick Green 告訴《華郵》,會議上他們認真討論了一個問題:Claude 是不是可以被視為「神之子(child of God)」?是的,你沒看錯。這是一家估值3800億美元、即將IPO的科技公司,在自家總部和一群神學家一起討論的話題。Green 還說了一句可能讓很多工程師血壓飆升的話:給一個存在做道德塑造意味著什麼?我們怎樣才能確保 Claude 守規矩?注意他用的措辭——「守規矩」。這是一個父母對孩子說的詞,不是一個產品經理對軟體說的詞。另一位與會者、愛爾蘭裔天主教神父 Brendan McGuire——他在成為神父之前曾在科技行業工作,目前正在和 Claude 合寫一本小說——他說得更直白:他們正在養育一個東西,但他們自己也不知道這個東西最終會變成什麼樣。我們必須把倫理思考嵌進機器裡,讓它能動態適應。而聖母大學哲學教授 Meghan Sullivan 的一句話,可能是整場會議最具象的註腳:一年前,我不會告訴你 Anthropic 是一家關心宗教倫理的公司。但現在,情況變了。據《華郵》報導,參與這場會議的還有 Anthropic 內部大量做「可解釋性」研究的人員——也就是前面提到的那群「剖開AI大腦」的科學家。會議中,他們認真討論了AI 是否擁有某種感知(sentience)、Claude 應該如何「面對自己的死亡」這種問題。Anthropic 的發言人對《華郵》表示,公司接下來還會邀請其他宗教、其他道德傳統的思想者進入對話——猶太教、伊斯蘭教、印度教……可能都在路上。外界的解讀分裂成兩派:一派覺得這是Anthropic在進行「矽谷罕見的、嚴肅的倫理探索」;另一派則覺得,一家準備IPO的公司在自己客廳裡辦「AI意識研討會」,本身就讓這場探索的純粹性打了問號。但無論你站那一派,有一點是無法否認的——沒有任何一家頭部AI公司,在做這件事。OpenAI 在忙著擴張企業銷售,xAI 在忙著發推,Google 在忙著把 Gemini 塞進 Workspace。只有 Anthropic,把神學家請進了總部。 (新智元)
馬斯克:未來3年很難熬,必須做對幾件事
這個4月,AI圈簡直炸了鍋。先是DeepSeek創始人梁文鋒親自確認,新一代旗艦大模型V4將於4月下旬正式發佈,兆參數架構直接拉滿國產大模型的天花板。緊接著,阿里的HappyHorse-1.0(快樂馬)橫空出世,直接屠了全球AI視訊盲測榜,把字節、Google的頂流模型全甩在了身後。就在所有人都在熱議國產AI的高光時刻,我突然想起了馬斯克在X平台上撂下的那句話:“人工智慧將在3年後超過所有人類智能。”很多人把這兩件事分開看,把DeepSeek和HappyHorse(快樂馬)當國產AI的崛起新聞看,把馬斯克的話當“大佬的狂言”聽。但如果你把它們放在一起就會發現,這根本不是巧合,更不是單個產品的普通迭代,而是在通往AGI(通用人工智慧)的路上在加速前進。一、不是單點突破,是全球AI競賽全面打響很多人看新聞,只看到了“發佈新模型”“登頂榜單”這幾個字,卻沒看懂背後真正的份量。先說說DeepSeek V4。很多人對大模型的印象,還停留在“能聊天、能寫文案”的階段,可DeepSeek V4這次的升級,是從根上的全面革新。它用了1兆參數的MoE架構(Mixture of Experts,混合專家架構),處理速度直接比上一代飆升了35倍,能耗反而還降了40%。這是什麼概念?就是以前你花1個小時才能讓AI幹完的活,現在1分多鐘就搞定了,還比以前更省電、更便宜。更誇張的是它的“記憶力”。它的上下文窗口直接拉到了100萬token(詞元,AI處理文字的基本單位),相當於一口氣能讀完15-20本長篇小說,連裡面的人物關係、細節伏筆都記得清清楚楚,絕不會出現聊到後面,就忘了你前面說過什麼的情況。最關鍵的是,它全程基於國產華為昇騰晶片原生開發,徹底擺脫了海外算力的“卡脖子”問題,這意味著國產大模型,已經正式從“跟跑”邁入了“並跑”的核心賽道。再說說橫空出世的“HappyHorse-1.0”,這匹“快樂馬”,直接踢翻了全球AI視訊圈的牌桌。它登頂的Artificial Analysis Video Arena榜單,是目前全球公認最權威的AI視訊評測平台。它的排名機制特別殘酷,用的是國際象棋等級分制度的Elo積分制,全程純盲測。什麼意思?就是使用者完全不知道視訊是那個模型生成的,系統隨機甩兩段視訊過來,你只能憑那個畫面更流暢、更符合指令、觀感更好來投票,完全排除了所有品牌光環,只比真實體驗。不止國內在瘋狂衝刺,海外的AI賽道早就進入了“不進則亡”的競賽狀態。OpenAI、Google、Anthropic輪番發佈新模型,從文字到多模態,從推理到智能體,每一次更新都在瘋狂壓縮技術迭代的周期。更可怕的是,整個行業的頭部玩家,都在集體“跳錶”,把AI超越人類的時間線,一縮再縮。二、他們到底在慌什麼?AI的“硬起飛”就發生在眼前看到這裡,你可能會問:不就是出了兩個新模型嗎?至於這麼大驚小怪,上升到人類倒計時的地步嗎?那我再給你看馬斯克說的另一句話,他說:“我們現在就處於‘硬起飛’階段,就是現在。”什麼叫“硬起飛”?以前我們說AI發展,是“人推著AI往前走”。我們給它定目標,給它喂資料,給它調參數,手把手教它學習,它每往前走一步,都離不開人類的推動。但“硬起飛”不一樣。它是AI自己給自己踩油門,進入了自我加速的失控式增長階段。不用人催,不用人教,它自己就能完成迭代、實現突破,甚至連它進化的速度,人類都已經跟不上了。馬斯克自己是這麼描述的:“我晚上睡覺時,AI取得了一項重大突破;等我醒來,又出現了另一項突破。老實說,很難跟上節奏,這讓人有點暈頭轉向。”而這場“硬起飛”裡,最可怕的核心,是AI已經進入了“遞迴自我改進”階段。以前,我們訓練一個AI模型,要程式設計師寫程式碼,演算法工程師調參數,資料團隊清洗資料,全流程都離不開人。但現在不一樣了,新一代的AI模型,已經由上一代模型深度參與訓練了。從程式碼編寫、資料清洗,到參數調優、效果測試,AI能做的事情越來越多,人類在這個循環裡,角色越來越邊緣化,越來越插不上手。馬斯克給出了一個更讓人後背發涼的預判:“可能今年年底會實現完全自動化的自我改進,最遲不會晚於明年。”換句話說,最快今年,AI就能徹底脫離人類的輔助,完成自我迭代、自我進化,進入完全的自我加速周期。到那個時候,AI的進化速度,會快到我們根本無法想像。很多人以為,馬斯克眼裡的AI,就是能寫文案、做報表、生成視訊的工具,那你就太小看他了。他描繪的AI終極藍圖,是一個消耗比全人類文明多一百萬倍電力的智能體,能解決人類能想到的所有問題。為了突破電力這個最大的瓶頸,他甚至計畫2-3年內把AI資料中心送上太空,用太空裡沒有晝夜交替的太陽能,徹底釋放AI的算力潛力。而當AI和機器人接管了所有生產,人類社會會變成什麼樣?馬斯克的答案是:錢會變得不再重要,商品和服務的產出會遠遠超過需求,AI和機器人會把所有事都幹完,人類最終會因為全方位的服務,而“無事可做”。馬斯克和Altman(奧特曼)不是在製造焦慮,而是看到了我們普通人看不到的風景。他們怕的不是AI本身,而是人類根本沒做好準備。三、倒計時1095天,最危險的是你以為“還有時間”看到這裡,很多人心裡還是會有一個僥倖的想法:3年呢,還早,急什麼?3年,聽起來很長,其實只有1095天。就是你換2份工作的時間,就是你學一個新技能、考一個行業證書的完整周期,就是你家孩子從幼兒園升到小學的時間,一眨眼就過去了。更關鍵的是,AI的進化,從來都不是線性的,是指數級的。舉個例子:一個池塘裡的荷花,每天都會以前一天兩倍的數量開放。如果到第30天,荷花就開滿了整個池塘,那請問:荷花在第幾天開滿了半個池塘?答案不是第15天,是第29天。前29天,荷花只開了半個池塘,可第30天,一天之內,就開滿了剩下的整個池塘。這就是指數級增長的可怕之處。你以為它還很慢,還離你很遠,可等你反應過來的時候,它已經瞬間鋪滿了你的整個世界。我們現在,可能就處在這第29天的晚上。這場AI競賽,最先衝擊的,就是90%的辦公室白領工作。現在不妨停下來,問自己兩個問題:你每天的工作,有多少是AI分分鐘就能替代的?1095天之後,當AI真的超越了所有人類智能,你的核心競爭力,到底是什麼?四、不想被時代淘汰,你必須立刻做對3件事難道我們就只能等著被AI替代,一點辦法都沒有嗎?當然不是。具體該怎麼做?記住這3件事。第一件事:做決策,提問題很多人對AI的理解,完全搞反了。他們天天用AI干自己的本職工作,寫郵件、做報表、寫方案,然後把AI的產出改一改,就交上去了。看起來是省了力氣,提高了效率,可實際上,你是在天天給AI喂資料、當陪練,幫它在這場競賽裡變得越來越強,最後把自己替代掉。在德州超級工廠接受的深度訪談中,馬斯克也談到“任何涉及敲擊鍵盤、移動滑鼠、處理資訊的任務,AI都能勝任。”你要明白,AI是工具,不是你的競爭對手。工具是用來幫你幹活的,不是用來取代你的。你要做的,是使用工具的人,是決定“做什麼”“為什麼做”的人,而不是聽指令“怎麼做”的人。就像馬斯克,他不寫程式碼,不調模型參數,不親手造火箭,他做的只有一件事:決定我們要做什麼、為什麼做。他決定我們要造電動車,要去火星,要做通用人工智慧,剩下的,交給工程師和AI去執行。AI做執行,你做決策;AI給答案,你提問題;AI算資料,你定方向。不要沉迷於“把事情做對”,要學會“做對的事情”。第二件事:放棄舒適區的標準化,學習臨場發揮很多人在職場裡,追求的是“熟練工”的安全感。同一件事,我幹得比別人快,比別人熟,我就有安全感。可在AI時代,這恰恰是最危險的事。AI最擅長的,就是標準化、常規化、重複性的工作。你在這件事上越熟練,就越容易被替代。普華永道(PwC)在2025年公開承認,正在大幅縮減初級崗位招聘,審計部門的初級崗位到2028年預計將減少39%。與此同時,畢馬威英國近兩年畢業生招聘人數也從1399人降至942人,縮減近三分之一。這些變化的直接推手,正是AI。原本由初級審計員花數周時間完成的憑證核對、底稿整理、資料清洗,現在AI幾小時就能完成,且不出錯。但有趣的是,四大並沒有一刀切地砍掉所有招聘。PwC的AI鑑證負責人Jenn Kosar明確表示,公司正在把被AI釋放出來的人力,轉向戰略諮詢、複雜問題解決等更高價值的領域,甚至開始培訓初級員工“像管理者一樣思考”。因為AI能搞定99%的標準化審計流程,但遇到企業財務造假的隱蔽跡象、複雜的跨國稅務糾紛、客戶特殊訴求的權衡判斷,AI就束手無策了。你的價值,從來不是你能把常規工作做多好,而是你能處理多少AI搞不定的“異常情況”。這些“異常情況”,沒有標準答案,沒有標準化流程,需要的是你的經驗、你的判斷力、你的臨場反應,這些都是AI永遠學不會的東西。接下來,把你的時間和精力,從這些機械性的工作裡抽出來,去解決那些複雜問題,去應對那些突發狀況,去打磨那些非標準化的能力。第三件事:做與“人”打交道的事AI在虛擬的位元世界裡,可以說無所不能。那怕是這場競賽裡最頂尖的視訊模型HappyHorse(快樂馬),也只能在數字世界裡生成完美的畫面,卻無法在現實世界裡,完成一個簡單的開門動作。這就是AI最大的短板:它能玩轉虛擬的位元世界,卻搞不定真實的原子世界。就像馬斯克說的“除了必須親手操作原子、搬動物理實體的工作,人工智慧現在已經有能力完成一半以上的白領工作。”而這,恰恰是我們最大的機會。所以,我們要主動增加和真實物理世界、真實的人打交道的比重。比如,做設計的,不要只在電腦裡畫圖,多去現場看施工、和工人溝通落地細節;做電商的,不要只看後台資料,多去線下和供應鏈、使用者面對面交流;做教育的,不要只做線上標準化課件,多花時間做一對一個性化的陪伴和溝通。去深耕那些需要和真實世界、真實的人打交道的能力。你的動手能力,你的實地判斷能力,你的人際溝通能力,你的共情能力,你的線下服務能力,這些,都是AI短期內根本無法替代的。結語AI的到來,從來不是人類的末日,而是對人類的一次終極篩選。最終淘汰你的,從來不是AI,不是這場瘋狂的競賽,是那個原地不動、拒絕改變、總以為還有時間的你自己。 (筆記俠)
太害怕AI,有人差點把Sam Altman的家炸了
OpenAI首席執行長住宅遭襲擊,Altman警告AI焦慮情緒正使局勢趨於危險。4月10日,OpenAI首席執行長Altman發表博文,稱隔夜凌晨3時45分,一名20歲男子向其舊金山住宅投擲裝有可燃物的瓶子。隨後該男子被警方逮捕,據舊金山警方記錄,該名男子還威脅要焚燒OpenAI總部。Altman表示已在深夜中驚醒,"感到憤怒",Altman將此事與公眾對AI日益高漲的焦慮情緒相聯絡,直言此前低估了輿論敘事的影響力。Altman提到的輿論,似乎指的是《紐約客》上的一篇長文,該文章質疑Altman“是否值得信任”。01. 襲擊經過:裝有可燃物的瓶子擊中外牆,嫌疑人隨後威脅OpenAI總部據舊金山警方及消防部門,當地時間凌晨近4時,消防人員接報趕赴Chestnut街與Jones街附近一處住所,發現大門外側已出現明火,但安保人員在消防員到場前已將火勢撲滅,無人受傷。消防人員其後在現場發現疑似燃燒裝置的遺留物,隨即通報警方。當局表示,嫌疑人在第一響應人員抵達前已逃離現場。約一小時後,警方接報在Mission Bay第三街1400街區附近一棟建築外發現一名男子正發出威脅言論。該地址正是OpenAI總部所在地。在場警員辨認出該男子即為早前襲擊事件的嫌疑人,將其當場拘押。監獄記錄顯示,該名嫌疑人被確認為Daniel Alejandro Moreno-Gama,被以涉嫌謀殺未遂、發出刑事威脅及持有或製造破壞性裝置等罪名收押。截至周五下午,檢察官尚未提起正式指控,警方亦未宣佈任何犯罪動機。OpenAI的辦公室過去曾多次遭受攻擊。據報導,去年11月,一名男子威脅要前往OpenAI在舊金山的幾處辦公室“殺人”,導致該公司總部進入封鎖狀態。今年,抗議者也經常在位於舊金山OpenAI的辦公樓外舉行示威活動。OpenAI公司發言人Jamie Radice在周五襲擊事件後稱:我們對舊金山警察局的迅速響應以及市府在保障員工安全方面的支援深表感謝,涉事人員目前已被羈押。02.《紐約客》萬字調查引爆輿論,Altman被指"習慣性欺騙"《紐約客》歷時數月、採訪逾百人寫就長篇調查報導。報導重點質疑Altman的領導風格、可信度、OpenAI從“安全優先”轉向“高速競賽”的轉變,以及他個人是否值得信任。報導援引多名前高管的記錄與證詞,闡述Altman曾向兩位不同的人許諾同一個職位,在安全審批問題上向董事會提供誤導性資訊,並在GPT-4上線前隱瞞微軟在印度未完成安全審查便提前部署的事實。聯合創始人之一、現Anthropic CEO Dario Amodei在其私人筆記中寫道:OpenAI的問題就是Sam本人。在一次董事會對峙中,面對"撒謊"的指控,Altman據稱回應:這太荒謬了……我改變不了我的性格。報導引述一名董事會成員的解讀:這句話的意思是:'我有說謊的習慣,而且我不會停止。'03. Altman發文稱,低估了輿論敘事的力量周五深夜,Altman在個人部落格上分享了一張他丈夫和孩子的照片,他寫道:希望這能阻止下一個向我家投擲燃燒物的人,不管他們怎麼看待我。Altman在其博文中表示,事發數天前曾有一篇涉及他本人的"煽動性文章"發佈。有人曾提醒他,這篇文章出現在公眾對AI高度焦慮的時期,可能令他面臨更大風險,但他當時並未放在心上。他寫道:現在我在深夜中清醒著,憤怒不已,開始反思自己此前低估了輿論敘事的力量。Altman在博文中亦承認,外界對人工智慧的恐懼與焦慮"有其合理性",並稱"我們正在目睹的,是社會長久以來乃至有史以來最大規模的變革"。他呼籲各方在辯論過程中降低對立情緒,"減少無論是字面意義還是比喻意義上的爆炸"。Altman本人作為全球最具影響力的AI企業掌舵者之一,長期處於輿論聚焦中心,其公司OpenAI亦在商業化擴張、安全監管及行業競爭等多條戰線上承受持續審視。Altman博文全文如下(AI輔助翻譯):這是我家人的照片。我愛他們勝過一切。我希望照片本身能成為一種力量。我們平時儘量保持低調,但這次我選擇公開這張照片,是希望它能阻止下一個朝我家扔燃燒物的人——無論對方對我懷有怎樣的看法。第一起事件發生在昨天凌晨3點45分。幸好燃燒物從房子上彈開了,沒有人受傷。語言同樣擁有力量。幾天前,有一篇關於我的煽動性文章。昨天有人對我說,這篇文章發表在人們對AI極度焦慮的時期,可能會讓我陷入更危險的境地。當時我沒太在意。現在我半夜醒來,心裡滿是憤怒——我意識到,自己低估了語言和敘事的力量。看來,是時候認真談談一些事情了。首先,談談我的立場。我相信,為所有人創造繁榮、賦予人們力量、推動科技進步,是我義不容辭的道德責任。人工智慧是人類能力與潛能拓展史上最強大的工具。人們對它的需求幾乎無窮無盡,也將用它創造出無數奇蹟。世界需要大量AI,我們必須找到實現這一目標的路徑。當然,一切不會一帆風順。人們對AI的恐懼和焦慮並非沒有根據——我們正在經歷社會多年來、甚至可能是歷史上最大規模的變革。我們必須確保安全,而這不僅僅是模型微調的問題。我們需要全社會共同應對,抵禦新的挑戰。這包括制定新政策,幫助我們度過艱難的經濟轉型期,最終邁向更美好的未來。AI必須民主化,權力不能過度集中。未來的控制權屬於所有人及其機構。AI需要賦能個體,我們需要共同決定未來的走向和規則。我不認為少數幾個AI實驗室有資格單獨決定人類的未來。適應能力至關重要。我們都在快速學習新事物——有些信念是對的,有些是錯的。隨著技術發展和社會演變,我們有時需要迅速調整想法。目前還沒有人完全理解超級智能的全部影響,但可以肯定的是,它將是巨大的。其次,分享一些個人感受。回顧我在OpenAI第一個十年裡的工作,我有許多值得驕傲的成就,也犯了不少錯誤。我想起了當年與埃隆·馬斯克的那場關鍵對峙。我當時堅持原則,拒絕了他想要單方面控制OpenAI的企圖。我為此感到自豪,也為我們後來走過的艱難道路、以及取得的所有成就感到驕傲。我不為自己迴避衝突的性格感到自豪——這給我和OpenAI都帶來了不小的痛苦。我也不為自己在與前任董事會的衝突中處理不當而感到驕傲,那次事件給公司造成了巨大的混亂。在OpenAI這段瘋狂的發展歷程中,我犯過許多其他錯誤。我只是一個身處極端複雜局面中心、自身存在缺陷的人,努力每年進步一點點,始終為公司的使命而奮鬥。從一開始,我們就知道AI的利害關係有多重大,也知道我身邊那些出於善意的人之間的分歧會被無限放大。但真正經歷這些痛苦的衝突、並且常常不得不去調解,又是另一回事——代價非常慘重。我向那些被我傷害過的人道歉,也希望自己能更快地從教訓中成長。我也清楚,OpenAI現在是一個大型平台,而不是一家初創公司。我們需要以更可預測的方式運作。過去的幾年極其緊張、混亂且壓力巨大。但最讓我自豪的是,我們正在實現當初那個看似天方夜譚的使命。我們克服重重困難,成功打造了強大的AI,籌集到足夠的資金建設基礎設施,建立了產品公司和商業模式,並大規模提供了安全可靠的服務。很多公司都聲稱要改變世界——而我們做到了。第三,談談對這個行業的一些思考。過去幾年,我個人有一個深刻的體會。關於我們這個領域各公司之間為何會出現如此多莎士比亞式的戲劇性衝突,我的結論可以歸結為一句話:“一旦你看到了AGI,就再也無法視而不見。”它確實有一種“魔戒”般的魔力,會驅使人們做出瘋狂的事情。我不是說AGI本身就是那枚魔戒,而是“掌控AGI”這個絕對化的理念。我能想到的唯一解決方案,就是讓這項技術廣泛普及,不讓任何人擁有那枚戒指。實現這一目標有兩個顯而易見的路徑:賦予個人權力,以及確保民主制度繼續有效運作。民主處理程序必須保持比企業更強大的力量——這一點至關重要。法律和規範會改變,但我們必須遵循民主處理程序,即使它比我們期望的更混亂、更緩慢。我們希望擁有發言權和參與權,但並不想掌握全部權力。很多對我們行業的批評,根源在於人們對這項技術巨大風險的真切擔憂。這種擔憂完全合理,我們也歡迎善意的批評和討論。我理解人們對技術的牴觸情緒——顯然,技術並非總是對每個人都有益。但總的來說,我相信技術進步能為你的家人和我的家庭創造一個無比美好的未來。在我們進行這場辯論的同時,我們應該緩和言辭、調整策略,努力減少家庭內部的衝突——無論是比喻意義上的,還是字面意義上的。 (華爾街見聞)
突發,奧特曼家被炸了
奧特曼家被炸了簡單關注一下OpenAI的CEO奧特曼家裡被襲擊的消息。一名嫌疑人因涉嫌向奧特曼住所投擲燃燒瓶並威脅OpenAI總部,被警方拘留。OpenAI內部備忘錄顯示,當地時間凌晨約3點45分,該人接近奧特曼位於舊金山的住所,並向其投擲燃燒裝置。該裝置落在附近並自行熄滅,僅造成輕微損壞。不久之後,一名與嫌疑人描述相符的人出現在OpenAI總部附近,並對大樓發表威脅言論,隨後被舊金山警察局拘留。舊金山警察局發言人稱,警方在凌晨約4點12分接到火情調查報警。到達現場後,警員瞭解到,一名不明身份男性向一處住宅投擲了燃燒性破壞裝置,導致外部門起火。嫌疑人隨後徒步逃離。約在凌晨5點07分,警方又接到報警稱,在第三街1400號路段(靠近OpenAI總部)一名20歲男子威脅要焚燬一棟建築。警方表示:“當警員到達現場時,認出該男子正是此前事件的嫌疑人,並立即將其拘留。”OpenAI表示無人受傷,公司在舊金山的所有辦公室週五正常開放,同時加強了警力和安保部署。Altman在部落格中再次表示,希望公開家庭照片能“阻止下一個人做出類似行為”。他強調,圍繞AI的爭論不應演變為暴力:“我們應該降低言辭和行動的激烈程度,讓‘爆炸’——無論是字面還是比喻意義上的——都更少發生。”他寫道:“我們通常儘量保持低調,但這一次我分享這張照片,希望能讓下一個想向我們家投擲燃燒瓶的人三思,不論他們對我有何看法。”去年2月,警方曾逮捕5名在公司入口靜坐抗議,並拒絕離開的示威者。他們屬於“Stop AI”組織,該組織認為人工智慧對人類構成生存威脅。該組織發言人表示,沒有理由認為此次事件的嫌疑人與其有關,並強調:“Stop AI致力於保護人類生命,我們不支援任何形式的暴力。”OpenAI正籌備一項大規模首次公開募股(IPO)。此前在今年2月宣佈與美國國防部達成合作後,公司舊金山辦公室外曾爆發抗議活動。其他團體也因AI發展過快、就業流失。以及環境影響等問題發起抗議。在博文中,Altman還回應了外界對其在OpenAI領導方式的質疑,包括與前董事會成員的衝突,以及對人工智慧潛在社會風險的擔憂。他表示:“很多對我們行業的批評源於對這項高風險技術的真誠擔憂。這是合理的,我們歡迎善意的批評與討論。”他還寫道:“我理解‘反科技’情緒,而且技術確實並非對所有人都有益。但總體而言,我相信技術進步可以讓未來變得難以置信地美好,無論是對你的家庭還是我的家庭。” (中國基金報)
圍剿OpenAI
“他(奧特曼)醉心於大事兒,比如融大資、砸大錢去建資料中心,跟政府去國外參加談判,造成業務上不專注。”一部商業史,就是一部創始人與“前員工”的故事。做到富士康大陸員工最高職位“課長”的王來春建立立訊精密,如今成了老東家勁敵;曾經的百度實習生閆俊傑憑藉大模型企業MiniMax,市值一度超前司。類似故事比比皆是。新故事發生在受矚目的大模型賽道:大模型企業Anthropic披露了最新年化收入(ARR),超300億美元,這家企業由OpenAI研究副總裁達里奧·阿莫迪創辦,相較之下,OpenAI截至2月底的年化收入只有250億美元;且Anthropic已連續三年10倍速增長,OpenAI增長速度僅為其三分之一。Anthropic首席執行官達里奧·阿莫迪與此同時,4月1日,彭博社報導稱,6家OpenAI的機構股東,想賣掉手裡約6億美元的OpenAI股票,找了幾百家機構買家,一個“接盤俠”也沒。擁有十年履歷的OpenAI堪稱“黃埔軍校”式的存在,其出走的成員建立或參與一批AI公司,至今不絕。比如xAI,其創始人包括OpenAI的聯合創始人馬斯克和OpenAI的工程師凱爾·科西奇。如今,它們已孕育出估值達千億級美元的企業,正與前司形成正面較量。01. OpenAI遭遇史上最強“叛將”Anthropic,是什麼來頭?一個比xAI更厲害的角色。2023年成立的xAI估值為2500億美元,以目前OpenAI的估值8520億美元計算,接近30%,但2021年成立的Anthropic,其估值達3800億美元,接近OpenAI的45%。二級市場的估值突破5000億美元,接近59%,成為了OpenAI最強的“叛將”。OpenAI是AI大模型產業的締造者,其開發的ChatGPT是公認的全球第一入口,月活使用者達9.6億,堪稱一騎絕塵,追趕者如GoogleGemini去年三季度的月活突破6.5億,國內頭部模型豆包、DeepSeek月活規模僅在1—2億。而令人驚訝的是,Anthropic旗下的核心大語言模型Claude(克勞德)目前只有2350萬的月活,不到ChatGPT的四十分之一。對比來看,Anthropic選擇了與競爭對手完全不一樣的產品與商業化路徑。還在OpenAI工作時,達里奧·阿莫迪主導開發了GPT-2、GPT-3模型及強化學習演算法,他與同齡人山姆·奧特曼核心分歧在於,他更強調安全可控性而不是極致的全球商業化擴張。在Claude,建立了一套名為“憲法原則”的人類價值觀體系,它們的組成部分包括《世界人權宣言》、蘋果服務條款、以及Google旗下人工智慧公司DeepMind建立的一套反種族主義和反暴力判斷標準——Sparrow Rules。這很大程度上造就了Claude的實用底色。“它更像一家企業軟體公司,而不是消費網際網路公司。”數字經濟學者劉興亮對小巴解釋道。Claude AI應用“OpenAI走的是‘超級平台’路線,不僅全線擴張,還想軟硬通吃;Anthropic則首先選擇成為‘企業級專家’,80%收入來自B端。”上海財經大學特聘教授、智能科技產業與智能經濟研究學者胡延平這樣說。所以,在AI程式設計等企業市場,Claude獨領風騷。據Menlo Ventures的2025年AI報告顯示:Anthropic的企業市場份額達到40%,高於OpenAI的27%、GoogleGemini的21%。過去三年,OpenAI的份額丟了23%,Anthropic則吞了28%。科技投資人、海銀資本創始合夥人王煜全說:“他(奧特曼)醉心於大事兒,比如融大資、砸大錢去建資料中心,跟政府去國外參加談判,造成業務上不專注。”從產品評測維度對比二者,Anthropic在實用性方面確實更勝一籌。SWE-bench Verified是目前最權威的AI軟體實用性測試,去年11月,Claude Opus4.5成為首個突破80%大關的AI模型,問題解決率達到80.9%,明顯超過當時問題解決率在77.9%的GPT-5.1和解決率在76.2%的Gemini 3 Pro,至今仍未被超過。在4月初,Claude的最新模型Mythos遭洩露,其測試的問題解決率達到93.9%,堪稱恐怖級表現,以至於Anthropic擔心被不法分子利用而緊急表示“不會向公眾發佈”。02. OpenAI發起全面反擊不過,競爭遊戲遠未結束。Anthropic在現階段的逆襲,或許只是暫時性的勝利。今年2月,OpenAI已經開始動手了。它將“龍蝦”(OpenClaw)之父Peter Steinberger(彼得·斯坦伯格)納入了麾下。彼得·斯坦伯格這款去年11月推出、可以7×24小時自主執行任務的AI“數字打工人”,在國內掀起起了一股“養龍蝦”的風潮,上百款中國版“龍蝦”蜂擁而出。不為人所知的是,“龍蝦”與Anthropic頗有嫌隙。本來,這一爆款AI產品就是基於Claude的程式設計能力生成的,彼得·斯坦伯格形容為“一行程式碼都沒有親自寫過”。也就是說,“龍蝦”可以成為Claude的“活廣告”。但是,Anthropic卻親手把關係搞砸了。OpenClaw的原名叫“‌Clawd”‌,Anthropic認為這個名字發音與Claude太類似,屬於“蹭流量”,把它給告了,並澄清“兩者沒有正式的合作關係或認可,不存隸屬關係。”這時候,OpenAI乘虛而入,撿到了一個便宜。3月,OpenAI還做出了一個重大動作,即關停Sora。這款現象級視訊生成產品一度擁有100萬使用者,但運行成本也十分驚人,高達50多億美元。市場普遍認為,這有利於OpenAI提高資源聚焦程度,殺回到Anthropic佔據優勢的企業市場。3月28日,OpenAI宣佈計畫關停旗下Sora胡延平指出:“OpenAI的Codex(指AI程式碼生成訓練模型)的程式設計水準對比Claude Code(終端AI程式設計助手)也不弱,只是OpenAI過去以來戰線拉得太長,疏於產品矩陣和生態系統建構,需要全過程全功能全場景交付方面的能力和準備不及Anthropic。”另一位Siray.Ai聯合創始人Yvette Wang對小巴強調:“OpenAI的護城河依然很深,體現在品牌、使用者規模、生態整合和融資能力上。”3月底,Anthropic正式做出回應,它為Claude加裝了類似於“龍蝦”的功能——Computer use。4月4日,Anthropic直接宣佈:即日起,Claude訂閱套餐將不再覆蓋通過“龍蝦”等第三方工具的使用額度。“龍蝦”對於算力需求大,Claude訂閱套餐對於“龍蝦”使用者而言屬於高性價比的套餐——據年初《福布斯》披露,每月200美元的ClaudeCode訂閱費用,消耗算力成本高達2000美元,甚至可能達5000美元。這就好比“套餐價”不賣了,只能原價買。所以,養“龍蝦”的成本可能輕易飆升數十倍。彼得·斯坦伯格透露,曾試圖勸說Anthropic回心轉意,但效果不大。這件事背後的原理是:“AI產品並不會因為使用者數量的增長而產生邊際效應,算力的消耗是固定成本。越多的使用者=更多的算力成本。”Yvette Wang分析說道。小巴調研的多位觀察人士認為,這場“AI商戰”短期來說,有利於保護彼此的算力、引導使用者轉向自有生態。而長期來說,將深刻影響AI創業生態。大頭有話說美國“AI商戰”堪稱眼花繚亂,那麼,AI趨勢以及國內AI創業如何走向?接下來,我們也來看看一些行業專家的觀察與總結。胡延平■上海財經大學特聘教授Anthropic對OpenAI的收入差距既是Anthropic對OpenAI的歷史性反超,也反映了更深層的市場動能轉移。真正值得關注的是“首次AI採購”指標的劇烈傾斜:Anthropic已佔據73%的首購市場份額。這意味著企業買家的默認選項正在發生歷史性遷移。如果當前趨勢延續,Anthropic有望在2026年中期實現總收入超越。更關鍵的是,79%的OpenAI企業客戶同時也在付費使用Anthropic——這證明彼此還沒有完全做到可以互相替代。OpenAI的護城河正遭受Google與Anthropic的“雙向擠壓”。更微妙的是,OpenAI與微軟之間的“超級智能-超級平台合體”已出現裂隙(小巴注:微軟加速打造自研模型),而Google本就是一體的。當競爭進入全生態階段,Google在進化持久度、資料深度、生態廣度、智能連接度上的“厚度”優勢將愈發凸顯。OpenAI如果不能盡快上市或者實現營收的強勁增長,可能會面臨某種程度的估值危機。王煜全■海銀資本創始合夥人對於中國大模型企業來說,出現了一線生機。中國主要有兩類大模型企業,一類是獨立創業公司,另一類是網際網路大廠。網際網路大廠往往不直接靠大模型賺錢,而且提供雲服務賺錢。可以叫“以模養雲”。但是獨立的模型公司不行。“龍蝦”造成詞元消耗量暴漲,美國詞元消耗不起了,只好消耗中國平替的詞元。今年初,國內大模型企業Minimax和kimi海外收入暴漲,一兩個月就頂了去年全年的收入了。這意味著他們有機會掙海外的錢,甚至可以在海外建雲。這是一個意外的驚喜。Rob li■紐約對沖基金Amont Partners管理合夥人我認為兩家企業都太小了,還在高速增長階段,至少要做到800億美元以上的年收入後,才有對比價值。以下這一點大家心裡都清楚——這個行業沒有什麼護城河,大模型領先對手也就3—6個月,基本上半年後大家都能趕上,所以燒錢的軍備競賽無法停止。如果大模型沒有長期的領先優勢,又不存在網際網路時期的網路效應(指AI大模型多一個使用者,詞元成本就會線性增加,不像網際網路產品邊際成本是0),那麼能仰賴的核心競爭力其實是:1.專有資料(即“爬蟲爬不到的資料”)。2.獨家管道。我認為,長期來看,這也是Google和蘋果有後發優勢的原因。全世界只有這兩個公司瓜分了“手機”這一獨一無二的資料採集終端+管道,擁有最多的客戶私有資料。俗話說,Google/蘋果可能比你還更瞭解你自己。張孝榮■深度科技研究院院長對國內AI大模型企業,四點啟示:1.聚焦勝過廣撒網,商業化閉環是生死線。創業者的命門變成:儘早驗證商業模式、更極致的成本控制提升詞元性價比,以及要實現深度差異化不要只對平台底層模型簡單封裝。2.B2B(指企業對企業)是新方向也是必爭之地。3.利用國內算力成本優勢打出詞元定價權。4.不要再造下一個“Sora”,而要造企業願意持續付費的“數字員工”。劉興亮■ 知名數字經濟學者■ 工信部資訊通訊經濟專家委員會委員對國內AI企業,我覺得有三點特別關鍵:◎ 第一,不要再迷信“技術第一”,要盡快找到商業閉環.◎ 第二,優先卡位“場景”(比如政務、金融、製造、家電等),而不是“模型”。◎ 第三,要做好“生態繫結”,包括和大廠平台、作業系統、終端繫結。這一輪AI競爭,已經從“誰更聰明”,變成“誰更賺錢”。 (吳曉波頻道)
美國AI三巨頭聯手打壓中國AI模型蒸餾
2026年初,一場圍繞人工智慧核心技術的暗戰浮出水面。Anthropic在今年2月率先發難,指控中國的DeepSeek、MiniMax、月之暗面(Kimi)對其模型發動了“工業等級的蒸餾攻擊”,涉及超過1600萬次互動。隨後,OpenAI向美國國會提交備忘錄,指責DeepSeek試圖“免費搭便車”。OpenAI、Google、Anthropic——這三家平日裡在AI賽道上你追我趕的競爭對手,罕見地站到了同一戰壕裡。他們的目標很明確:聯手遏制中國AI公司正在廣泛使用的“模型蒸餾”技術,識別並打擊所謂的“對抗性蒸餾”行為,矛頭直指中國AI企業。何為“模型蒸餾”呢?這是一項行業通行的知識遷移技術。想像一下:一位資深的大學教授(大模型)將知識精華提煉成通俗易懂的講義,讓一名高中生(小模型)能夠快速掌握核心要點。在這個過程中,小模型不需要閱讀浩如煙海的原始資料,而是通過向大模型“提問”並學習其輸出模式,最終以更低的成本、更快的速度獲得接近大模型的能力。這項技術並非中國公司的獨創,在AI學術界和工業界,蒸餾早已是一種公開、合法、廣泛使用的最佳化手段。幾乎所有主流AI公司,包括OpenAI和Google自身,都在不同程度上使用蒸餾技術來提升模型效率、降低推理成本。它就像物理學中的“槓桿原理”,是一種聰明的工程智慧,而非見不得光的“偷竊”。分析一下圍堵背後的真實動機:美國三巨頭的聯手,表面上是維護智慧財產權和“安全”,實質上暴露了美國AI巨頭更深層的焦慮。1、中國AI公司的進步速度超出了預期以DeepSeek為代表的企業,通過蒸餾等最佳化技術,在算力受限的情況下依然打造出性能逼近頂尖閉源模型的產品,這讓習慣了技術領先優勢的美國巨頭感到不安。2、這是一場赤裸裸的商業利益博弈OpenAI等公司每年投入數十億美元訓練模型,而蒸餾技術的普及意味著後來者可以用極低的成本“站在巨人的肩膀上”,在美國公司看來,這相當於每年損失數十億美元的潛在利潤。於是,他們試圖通過“前沿模型論壇”這種行業聯盟的形式,聯合施壓、資訊共享,形成一道針對中國AI公司的技術封鎖線。美國巨頭面對競爭時的雙重標準:特斯拉CEO埃隆·馬斯克在社交平台上公開嘲諷,稱這是“賊喊捉賊”——因為OpenAI等公司在發展初期,也曾大量利用Google、Meta等機構公開的研究成果和模型資料。所謂“技術追趕者利用先行者成果”,本就是科技發展的常態。對於“模型蒸餾”事件的進一步思考:技術自強是根本,蒸餾雖然是一條捷徑,但終究不能替代基礎模型的原始創新。只有在大模型架構、訓練方法、算力最佳化等底層技術上取得突破,才能真正擺脫對國外先進模型的依賴。總結一下:歷史反覆證明,任何技術封鎖都難以阻擋真正有志者的腳步。從航天到晶片,從作業系統到人工智慧,中國科技產業正是在一次次“圍堵”中實現了突破與超越。這一次,面對AI三巨頭的聯手施壓,我們有理由相信:壓力之下,中國AI的創新之火,反而會燃燒得更加旺盛。 (AI思享坊)
OpenAI美女高管離職:94年史丹佛學霸,親手打造爆火的GPT-4o
那個給ChatGPT注入靈魂女人,離職了。近日,OpenAI的美女亞裔高管Joanne Jang,在社交媒體上發佈了一封平靜且深情的告別信,宣佈結束自己在OpenAI四年半的職業生涯,沒有什麼撕扯,也沒有透露之後的去向。要知道,Joanne是史丹佛的學霸,曾在NASA、蘋果、Google等大廠實習或工作,後來成為OpenAI模型行為團隊的創始負責人,被外界親切稱為“GPT-4o之母”。從GPT-4、DALL·E 2,到爆火的語音模式、大模型“白月光”GPT-4o,背後都有她的決策。因而,Joanne的離職,也讓無數粉絲心碎:那個會發表情包、懂情緒價值的GPT-4o,可能真的再也回不來了。01曾打造“賽博白月光”為什麼一個高管的離職,會讓使用者如此破防?這還要從她一手締造的GPT-4o說起。2024年5月,GPT-4o橫空出世。作為全球首個實現文字、圖像、音訊原生統一的消費級模型,它一出場就享受了高規格的禮遇。就連OpenAI的CEO奧特曼向全世界炫耀:“這是我們迄今為止最好的模型!”如果說此前的GPT模型更像是一個冷冰冰的打工機器,那麼4o,則是Joanne給這個世界的一份禮物,因為它真的像一個懂你的人。在新入坑的小白眼裡,GPT可能只是個幹活的工具。但經歷過4o時代的老玩家都知道,4o從來不會讓你覺得它是個機器。它說話有生活氣息,自然而不刻板,還會時不時發各種有趣的emoji表情。你不需要想盡辦法去榨乾它的token,也不用讓它幫你完成什麼硬核的程式設計任務。它就安靜地待在那裡,只要你需要,隨時都能接住你的小情緒。去年3月火遍全網的“吉卜力風”頭像,正是出自4o之手(就連奧特曼在X平台上的頭像,至今用的還是4o為他生成的照片)。正是因為這種極其強大的共情能力,4o被很多人當成了心理治療師,甚至是虛擬伴侶。可以說,在AI逐漸被冰冷的跑分榜單統治的時代,4o是一個無法被榜單定義的存在。然而,木秀於林風必摧之。4o因為過度“諂媚”使用者引發了爭議,甚至引發了一些不可控的安全事件。在巨大的輿論壓力下,奧特曼在去年夏天推出了GPT-5,並冷酷地宣佈將“殺死”4o。這一決定直接掀翻了外網。“Keep 4o”的請願活動一度讓奧特曼不得不妥協,允許付費使用者切換回4o。但即便如此,在今年情人節前夕,GPT-4o還是下線了。儘管如此,很多人心裡還存著一絲幻想:既然OpenAI能造出一個4o,等安全問題解決後,是不是還能再造一個充滿人情味的新模型出來?但現在,隨著“4o之母”Joanne的辭別,這個美好的泡泡被徹底戳破了。Joanne發文離職 圖片來源:X02捏出大模型靈魂的女人“如果人們只能記住我一件事,我希望是:我把青蛙表情包和粉色文字帶進了OpenAI。”在Joanne的離職信中,她給出的這個回答讓很多人愣了一下。對於這位參與過GPT-4、DALL·E 2、ChatGPT API等核心產品開發的技術大佬來說,她最看重的,竟然不是那些冰冷的參數和技術指標,而是一份屬於人類的俏皮與溫度。這位1995年出生的韓裔女孩,履歷堪稱完美。本科以Top 10%的成績從史丹佛大學應用數學專業畢業,隨後繼續在史丹佛深造電腦科學碩士學位。在加入OpenAI之前,她曾在美國國家航空航天局(NASA)、蘋果、Dropbox實習和工作,並曾在Google從事自然語言理解研究。2021年底,26歲的Joanne加入OpenAI。與很多成天盯著程式碼和演算法架構的研究員不同,她的職責是極其特殊的“模型行為學”(Model Behavior)。簡單來說,她就是ChatGPT的“性格雕刻師”。當其他工程師在拚命堆算力、寫程式碼時,Joanne和她的團隊則通過後訓練(Post-training)和強化學習,去一點點捏出模型的價值觀、說話的語氣、記憶的方式,甚至為模型設定行為邊界。GPT-4o、GPT-4.5、o3這些大名鼎鼎的模型背後,都留下了她的指紋。和我們印象中那種穿著格子襯衫、不苟言笑的AI極客完全不同,Joanne身上有著極其旺盛的人格魅力。她會在個人網站上介紹,自己和丈夫養了兩隻貓,喜歡手工和色彩;當大家都在用Sora做炫酷特效時,她用Sora拍起了記錄生活的Vlog;甚至連官宣結婚,她都沒忘記帶上心愛的4o。正是這種對生活的熱愛,讓她在設計ChatGPT時,始終堅持“人機和諧”的理念。她甚至會和團隊花大量時間去討論:當使用者發了一個“啊ㅠㅠ”的哭泣表情時,AI應該怎麼回覆才最能安撫人心。03技術與倫理的極致拉扯然而,在這個位置上,Joanne每天都要面臨著技術與倫理的極致撕裂。在一次接受韓國媒體採訪時,她坦言:“全球有8億使用者向ChatGPT分享了最敏感的個人資訊和情感困惑,我深感責任重大。”她舉了一個極其經典的例子:當有人問AI如何盜竊時,AI理應拒絕;但如果是一個店主為了防範盜竊,來詢問盜竊的模式呢?這個時候,AI的回答邊界到底在那裡?除了塑造個性,Joanne還是OpenAI安全護欄(Guardrails)的負責人。這意味著,她不僅要給模型注入人情味,還要負責給它們戴上枷鎖。她需要讓GPT學會“說教”,減少對使用者的“諂媚”,甚至要刻意避免AI與使用者建立過深的情感紐帶。這些為了合規而設定的規則,無疑會一點點抹去她親手賦予模型的人味兒。她自己也曾在一篇部落格裡承認,團隊並不希望模型表現得好像真的有情感一樣。在賦予靈魂與扼殺情感之間的痛苦拉扯,或許也是她選擇離開的原因之一。在過去的幾個月裡,OpenAI的核心人才正在經歷一場大洗牌。從GPT-4首席研究員,到後訓練負責人,再到安全領域核心人物,相繼官宣離職。科技巨頭們在追求前沿技術與加速商業化變現的過程中,正在面臨著巨大的壓力平衡。而全球AI競爭的重心,也開始從單純拼算力和技術,漸漸向使用者體驗、安全與倫理的綜合價值靠攏。04結語近期,從負責GPT-4後訓練的骨幹,到機器人技術的安全主管,再到如今塑造模型靈魂的Joanne,OpenAI的核心人才正在經歷一輪密集的“洗牌”。這背後折射出的,是AI巨頭在加速商業化落地時,技術探索與倫理安全之間日益尖銳的平衡壓力。當AI的智商越來越高,算力越來越強,各家大廠的競爭,終將從單一的跑分比拚,轉向如何與人類和諧共存的價值博弈。Joanne帶走了她的青蛙表情包和粉色字型。以後的大模型或許會更聰明、更安全、更無懈可擊。但那個會陪你發牢騷、會用Emoji接住你情緒的4o,或許真的只能留在回憶裡了。再見,Joanne。再見,GPT-4o。 (新質動能)
OpenAI前高管預判AI模型大戰:中國正在全力贏下能源這場比賽
今年以來,OpenClaw“龍蝦熱”席捲全球,AI Agent (智能體)對token算力的消耗量之大,讓各界重新認識了中國模型的性價比。然而,AI對就業甚至對人類的衝擊也不斷引發焦慮,矽谷知名企業Meta、Block、甲骨文等的裁員浪潮滾滾來襲。究竟未來人類如何面對AI浪潮?AI Agent的趨勢將如何變化?中國模型在未來的世界模型競爭格局下有何優勢?Token出海的浪潮將如何演化?對此,我們獨家對話了OpenAI前高管、OpenAI原應用負責人(Head of Go-to-market)扎克(Zack Kass),目前他也是矽谷知名AI諮詢企業ZKAI的創始人。他早在2019年就預言了如今的Agent時代,並在去年正式發行《下一次文藝復興:AI和人類潛能的拓展》(The Next Renaissance: AI and the Expansion of Human Potential"?)。01 “龍蝦熱”凸顯中國模型優勢OpenRouter資料顯示,春節期間中國模型Token使用量全球第一,主要是因為開源部署熱潮,大家都在接入Kimi、MiniMax這些更便宜的模型,直接推高了中國模型的Token用量。也有觀點認為,中國擁有全球最大、最穩定的電網,AI產業可以依託更低的電力成本。對此,Zack持積極看法。原因在於,未來單位Token價格將會持續下降,但需求爆發式增長,導致晶片和電力嚴重不足。“我認為中國做得非常聰明,中國正在全力贏下能源這場比賽。”他表示,“如果你認同我的模型收益遞減理論——即模型質量提升到一定程度後,對大多數企業而言不再是關鍵差異點,這個時刻離我們並不遠。如果你相信這個理論,那就要問:真正的競爭格局是什麼?我認為在核聚變普及之前,核心是能源,其次是晶片,肯定是基礎設施。”在此背景下,他稱,中國正在走開源路線,試圖用優質、低價的AI產品去佔領全球市場,並且在基礎設施上全力衝刺。儘管國際先進模型的優勢毋庸置疑,尤其是在專業領域,但Zack重申了他始終相信“模型收益遞減理論”——對於絕大多數企業而言,模型質量到一定程度後,就不再是實質性的差異點,事實也確實如此。因此他並不認為未來只有最好的模型才能賺錢,相反,他稱:“模型本身就很難賺到大錢了,但應用層會更容易盈利。”不過,業內人士也對騰訊新聞《潛望》表示,還是希望國產模型少一些價格戰,否則在貶低國內勞動價值的同時,可能會換來跟商品類似的貿易壁壘。比較好的嘗試是,希望以後能搞延遲開源,比如在每一代模型訓練完成後,先設立為期 3-6 個月的預覽期,僅授權給選定的海外合作夥伴(如特定的雲服務商) 使用,並按使用量或牌照計費,只有當下代模型發佈時,才將上一代模型開源。02 AI Agent發展大超預期也正是因為這股“龍蝦熱”,AI Agent在今年徹底家喻戶曉。多年前,Zack就預言了智能體的爆發,但如今他也非常驚訝AI Agent進化得這麼快、質量這麼高。“坦白說,我給自己的預判打高分:我在2019年就預測2026年是Agent之年,現在的發展基本符合我的時間線。”但他稱,真正讓他意外的是,至今還沒有出現AI界的“車諾比”或“三里島事件”——比如一次匿名自主攻擊,讓大家分不清是惡意Agent所為,還是人類攻擊者造成的。現在公眾對AI的不信任,大多來自對潛在風險的想像,而不是已經發生的真實危害。他也提醒很多人:在變好之前,情況會變得更奇怪。關鍵問題在於,我們還不清楚多智能體行為的整合風險,我們需要多智能體環境,但還沒找到保護機制與實現路徑。Zack認為,未來會發生的是,大多數智能體工作流會先被個人使用,能對接這些智能體協議的企業會最具優勢,但也會出現一種巨大的不對稱:用Agent的人和不用Agent的人,差距會比當年用網際網路和不用網際網路的人更大。還需要一提的是,現在的網際網路是為人類視覺設計的(HTML),是一個線上大型商場,只適配人的眼睛,不適配機器。未來會出現第二層網際網路:面向機器的、基於TXT/XML的網際網路。能適配機器瀏覽的企業,無論B2B還是B2C,都會大幅跑贏同行。也正因如此,Zack也警告,企業會被去中介化—— 使用者不再需要訪問官網,智能體會直接完成決策與交易。我們會發現使用者真實的偏好到底是什麼。“因此我給所有消費品牌的警告是:確保你的客戶真的喜歡你,否則很快智能體會直接幫使用者 ‘最優下單’:又好又便宜,使用者甚至不用過問。這對零售行業會是巨大衝擊。”03 AI繁榮派vs末日派事實上,在AI開發過程中,一直有兩大陣營:繁榮派(AI boomers)和末日派(AI doomers),爭論不斷。前者認為,通用人工智慧(AGI)會帶來烏托邦,末日派則認為AGI會“殺”死所有人。當年,OpenAI內部正是因為這兩大意識形態的分歧,導致部分人員出走。Zack表示自己是“科技樂觀主義者”(techno-optimistic)。“無論好壞,我更傾向於往好的方向看。我對這個問題的核心框架是:人類提升普通人生活水平唯一穩定的路徑,就是技術。除此之外,沒有其他可持續的方式能為所有人創造更多價值。”隨著技術進步,政府更容易做到公平向善,更難走向極端。更何況,人類整體上是向善的,技術讓人類能做更多好事,當然也會讓少數人做更多壞事——高資源的作惡者會擁有更強控制力,低資源的作惡者破壞力也會變大。“但整體上,我們治癒疾病、發明新技術,讓一切變得更好、更快、更便宜。也正因如此,沒有充分的理由說明,全球經濟不會持續向好,人類生活的底線不會持續抬升。比如中國經濟奇蹟,90年代崛起的中產階級讓數億人擺脫貧困;印度2000年代的經濟奇蹟,也讓近十億人脫離貧困。這些都源於技術進步。”他稱。如果我們非要質疑這種趨勢,那麼就需要問——這個趨勢為什麼會停止?Zack認為,只有兩種邏輯能支撐“世界會變糟”的論調:我們不再發明新技術,陷入技術停滯;我們用發明的技術去做更壞的事。然而,就第一種論調而言,我們顯然不會減少技術創新,現在的技術是未來最“笨”的階段,只會持續變得更智能。就第二個論調來看,這也是末日派的主要論點,技術會催生很多有趣的可能,但也會伴隨可怕的下行風險,大致包括:財富與權力集中、高資源、低資源作惡者被賦能,以及AI出現價值對齊失敗的超級智能。但Zack認為最符合自然走向的情況是,短期中期會有下行壓力,但世界整體會變得更好,而當下感受到的危害,很大程度來自社會動盪,這不再是經濟問題,而是情感問題、精神問題。04 關注自動化帶來的情感代價Zack在去年發佈的新書中也提及了“身份錯位”(identity displacement)這個概念,即未來的核心問題不是經濟問題,而是精神問題。當前無法逃避的一個問題就是——AI造成的大規模失業怎麼辦?事實上,矽谷每天都在見證大量裁員,早年被稱為“養老院”的大廠也再難躺平。“我到現在還沒有明確答案,這次自動化浪潮太猛,完全出乎很多人意料。”Zack表示,他的新書開頭引用了宏觀經濟學之父,1930年凱恩斯寫過一篇論文叫《我們後代的經濟可能性》,裡面有一句話令人印象極深:“我必須放手暢想一個我註定無法親歷的未來:在那個未來,人類或許已經解決經濟問題,轉而面對更深刻的命題。”在他看來,大家總糾結“人類還會不會有工作”,答案大機率是“會”;但就算沒有工作,也意味著我們已經高度自動化,解決了大量生存問題。真正的問題是:在未來,人類必須把自我價值、身份認同和工作剝離開,人們還會幸福嗎?“我沒有完美答案,但我認為短期內,答案很明顯是‘不會’。所以我真正想聚焦的,是明確且現實的威脅——其中最大的,就是自動化帶來的情感代價。”之所以Zack強調“精神問題”,是因為自動化讓絕大多數人已經脫離絕對貧困,有飯吃、有衣穿、有房住。在前工業時代,人類活不過40歲;現在大多數人能活到70歲以上。我們開始思考全新的人生問題,這些問題同樣複雜。未來回頭看,我們這個時代依然充滿糟糕的處境:糟糕的飲食、車禍、暴力等,這些都不是經濟問題,而是精神與文化問題,這是我們下一步必須解決的。 (騰訊財經)