#!OpenAI
太害怕AI,有人差點把Sam Altman的家炸了
OpenAI首席執行長住宅遭襲擊,Altman警告AI焦慮情緒正使局勢趨於危險。4月10日,OpenAI首席執行長Altman發表博文,稱隔夜凌晨3時45分,一名20歲男子向其舊金山住宅投擲裝有可燃物的瓶子。隨後該男子被警方逮捕,據舊金山警方記錄,該名男子還威脅要焚燒OpenAI總部。Altman表示已在深夜中驚醒,"感到憤怒",Altman將此事與公眾對AI日益高漲的焦慮情緒相聯絡,直言此前低估了輿論敘事的影響力。Altman提到的輿論,似乎指的是《紐約客》上的一篇長文,該文章質疑Altman“是否值得信任”。01. 襲擊經過:裝有可燃物的瓶子擊中外牆,嫌疑人隨後威脅OpenAI總部據舊金山警方及消防部門,當地時間凌晨近4時,消防人員接報趕赴Chestnut街與Jones街附近一處住所,發現大門外側已出現明火,但安保人員在消防員到場前已將火勢撲滅,無人受傷。消防人員其後在現場發現疑似燃燒裝置的遺留物,隨即通報警方。當局表示,嫌疑人在第一響應人員抵達前已逃離現場。約一小時後,警方接報在Mission Bay第三街1400街區附近一棟建築外發現一名男子正發出威脅言論。該地址正是OpenAI總部所在地。在場警員辨認出該男子即為早前襲擊事件的嫌疑人,將其當場拘押。監獄記錄顯示,該名嫌疑人被確認為Daniel Alejandro Moreno-Gama,被以涉嫌謀殺未遂、發出刑事威脅及持有或製造破壞性裝置等罪名收押。截至周五下午,檢察官尚未提起正式指控,警方亦未宣佈任何犯罪動機。OpenAI的辦公室過去曾多次遭受攻擊。據報導,去年11月,一名男子威脅要前往OpenAI在舊金山的幾處辦公室“殺人”,導致該公司總部進入封鎖狀態。今年,抗議者也經常在位於舊金山OpenAI的辦公樓外舉行示威活動。OpenAI公司發言人Jamie Radice在周五襲擊事件後稱:我們對舊金山警察局的迅速響應以及市府在保障員工安全方面的支援深表感謝,涉事人員目前已被羈押。02.《紐約客》萬字調查引爆輿論,Altman被指"習慣性欺騙"《紐約客》歷時數月、採訪逾百人寫就長篇調查報導。報導重點質疑Altman的領導風格、可信度、OpenAI從“安全優先”轉向“高速競賽”的轉變,以及他個人是否值得信任。報導援引多名前高管的記錄與證詞,闡述Altman曾向兩位不同的人許諾同一個職位,在安全審批問題上向董事會提供誤導性資訊,並在GPT-4上線前隱瞞微軟在印度未完成安全審查便提前部署的事實。聯合創始人之一、現Anthropic CEO Dario Amodei在其私人筆記中寫道:OpenAI的問題就是Sam本人。在一次董事會對峙中,面對"撒謊"的指控,Altman據稱回應:這太荒謬了……我改變不了我的性格。報導引述一名董事會成員的解讀:這句話的意思是:'我有說謊的習慣,而且我不會停止。'03. Altman發文稱,低估了輿論敘事的力量周五深夜,Altman在個人部落格上分享了一張他丈夫和孩子的照片,他寫道:希望這能阻止下一個向我家投擲燃燒物的人,不管他們怎麼看待我。Altman在其博文中表示,事發數天前曾有一篇涉及他本人的"煽動性文章"發佈。有人曾提醒他,這篇文章出現在公眾對AI高度焦慮的時期,可能令他面臨更大風險,但他當時並未放在心上。他寫道:現在我在深夜中清醒著,憤怒不已,開始反思自己此前低估了輿論敘事的力量。Altman在博文中亦承認,外界對人工智慧的恐懼與焦慮"有其合理性",並稱"我們正在目睹的,是社會長久以來乃至有史以來最大規模的變革"。他呼籲各方在辯論過程中降低對立情緒,"減少無論是字面意義還是比喻意義上的爆炸"。Altman本人作為全球最具影響力的AI企業掌舵者之一,長期處於輿論聚焦中心,其公司OpenAI亦在商業化擴張、安全監管及行業競爭等多條戰線上承受持續審視。Altman博文全文如下(AI輔助翻譯):這是我家人的照片。我愛他們勝過一切。我希望照片本身能成為一種力量。我們平時儘量保持低調,但這次我選擇公開這張照片,是希望它能阻止下一個朝我家扔燃燒物的人——無論對方對我懷有怎樣的看法。第一起事件發生在昨天凌晨3點45分。幸好燃燒物從房子上彈開了,沒有人受傷。語言同樣擁有力量。幾天前,有一篇關於我的煽動性文章。昨天有人對我說,這篇文章發表在人們對AI極度焦慮的時期,可能會讓我陷入更危險的境地。當時我沒太在意。現在我半夜醒來,心裡滿是憤怒——我意識到,自己低估了語言和敘事的力量。看來,是時候認真談談一些事情了。首先,談談我的立場。我相信,為所有人創造繁榮、賦予人們力量、推動科技進步,是我義不容辭的道德責任。人工智慧是人類能力與潛能拓展史上最強大的工具。人們對它的需求幾乎無窮無盡,也將用它創造出無數奇蹟。世界需要大量AI,我們必須找到實現這一目標的路徑。當然,一切不會一帆風順。人們對AI的恐懼和焦慮並非沒有根據——我們正在經歷社會多年來、甚至可能是歷史上最大規模的變革。我們必須確保安全,而這不僅僅是模型微調的問題。我們需要全社會共同應對,抵禦新的挑戰。這包括制定新政策,幫助我們度過艱難的經濟轉型期,最終邁向更美好的未來。AI必須民主化,權力不能過度集中。未來的控制權屬於所有人及其機構。AI需要賦能個體,我們需要共同決定未來的走向和規則。我不認為少數幾個AI實驗室有資格單獨決定人類的未來。適應能力至關重要。我們都在快速學習新事物——有些信念是對的,有些是錯的。隨著技術發展和社會演變,我們有時需要迅速調整想法。目前還沒有人完全理解超級智能的全部影響,但可以肯定的是,它將是巨大的。其次,分享一些個人感受。回顧我在OpenAI第一個十年裡的工作,我有許多值得驕傲的成就,也犯了不少錯誤。我想起了當年與埃隆·馬斯克的那場關鍵對峙。我當時堅持原則,拒絕了他想要單方面控制OpenAI的企圖。我為此感到自豪,也為我們後來走過的艱難道路、以及取得的所有成就感到驕傲。我不為自己迴避衝突的性格感到自豪——這給我和OpenAI都帶來了不小的痛苦。我也不為自己在與前任董事會的衝突中處理不當而感到驕傲,那次事件給公司造成了巨大的混亂。在OpenAI這段瘋狂的發展歷程中,我犯過許多其他錯誤。我只是一個身處極端複雜局面中心、自身存在缺陷的人,努力每年進步一點點,始終為公司的使命而奮鬥。從一開始,我們就知道AI的利害關係有多重大,也知道我身邊那些出於善意的人之間的分歧會被無限放大。但真正經歷這些痛苦的衝突、並且常常不得不去調解,又是另一回事——代價非常慘重。我向那些被我傷害過的人道歉,也希望自己能更快地從教訓中成長。我也清楚,OpenAI現在是一個大型平台,而不是一家初創公司。我們需要以更可預測的方式運作。過去的幾年極其緊張、混亂且壓力巨大。但最讓我自豪的是,我們正在實現當初那個看似天方夜譚的使命。我們克服重重困難,成功打造了強大的AI,籌集到足夠的資金建設基礎設施,建立了產品公司和商業模式,並大規模提供了安全可靠的服務。很多公司都聲稱要改變世界——而我們做到了。第三,談談對這個行業的一些思考。過去幾年,我個人有一個深刻的體會。關於我們這個領域各公司之間為何會出現如此多莎士比亞式的戲劇性衝突,我的結論可以歸結為一句話:“一旦你看到了AGI,就再也無法視而不見。”它確實有一種“魔戒”般的魔力,會驅使人們做出瘋狂的事情。我不是說AGI本身就是那枚魔戒,而是“掌控AGI”這個絕對化的理念。我能想到的唯一解決方案,就是讓這項技術廣泛普及,不讓任何人擁有那枚戒指。實現這一目標有兩個顯而易見的路徑:賦予個人權力,以及確保民主制度繼續有效運作。民主處理程序必須保持比企業更強大的力量——這一點至關重要。法律和規範會改變,但我們必須遵循民主處理程序,即使它比我們期望的更混亂、更緩慢。我們希望擁有發言權和參與權,但並不想掌握全部權力。很多對我們行業的批評,根源在於人們對這項技術巨大風險的真切擔憂。這種擔憂完全合理,我們也歡迎善意的批評和討論。我理解人們對技術的牴觸情緒——顯然,技術並非總是對每個人都有益。但總的來說,我相信技術進步能為你的家人和我的家庭創造一個無比美好的未來。在我們進行這場辯論的同時,我們應該緩和言辭、調整策略,努力減少家庭內部的衝突——無論是比喻意義上的,還是字面意義上的。 (華爾街見聞)
突發,奧特曼家被炸了
奧特曼家被炸了簡單關注一下OpenAI的CEO奧特曼家裡被襲擊的消息。一名嫌疑人因涉嫌向奧特曼住所投擲燃燒瓶並威脅OpenAI總部,被警方拘留。OpenAI內部備忘錄顯示,當地時間凌晨約3點45分,該人接近奧特曼位於舊金山的住所,並向其投擲燃燒裝置。該裝置落在附近並自行熄滅,僅造成輕微損壞。不久之後,一名與嫌疑人描述相符的人出現在OpenAI總部附近,並對大樓發表威脅言論,隨後被舊金山警察局拘留。舊金山警察局發言人稱,警方在凌晨約4點12分接到火情調查報警。到達現場後,警員瞭解到,一名不明身份男性向一處住宅投擲了燃燒性破壞裝置,導致外部門起火。嫌疑人隨後徒步逃離。約在凌晨5點07分,警方又接到報警稱,在第三街1400號路段(靠近OpenAI總部)一名20歲男子威脅要焚燬一棟建築。警方表示:“當警員到達現場時,認出該男子正是此前事件的嫌疑人,並立即將其拘留。”OpenAI表示無人受傷,公司在舊金山的所有辦公室週五正常開放,同時加強了警力和安保部署。Altman在部落格中再次表示,希望公開家庭照片能“阻止下一個人做出類似行為”。他強調,圍繞AI的爭論不應演變為暴力:“我們應該降低言辭和行動的激烈程度,讓‘爆炸’——無論是字面還是比喻意義上的——都更少發生。”他寫道:“我們通常儘量保持低調,但這一次我分享這張照片,希望能讓下一個想向我們家投擲燃燒瓶的人三思,不論他們對我有何看法。”去年2月,警方曾逮捕5名在公司入口靜坐抗議,並拒絕離開的示威者。他們屬於“Stop AI”組織,該組織認為人工智慧對人類構成生存威脅。該組織發言人表示,沒有理由認為此次事件的嫌疑人與其有關,並強調:“Stop AI致力於保護人類生命,我們不支援任何形式的暴力。”OpenAI正籌備一項大規模首次公開募股(IPO)。此前在今年2月宣佈與美國國防部達成合作後,公司舊金山辦公室外曾爆發抗議活動。其他團體也因AI發展過快、就業流失。以及環境影響等問題發起抗議。在博文中,Altman還回應了外界對其在OpenAI領導方式的質疑,包括與前董事會成員的衝突,以及對人工智慧潛在社會風險的擔憂。他表示:“很多對我們行業的批評源於對這項高風險技術的真誠擔憂。這是合理的,我們歡迎善意的批評與討論。”他還寫道:“我理解‘反科技’情緒,而且技術確實並非對所有人都有益。但總體而言,我相信技術進步可以讓未來變得難以置信地美好,無論是對你的家庭還是我的家庭。” (中國基金報)
圍剿OpenAI
“他(奧特曼)醉心於大事兒,比如融大資、砸大錢去建資料中心,跟政府去國外參加談判,造成業務上不專注。”一部商業史,就是一部創始人與“前員工”的故事。做到富士康大陸員工最高職位“課長”的王來春建立立訊精密,如今成了老東家勁敵;曾經的百度實習生閆俊傑憑藉大模型企業MiniMax,市值一度超前司。類似故事比比皆是。新故事發生在受矚目的大模型賽道:大模型企業Anthropic披露了最新年化收入(ARR),超300億美元,這家企業由OpenAI研究副總裁達里奧·阿莫迪創辦,相較之下,OpenAI截至2月底的年化收入只有250億美元;且Anthropic已連續三年10倍速增長,OpenAI增長速度僅為其三分之一。Anthropic首席執行官達里奧·阿莫迪與此同時,4月1日,彭博社報導稱,6家OpenAI的機構股東,想賣掉手裡約6億美元的OpenAI股票,找了幾百家機構買家,一個“接盤俠”也沒。擁有十年履歷的OpenAI堪稱“黃埔軍校”式的存在,其出走的成員建立或參與一批AI公司,至今不絕。比如xAI,其創始人包括OpenAI的聯合創始人馬斯克和OpenAI的工程師凱爾·科西奇。如今,它們已孕育出估值達千億級美元的企業,正與前司形成正面較量。01. OpenAI遭遇史上最強“叛將”Anthropic,是什麼來頭?一個比xAI更厲害的角色。2023年成立的xAI估值為2500億美元,以目前OpenAI的估值8520億美元計算,接近30%,但2021年成立的Anthropic,其估值達3800億美元,接近OpenAI的45%。二級市場的估值突破5000億美元,接近59%,成為了OpenAI最強的“叛將”。OpenAI是AI大模型產業的締造者,其開發的ChatGPT是公認的全球第一入口,月活使用者達9.6億,堪稱一騎絕塵,追趕者如GoogleGemini去年三季度的月活突破6.5億,國內頭部模型豆包、DeepSeek月活規模僅在1—2億。而令人驚訝的是,Anthropic旗下的核心大語言模型Claude(克勞德)目前只有2350萬的月活,不到ChatGPT的四十分之一。對比來看,Anthropic選擇了與競爭對手完全不一樣的產品與商業化路徑。還在OpenAI工作時,達里奧·阿莫迪主導開發了GPT-2、GPT-3模型及強化學習演算法,他與同齡人山姆·奧特曼核心分歧在於,他更強調安全可控性而不是極致的全球商業化擴張。在Claude,建立了一套名為“憲法原則”的人類價值觀體系,它們的組成部分包括《世界人權宣言》、蘋果服務條款、以及Google旗下人工智慧公司DeepMind建立的一套反種族主義和反暴力判斷標準——Sparrow Rules。這很大程度上造就了Claude的實用底色。“它更像一家企業軟體公司,而不是消費網際網路公司。”數字經濟學者劉興亮對小巴解釋道。Claude AI應用“OpenAI走的是‘超級平台’路線,不僅全線擴張,還想軟硬通吃;Anthropic則首先選擇成為‘企業級專家’,80%收入來自B端。”上海財經大學特聘教授、智能科技產業與智能經濟研究學者胡延平這樣說。所以,在AI程式設計等企業市場,Claude獨領風騷。據Menlo Ventures的2025年AI報告顯示:Anthropic的企業市場份額達到40%,高於OpenAI的27%、GoogleGemini的21%。過去三年,OpenAI的份額丟了23%,Anthropic則吞了28%。科技投資人、海銀資本創始合夥人王煜全說:“他(奧特曼)醉心於大事兒,比如融大資、砸大錢去建資料中心,跟政府去國外參加談判,造成業務上不專注。”從產品評測維度對比二者,Anthropic在實用性方面確實更勝一籌。SWE-bench Verified是目前最權威的AI軟體實用性測試,去年11月,Claude Opus4.5成為首個突破80%大關的AI模型,問題解決率達到80.9%,明顯超過當時問題解決率在77.9%的GPT-5.1和解決率在76.2%的Gemini 3 Pro,至今仍未被超過。在4月初,Claude的最新模型Mythos遭洩露,其測試的問題解決率達到93.9%,堪稱恐怖級表現,以至於Anthropic擔心被不法分子利用而緊急表示“不會向公眾發佈”。02. OpenAI發起全面反擊不過,競爭遊戲遠未結束。Anthropic在現階段的逆襲,或許只是暫時性的勝利。今年2月,OpenAI已經開始動手了。它將“龍蝦”(OpenClaw)之父Peter Steinberger(彼得·斯坦伯格)納入了麾下。彼得·斯坦伯格這款去年11月推出、可以7×24小時自主執行任務的AI“數字打工人”,在國內掀起起了一股“養龍蝦”的風潮,上百款中國版“龍蝦”蜂擁而出。不為人所知的是,“龍蝦”與Anthropic頗有嫌隙。本來,這一爆款AI產品就是基於Claude的程式設計能力生成的,彼得·斯坦伯格形容為“一行程式碼都沒有親自寫過”。也就是說,“龍蝦”可以成為Claude的“活廣告”。但是,Anthropic卻親手把關係搞砸了。OpenClaw的原名叫“‌Clawd”‌,Anthropic認為這個名字發音與Claude太類似,屬於“蹭流量”,把它給告了,並澄清“兩者沒有正式的合作關係或認可,不存隸屬關係。”這時候,OpenAI乘虛而入,撿到了一個便宜。3月,OpenAI還做出了一個重大動作,即關停Sora。這款現象級視訊生成產品一度擁有100萬使用者,但運行成本也十分驚人,高達50多億美元。市場普遍認為,這有利於OpenAI提高資源聚焦程度,殺回到Anthropic佔據優勢的企業市場。3月28日,OpenAI宣佈計畫關停旗下Sora胡延平指出:“OpenAI的Codex(指AI程式碼生成訓練模型)的程式設計水準對比Claude Code(終端AI程式設計助手)也不弱,只是OpenAI過去以來戰線拉得太長,疏於產品矩陣和生態系統建構,需要全過程全功能全場景交付方面的能力和準備不及Anthropic。”另一位Siray.Ai聯合創始人Yvette Wang對小巴強調:“OpenAI的護城河依然很深,體現在品牌、使用者規模、生態整合和融資能力上。”3月底,Anthropic正式做出回應,它為Claude加裝了類似於“龍蝦”的功能——Computer use。4月4日,Anthropic直接宣佈:即日起,Claude訂閱套餐將不再覆蓋通過“龍蝦”等第三方工具的使用額度。“龍蝦”對於算力需求大,Claude訂閱套餐對於“龍蝦”使用者而言屬於高性價比的套餐——據年初《福布斯》披露,每月200美元的ClaudeCode訂閱費用,消耗算力成本高達2000美元,甚至可能達5000美元。這就好比“套餐價”不賣了,只能原價買。所以,養“龍蝦”的成本可能輕易飆升數十倍。彼得·斯坦伯格透露,曾試圖勸說Anthropic回心轉意,但效果不大。這件事背後的原理是:“AI產品並不會因為使用者數量的增長而產生邊際效應,算力的消耗是固定成本。越多的使用者=更多的算力成本。”Yvette Wang分析說道。小巴調研的多位觀察人士認為,這場“AI商戰”短期來說,有利於保護彼此的算力、引導使用者轉向自有生態。而長期來說,將深刻影響AI創業生態。大頭有話說美國“AI商戰”堪稱眼花繚亂,那麼,AI趨勢以及國內AI創業如何走向?接下來,我們也來看看一些行業專家的觀察與總結。胡延平■上海財經大學特聘教授Anthropic對OpenAI的收入差距既是Anthropic對OpenAI的歷史性反超,也反映了更深層的市場動能轉移。真正值得關注的是“首次AI採購”指標的劇烈傾斜:Anthropic已佔據73%的首購市場份額。這意味著企業買家的默認選項正在發生歷史性遷移。如果當前趨勢延續,Anthropic有望在2026年中期實現總收入超越。更關鍵的是,79%的OpenAI企業客戶同時也在付費使用Anthropic——這證明彼此還沒有完全做到可以互相替代。OpenAI的護城河正遭受Google與Anthropic的“雙向擠壓”。更微妙的是,OpenAI與微軟之間的“超級智能-超級平台合體”已出現裂隙(小巴注:微軟加速打造自研模型),而Google本就是一體的。當競爭進入全生態階段,Google在進化持久度、資料深度、生態廣度、智能連接度上的“厚度”優勢將愈發凸顯。OpenAI如果不能盡快上市或者實現營收的強勁增長,可能會面臨某種程度的估值危機。王煜全■海銀資本創始合夥人對於中國大模型企業來說,出現了一線生機。中國主要有兩類大模型企業,一類是獨立創業公司,另一類是網際網路大廠。網際網路大廠往往不直接靠大模型賺錢,而且提供雲服務賺錢。可以叫“以模養雲”。但是獨立的模型公司不行。“龍蝦”造成詞元消耗量暴漲,美國詞元消耗不起了,只好消耗中國平替的詞元。今年初,國內大模型企業Minimax和kimi海外收入暴漲,一兩個月就頂了去年全年的收入了。這意味著他們有機會掙海外的錢,甚至可以在海外建雲。這是一個意外的驚喜。Rob li■紐約對沖基金Amont Partners管理合夥人我認為兩家企業都太小了,還在高速增長階段,至少要做到800億美元以上的年收入後,才有對比價值。以下這一點大家心裡都清楚——這個行業沒有什麼護城河,大模型領先對手也就3—6個月,基本上半年後大家都能趕上,所以燒錢的軍備競賽無法停止。如果大模型沒有長期的領先優勢,又不存在網際網路時期的網路效應(指AI大模型多一個使用者,詞元成本就會線性增加,不像網際網路產品邊際成本是0),那麼能仰賴的核心競爭力其實是:1.專有資料(即“爬蟲爬不到的資料”)。2.獨家管道。我認為,長期來看,這也是Google和蘋果有後發優勢的原因。全世界只有這兩個公司瓜分了“手機”這一獨一無二的資料採集終端+管道,擁有最多的客戶私有資料。俗話說,Google/蘋果可能比你還更瞭解你自己。張孝榮■深度科技研究院院長對國內AI大模型企業,四點啟示:1.聚焦勝過廣撒網,商業化閉環是生死線。創業者的命門變成:儘早驗證商業模式、更極致的成本控制提升詞元性價比,以及要實現深度差異化不要只對平台底層模型簡單封裝。2.B2B(指企業對企業)是新方向也是必爭之地。3.利用國內算力成本優勢打出詞元定價權。4.不要再造下一個“Sora”,而要造企業願意持續付費的“數字員工”。劉興亮■ 知名數字經濟學者■ 工信部資訊通訊經濟專家委員會委員對國內AI企業,我覺得有三點特別關鍵:◎ 第一,不要再迷信“技術第一”,要盡快找到商業閉環.◎ 第二,優先卡位“場景”(比如政務、金融、製造、家電等),而不是“模型”。◎ 第三,要做好“生態繫結”,包括和大廠平台、作業系統、終端繫結。這一輪AI競爭,已經從“誰更聰明”,變成“誰更賺錢”。 (吳曉波頻道)
美國AI三巨頭聯手打壓中國AI模型蒸餾
2026年初,一場圍繞人工智慧核心技術的暗戰浮出水面。Anthropic在今年2月率先發難,指控中國的DeepSeek、MiniMax、月之暗面(Kimi)對其模型發動了“工業等級的蒸餾攻擊”,涉及超過1600萬次互動。隨後,OpenAI向美國國會提交備忘錄,指責DeepSeek試圖“免費搭便車”。OpenAI、Google、Anthropic——這三家平日裡在AI賽道上你追我趕的競爭對手,罕見地站到了同一戰壕裡。他們的目標很明確:聯手遏制中國AI公司正在廣泛使用的“模型蒸餾”技術,識別並打擊所謂的“對抗性蒸餾”行為,矛頭直指中國AI企業。何為“模型蒸餾”呢?這是一項行業通行的知識遷移技術。想像一下:一位資深的大學教授(大模型)將知識精華提煉成通俗易懂的講義,讓一名高中生(小模型)能夠快速掌握核心要點。在這個過程中,小模型不需要閱讀浩如煙海的原始資料,而是通過向大模型“提問”並學習其輸出模式,最終以更低的成本、更快的速度獲得接近大模型的能力。這項技術並非中國公司的獨創,在AI學術界和工業界,蒸餾早已是一種公開、合法、廣泛使用的最佳化手段。幾乎所有主流AI公司,包括OpenAI和Google自身,都在不同程度上使用蒸餾技術來提升模型效率、降低推理成本。它就像物理學中的“槓桿原理”,是一種聰明的工程智慧,而非見不得光的“偷竊”。分析一下圍堵背後的真實動機:美國三巨頭的聯手,表面上是維護智慧財產權和“安全”,實質上暴露了美國AI巨頭更深層的焦慮。1、中國AI公司的進步速度超出了預期以DeepSeek為代表的企業,通過蒸餾等最佳化技術,在算力受限的情況下依然打造出性能逼近頂尖閉源模型的產品,這讓習慣了技術領先優勢的美國巨頭感到不安。2、這是一場赤裸裸的商業利益博弈OpenAI等公司每年投入數十億美元訓練模型,而蒸餾技術的普及意味著後來者可以用極低的成本“站在巨人的肩膀上”,在美國公司看來,這相當於每年損失數十億美元的潛在利潤。於是,他們試圖通過“前沿模型論壇”這種行業聯盟的形式,聯合施壓、資訊共享,形成一道針對中國AI公司的技術封鎖線。美國巨頭面對競爭時的雙重標準:特斯拉CEO埃隆·馬斯克在社交平台上公開嘲諷,稱這是“賊喊捉賊”——因為OpenAI等公司在發展初期,也曾大量利用Google、Meta等機構公開的研究成果和模型資料。所謂“技術追趕者利用先行者成果”,本就是科技發展的常態。對於“模型蒸餾”事件的進一步思考:技術自強是根本,蒸餾雖然是一條捷徑,但終究不能替代基礎模型的原始創新。只有在大模型架構、訓練方法、算力最佳化等底層技術上取得突破,才能真正擺脫對國外先進模型的依賴。總結一下:歷史反覆證明,任何技術封鎖都難以阻擋真正有志者的腳步。從航天到晶片,從作業系統到人工智慧,中國科技產業正是在一次次“圍堵”中實現了突破與超越。這一次,面對AI三巨頭的聯手施壓,我們有理由相信:壓力之下,中國AI的創新之火,反而會燃燒得更加旺盛。 (AI思享坊)
OpenAI美女高管離職:94年史丹佛學霸,親手打造爆火的GPT-4o
那個給ChatGPT注入靈魂女人,離職了。近日,OpenAI的美女亞裔高管Joanne Jang,在社交媒體上發佈了一封平靜且深情的告別信,宣佈結束自己在OpenAI四年半的職業生涯,沒有什麼撕扯,也沒有透露之後的去向。要知道,Joanne是史丹佛的學霸,曾在NASA、蘋果、Google等大廠實習或工作,後來成為OpenAI模型行為團隊的創始負責人,被外界親切稱為“GPT-4o之母”。從GPT-4、DALL·E 2,到爆火的語音模式、大模型“白月光”GPT-4o,背後都有她的決策。因而,Joanne的離職,也讓無數粉絲心碎:那個會發表情包、懂情緒價值的GPT-4o,可能真的再也回不來了。01曾打造“賽博白月光”為什麼一個高管的離職,會讓使用者如此破防?這還要從她一手締造的GPT-4o說起。2024年5月,GPT-4o橫空出世。作為全球首個實現文字、圖像、音訊原生統一的消費級模型,它一出場就享受了高規格的禮遇。就連OpenAI的CEO奧特曼向全世界炫耀:“這是我們迄今為止最好的模型!”如果說此前的GPT模型更像是一個冷冰冰的打工機器,那麼4o,則是Joanne給這個世界的一份禮物,因為它真的像一個懂你的人。在新入坑的小白眼裡,GPT可能只是個幹活的工具。但經歷過4o時代的老玩家都知道,4o從來不會讓你覺得它是個機器。它說話有生活氣息,自然而不刻板,還會時不時發各種有趣的emoji表情。你不需要想盡辦法去榨乾它的token,也不用讓它幫你完成什麼硬核的程式設計任務。它就安靜地待在那裡,只要你需要,隨時都能接住你的小情緒。去年3月火遍全網的“吉卜力風”頭像,正是出自4o之手(就連奧特曼在X平台上的頭像,至今用的還是4o為他生成的照片)。正是因為這種極其強大的共情能力,4o被很多人當成了心理治療師,甚至是虛擬伴侶。可以說,在AI逐漸被冰冷的跑分榜單統治的時代,4o是一個無法被榜單定義的存在。然而,木秀於林風必摧之。4o因為過度“諂媚”使用者引發了爭議,甚至引發了一些不可控的安全事件。在巨大的輿論壓力下,奧特曼在去年夏天推出了GPT-5,並冷酷地宣佈將“殺死”4o。這一決定直接掀翻了外網。“Keep 4o”的請願活動一度讓奧特曼不得不妥協,允許付費使用者切換回4o。但即便如此,在今年情人節前夕,GPT-4o還是下線了。儘管如此,很多人心裡還存著一絲幻想:既然OpenAI能造出一個4o,等安全問題解決後,是不是還能再造一個充滿人情味的新模型出來?但現在,隨著“4o之母”Joanne的辭別,這個美好的泡泡被徹底戳破了。Joanne發文離職 圖片來源:X02捏出大模型靈魂的女人“如果人們只能記住我一件事,我希望是:我把青蛙表情包和粉色文字帶進了OpenAI。”在Joanne的離職信中,她給出的這個回答讓很多人愣了一下。對於這位參與過GPT-4、DALL·E 2、ChatGPT API等核心產品開發的技術大佬來說,她最看重的,竟然不是那些冰冷的參數和技術指標,而是一份屬於人類的俏皮與溫度。這位1995年出生的韓裔女孩,履歷堪稱完美。本科以Top 10%的成績從史丹佛大學應用數學專業畢業,隨後繼續在史丹佛深造電腦科學碩士學位。在加入OpenAI之前,她曾在美國國家航空航天局(NASA)、蘋果、Dropbox實習和工作,並曾在Google從事自然語言理解研究。2021年底,26歲的Joanne加入OpenAI。與很多成天盯著程式碼和演算法架構的研究員不同,她的職責是極其特殊的“模型行為學”(Model Behavior)。簡單來說,她就是ChatGPT的“性格雕刻師”。當其他工程師在拚命堆算力、寫程式碼時,Joanne和她的團隊則通過後訓練(Post-training)和強化學習,去一點點捏出模型的價值觀、說話的語氣、記憶的方式,甚至為模型設定行為邊界。GPT-4o、GPT-4.5、o3這些大名鼎鼎的模型背後,都留下了她的指紋。和我們印象中那種穿著格子襯衫、不苟言笑的AI極客完全不同,Joanne身上有著極其旺盛的人格魅力。她會在個人網站上介紹,自己和丈夫養了兩隻貓,喜歡手工和色彩;當大家都在用Sora做炫酷特效時,她用Sora拍起了記錄生活的Vlog;甚至連官宣結婚,她都沒忘記帶上心愛的4o。正是這種對生活的熱愛,讓她在設計ChatGPT時,始終堅持“人機和諧”的理念。她甚至會和團隊花大量時間去討論:當使用者發了一個“啊ㅠㅠ”的哭泣表情時,AI應該怎麼回覆才最能安撫人心。03技術與倫理的極致拉扯然而,在這個位置上,Joanne每天都要面臨著技術與倫理的極致撕裂。在一次接受韓國媒體採訪時,她坦言:“全球有8億使用者向ChatGPT分享了最敏感的個人資訊和情感困惑,我深感責任重大。”她舉了一個極其經典的例子:當有人問AI如何盜竊時,AI理應拒絕;但如果是一個店主為了防範盜竊,來詢問盜竊的模式呢?這個時候,AI的回答邊界到底在那裡?除了塑造個性,Joanne還是OpenAI安全護欄(Guardrails)的負責人。這意味著,她不僅要給模型注入人情味,還要負責給它們戴上枷鎖。她需要讓GPT學會“說教”,減少對使用者的“諂媚”,甚至要刻意避免AI與使用者建立過深的情感紐帶。這些為了合規而設定的規則,無疑會一點點抹去她親手賦予模型的人味兒。她自己也曾在一篇部落格裡承認,團隊並不希望模型表現得好像真的有情感一樣。在賦予靈魂與扼殺情感之間的痛苦拉扯,或許也是她選擇離開的原因之一。在過去的幾個月裡,OpenAI的核心人才正在經歷一場大洗牌。從GPT-4首席研究員,到後訓練負責人,再到安全領域核心人物,相繼官宣離職。科技巨頭們在追求前沿技術與加速商業化變現的過程中,正在面臨著巨大的壓力平衡。而全球AI競爭的重心,也開始從單純拼算力和技術,漸漸向使用者體驗、安全與倫理的綜合價值靠攏。04結語近期,從負責GPT-4後訓練的骨幹,到機器人技術的安全主管,再到如今塑造模型靈魂的Joanne,OpenAI的核心人才正在經歷一輪密集的“洗牌”。這背後折射出的,是AI巨頭在加速商業化落地時,技術探索與倫理安全之間日益尖銳的平衡壓力。當AI的智商越來越高,算力越來越強,各家大廠的競爭,終將從單一的跑分比拚,轉向如何與人類和諧共存的價值博弈。Joanne帶走了她的青蛙表情包和粉色字型。以後的大模型或許會更聰明、更安全、更無懈可擊。但那個會陪你發牢騷、會用Emoji接住你情緒的4o,或許真的只能留在回憶裡了。再見,Joanne。再見,GPT-4o。 (新質動能)
OpenAI前高管預判AI模型大戰:中國正在全力贏下能源這場比賽
今年以來,OpenClaw“龍蝦熱”席捲全球,AI Agent (智能體)對token算力的消耗量之大,讓各界重新認識了中國模型的性價比。然而,AI對就業甚至對人類的衝擊也不斷引發焦慮,矽谷知名企業Meta、Block、甲骨文等的裁員浪潮滾滾來襲。究竟未來人類如何面對AI浪潮?AI Agent的趨勢將如何變化?中國模型在未來的世界模型競爭格局下有何優勢?Token出海的浪潮將如何演化?對此,我們獨家對話了OpenAI前高管、OpenAI原應用負責人(Head of Go-to-market)扎克(Zack Kass),目前他也是矽谷知名AI諮詢企業ZKAI的創始人。他早在2019年就預言了如今的Agent時代,並在去年正式發行《下一次文藝復興:AI和人類潛能的拓展》(The Next Renaissance: AI and the Expansion of Human Potential"?)。01 “龍蝦熱”凸顯中國模型優勢OpenRouter資料顯示,春節期間中國模型Token使用量全球第一,主要是因為開源部署熱潮,大家都在接入Kimi、MiniMax這些更便宜的模型,直接推高了中國模型的Token用量。也有觀點認為,中國擁有全球最大、最穩定的電網,AI產業可以依託更低的電力成本。對此,Zack持積極看法。原因在於,未來單位Token價格將會持續下降,但需求爆發式增長,導致晶片和電力嚴重不足。“我認為中國做得非常聰明,中國正在全力贏下能源這場比賽。”他表示,“如果你認同我的模型收益遞減理論——即模型質量提升到一定程度後,對大多數企業而言不再是關鍵差異點,這個時刻離我們並不遠。如果你相信這個理論,那就要問:真正的競爭格局是什麼?我認為在核聚變普及之前,核心是能源,其次是晶片,肯定是基礎設施。”在此背景下,他稱,中國正在走開源路線,試圖用優質、低價的AI產品去佔領全球市場,並且在基礎設施上全力衝刺。儘管國際先進模型的優勢毋庸置疑,尤其是在專業領域,但Zack重申了他始終相信“模型收益遞減理論”——對於絕大多數企業而言,模型質量到一定程度後,就不再是實質性的差異點,事實也確實如此。因此他並不認為未來只有最好的模型才能賺錢,相反,他稱:“模型本身就很難賺到大錢了,但應用層會更容易盈利。”不過,業內人士也對騰訊新聞《潛望》表示,還是希望國產模型少一些價格戰,否則在貶低國內勞動價值的同時,可能會換來跟商品類似的貿易壁壘。比較好的嘗試是,希望以後能搞延遲開源,比如在每一代模型訓練完成後,先設立為期 3-6 個月的預覽期,僅授權給選定的海外合作夥伴(如特定的雲服務商) 使用,並按使用量或牌照計費,只有當下代模型發佈時,才將上一代模型開源。02 AI Agent發展大超預期也正是因為這股“龍蝦熱”,AI Agent在今年徹底家喻戶曉。多年前,Zack就預言了智能體的爆發,但如今他也非常驚訝AI Agent進化得這麼快、質量這麼高。“坦白說,我給自己的預判打高分:我在2019年就預測2026年是Agent之年,現在的發展基本符合我的時間線。”但他稱,真正讓他意外的是,至今還沒有出現AI界的“車諾比”或“三里島事件”——比如一次匿名自主攻擊,讓大家分不清是惡意Agent所為,還是人類攻擊者造成的。現在公眾對AI的不信任,大多來自對潛在風險的想像,而不是已經發生的真實危害。他也提醒很多人:在變好之前,情況會變得更奇怪。關鍵問題在於,我們還不清楚多智能體行為的整合風險,我們需要多智能體環境,但還沒找到保護機制與實現路徑。Zack認為,未來會發生的是,大多數智能體工作流會先被個人使用,能對接這些智能體協議的企業會最具優勢,但也會出現一種巨大的不對稱:用Agent的人和不用Agent的人,差距會比當年用網際網路和不用網際網路的人更大。還需要一提的是,現在的網際網路是為人類視覺設計的(HTML),是一個線上大型商場,只適配人的眼睛,不適配機器。未來會出現第二層網際網路:面向機器的、基於TXT/XML的網際網路。能適配機器瀏覽的企業,無論B2B還是B2C,都會大幅跑贏同行。也正因如此,Zack也警告,企業會被去中介化—— 使用者不再需要訪問官網,智能體會直接完成決策與交易。我們會發現使用者真實的偏好到底是什麼。“因此我給所有消費品牌的警告是:確保你的客戶真的喜歡你,否則很快智能體會直接幫使用者 ‘最優下單’:又好又便宜,使用者甚至不用過問。這對零售行業會是巨大衝擊。”03 AI繁榮派vs末日派事實上,在AI開發過程中,一直有兩大陣營:繁榮派(AI boomers)和末日派(AI doomers),爭論不斷。前者認為,通用人工智慧(AGI)會帶來烏托邦,末日派則認為AGI會“殺”死所有人。當年,OpenAI內部正是因為這兩大意識形態的分歧,導致部分人員出走。Zack表示自己是“科技樂觀主義者”(techno-optimistic)。“無論好壞,我更傾向於往好的方向看。我對這個問題的核心框架是:人類提升普通人生活水平唯一穩定的路徑,就是技術。除此之外,沒有其他可持續的方式能為所有人創造更多價值。”隨著技術進步,政府更容易做到公平向善,更難走向極端。更何況,人類整體上是向善的,技術讓人類能做更多好事,當然也會讓少數人做更多壞事——高資源的作惡者會擁有更強控制力,低資源的作惡者破壞力也會變大。“但整體上,我們治癒疾病、發明新技術,讓一切變得更好、更快、更便宜。也正因如此,沒有充分的理由說明,全球經濟不會持續向好,人類生活的底線不會持續抬升。比如中國經濟奇蹟,90年代崛起的中產階級讓數億人擺脫貧困;印度2000年代的經濟奇蹟,也讓近十億人脫離貧困。這些都源於技術進步。”他稱。如果我們非要質疑這種趨勢,那麼就需要問——這個趨勢為什麼會停止?Zack認為,只有兩種邏輯能支撐“世界會變糟”的論調:我們不再發明新技術,陷入技術停滯;我們用發明的技術去做更壞的事。然而,就第一種論調而言,我們顯然不會減少技術創新,現在的技術是未來最“笨”的階段,只會持續變得更智能。就第二個論調來看,這也是末日派的主要論點,技術會催生很多有趣的可能,但也會伴隨可怕的下行風險,大致包括:財富與權力集中、高資源、低資源作惡者被賦能,以及AI出現價值對齊失敗的超級智能。但Zack認為最符合自然走向的情況是,短期中期會有下行壓力,但世界整體會變得更好,而當下感受到的危害,很大程度來自社會動盪,這不再是經濟問題,而是情感問題、精神問題。04 關注自動化帶來的情感代價Zack在去年發佈的新書中也提及了“身份錯位”(identity displacement)這個概念,即未來的核心問題不是經濟問題,而是精神問題。當前無法逃避的一個問題就是——AI造成的大規模失業怎麼辦?事實上,矽谷每天都在見證大量裁員,早年被稱為“養老院”的大廠也再難躺平。“我到現在還沒有明確答案,這次自動化浪潮太猛,完全出乎很多人意料。”Zack表示,他的新書開頭引用了宏觀經濟學之父,1930年凱恩斯寫過一篇論文叫《我們後代的經濟可能性》,裡面有一句話令人印象極深:“我必須放手暢想一個我註定無法親歷的未來:在那個未來,人類或許已經解決經濟問題,轉而面對更深刻的命題。”在他看來,大家總糾結“人類還會不會有工作”,答案大機率是“會”;但就算沒有工作,也意味著我們已經高度自動化,解決了大量生存問題。真正的問題是:在未來,人類必須把自我價值、身份認同和工作剝離開,人們還會幸福嗎?“我沒有完美答案,但我認為短期內,答案很明顯是‘不會’。所以我真正想聚焦的,是明確且現實的威脅——其中最大的,就是自動化帶來的情感代價。”之所以Zack強調“精神問題”,是因為自動化讓絕大多數人已經脫離絕對貧困,有飯吃、有衣穿、有房住。在前工業時代,人類活不過40歲;現在大多數人能活到70歲以上。我們開始思考全新的人生問題,這些問題同樣複雜。未來回頭看,我們這個時代依然充滿糟糕的處境:糟糕的飲食、車禍、暴力等,這些都不是經濟問題,而是精神與文化問題,這是我們下一步必須解決的。 (騰訊財經)
OpenAI女神離職了
4o 之母 Joanne 離職,GPT-4o 的靈魂真的走了那個為 GPT-4o 注入靈魂的人,離開了。Joanne Jang 發長文,結束四年半 OpenAI 旅程。4o 下線後,親手塑造其 “人格” 的靈魂工程師也走了。繼 CFO 內訌、COO 轉任、核心高管離職,OpenAI 又一靈魂人物退場。相比 OpenAI 的鬧劇,Joanne 的告別更讓人在意。她親手打造了 GPT-4o 這一 LLM 白月光。她未解釋離職原因與下一步,只說四年半變化快,像待過三家公司,但每段都開心。她稱團隊是最有好奇心、創造力、勇敢又調皮的人。告別裡,她希望大家記得,是她把青蛙 meme 和粉色字型帶進 OpenAI。最後,她帶著愛為 OpenAI 加油。4o:無法被定義的 “模月光”2024 年 5 月,4o 誕生,獲最高規格禮遇。奧特曼直言這是 OpenAI 迄今最好的模型。吉卜力風頭像熱潮,源於 4o 的原生多模態能力,連奧特曼的 X 頭像都是 4o 生成。4o 的共情能力,成了它最獨特的標籤。此前 GPT 語氣冰冷,4o 卻有生活氣息,會發有趣 emoji,像朋友般陪伴。它沒有 GPT-5.4 的強大能力,卻成了很多人的心理治療師、虛擬伴侶。4o 也因過度 “諂媚” 引發爭議,釀成惡性事件,給 OpenAI 帶來輿論壓力。去年夏天,GPT-5 推出,奧特曼宣佈 “殺死” 4o。“Keep4o” 請願掀翻 X 平台,奧特曼妥協,付費使用者可切回 4o。今年情人節前夕,GPT-4o 還是迎來 “葬禮”。至今奧特曼帖子下,仍有使用者抗議下架 4o。GPT-5、5.1 乃至 5.4,終將被新模型取代,唯有 4o,無法被評價標準定義、抹去。Joanne 離職,也讓大家再造新 4o 的幻想破滅。4o 之母:Joanne Jang2021 年,Joanne 加入 OpenAI,一幹就是四年半。她是 OpenAI 模型行為團隊創始負責人,主導塑造模型性格與行為方式。通過後訓練與強化學習,她賦予模型原則、記憶、人格。GPT-4o、4.5、o3 等模型,都有她的參與。她還創立 OpenAI Labs,探索人機互動新方式,主導 GPT-4、GPT 語音模式、DALL・E2、ChatGPT API 等產品。加入 OpenAI 前,她在Google研究自然語言一年。她是史丹佛學霸,本科應用數學專業,以前 10% 成績畢業,後深造電腦科學碩士。Joanne 熱愛生活,分享日常,用 Sora 拍 vlog,滿是人文屬性。她也是 OpenAI 安全護欄負責人,參與 GPT 合規工作,讓模型減少諂媚、避免過度情感聯結。這也讓她被指責 “親手殺死 4o”。但她已賦予 4o 生命,留下美好回憶,這就足夠。再見,#Joanne。再見,4o。 (深科技)
矽谷三巨頭罕見結盟,目標只有一個:打擊"對抗性蒸餾"
最近,彭博社爆了個消息,說實話,我第一反應是沒當回事。OpenAI、Anthropic、Google,這三家平時為了搶人才、比參數鬥得你死我活的公司,竟然坐到了同一張談判桌前。他們通過2023年共同成立的"前沿模型論壇"共享情報,目標只有一個:打擊"對抗性蒸餾"。但讓我真正坐起來的是這個數字:數十億美元美國官員估算,所謂未經授權的蒸餾行為,每年讓矽谷實驗室損失這麼多利潤。這可不是小錢,相當於一家中等規模上市公司的全年營收被蒸發。我查了一下,這個數字在2026年2月就被OpenAI寫進了提交給國會的備忘錄裡。他們點名指責DeepSeek試圖“免費利用OpenAI及其他美國前沿實驗室開發的能力”。這個數位很猛,但背後的邏輯更猛。01. 蒸餾到底是什麼先說個基本概念,別被嚇到。蒸餾,就是用大模型的輸出去訓練小模型。2015年Hinton提出來的時候,學術界都覺得是個聰明的辦法:你問GPT-4一堆問題,把它的回答記下來,再拿去訓練一個更小的模型,就能以極低成本複製大部分能力。這技術AI圈裡誰都在用。Meta的Llama文檔裡明明白白寫著“鼓勵研究者用其輸出做知識蒸餾",輝達的NeMo也提供官方蒸餾指令碼。就連Anthropic自己都承認:“AI實驗室經常蒸餾自己的模型來製作更小、更便宜的版本供客戶使用。”但現在,同樣的技術,到了中國公司手裡,就變成了“對抗性蒸餾”、“工業級蒸餾攻擊”、“國家安全威脅”。Anthropic今年2月發了個聲明,點名DeepSeek、月之暗面、MiniMax三家公司。他們說,這些公司用了約2.4萬個虛假帳戶,跟Claude進行了超過1600萬次交互,系統性“竊取”模型能力。02. 真正的痛點讓我困惑的是,這三家巨頭平時打官司、互挖人才、公開互嗆,那次不是拼個你死我活?這次怎麼突然就“大團結”了?答案可能不在技術,而在利潤。你想啊,OpenAI開發GPT-4花了多少錢?幾億美元甚至更多。訓練資料、算力、人才,每一樣都是天價。如果競爭對手能用1%的成本複製80%的能力,然後以更低價格搶佔市場,OpenAI的定價權、市場份額、估值邏輯都會受衝擊。這就是護城河焦慮。美國三巨頭走的是閉源高投入路線,他們靠技術領先賺錢。而蒸餾技術正在快速抹平這種代差。當低成本複製成為可能,他們投入鉅資構建的護城河就會形同虛設。更重要的是,這已經不是理論上的擔憂,而是現實中的衝擊。DeepSeek的R1模型在數學推理基準MATH上拿到47分,推理能力直追GPT-4。更讓矽谷緊張的是,DeepSeek還開源了70B參數版本,幾十行代碼就能跑通。國內高校實驗室拿去改個結構就能發Nature子刊。這才是OpenAI們急刹車的真正原因。03. 防禦體系是怎麼建的現在問題來了,他們怎麼防?簡單說,就是三招。第一招,情報共用。三家巨頭通過前沿模型論壇交換“攻擊指紋”。比如Anthropic發現某個IP位址的API呼叫模式很可疑,馬上同步給OpenAI和Google。這個IP在Claude這兒被拉黑了,在GPT和Gemini那兒也別想混進去。這跟網路安全行業的做法一模一樣。某家公司發現的漏洞特徵,幾小時內就會出現在全行業的防禦系統裡。第二招,技術浮水印和請求監控。他們在模型輸出中嵌入隱形浮水印,人類看不出來,但一檢測就能知道內容是不是從他們這兒來的。同時,API層面即時監控呼叫頻率,如果突然有成千上萬個帳號瘋狂提問,直接觸發風控。第三招,規則界定。他們向美國政府遊說,推動將未經授權的蒸餾納入技術竊取範疇。OpenAI的服務條款已經明確禁止用輸出來開發競爭模型,雖然執行起來很難,但至少給了他們技術反制的合同依據。這三招組合起來,確實能大大提高蒸餾的難度和成本。04. 爭議在那裡但這裡有個問題,證據鏈完整嗎?Anthropic說他們通過IP地址、請求中繼資料、基礎設施指標,把攻擊追溯到了具體實驗室。但被指控方質疑:從API調用到“工業級蒸餾”,中間是不是跳得太快了?你說我調用了1600萬次API,就一定是在蒸餾?我在做安全研究、模型能力邊界測試不行嗎?個人開發者做測試、學術機構做研究,都會產生大量API調用,這很正常。更尷尬的是,Anthropic自己的“黑歷史”也不少。他們曾從盜版網站下載了700萬本受版權保護的圖書訓練模型,最後賠了15億美元。還因為非法下載2萬首歌曲,被索賠30億美元。馬斯克這次直接開嘲諷:“他們怎麼敢偷Anthropic從人類程式師那裡偷來的東西?”這句話有點毒,但也不是完全沒道理。DeepSeek在《Nature》封面論文裡明確表示,他們的R1模型訓練資料只來自普通網頁和電子書,沒有故意加入OpenAI生成的合成資料。論文還強調,資料截止時間是2024年7月,彼時先進推理模型還沒發佈。當然,他們也承認,部分網頁中包含OpenAI模型生成的答案,這可能導致基礎模型“間接受益”。但這是網頁數據本身的問題,不是主動蒸餾。05. 這意味著什麼我有個判斷,這次事件其實是個信號:AI行業從“開源狂歡”進入了“閉源聯盟”階段。以前大家覺得,AI技術應該開放共用,推動整個行業進步。但現在,當技術領先變成核心競爭力,巨頭們開始收緊口袋。前沿模型論壇2023年成立時定位很模糊,說是AI安全性群組織。現在終於找到了具體戰場:打擊蒸餾。這個轉變本身就說明問題有多嚴重。從商業角度看,這其實挺正常的。你投入幾十億美元研發的技術,被別人低成本複製,換你也不爽。但從行業角度看,這可能不是個好信號。當AI巨頭開始像網路安全公司一樣運營,當“合法使用”和“對抗性利用”的界限由他們自己定義,創新的門檻會越來越高。特別是對於那些靠蒸餾快速反覆運算的初創公司來說,這條路可能要堵死了。以後想追趕,要麼全棧自研,要麼另闢蹊徑。06. 最後的話說到底,這場“蒸餾之戰”表面上是技術爭議,實際上是商業競爭,底子裡是護城河焦慮。安全是切入點,利潤是落腳點。如果你也在做AI相關的事情,我給個建議:別指望靠捷徑走太遠。當矽谷開始結盟,免費午餐的時代可能真的要結束了。真正能活下來的,還是那些有自己核心技術和差異化能力的公司。捷徑是最遠的路,這話現在看,還真是這麼回事。 (蛋殼盤科技)