美國開源AI最後的旗幟,也倒了

開源領域一大悲號傳來——

艾倫人工智慧研究所(Ai2),宣佈削減開源模型開發(包括OLMo)的資金,轉向AI應用。

就在同一時間,AI2核心團隊幾乎被“打包帶走”,集體流向微軟。

人員包括前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,都是Ai2的核心力量。

其中有的人上周剛參加完GTC大會,還跟老黃暢談開源模型的未來。

他們的下一站,則是微軟穆斯塔法·蘇萊曼的超級智能團隊

X上已經炸了鍋,全網一片哀鳴。

不少網友唏噓:這對開源社區來說是個巨大遺憾,OLMo是極少數真正開放原始碼的模型之一

核心人員打包進微軟

核心人員集體離職,是一個非常不妙的訊號。

Ai2前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,統統被蘇萊曼打包進了微軟。

法哈迪已於3月12日卸任,結束了超過兩年半的Ai2掌門人生涯。

他與Ai2的淵源頗為深厚。法哈迪是一位電腦視覺專家,也是華盛頓大學電腦科學與工程學院的教授,該院即以微軟聯合創始人、Ai2創始人保羅·艾倫(Paul Allen)的名字命名。

他還聯合創立了Ai2的衍生公司Xnor.ai,該公司於2020年被蘋果以約2億美元的價格收購。在蘋果,他曾領導機器學習工作。

哈吉希爾齊是OLMo開源模型項目的聯合負責人,上周剛在輝達GTC大會上代表Ai2參加了多場會議,還和黃仁勳探討開源模型的未來。

她還是開源多模態人工智慧基礎設施加速科學發展項目(OMAI)的聯合首席研究員。

這個項目旨在建構用於科學研究的開源模型,為期5年,耗資1.52億美元,由輝達和美國國家科學基金會聯合資助。

克里希納則主導了Ai2多模態模型Molmo等多個關鍵項目,同樣在剛剛結束的GTC大會上代表Ai2發表演講。

而現在,這些人才將集體加入微軟穆斯塔法·蘇萊曼的超級智能團隊。

從去年11月起,蘇萊曼就開始組建超級智能團隊,目前已從Google、Meta、OpenAI、Anthropic等巨頭挖角了不少研究人員,還在不斷從Ai2和華盛頓大學聘請人才。

蘇萊曼在領英上公開發帖,歡迎他們的加入。

他還稱讚法哈迪帶領Ai2在一年內發佈了100多個模型;而哈吉希爾齊是“世界上被引用次數最多的自然語言處理研究人員之一,毋庸置疑”。

而萊佈雷希特則擴大了Ai2的營運規模和開源工作,共同領導和創立了Xnor.ai和Neon Labs,還擁有布朗大學認知神經科學博士學位。

蘇萊曼表示,他們將助力推進微軟的使命——實現“以人為本的超級智能:打造更安全、可控、更強大的AI系統,服務於人類以及解決最棘手的問題”。

法哈迪也在領英上表示自己很高興加入微軟。

可想而知,一批核心人員的離職對於Ai2而言是一次重大打擊。但他們為什麼要走呢?

答案還是出在資金上。

Ai2董事會主席比爾·希爾夫透露,法哈迪希望在人工智慧的前沿領域進行研究,而OpenAI、Google等公司會花費數十億美元來訓練最先進的模型。

但對於一家非營利組織而言,很難以慈善資金訓練出對標巨頭的模型,還完全開源。

希爾夫表示,董事會必須權衡其慈善資金是否還應該用於“追趕進度”。他也承認,在大模型開發的最高規模上與科技巨頭競爭,已經變得異常困難

此話怎講呢?GPT-4等級模型訓練成本估計在1-2億美元量級,當前前沿模型已攀升至數億美元。

AI2的年度營運預算雖未公開,但可以參考一些指標。

比如OMAI項目的1.52億美元是五年期、多機構共享的專項資助,年均約3000萬美元,僅相當於最前沿的單個大模型訓練成本的一小部分。

這和巨頭相比是數量級差距,很難正面競爭。

進一步來說,投資方的策略調整是更加決定性的因素。

Ai2最初由艾倫的Vulcan公司資助,後來由其遺產繼續資助。現在的最大資助方是科學與技術基金會(FFST),該基金會由保羅·艾倫的遺產設立,規模達31億美元。

2024年,琳達·斯圖爾特博士接任FFST CEO後,資助策略發生了顯著變化。

斯圖爾特是一位醫生科學家,曾領導華盛頓大學蛋白質設計研究所。

她更傾向於具有明確科學應用和可量化社會影響的項目,而非投入大量資金進行前沿模型的研究。

據GeekWire報導,2026年Ai2的所有項目都已經獲得全額資助,但FFST的資助模式將由提供年度總資助轉向基於項目提案的資助模式。

這種轉變意味著什麼?在年度整體資助模式下,研究機構通常擁有較高自主權,能夠承擔長期風險、靈活調整資源分配。

而基於提案的模式引入了更強的成果導向和短期問責,每個資助周期都需要明確的可交付成果和影響力指標。

對於開源基礎模型開發——周期長、成本高、商業回報不直接——這種轉變意味著更大的不確定性和更高的申請成本。

有知情人士透露,FFST未來的資助預計將更傾向於人工智慧的實際應用,而非建構開源基礎模型

這也很好地解釋了,為何專注於模型開發的研究人員紛紛選擇離開。

美國開源AI最後的旗幟倒了

消息一出,X上一片悲鳴。

不少網友表示:美國開源AI最後的旗幟也倒了。

為何這麼說?因為過去幾年,Ai2確實投入了大量資源做真正開放原始碼的大模型。

Ai2的OLMo系列,極致地踐行了“完全開源”(truly open)理念。

它不僅開源模型權重,而且從資料處理到預訓練、微調,再到評測,全階段都公開透明。並且始終採用對開發者友好的Apache2.0許可證。

2025年11月發佈的OLMo 3,進一步強化了這種透明度承諾。該系列包括Base、Instruct、Think和RL Zero四個變體,覆蓋7B和32B參數規模。

其中OLMo 3-Think 32B被宣傳為“該規模首個完全開源推理模型” 。

更重要的是,Ai2發佈了完整的“模型流程”(model flow),包括訓練日誌、中間檢查點、完整程式碼和配置。

還有升級版的OlmoTrace工具,允許研究者將模型推理步驟回溯到具體影響它的資料和訓練決策。

因此也有說法認為:OLMo與Llama 4、Mistral Large 3並稱為“三大開源支柱”。並且OLMo更透明,因為它提供所有中間產物,而Llama只開源權重,Mistral部分資料閉源。

但現在,這個開源領域旗幟性的標竿,倒了。

一時之間,梗圖與迷因齊飛。

大洋彼岸的網友們進行了一場賽博悼念,大感“開源悲劇”,還有人聯想到了全球同此涼熱。


不過也有人認為,這很正常,開源經濟學理論站不住腳。用非營利方式做頂級開源模型這條路,難以持續。

目前,臨時CEO皮特·克拉克表示Ai2仍致力於其使命以及與NSF和Nvidia的合作關係,包括OMAI計畫。

克拉克是Ai2的創始成員之一,曾於2022-2023年擔任臨時CEO。他曾共同領導Ai2的Asta項目,旨在開發用於輔助和自動化科學發現的智能體框架的大型計畫。


開源AI的東昇西落

美國仍有開源力量,但都在變形:

Meta的LLaMA,名義上“開源”,但越來越偏“可控開放”。訓練資料不公開,許可有限制,並且還持續難產。

Google的Gemma,提供模型權重、推理使用權限,但同樣沒有完整訓練資料或流程。

Hugging Face的SmolLM,完全開源,但由社區驅動,缺乏大規模訓練資源。

輝達的Nemotron系列,近期更開放了,不斷推出開放許可,更多開源資料發佈,但主要服務硬體生態。

相比之下,中國的開源模型已經超越了美國領先的開源模型,並進一步拉大了與它們的性能差距。

現在,Ai2的戰略調整,也會加速美國與中國在開源AI領域的差距擴大。

在OpenRouter上,過去三周中國大模型的呼叫量已經連續超過美國,跟領先的閉源模型也打得有來有回。

MIT與抱抱臉的聯合報告顯示,過去一年,中國開源模型全球下載量佔比達到17.1%,首次反超美國。

許多美國初創企業也開始“悄悄”依賴中國開源模型進行建構,其默認選擇進一步向中國模型傾斜。

比如上周Cursor發佈新模型Composer 2,被曝套殼Kimi K2.5;還有初創公司Deep Cogito去年發佈的Cogito v2.1,也被曝基模是DeepSeek,都從側面證實了中國開源模型的實力。

開放原始碼的火種未熄,但風向已變。開源AI已經完全進入了中國時間

開源AI的未來,只能在中國了。如果存在一個大模型Android版,那這個也只能在中國了。 (量子位)