奧特曼罕見地承認了自己犯下的「歷史錯誤」,LeCun發文痛批矽谷一大常見病——錯位優越感。 DeepSeek的終極意義在那?這篇圈內熱轉的分析指出,比起R1,R1-Zero具有更重要的研究價值,因為它打破了終極的人類輸入瓶頸!
DeepSeek再度創造歷史。
居然能逼得OpenAI CEO奧特曼承認:「我們在開源/開放權重AI模型方面,一直站在了歷史的錯誤一邊。」
LeCun也發文指出,矽谷圈子的常見疾病,就是一種錯置的優越感。
高級階段的症狀,是認為小圈子就能壟斷好的想法。而晚期症狀就是,假設來自他人的創新都是靠作弊。
ARC Prize聯合創始人Mike Knoop發出長文中總結道——R1-Zero打破了最終的人類輸入瓶頸——專家CoT標註!其中一個例子,就是監督微調(SFT)。
從R1-Zero到AGI,一切都與效率有關。
另一個值得注意的觀點是:相較於R1,R1-Zero具有更重要的研究價值。
這是因為,R1-Zero完全依賴強化學習(RL),而不使用人類專家標註的監督微調(SFT)。
這就表明,在某些領域,SFT並非實現精準清晰CoT的必要條件,完全有可能讓AI透過純粹的RL方法實現廣泛推理能力。
以下為Mike Knoop的完整分析。
上周,DeepSeek發佈了他們新的R1-Zero和R1「推理」系統,在ARC-AGI-1基準測試上的表現可與OpenAI的o1系統相媲美。
R1-Zero、R1和o1(低算力模式)都取得了15-20%的得分,而GPT-4o僅為5%——而這已是多年純LLM scaling的巔峰成果。
根據本周美國市場的反應,大眾也開始理解了純LLM scaling的限制。
然而,大多數人仍沒有意識到推理計算需求即將激增的問題。
2024年12月,OpenAI發佈了一個新的突破性系統o3,經過驗證,該系統在低算力模式下得分76%,高算力模式下得分88%。
o3系統首次展示了電腦在面對全新、未知問題時進行適應的通用能力。
儘管o3在ARC-AGI-1基準測試中取得了突破性的成績,但這一科技大事件卻在主串流媒體中幾乎未被報導,也未引起廣泛關注。
這是AI和電腦科學領域的一個極其重要的時刻,這些系統值得深入研究。
然而,由於o1和o3是閉源的,我們只能依靠推測進行分析。
幸運的是,借助ARC-AGI-1,以及現在(幾乎)開放原始碼的R1-Zero和R1,我們能夠進一步加深對這一領域的理解。
這裡的「幾乎」指的是,DeepSeek並未公佈從零開始復現其模型權重的方法。
特別值得注意的是,相較於R1,R1-Zero具有更重要的研究價值。
R1-Zero比R1更值得分析:它消除了人為瓶頸
在對o1和o3的分析中,ARC Prize團隊對這些推理系統的工作原理進行了推測。
它們的關鍵思路如下:
下圖回顧了各模型用於迭代採樣的技術,及其在ARC-AGI-1評分的相關情況。
隨著DeepSeek發表的新研究,ARC Prize團隊就可以更好地驗證自己的推測。
一個關鍵的發現是,LLM推理系統在適應新穎性(以及提高可靠性)方面的提升,主要沿著以下三個維度展開:
第(1)點受到人工資料產生的限制,因此決定了那些領域的推理系統能從中受益最大。
例如,在o1系統上,MMLU中的專業法律類目得分遠低於數學和邏輯類目,令人頗感意外。
第(2)和(3)點的主要瓶頸在於計算效率。
o1和o3都在ARC-AGI-1基準測試上表現出對推理計算量的對數式改進,即它們在測試時使用越多的計算資源,基準精準率就越高。
同時,不同的計算方式會影響這條曲線在x軸上的位置。
ARC Prize團隊認為,DeepSeek最有趣的做法是單獨發佈了R1-Zero。 R1-Zero不使用SFT(即不依賴人工標註),完全依賴強化學習(RL)。
R1-Zero和R1在ARC-AGI-1上的得分高度一致,分別為14%和15%。
此外,DeepSeek自己發佈的基準測試結果也顯示R1-Zero和R1的表現相近,例如在MATH AIME 2024上的得分分別為71%和76%(相比之下,基礎模型DeepSeek V3的得分僅為約40%)。
在論文中,R1-Zero的作者指出:「DeepSeek-R1-Zero在可讀性較差和語言混雜等方面存在挑戰」,這一點也在網路上得到了印證。
然而,在ARC Prize團隊的測試中,他們幾乎沒有發現R1-Zero在ARC-AGI-1上表現出不連貫性,而這項測試任務與該系統透過強化學習訓練的數學和程式領域相似。
綜合這些發現,ARC Prize團隊得出了以下結論:
這點符合直覺,因為語言本質上也是一種推理DSL。相同的“字”可以在一個領域中學習,並在另一個領域中應用,就像程式一樣。
而純RL方法目前尚未能夠發現一個廣泛共享的詞彙體系,這可能會成為未來研究的重要方向。
最終,R1-Zero展示了一種潛在的擴展路徑——即使在訓練資料收集階段,也完全消除了人工瓶頸。
可以肯定的是,DeepSeek 的目標是挑戰OpenAI的o3系統。
接下來的關鍵觀察點在於:SFT是否仍然是CoT搜尋和取樣的必要條件,或者是否可以建立一個類似「R2-Zero」的系統,在相同的對數式推理計算擴展曲線上繼續提升精準率。
根據R1-Zero的實驗結果,團隊認為,在這個假設的擴展版本中,SFT並不是超越ARC-AGI-1所需的條件。
從經濟角度來看,AI領域正在發生兩大重要變化:
這兩點都將大大推動推理計算的需求,同時也不會抑制對更強運算資源的需求,反而會進一步增加運算需求。
AI 推理系統的價值,遠不止於提高基準測試中的精準度。
目前阻礙AI更廣泛自動化應用(即推理需求)的首要問題,就是可靠性。
ARC Prize團隊曾與數百位試圖在業務中部署AI智能體的Zapier客戶交流過,他們的反饋高度一致:「我還不信任它們,因為它們的工作表現不夠穩定。」
以前,ARC Prize曾提出,朝著ARC-AGI方向的進展將提升AI可靠性。
LLM智能體的主要挑戰在於,它們需要強而有力的本地領域控制才能穩定運作。
而更強的泛化能力,要求AI能夠適應全新的、未見過的情況。如今,已有證據顯示這一觀點是正確的。
因此,Anthropic、OpenAI、Apple等多家公司紛紛推出AI智能體也不足為奇。
由於可靠性需求,智能體將推動短期內的推理計算需求成長。
此外,開發者可以選擇投入更多運算資源,以提高使用者對系統的信任度。
然而,更高的可靠性並不代表100%的精準性——但它能讓錯誤更加穩定、可預測。
這反而是可接受的,因為當準確率較低時,使用者和開發者可以透過提示詞更穩定地引導AI行為。
過去被認為電腦無法解決的問題,如今都可以用金錢衡量其解決成本。隨著AI計算效率的提升,這些成本也將逐漸下降。
另一個正在發生的重要變化,是用於LLM預訓練的資料來源。
過去,大多數訓練資料要麼是購買的,要麼是從網路爬取的,要麼是由現有的LLM合成生成(例如蒸餾或資料增強)。
但推理系統提供了一種全新的選擇──產生「真實」資料,而非傳統意義上的「合成」資料。
AI產業通常將「合成資料」視為品質較低的資料,這些資料通常是透過LLM循環產生的,只是為了增加訓練資料的整體規模,但其收益會逐漸遞減。
如今,借助推理系統和驗證器,我們可以創造全新的、有效的資料來進行訓練。這可以透過兩種方式實現:
這是一種引人注目的經濟模式轉變,可能會導致AI系統開發者之間出現「贏家通吃」的局面。
擁有最多付費使用者的AI公司將擁有龐大的資料壟斷優勢,因為這些使用者在無形中資助了新高品質資料的建立,而這些資料反過來又進一步提升模型能力,使其更受使用者青睞……由此形成一個自增強的良性循環。
如果我們能夠突破人類專家CoT標註的瓶頸,並建立一個極高效的搜尋/合成+驗證系統來自動產生新資料,那麼可以預見,未來將會有大量計算資源投入這些推理系統。
因為這些系統的訓練效果將直接與資金投入和資料輸入量掛鉤,也就是說,只要投入資金和原始資料,模型就會變得更強。
最終,這種AI訓練模式將徹底取代基於人類生成資料的預訓練方法。
隨著推理需求的成長變得更加明確,市場將繼續經歷調整。
AI 系統的效率提升不僅會推動更多的應用,這不僅符合傑文斯悖論,更重要的是,更高的運算效率解鎖了全新的訓練範式。
隨著R1的開源和可復現性,越來越多的個人和團隊將探索CoT和搜尋技術的極限。
這將有助於我們更快地釐清當前AI研究的前沿在那裡,並推動一波技術創新浪潮,從而加速通往AGI的處理程序。
已經有幾位研究者告訴ARC Prize團隊,他們計畫在2025年ARC獎中使用R1風格的系統,這讓人非常期待看到最終的結果。
R1的開源,對全世界來說都是好事。 DeepSeek推動了科學的前沿發展,並為AI 研究帶來了新的突破。
參考資料:
https://arcprize.org/blog/r1-zero-r1-results-analysis (新智元)