圖靈獎得主Yann LeCun:大模型越做越大,離真正的AI越來越遠?

在人工智慧快速發展的今天,關於如何實現通用人工智慧(AGI)的討論從未停止。 Meta(原Facebook)首席AI科學家、圖靈獎得主Yann LeCun在最新訪談中再次提出對於大語言模型LLM的質疑:僅靠擴大大語言模型(LLM)的規模永遠無法達到真正的人類級別的智能。這觀點與目前一些AI企業的發展策略形成鮮明對比,再次引發爭議。

本文將深入解析LeCun的觀點,探討他所認為的AGI真正路徑,並與其他AI領袖的不同見解進行對照,希望提供一個全面的視角。

一、LeCun的核心觀點:擴大規模不是通往AGI的路

"我們不可能僅通過擴大LLM規模就達到人類級別的AI,這絕對不可能發生。無論你從我的一些更有冒險精神的同事那裡聽到什麼,它不會在未來兩年內發生,絕對不可能。"

在接受Big Technology Podcast採訪時,LeCun駁斥了目前一些AI公司宣稱的"透過擴大模型和增加數據量就能實現AGI"的觀點。他明確表示,目前的發展路徑最多隻能帶來一個"擁有龐大記憶和檢索能力的系統",而非真正具備創新思維的智能體

LeCun生動地比喻道,我們可能會得到一個感覺像"坐在你旁邊的博士"的系統,但它實際上不是真正的博士,因為它缺乏"發明解決新問題的方案"的能力——而這正是真正的博士所具備的核心能力。

目前大語言模型(LLM)的侷限性

LeCun指出,儘管現代生成式AI確實有其用處,但它們面臨明顯的限制:

1. 可靠性問題:如同自動駕駛一樣,AI系統的"最後一哩路"(最後幾個百分點的可靠性)極為關鍵而困難。

2. 部署挑戰:從令人印象深刻的演示到實際可靠的部署過程中存在巨大鴻溝。

3. 成本效益:企業概念驗證專案中,只有10-20%能真正投入生產使用。

4.幻覺問題:如果一個100頁的研究報告有5%是錯誤的,而你不知道是那5%,這就構成了嚴重問題。

LeCun提醒我們回顧歷史,IBM Watson曾承諾革命性地改變醫療產業,卻最終因無法在實際環境中可靠部署而淪為失敗案例。類似地,20世紀80年代的專家系統浪潮也因無法將人類知識有效轉化為規則而歸於沉寂。

通往真正AGI的四大缺失要素

在訪談中,LeCun明確指出目前AI系統要達到真正的智能,還缺少四個關鍵特性:

1. 理解物理世界:建立常識物理學模型

2.持久記憶:能夠保留並應用長期記憶

3. 推理能力:超越單純的關聯性思考

4. 規劃能力:能夠制定和執行複雜計劃

他表示:"這需要能夠獲取常識、從視頻等自然感測器而非僅從文字學習的系統。"

Meta的AI策略與市場現狀

儘管存在這些挑戰,LeCun解釋Meta等公司目前的大規模投資有其合理性:

1. 基礎設施投資:主要用於推理,為未來可能的使用者基礎做準備

2. 長期發展:即使典範轉移不會在3年內到來,這些基礎設施仍將被充分利用

3. 消費者規模:Meta已擁有約6億AI用戶,比ChatGPT的用戶群更大(雖然活躍度可能不同)

LeCun指出,Meta內部已經部署了名為"Metamate"的AI助手,可以回答關於公司內部檔案的任何問題,證明了這類技術的實用價值。

二、與其他AI領袖觀點的對比

LeCun關於AGI實現路徑的觀點與其他AI領袖形成了鮮明對比:

lYann LeCun:認為擴大LLM規模不足以實現AGI,需要解決物理常識、持久記憶、推理和規劃四大挑戰

lSam Altman (OpenAI):相信擴大規模加上創新的訓練方法可能實現AGI,對短期內實現持謹慎樂觀態度

lDemis Hassabis (Google DeepMind):認為需要結合神經網路與符號推理,強調智能體與環境互動的重要性

lGeoffrey Hinton:擔憂大型模型可能超越人類智能,但也認為僅靠擴大規模不足以實現通用智能

lIlya Sutskever (前OpenAI):曾在OpenAI工作時支援擴大模型規模路線,但近期也強調了更符號化、可控的AI方向

三、何時能實現突破?LeCun的時間軸預測

對於真正AGI的到來,LeCun給了一個相對謹慎但仍然樂觀的時間線:

"這不會在未來三年內發生,但可能會在三到五年之內發生。"

然而,他強調了一個重要觀點:AGI的實現不會是某一天突然出現的事件,也不會來自某個單一實體的《秘密魔法子彈》:

"不會有一天之前沒有AGI,之後就有了AGI,這不會是一個事件。這將是隨著時間推移而不斷發展的概念性想法,它們會變得更大、更具規模,效果更好。這不會來自單一實體,而是來自全球整個研究社區,分享研究的人將比不分享的人發展得更快。"

LeCun特別警告投資者:"如果你認為世界上某個地方有一個由五個人組成的創業公司發現了AGI的秘密,你應該投資他們50億美元,那麼你正在犯一個巨大的錯誤。"

四、AI寒冬的可能性?

面對當前AI領域的高期望與現實能力之間的差距,LeCun被問到是否擔心會出現新的"AI寒冬"。他承認時間錯配確實是一個風險因素,特別是對那些投資於承諾"僅通過更多數據訓練和幾個技巧就能實現人類級AI"的公司的投資者來說。

然而,LeCun對整個領域的長期發展保持樂觀,他相信隨著研究的深入,AI領域將逐步克服當前障礙,在未來3-5年內看到更實用和更聰明的系統

結語

LeCun的觀點提供了幾點啟示:

1. 不要盲目追隨規模競賽:單純擴大模型規模與資料量並非創新的終點。

2.關注關鍵缺失能力:在物理世界理解、持久記憶、推理和規劃方面的研究可能更有突破價值。

3. 重視實際應用挑戰:從概念驗證到實際部署的過程至關重要,需要更多關注可靠性。

4. 開放合作勝過封閉開發:真正的突破可能來自全球研究社群的共同努力,而非某個封閉團隊。

目前大型科技公司和新創公司都在大力投資基於LLM的AI技術,Yann LeCun作為深度學習三巨頭之一(與Geoffrey Hinton、Yoshua Bengio並稱),卻提出警示,真正的突破可能需要更多概念性創新,而非簡單的規模擴張

隨著AI技術的快速發展,我們或許應該更加關注如何讓AI系統獲得對物理世界的理解、持久記憶、推理能力和規劃能力,而不僅僅是如何處理更多的文字資料。在這場通往AGI的長跑中,耐心、創新和開放合作才是真正的致勝法寶。 (JER學家)