吳恩達(Andrew Ng)剛剛發表了一篇關於LLM現狀與未來的最新觀點
他直言:儘管LLM令人驚嘆,但目前提升其知識水平的過程,其實比大眾認知的要零碎得多
針對目前業界的兩種極端聲音,吳恩達給出了明確態度:既不要輕信LLM再過幾年就是通往AGI之路的炒作,也不要陷入LLM不過是演示品的錯誤反向炒作
相反,我們需要對通往更智能模型的路徑有一個更精確的理解
以下是吳恩達的核心觀點梳理
吳恩達首先肯定了LLM作為一種比前代技術更通用的智能形式。
第一波LLM技術通過在公共網路上訓練,獲取了涵蓋廣泛主題的資訊。這使得它們的知識廣度遠超早期那些只能執行單一任務(如預測房價、下圍棋或國際象棋)的演算法。
然而,它們的通用性仍遠不及人類
例如,即便在預訓練階段閱遍了整個公網內容,LLM在適應特定寫作風格,或者可靠地使用簡單網站方面,依然表現掙扎——而這些通常是人類編輯或普通人能輕鬆做到的。
在利用了幾乎所有開放網路資訊後,進步變得愈發困難
吳恩達指出,如果一家前沿實驗室現在想要LLM在特定任務上表現出色——比如使用特定程式語言寫程式碼,或者在醫療、金融等利基領域輸出合理內容——研究人員必須經歷一個繁瑣且費力的過程:
甚至,為了讓模型執行某些任務(如使用網路瀏覽器),開發人員可能需要經歷更繁瑣的過程:建立大量的RL Gyms(強化學習模擬環境),讓演算法在狹窄的任務集中反覆練習
吳恩達強調,一個典型的普通人,即便閱讀的文字量遠少於前沿模型,或者在電腦操作環境中的練習量遠少於模型,卻能泛化到更廣泛的任務中。
人類之所以能做到這一點,可能得益於以下機制:
從反饋中持續學習的能力;
對非文字輸入擁有更優越的表徵能力(吳恩達直言:LLM對圖像的Token化處理,在他看來目前仍像是一種駭客手段/權宜之計)
以及許多我們尚未理解的機制
如今推動前沿模型的發展,需要做出大量的人工決策,並採用以資料為中心的方法來工程化訓練資料
吳恩達認為,未來的突破或許能讓我們不再以這種零碎拼湊的方式推進LLM。但即便沒有突破,這種持續的零碎改進,加上模型有限的泛化能力和湧現行為,仍將繼續推動技術的快速進步
他在最後總結道:
無論那種情況,我們都應該計畫好迎接未來多年的艱苦工作
在這條建構更智能模型的道路上,前方仍有一段漫長、艱難——但也充滿樂趣的跋涉 (AI寒武紀)