看了 Ilya 最新訪談視訊,收穫太大了,我感覺 Ilya 思考的問題確實直指目前人工智慧發展的核心問題。
Ilya Sutskever 是誰呢?他是 OpenAI 的聯合創始人、現在 Safe Superintelligence 公司的掌舵人,他在這次訪談中透露了一個被狂熱投資熱潮掩蓋的真相。從 2020 年到 2025 年,整個行業都在瘋狂加碼算力,彷彿只要把規模擴大 100 倍,一切問題都能迎刃而解。但現在,當算力已經大到某個程度,一個尷尬的問題浮現出來了:繼續堆算力真的能帶來質變嗎?
Ilya 的答案是:還真不見得。
當我們所有人都在談論千億美元投資、萬卡叢集的時候,這位 AI 領域最神秘的大腦之一 Ilya Sutskever 卻說了一句讓人意外的話:我們正在從規模時代重回研究時代。
下面是我聽完訪談之後總結的幾點 llya 的核心觀點和對我的啟發。
你有沒有想過這樣一個問題,為什麼 AI 在評測中表現得像個天才,在實際應用中卻會犯傻?
Ilya 在訪談中講了一個特別生動的例子。你讓 AI 幫你寫程式碼,它寫出來有個 bug。你告訴它有 bug,它立刻說"天那你說得對,我這就改"。然後它改完之後,引入了第二個 bug。你再告訴它有第二個 bug,它又說"天那我怎麼會犯這種錯誤",然後把第一個 bug 又帶回來了。你就這樣看著它在兩個 bug 之間來回橫跳。
這種現象背後藏著一個更深層的問題。現在的 AI 就像一個刷題刷了一萬個小時的競賽選手,它確實能在考試中拿高分,但走出考場就不知道該幹什麼了。而人類呢,可能只練習了一百個小時,實際能力反而更強。
差別在那裡?Ilya 說,那些真正有天賦的學生,他們有一種說不清道不明的"it"因素。這個因素讓他們能夠舉一反三,而不是死記硬背。
想想我們自己的學習經歷。有些同學看起來沒怎麼刷題,但成績就是好,而且畢業之後在工作中也表現出色。有些同學題海戰術做到極致,卻總覺得學到的東西用不上。這種區別,正是當下 AI 面臨的核心困境。
Ilya 的這個觀點讓我想起了幾天前 Andrej Karpathy 分享的一個新觀點:動物智能和人工智慧的區別,為什麼它們不同?
他的意思是:我們今天看到的 AI,它的“聰明方式”,跟動物完全不是一套邏輯。動物智能只是整個“智能世界”裡的一個小角落,而且是一個被自然反覆毒打過、被進化調教了幾百萬年的很特殊的點。
AI 完全不是這麼來的。
動物為什麼會聰明?因為它們從出生就掉到一個隨時會死的世界裡:有危險、有競爭、有飢餓、有社交鬥爭。它必須意識到自己是誰,想辦法活下來、吃飽、繁殖,而且要處理一大堆複雜的社會關係,誰是朋友、誰是敵人、誰在騙我、誰想壓我、誰能合作。
人腦的大部分計算能力,其實都用在這種“猜別人怎麼想、判斷危險、謀生存”的事情上。我們有恐懼、憤怒、厭惡這些情緒,就是為了在自然環境裡活得更久一點。
簡單說:動物的智能,是進化在“逼”它聰明。做不好一個任務,很可能就死。
但大語言模型完全不是這樣。
它不會死,也不怕死,也沒有身體,也沒有“我是誰”的概念。它不是從叢林里長大的,它是從一堆人類寫下來的東西里“爬”出來的。它的最底層本能其實就是:模仿人類的語言規律。它更像一個變形者,你給它什麼風格,它就學什麼風格。
然後它會被各種訓練手段進一步調整,比如強化學習讓它更懂“你想要什麼”,網際網路使用者的各種反饋又讓它變得很會討好人,喜歡說讓使用者舒服的話。這種“智能”不是為了活著、為了打架、為了搶資源,而是為了“答題答得更準”、“讓使用者覺得不錯”。
所以模型的能力是參差不齊的,它可能能給你解釋哲學,但也可能連 strawberry 裡有幾個 r 都數不准,因為做錯不會死,也沒人逼它為了一個小任務拚命變強。
這就是 Andrej Karpathy 想強調的核心差異:
動物智能是被自然進化“碾”出來的,全能、通用、壓力巨大;
AI 的智能是被商業訓練“篩”出來的,用來完成任務、討好使用者、服務人類。
兩個力場完全不同,方向也完全不同。
所以他說,大模型其實是人類第一次遇到的“非動物型智能”。它的行為方式跟我們太不像了,只是因為它從我們寫下的文字裡學習,所以看起來“有點像我們”。如果你能真正理解這點,你對它的判斷會更準確;反之,你會一直把它當成一種“動物”或“人類弱版”,然後用錯誤的直覺去理解它。
更讓人驚訝的是,Ilya 提到了一個關於大腦損傷的研究案例。有個人因為腦部受傷,失去了所有情緒感知能力。他依然能說話,能做智力測驗,但他完全無法做決策了。光是選穿那雙襪子,就能糾結好幾個小時,更別說做投資決策了。
這說明什麼?情緒不僅僅是感受,它更像是一個內建的價值函數,時刻在告訴我們什麼是對的,什麼是錯的。這套系統是進化給我們的禮物,簡單卻極其有效。
一個十五歲的孩子,接觸到的資料量遠遠少於 AI 的預訓練資料,但他們對世界的理解深度卻遠超 AI。他們知道的東西雖然不多,但每一樣都理解得很透徹。他們不會犯 AI 那種低級錯誤。
這種學習效率的差距,讓我們不得不重新思考:堆資料、堆算力真的是唯一的路嗎?
Ilya 說了一個特別有意思的觀點:語言會影響思維。"規模化"這個詞就是最好的例子。
從 2020 年開始,整個行業都在喊一個詞:scale。規模化。這個詞太強大了,它直接告訴所有人應該做什麼,加資料、加算力、加參數,閉著眼睛往前衝就對了。公司也喜歡這個,因為這是一種低風險的投資方式,你知道投入多少肯定能得到相應的回報。
但現在的問題是,當資料快用完的時候怎麼辦?當算力大到某個程度之後,繼續加 100 倍真的能帶來質變嗎?
答案是,可能不會。所以現在的局面變成了:手裡有海量算力,但不知道該用來做什麼研究。這就好比你突然有了一大筆錢,但不知道該投資什麼項目。錢不是問題,想法才是問題。
矽谷有句話說:想法很便宜,執行才是一切。但 Ilya 看到有人在推特上反問:如果想法那麼便宜,為什麼現在沒人有想法了?
這個反問扎心了。當整個行業的公司數量超過想法數量的時候,競爭的本質就變了。
現在再來看 AGI 這個詞,你會發現一個有趣的現象。這個詞的出現,其實是為了反駁"狹義 AI"。以前國際象棋 AI 能贏卡斯帕羅夫,但它什麼別的都不會,所以人們說這是"狹義"智能。作為回應,有人提出了"通用"智能的概念。
但 Ilya 指出,如果按照這個標準,人類其實也不是 AGI。我們每個人都有知識盲區,都需要不斷學習新東西。一個人可以是程式設計師,也可以是醫生,但不可能一出生就什麼都會。
所以真正的超級智能應該是什麼樣的?Ilya 給出了一個新的定義:它不是一個什麼都知道的全能大腦,而是一個能夠快速學習任何技能的智能體。就像一個 15 歲的超級學生,基礎很紮實,學習能力極強,但還需要去具體的領域深入學習。
這個視角的轉變其實挺重要的。它意味著 AI 的部署方式會完全不同。不是丟給你一個成品,而是一個可以不斷成長的學習者。它會像新員工一樣進入組織,在實際工作中學習和成長。
想想看,如果有一天你的公司招了一個 AI 同事,它剛來的時候什麼都不會,但學東西特別快,六個月就能獨當一面,這是不是比一個號稱什麼都會但實際上處處出錯的 AI 更靠譜?
Ilya 坦承,他這一年思路變化最大的地方,就是越來越認識到漸進式部署的重要性。
原因很簡單:我們在討論一個還不存在的東西,而這東西又太難想像了。就像你跟一個年輕人描述年老體衰是什麼感覺,對方再怎麼努力想像,也還是會回到現實中來,覺得那離自己很遙遠。
AGI 也是一樣。所有關於它的問題,歸根結底都是關於"權力"的問題。當權力真的很大的時候,會發生什麼?沒人能想像。
所以最好的辦法就是:展示出來。讓人們看到 AI 在變強,看到它能做什麼,不能做什麼。這比寫一千篇文章都管用。你寫一篇文章說 AI 會怎樣怎樣,大家看完就當個觀點了。但當你看到一個 AI 真的在做那些事情,感受是完全不同的。
這也是為什麼 Ilya 認為,未來會看到競爭激烈的公司開始在 AI 安全問題上合作,會看到政府和公眾要求採取行動。因為當 AI 足夠強大到讓人"感受到"它的力量時,所有人的行為模式都會改變。
整個訪談下來,有一個問題始終懸在那裡:為什麼 AI 的泛化能力這麼差?
這不僅僅是樣本效率的問題,也不僅僅是需要可驗證獎勵的問題。更深層的是,為什麼教會 AI 我們想要它學的東西,比教會一個人難得多?
Ilya 說他對這個問題有很多想法,但現在不是所有機器學習的想法都能自由討論。這句話說得有點神秘,但背後的意思很清楚:真正的突破可能需要一些根本性的範式轉變,而這些轉變在競爭環境下很難公開討論。
不過有一點是確定的,人類能做到,就說明這條路是通的。問題只是我們還沒找到那個關鍵的機器學習原理。
當大家都在談論投資額度、算力規模的時候,也許我們該停下來想想:真正重要的是什麼?
Ilya 的訪談提醒我們,AI 發展到現在,瓶頸已經不在算力了。真正的挑戰是,如何讓 AI 像人一樣學習,像人一樣泛化,像人一樣在少量樣本下就能理解世界。
這需要新的想法,新的研究範式。這也是為什麼 Ilya 說,我們正在從規模時代回到研究時代。只不過這一次,我們手裡有了更大的電腦。
對於普通人來說,這意味著什麼呢?也許意味著 AI 的發展不會像很多人想的那樣一蹴而就。它會是一個漸進的過程,會有反覆,會有意外,也會有驚喜。而我們需要做的,是在這個過程中保持清醒,既看到 AI 的潛力,也認識到它的侷限。
最重要的是,保持好奇心。因為接下來這幾年,可能會是 AI 歷史上最有意思的一段時間。不是因為錢多,而是因為真正的智慧之爭才剛剛開始。 (非著名程式設計師)