「AI教父」楊立昆獨家回應鈦媒體:辛頓錯了,AI不是核彈


AI教父、Meta首席科學家Yann LeCun


近日,同作為「深度學習」三巨頭的兩位著名AI教父之爭引發了行業巨大關注。其中傑弗裡·辛頓(Geoffrey Hinton)直接點名批評楊立昆(Yann LeCun)稱,「他讓AI大模型開源的危害性,相當於讓原子彈開源」。

楊立昆是圖靈獎得主、Meta AI首席科學家,先前也是Google首席科學家,與辛頓一樣,在業界享有盛名。

北京時間5月23日凌晨,鈦媒體App編輯在巴黎見到了楊立昆,針對相關問題,楊立昆對鈦媒體App直接回應稱,辛頓錯了,AI 並不是「核彈」。

「它(AI)不是炸彈,它不是用來殺人的,AI 是為了讓他們(人類)更聰明。所以,我根本不明白這個類比。而​​且,AI 也沒那麼危險。我認為這些系統比實際情況要聰明得多。 App表示。

當鈦媒體App問他當AI未來力量達到足夠強大能影響人類時,還會堅持開源嗎,楊立昆也非常堅定的回答是的。

楊立昆強調,開源(AI 技術)很重要,是非常有意義的。

5月23日上午,楊立昆在推文中再次強調,大型語言模式(LLMs)無法達到人類智慧。如果你是對建構下一代AI 系統感興趣的學生,請不要攻讀大模型相關專業。

「我自己正在研究下一代AI 系統,而不是LLM。所以從技術上講,我告訴你'與我競爭',或者更確切地說,'與我做同樣的事情,因為這是正確的做法,而且理論上更快樂'。


公開資料顯示,楊立昆出生於1960年,是法國電腦科學家,2018年圖靈獎得主。他曾在巴黎電子工程師高等學校獲得了工程師學位,1987年在巴黎第六大學獲得電腦科學博士學位。博士就讀期間,他提出了神經網路的反向傳播演算法學習演算法的原型。隨後到多倫多大學在傑弗裡·辛頓的指導下完成了博士後工作。

楊立昆在機器學習、電腦視覺、移動機器人和計算神經科學等領域都有許多貢獻。他最著名的工作是在光學字元辨識和電腦視覺上使用卷積神經網絡,他也被稱為卷積網路之父。他共同創建了DjVu影像壓縮技術,以及共同開發Lush語言。 2019年,他與約書亞·本希奧、傑弗瑞·辛頓共同獲得電腦學界最高獎項-圖靈獎。

隨著生成式AI 的快速發展,楊立昆所在的Meta公司已投入數十億美元開發Llama等多模態模型,旨在迎頭趕上微軟、OpenAI、Google等其他競爭對手。

目前,楊立昆在Meta的基礎人工智慧研究(Fair)實驗室管理著一個約500人的團隊。致力於創造下一代AI 技術,這種AI 可以發展常識,並以與人類類似的方式學習世界是如何運作的,這種方法被稱為「世界建模」(World Models)。

一直以來,楊立昆與另一位「深度學習」教父辛頓對AI 未來的看法恰恰相反。辛頓近日對外表示,儘管ChatGPT將使AI 研究變得更加高效,影響AI 研究過程,但長期來看,AI 發展太快了,容易超越人類,人類需要把控好AI 技術帶來的風險。而且他認為,模型其實必須執行一定程度的推理,而不是像許多人所說的大模型並不具備推理能力。隨著模型規模的增加,這種推理能力也將越來越強。這是一個值得全力以赴的方向。

楊立昆卻始終否定辛頓的這種看法。

楊立昆認為,大模型不是AI 技術真正的發展方向。 ChatGPT等生成式AI 產品永遠無法實現像人類一樣的推理和計劃能力,而是認為在機器中創造“超級智慧”,才是真正的通用人工智慧(AGI)。

但他也坦言,這個技術願景可能需要十年的時間才能實現。

楊立昆指出,他反對依靠提升大模型來製造人類水平的智能,因為這些模型只有在獲得正確的訓練數據後才能準確回答提示,因此「本質上是不安全的」。

「不要學習大模型,這些技術掌握在大公司的手中,你沒有什麼可以做的。你應該研究下一代AI 系統,以突破大模型的限制。」楊立昆在對話中表示。

楊立昆表示,大模型的這種演化是膚淺和有限的,只有當人類工程師介入並根據這些資訊進行訓練時,模型才會學習,而不是像人類那樣自然地得出結論。

楊立昆曾於2022年首次發表一篇關於他的「世界建模」願景論文,此後,Meta基於該方法發布了兩個研究模型。他稱,實驗室正在測試不同的想法,以實現人類級別的智能,因為「這其中有很多不確定性和探索,(所以)我們無法判斷哪一個會成功或最終被採納」。

「我們正處於下一代AI 系統的風口浪尖。」楊立昆指出。

楊立昆認為,從長遠來看,「世界建模」技術將為用戶透過穿戴式科技、肌電「手環」等與之互動的AI Agent(代理)應用場景提供動力。

「要讓AI 真正有用,就需要具備類似人類等級的智慧。」楊立昆表示。(鈦媒體)