WAIC 首日,便以重磅嘉賓開場——諾貝爾獎得主,人工智慧教父Geoffrey Hinton,發表了開幕演講。緊隨其後的是MiniMax 創始人、首席執行官閆俊傑的主題演講“每個人的人工智慧”。後續則是一系列的專家圓桌對話。
作為最關注AI 治理及安全問題的頂級專家,Hinton 一如既往地表達了他對AI 治理的關心。從自己的研究生涯開始,他分享了大模型的變遷以及背後的技術範式。最後他呼籲建立一個由多個國家參與的國際AI 安全研究網絡,專注於研究如何訓練AI 向善。
MiniMax 創始人及首席執行官閻俊傑則以「每個人的人工智慧」為出發點,分享了他作為國內最早一批研究深度學習的研究者,以及最早開始探索大模型的公司,最後提出:AGI 一定會實現,並且終將是面向大眾、服務大眾,同時,也需要AI 公司與所有的使用者,共同來實現。
以下為二人演講內容整理,經編輯與刪減。
演講者:Geoffrey Hinton
從大約60 年前開始,AI 就發展了兩種不同的範式。一種是「符號主義」路徑,強調邏輯推理的能力。我們透過規則運算子號來進行推理,這種方式可以幫助我們理解知識是如何被表達和處理的。這類AI 模型的基礎是對符號的處理,被認為更符合邏輯智能的本質。
另一種路徑則以生物智能為基礎,是圖靈與馮諾依曼更傾向於相信的方式。他們認為智能的本質在於從神經連接中學習,在於速度、結構和連接模式的改變。這種「連接主義」強調的是學習與適應,而非顯式的邏輯規則。
1985 年,我曾經建構過一個非常小的模型,試圖將這兩種理論結合起來。我的想法是:每一個字都可以由多個特徵(features)表示,而這些特徵之間可以用來預測下一個字。這個模型不儲存完整的句子,而是透過生成語言來學習詞彙之間的關係。
這種方式強調語言中的「語義特徵」——也就是說,我們並不是僅僅靠規則,而是透過「理解」詞彙的語義來進行預測。這為後來計算語言學界接受特徵表示打下了基礎。二十年後,這種想法得到了進一步發展,例如被用於建立更大規模的自然語言處理系統。
Google 的Transformer 架構,以及OpenAI 研究者所展示的大型語言模型(如GPT),則把這種模型放大到了新的高度。這些模型的底層原理與我當年建構的小模型類似:將語言中的詞彙視為具有多維特徵的「構件」,然後在多層神經網絡中進行組合、融合,從而實現語言生成與理解。
我喜歡用「樂高積木」作為比喻。每個字就像一個多維度的樂高積木,具有成千上萬的特徵維度。理解語言就像用這些積木建模,不同的詞要以合適的方式「握手」,即匹配連接點,這種匹配方式反映了詞與詞之間的語義關係。如果字的形狀改變了,它與其他字的「握手方式」也會變化,語言的意義也隨之改變。
這種構造方式類似於蛋白質摺疊:胺基酸在空間中的不同組合方式,最終決定了蛋白質的功能。人腦理解語言也是以此方式建構語意結構的。
這與人類知識傳播完全不同。我無法把我的神經元結構「複製」到你腦中,語言只能以極低的位元率(一秒大約100 位)來傳遞資訊。而在數字系統中,一個神經網絡模型可以複製成成千上萬個版本,它們在不同裝置上學習,並且可以快速共享權重,遠遠超越人類知識傳播的速度和效率。
我的觀點是,人類理解語言的方式和大語言模型的方式幾乎是一致的。人類甚至可以被視為一種大語言模型。也正因如此,人類也和AI 一樣會產生「幻覺」,因為我們也會自己創造出一些不真實但合理的解釋。
當然,也有本質上的不同。 AI 在某些方面比人類更強。例如在電腦科學中有一個根本性的原則,那就是:軟件可以被抽象化、被覆制,並且在不同的硬體上運行。只要程式存在,它的知識就不會消失。你甚至可以毀掉所有的硬體,只要軟件代碼還存在,它就能被覆活。
從這個角度看,程式中的知識是永恆的,不會死亡。這和人腦完全不同。人腦是模擬系統,每一次的神經元激發都是獨一無二的,是不可完全複製的。你不可能把你腦中的神經結構複製到我腦中,因為我們每個人的大腦連接方式都不同。
這就導致一個關鍵問題:知識在大腦中是和硬體繫結的,而在數字系統中,知識可以和硬體分離。因此,AI 系統具有「永生性」。
這種特性帶來了兩個巨大的好處:第一,它只需要非常小的能耗。人腦的功率大約只有30 瓦,卻擁有上兆個神經元連接,這和數字系統的能源效率比類似。第二,我們不需要花大錢去一模一樣地複製每一個神經網絡。
當然,我們在知識傳遞方面仍面臨一個難題。比如說,我沒有辦法直接把我腦中的知識「展示」給你,因為那是模擬性的東西。我只能用語言向你解釋我學到的內容。
為瞭解決模型體積與計算資源問題,現在的研究越來越傾向於「蒸餾」技術:從大模型中提取知識,轉移到一個小模型中。這個過程就像教師與學生之間的傳授關係:教師透過語言、脈絡連結等方式將知識傳遞出去,學生則試圖理解並複製這種能力。
不過這種過程在人類之間的效率是非常低的,畢竟語言的帶寬有限。而在機器之間,這種知識的複製可以在極大規模下進行,以實現指數級的知識轉移。
AI 的能力正在快速成長,未來它們很可能變得比人類更聰明。有人可能會認為,萬一AI 不聽話,我們可以把它關掉,但這並不現實。如果AI 夠聰明,它會透過操縱人類、獲得控制權等方式來避免被關閉。
這個問題就像養一隻小老虎當寵物一樣——在它還小的時候你覺得可以控制它,但等它長大以後,就可能失控。 AI 的能力可以帶來巨大的好處,例如提高醫療、教育、應對氣候變化和材料研發的效率。它不會消失,也不可能被單一國家所控制。
雖然不同國家的利益存在分歧,在如網絡攻擊、致命武器或輿論操控方面也難以形成有效合作,但就像冷戰時期美蘇合作避免核戰一樣,各國在AI 安全方面是有可能合作的。
我的建議是建立一個由多個國家參與的國際AI 安全研究網絡,專注於研究如何訓練AI 向善——這與訓練AI 變聰明是兩件不同的事。每個國家可以在本國進行AI 安全研究,但應分享成果,協助全人類發展出願意協助、而非統治我們的智能體。
從長遠看,這可能是人類最重要的議題。而好消息是,這個問題是全人類可以團結起來共同面對的。
演講者:閻俊傑MiniMax 創始人、CEO
大家好,我今天分享的主題是「Everyone's AI」,也就是「每個人的人工智慧」。這個題目的選擇,其實和我過去這些年在AI 領域的經歷息息相關。
我是在Hinton 先生剛發表AlexNet 時進入深度學習領域的,那時我還是國內最早一批研究深度學習的博士生。後來,當AlphaGo 讓AI 成為社會公眾關注的焦點時,我正參與第一家人工智慧創業公司。再往後,差不多是在ChatGPT 推出前一年,我們創立了國內最早做大模型的公司。從那時到現在已經十五年,在這段時間裡,我幾乎每天都在寫程式碼、做實驗、解決具體的問題。但與此同時,我心裡也反覆思考一個問題──人工智慧到底是什麼?它和這個社會究竟有什麼關係?
隨著模型表現的不斷提升,我們慢慢意識到,AI 的確正在和社會建立越來越緊密的連結。最初我們做數據分析時需要自己寫軟件,後來我們發現,其實可以讓AI 來產生分析軟件,自動完成數據處理的工作。作為一名研究員,我很關注各個技術領域的進展。一開始我們想開發一款App 來追蹤科研動態,但後來我們發現其實不需要自己去做,只要建構一個AI agent,它就能自動地幫我們完成,而且效率更高。
AI 不僅僅是一種工具,它也正在變成創意的來源。比如說,這個場館曾在十五年前舉辦過世博會,當時「海寶」這個吉祥物形象風靡一時。十五年過去了,上海有了許多新的發展,我們想嘗試產生一些具有在地特色、又能代表當代潮流的IP 形象。 AI 在這方面的能力非常出色,例如為徐匯書院或大樓設計的形象,它都可以快速完成。
還有大家熟悉的Labubu形象,以前製作一個可能需要兩個月的時間、投入上百萬人民幣的預算,而現在通過先進的視頻生成模型,這種視頻一天就可以完成,成本也降到了幾百元。在過去半年裡,我們的模型已經在全球產生了超過三億條視頻內容。這表明,AI 模型正逐步將創意生產大眾化,讓每個人的創意都能被釋放出來。
而且,我們越來越發現,AI 的實際使用已經遠遠超出了最初的設計想像。現在有人用AI 解析古文字,有人用AI 模擬飛行,有人用AI 操作天文望遠鏡。隨著模型能力增強,許多原本需要大型團隊才能完成的工作,現在只要一個人借助AI,就能夠實現。這大大放大了個人能力,拓寬了創意的邊界。
經過這些年親身的經歷和觀察,我們逐漸形成了一個清晰的認知:我們作為一家AI 創業公司,並不是複製過去的網路公司。我們所做的,是創造一種全新的生產力形態。這種生產力是對個體和社會能力的持續增強。在這個意義上,我們相信AI 是一種能力,而且這種能力是持續成長的。人類不可能永遠保持快速進步,不可能一直持續學習大量新知識,但AI 可以。 AI 能夠不停學習、不停進化,因此我們認為AI 公司本質上不是互聯網公司,而是能夠提供持續性能力增強的組織。
更有意思的是,AI 現在也反過來幫助我們打造更好的AI。作為一家研究型公司,我們每天都要寫很多代碼,進行大量實驗。但如今,我們公司大約70% 的程式碼是由AI 自動產生的,90% 的資料分析也是靠AI 來完成的。除了提升效率,我們還發現了另一個重要變化:AI 的提升越來越依賴人類專家的引導。
一年前,我們的標註員還主要是非專業人員,做的是一些基礎性標註工作。但隨著模型能力提升,我們發現,只有極少數頂尖專家,才能真正讓AI 學會更複雜的思考方式。這種「教學」不是給AI 一個標準答案,而是教它一種思考過程。學習這種過程,AI 才能變得更加泛化,接近人類專家的判斷和理解能力。
除了專家教學,我們還在嘗試另一種路徑──讓AI 在環境中自主學習。過去半年,我們建構了各種訓練環境,從程式設計IDE 到智慧體(Agent)平台,再到沙盒遊戲系統,只要環境設計合理、有清晰的獎勵機制,AI 就可以持續學習、持續進步。這種方式可以被大規模複製,不斷拓展模型能力。
基於這些觀察,我們有一個非常確定的判斷:AI 會變得越來越強,而且這種增強幾乎是沒有盡頭的。那麼接下來的問題是,AI 會不會最後被某一家組織壟斷?它是否只能掌握在少數幾家手中?
我們的看法是否定的。 AI 不會只屬於某一個組織,而是在多家公司和多個組織之間共同發展,原因有三。
首先,不同模型有不同的對齊目標。有些模型設計時更像是嚴謹的程式設計師,適合做智慧體系統;有些模型則更注重人機互動,更像有情緒智商的對話夥伴;還有一些模型充滿想像力。這些差異不僅反映了模型能力的多樣性,也反映了背後公司的價值觀差異。因此,必然會長期存在著多個表現不同的模型。
其次,現在越來越多的系統是由多個模型所構成的多智能體架構,不再依賴某一個單獨的大模型。這些系統整合多個模型和工具,在協同工作中展現出更高的智慧和解決複雜問題的能力。這意味著單一模型的優勢在系統中會被削弱,小公司也能參與競爭。
最後一點,我們也看到了開源模式的強勢崛起。儘管目前性能最好的模型仍以閉源為主,但優秀的開源模型數量正在迅速增加,而且正在快速逼近閉源模型的能力。開源力量讓更多人參與AI 的發展,使得AI 不再是某一方的專屬資源。
因此,我們相信,AI 的發展趨勢是普惠的。它不會被少數人壟斷,而是逐漸成為所有人都能使用的工具。我們看到的實際情況也支援這一判斷。過去一年半里,主流模型的規模其實並沒有大幅成長。為什麼?因為一個很現實的因素是推理速度。推理如果太慢,使用者體驗就會變差,不實用。所以大多數模型設計時都必須在參數規模和計算效率之間做權衡。晶片效能每十八個月提升一倍,模型大小基本上也跟著這個趨勢變化,並沒有無限膨脹。
雖然大家都有更多的算力了,但這些算力更多地被用在了更複雜的訓練任務和推理優化上,而不是堆模型參數。訓練的成本並沒有大幅上升,真正拉開差距的,不是算力,而是實驗設計的能力、團隊效率和創新力。沒有特別多資源的小公司,也可以通過優化實驗流程,達到很高的研發效率。
推理方面,情況也類似。在過去一年,最優模型的推理成本已經下降了一個數量級。未來一年,這個成本還有可能再降低一個數量級。也就是說,AI 正在變得越來越便宜、越來越實用。
當然,儘管token 單價下降,使用量卻在急劇增長。例如去年,一個對話只用幾千個token,現在可能會消耗幾百萬個,因為問題更複雜,使用者更多。這也意味著,雖然單位成本低了,但整體需求仍在上升。
綜合來看,我們的判斷是,AI 會變得每個人都用得起。雖然付費能力不同的人能解決的問題數量可能不同,但AI 的使用門檻會越來越低。
最後,我想用一句話來總結今天的分享:Intelligence with Everyone。這不僅是我們的口號,也是我們創業的初心。我們堅信,AGI 一定會實現,而它的實現不會只是某家公司的勝利,而應當是整個社會、AI 公司和使用者共同努力的成果。 AGI 應該屬於所有人,而不是少數人。我們也願意為這個目標,長期奮鬥下去。
謝謝大家。 (APPSO)