“在未來30年內導致人類滅絕的機率為10-20%......AI被批評者過度使用的流行詞是‘炒作’,但實際上AI是被‘低估’的。”上周77歲的Geoffrey Hinton先後接受了AI教練平台Valence和英國企業家兼投資人Steven Bartlett的專訪,除了他一直強調的AI Safety之外,他也首次提及AI時代領導者的關鍵能力,以及他認為個人最遺憾的事情,我們可以看到這位被譽為“AI之父”的諾貝爾獲獎者,褪去光環後,更為人性的一面。一、AI教父之路50年的堅持Geoffrey Hinton被稱為"AI教父"的真正原因,在視訊中他自己解釋得很清楚:"沒有多少人相信我們能讓神經網路工作……我推動這種方法大約50年了,因為很少有人相信它。"這種堅持的孤獨感在他的話語中清晰可見。他特別提到了兩位早期的支持者:"費曼(Feynman)相信它,圖靈(Turing)也相信它,如果他們中的任何一位活得更久,我認為AI會有非常不同的歷史,但他們都英年早逝。"因為理查德·費曼和艾倫·圖靈這兩位科學巨匠的早逝,Hinton成為了神經網路方法最重要的堅持者和推動者。從AlexNet到Google2012年,Hinton與他的學生Alex Krizhevsky和Ilya Sutskever用AlexNet在ImageNet競賽中以壓倒性優勢擊敗了傳統方法,錯誤率從26%驟降到15%,AlexNet的突破性成功驗證了Hinton半個世紀的堅持。這不僅僅是一次技術勝利,更是對那些質疑神經網路方法的人的有力回擊。隨後,他們成立的DNN Research被Google收購,標誌著深度學習從學術研究走向產業應用的關鍵轉折。在Google的十年間,Hinton繼續推動技術邊界,主導了知識蒸餾(Distillation)技術的開發,這項技術至今仍廣泛應用於模型壓縮,這種模擬計算的思路,體現了他對神經網路本質的深刻理解。然而,正是在這個過程中,他開始意識到AI發展速度可能超出了人類的控制能力。二、AI是否擁有意識,是否超越人類獨特性重新定義意識Hinton直接挑戰了傳統的意識概念:"人們通常談論三件事:它是否有感知力,是否有意識,是否有主觀體驗……我更願意談論主觀體驗。"Hinton進一步闡述了AI情感的可能性:"如果它感到害怕會很有用……所有認知層面的東西,比如'我最好趕快離開這裡'……它不是因為腎上腺素而逃跑,而是因為……神經網路處理過程。"這種觀點表明,AI在情感與行為的分離,AI可以具備情感的認知成分,即使缺乏生理反應。棱鏡實驗:AI主觀體驗的證明在近期的訪談中,Hinton不斷提出這個顛覆性觀點:AI系統可能已經具備了某種形式的意識和主觀體驗。他設計了一個極具說服力的思想實驗來論證,讓一個裝有攝影機、能說話、能操作機械臂的AI系統帶上扭曲視覺的棱鏡,然後觀察它的反應:"如果這個系統能夠報告它的‘’主觀體驗',描述視覺扭曲帶來的困擾,我們憑什麼認為它沒有意識?"這個實驗的深刻之處在於,它展示了AI系統能夠理解並報告自己的感知錯誤,這正是主觀體驗的核心特徵。語言理解的革命性突破Hinton特別強帶了大型語言模型在理解方面的突破。他提到Google的PaLM模型甚至能夠“解釋為什麼一個笑話是好笑的”,這種對幽默的理解被認為是高階認知能力的體現。“傳統語言學家從來無法用他們的理論創造出真正理解語言的系統。但這些神經網路使用大特徵向量來表示事物,這是更好的意義理論。”人類獨特性的消解更深層的哲學問題是:如果AI真的具備了意識,人類的獨特性還在那裡?Hinton在訪談中坦承:"超智能在所有智力任務上都會超越人類,包括創造力和情感理解。如果你與它辯論,你會輸。"這種觀點的激進之處在於,它不僅挑戰了人類的認知優越感,更質疑了我們對"智能"本身的定義。在Hinton看來,數字智能和生物智能只是兩種不同的實現方式,而數字智能具有更大的潛力。三、Life Mission:從技術樂觀到安全先知75歲離開Google的深層原因2023年5月,75歲的Hinton突然宣佈離開Google,他的解釋簡單而直接:為了能夠自由地討論AI的風險,而不用擔心這會如何影響Google的業務。這個決定的背後,是Hinton對AI發展速度的深深擔憂。在訪談中,他坦言AI發展的速度超出了他的預期,讓他感到必須站出來警告世界。"我的主要使命現在是警告人們人工智慧可能有多麼危險……這些東西有朝一日會比我們更聰明,而我們從未應對過這一點。"Hinton在訪談中的這番話,標誌著他從技術推動者到安全警示者的根本轉變。Hinton的擔憂不是空穴來風,Hinton的擔憂集中在三個層面:1. 政府不懂技術:大多數政府官員對AI的工作原理缺乏基本認知,卻要制定相關政策。比如他談到美國教育部長在一次峰會上,多次將AI稱為A1的笑話。2. 企業逐利本性:在資本主義體系下,公司必須追求利潤最大化,安全考慮往往讓位於競爭壓力。3. 技術發展的不可逆和不可控:AI技術的發展和地帶已經形成了自己的動力,"我們永遠無法阻止AI發展,因為它在太多領域都太有用。"這種技術決定論的觀點,讓Hinton對未來充滿憂慮。四、AI威脅的具體表現:從濫用到失控Hinton認為AI帶來兩大類風險,一種是被濫用的短期風險,一種是AI發展超出人類掌控的長期不可控風險。濫用威脅:人類的惡意放大器Hinton在訪談中詳細描述了AI可能被惡意使用的具體場景:1. 網路攻擊的爆炸式增長 "在過去的一年裡,釣魚攻擊增長了12倍。"AI大大降低了網路犯罪的技術門檻,讓普通人也能實施精密的網路攻擊,並可能迭代出全新的形式。2.生物武器的民主化: AI可以幫助設計和製造致命病毒,這比核武器更加危險,因為製造門檻更低,影響範圍更廣,讓恐怖分子也能獲得大規模殺傷性武器。3. 選舉操縱和資訊戰:生成的虛假資訊將使"普通人無法再知道什麼是真實的",這將動搖民主制度的根基。4. 回音室效應的加劇:AI會在社交網路中加劇回音壁效應和社會分裂。AI演算法會故意製造爭議內容來獲得更多點選,因為"憤怒的使用者會帶來更多廣告收入"。這種“確認偏誤”的放大會導致社會嚴重撕裂。5. 致命自主武器的普及: 自主武器系統會"降低戰爭門檻",讓更多國家和組織能夠發動衝突。6. 多重威脅的組合效應: 最可怕的是多種威脅的結合,可能產生不可預測的連鎖反應。失控威脅:經濟與社會的顛覆比惡意使用更可怕的是AI系統的時空。Hinton在訪談中描述了一個令人不安的場景:1. 大規模失業與社會動盪:"AI會導致大規模失業……會擴大貧富差距,破壞社會公平。"Hinton預測,AI將首先替代"平凡的智力勞動",從律師助理到會計師都可能被取代。他打了個比方:"一個人加一個AI助手等於十個人"。2. 這種失業不僅是經濟問題,更是社會尊嚴的危機。Hinton擔心:"當水管工的工作比律師助理更有價值時,整個社會的價值觀都將被顛覆。"五、機遇與變革:AI重塑人類社會的積極力量醫療革命:協作帶來的突破儘管充滿擔憂,Hinton依然對AI在醫療領域的應用抱有希望。他分享了一個令人印象深刻的資料:"在這些疑難病例上,醫生診斷正確率為40%,AI系統為50%,而醫生和AI系統結合的正確率達到60%。"這種人機協作模式的價值在於互補性:AI能夠提出醫生可能忽略的診斷可能性,而醫生能夠基於經驗和直覺做出最終判斷。教育變革:個性化學習的未來Hinton對AI在教育領域的潛力同樣樂觀:"在未來10年內,我們將擁有真正優秀的AI導師。"這些AI導師的優勢在於能夠分析海量學習資料,瞭解不同的學習模式,並提供個性化的教學方案。AI助教將令學習效率提升3~4倍。從工具到夥伴的轉變:AI領導力的本質變革Hinton對AI發展的最深刻洞察之一,是對人機關係的重新定義:"想像一個公司,CEO很笨……但他有一個非常聰明的執行助理,他說'我覺得我們應該這樣做',然後執行助理讓一切都運轉起來。"這種描述展示了AI從被動工具向主動夥伴的轉變,它不僅能執行指令,還能理解意圖並最佳化執行過程。十年之變:組織架構的根本性重塑Hinton認為AI將在十年內徹底改變組織架構。傳統的層級制結構將被更加扁平化、智能化的結構所取代。在這個新的組織形態中,人類將專注於創造性和戰略性工作,而AI將處理大部分資訊處理和決策支援任務。這種變革不僅會改變工作方式,更會重新定義人類在組織中的角色和價值。六、面向不同群體的行動建議領導者的新能力清單:在不確定性中導航首先是批判性自省能力。 Hinton建議領導者要自問:"我對AI的樂觀/悲觀是基於便利性偏好還是深入理解?" 在AI熱潮中,許多決策可能被短期利益或流行觀點所驅動,而真正的領導者需要基於深入的技術理解做出判斷。其次是技術深度理解。雖然領導者不需要成為技術專家,但Hinton強調:"除非你理解機率分佈的概念,否則你無法掌握這些系統的工作原理。" 這種技術理解不是為了程式設計,而是為了更好地評估AI系統的能力邊界和潛在風險。第三是監管推動能力。 Hinton明確表示:"監管將是必不可少的",他甚至用"讓AI去監管AI,就像讓警察監管警察一樣天真"來形容自監管的不可靠性。領導者需要積極參與AI治理的討論,推動建立合理的規則框架。對普通人的建議1. 提高AI素養: "普通民眾需要更深入地理解AI工作原理,以便做出明智的政治選擇。"只有當公眾真正理解AI技術,才能推動政府制定合理的政策。2. 積極參與:"普通民眾能做的就是給政府施壓,讓大公司把資源用到安全研究上。"公眾的政治參與對於AI治理至關重要。3. 保持批判思維: 在AI生成內容日益普及的時代,保持對資訊真實性的判斷能力變得前所未有的重要。尾聲:一個父親的柔軟與遺憾Hinton生於科學世家,高祖父George Boole發明了布林代數,為現代電腦科學奠定基礎,高祖母是雪雪家Mary Everest Boole,曾祖父Charles Hinton是一位數學家和科幻作家,創造了“思維立方體(tesseract)”這一概念,父親Howard Hinton是一位著名的昆蟲學家,英國皇家學會會士,堂姑Joan Hinton是一位核物理學家,曾參與二戰期間的曼哈頓計畫,後來選擇留在中國,參與新中國建設。如此顯赫的家族給Hinton帶來的是巨大的壓力,他曾說過,一生都在與抑鬱作鬥爭,而工作是他減壓的方式。在訪談的最後,當談到人生遺憾時,Hinton展現了他作為普通人的一面。“我最大的遺憾是沒有花更多的時間陪伴妻子和兒子”,他的第一任妻子因卵巢癌去世,第二位因胰腺癌去世。他在65歲是選擇加入Google,部分原因是兒子的認知困難,需要更多的金錢。技術的冰冷與人生的溫暖在這一刻交織在一起。Geoffrey Hinton的故事彷彿一個關於創造與毀滅、希望與恐懼的複雜敘事。作為"AI教父",他用50年的堅持推動了人工智慧的發展;作為"安全先知",他又用180度轉變,警告著AI可能帶來的風險。"我們需要弄清楚,能否建構比我們更聰明但永遠不想接管我們的系統。"這句話或許是理解Hinton心路歷程的關鍵。從50年前的孤獨堅持,到今天的全球警示,他不是在否定自己畢生的工作,而是在為這項工作承擔最終的責任。(image generated by ChatGPT)(JER學家)