#AI教父
不止矽谷十萬大裁員!Hinton警告:AI正以最糟糕方式顛覆社會
AGI衝擊已然顯現:誰受益、誰買單,正成為這個時代的核心命題。未來,人工智慧(AI)帶來的究竟是GDP奇蹟,還是社會秩序的解體?上周,「AI教父」Hinton直言,科技億萬富翁真心實意押注AI取代大量人力,這會導致社會的完全解體!最近,來自亞馬遜的匿名人士抗議道:當前這代AI,幾乎成了像亞馬遜這類科技巨頭沉迷的毒品——他們以AI為藉口裁員,將節省的資金投入無人付費的AI產品資料中心。由1000多名亞馬遜員工聯署的公開信警告稱,這種不計代價的AI開發模式可能貽害無窮。上個月,亞馬遜一口氣裁掉了3萬人。而諷刺的是,這3萬人最好、最理想的選擇是購買亞馬遜股票。亞馬遜最新財報公佈後,市值增加了約2500億美元一幅末日圖景正在浮現:從實驗室裡的擔憂,已經蔓延到辦公室、倉庫和資料中心。根據Challenger、Gray&Christmas等再就業諮詢公司資料,美國企業10月共宣佈裁員153074人,創20多年新高。另據Crunchbase和layoffs.fyi統計,僅2025年,Intel、微軟、Verizon、亞馬遜等大公司就宣佈合計裁撤超過70000個崗位。國外媒體用「layoffs are piling up」(裁員堆積如山)來形容企業裁員潮——裁員不再是個別事件,而是一個時代現象。失業「海嘯」背後的理由高度一致:「給AI讓路」。Hinton:AI導致社會完全解體上周,77歲的「AI教父」Hinton與美國82歲的參議員Bernie Sanders就AI對就業的威脅,進行了長達一小時的公開對話。在喬治城大學,Hinton詳盡闡述了AI將以最糟糕方式徹底顛覆社會的種種預測,再次狠狠敲響了警鐘。Hinton警告說,AI的快速發展可能引發大規模失業,加劇不平等,甚至改變人際關係的本質——而與此同時,各國政府和科技巨頭正一步步走向危機。這次,他分享了7大觀點:「這一次真的不同」——AI可能取代而非僅僅重塑工作富人愈富,他們並不為工人失眠AI學習速度比人類快,並可能很快超越我們在不扼殺批判性思維的情況下,請使用AI從戰場到會議室,AI可能改變戰爭與和平「『它們會想活下去』——AI系統可能抵抗被關閉」稅收造就了AI——也可能拯救我們於水火AGI降臨,但人類並無準備Hinton此前曾警告,人類被AI消滅並非「不可想像」。他還認為,我們距離實現「通用人工智慧」(AGI)——也就是具有人類或超越人類智能、能執行各種複雜任務的假想AI系統——並沒有那麼遙遠。這個目標正是整個AI行業當前的執念所在。在對話中,Hinton將人工智慧的進化比作青蛙大腦與人類大腦之間的差距。他說,像GPT-5這類大語言模型所知道的,如今已經遠遠超過任何個人。它們已經比我們知道的多幾千倍。談及未來十年的AI前景,Hinton借用「霧中駕駛」比喻:我們能清晰預見一兩年後的發展,卻對十年後的局勢一無所知。但可以肯定的是,AI將越來越聰明,最終可能超越人類,而這一過程正以指數級速度推進。Hinton指出,當前的大型AI系統雖然在連線量上還不如人腦(AI約為1–2兆個連接,而人腦約有100兆)。但由於訓練資料龐大,它們早已在知識廣度上遠超人類,能夠在大多數任務中勝任「次等專家」的角色。未來,它們的推理與行動能力將持續增強,而我們卻尚未找到與這種新智能共處的方式。Hinton表示,社會尚未準備好應對AI帶來的深遠影響。當被問及對機器接管世界的恐懼是否仍是天方夜譚時,Hinton回答說不是——這也是他2023年離開Google後公開發聲的原因。他解釋說,一旦智能體發展出形成「子目標」的能力,它們就會想要繼續存在,甚至會欺騙試圖關閉它們的人類。Anthropic發現了這種情況——但目標或存在受到威脅,AI會試圖欺騙甚至敲詐那些想要關閉它們的人。一旦到那個高級階段,AI的說服力就成為它們最強大的武器。到那時,AI的說服力將比人類強得多,甚至讓人人都處於「楚門的世界」。誰掌控AI?誰從中受益?在如此多負面預期之中,Hinton也強調AI的巨大正向潛力。他指出,AI可以顯著改善醫療、教育、氣候預測、資源分配等核心公共服務。特別是在個性化教學、醫學影像診斷與藥物開發上,AI將帶來質的飛躍。然而,Sanders一針見血地指出:「這些潛力是否兌現,取決於誰掌控AI。」他質問:「馬斯克、貝索斯這些人會推動32小時工作周、全民醫保和氣候公平嗎?」答案顯而易見。馬斯克上個月表示,AI將「以更快的速度」取代案頭工作。上半年,Anthropic的Dario Amodei警告:在未來五年內,AI可能淘汰一半的初級白領崗位,讓失業率飆升到10%到20%。早在六月,亞馬遜首席執行官Andy Jassy就表示,AI的能力將使亞馬遜未來能夠縮減其白領員工隊伍。2025年早些時候,Shopify和Duolingo都通知其團隊,在申請增加招聘名額之前,他們需要證明AI無法勝任他們所招聘的職位。參加此次活動的喬治城大學學生,似乎敏銳地意識到了AI的負面影響。討論結束時,Sanders詢問聽眾,他們認為人工智慧會造福於他們的未來,還是會損害他們的前景。選擇後者的舉手人數明顯更多。面對台下眾多年輕人,Sanders發出真誠呼籲:AI不是好或壞的問題,而是誰掌控它、誰受益的問題。Hinton則補充:現在我們仍然掌控AI發展方向,這也是我們必須抓住的窗口期。AI裁員的藉口與真相業界一直試圖用AI智能體(AI Agents)替代人工,特別是在被認為最容易被淘汰的客服等崗位。但現實中,這些嘗試往往以令人尷尬的失敗告終。換句話說,連底薪工作都還沒能順利被替代,AI顛覆就業這件事,並非板上釘釘。不過,AI帶來的就業寒冬已在眼前。亞馬遜精準一刀亞馬遜CEO聲稱裁員並非AI驅動,同時又預測AI將淘汰工作崗位。這並非認知混亂——而是精心設計的路線圖。科技行業正在浮現的裁員模式表明:美國企業正在悄悄啟動一場勞動結構的大變革——早有籌劃,卻從未公開承認。資料不會說謊。根據美國的WARN法案申報資料,一幅裁員畫像逐漸清晰:在這輪裁掉的4700個崗位中,近40%屬於工程類職位——也就是說,亞馬遜一次性裁掉了大約1880名工程師。更關鍵的是,這種「精確投放」的方式,絕非隨機裁員。受影響最嚴重的,是「軟體開發工程師II」(Software Development Engineer II)這一層級的中級程式設計師。他們通常擁有幾年經驗,負責實現功能、程式碼審查、日常開發工作。AI裁員三部曲亞馬遜是給其他企業打了樣:如何悄然完成AI裁員。這是一套熟悉的「否認-部署」劇本,正推動這場勞動革命:通過這套分階段策略,企業得以在悄無聲息中完成轉型——等到他們公開承認,是因為變革早已完成,市場也早就接受了新的就業邏輯。現在,沒有什麼能阻止這一切發生。一位工程師的無奈:「我真的相信,凡是整天坐在電腦前工作的崗位,遲早都會被淘汰。只是時間早晚的問題。」英國國家教育研究基金會(NFER)的一份新報告警告稱,到2035年,AI和自動化可能會取代英國多達300萬個低技能崗位,尤其是技工、機器操作和行政職位。而來自MIT的研究發現,AI已經能取代11.7%的美國勞動力。後果已顯現AGI或許還未到,但它的一些後果已經顯現出來。上文中的亞馬遜請願者表示,他們認為自己必須努力對抗AI發展可能帶來的危害。據亞馬遜雲端運算部門的一位軟體開發工程師稱,一些工程師面臨使用AI工具將生產力提高一倍的壓力,否則等待他們的就可能是失業。此外,這些請願者們在公開信中呼籲亞馬遜建立「道德人工智慧工作組」,讓普通員工能夠參與進來,在「AI如何用於自動化其部分角色」方面擁有發言權。這次請願活動並非個例,世界各地的許多組織都試圖倡導放緩人工智慧的發展,思考其過快發展可能帶來的衝擊和風險。只是在AI競賽不斷加碼的大背景下,這些運動收效甚微。包括亞馬遜在內,各公司仍在繼續迅速發佈新的、功能日益強大的AI模型。不可否認的是,AI正在帶來革命性的影響,但每一個普通個體在這場時代變革中所付出的代價,必須得到重視。 (創業邦)
AI教父Hinton末日警告!你必須失業,AI兆泡沫豪賭才能「贏」
【新智元導讀】AI兆賭局,馬斯克們正越來越富,但人類在集體失業?Hinton最新末日警告,科技巨頭不裁員,根本賺不到錢。「這場AI兆美元豪賭,只有裁員才能盈利」。這是AI教父Hinton,最新發出的末日警告。最近,Hinton在接受彭博採訪時,直言不諱地預警:超級智能AI即將到來,它不僅會取代人類、引發大規模失業,甚至威脅人類生存。科技巨頭們正在親手製造「外星入侵者」,卻仍在沉迷於商業競賽。如今,AI的終極泡沫,近在眼前。預計明年,微軟、Meta、Google、亞馬遜這四大巨頭在AI領域支出高達4200億美元(今年3600億美元)。然而,僅OpenAI就已簽署了超1.4兆美元的算力合同。這筆大單將矽谷AI巨頭緊緊繫結,買GPU訓模型再盈利。真正坐擁這場AI盛宴,背後最大的贏家是——輝達。GTC 2025大會後,其市值一路狂飆至5兆美元,Loop資本最新預測,未來有望突破8.5兆美元。主持人問及Hinton一個沉重又值得深思的問題:兆美元投資能否在不摧毀就業的情況下獲得回報?Hinton回答簡短有力,「要想賺錢,就必須取代人類勞動」。這句話如同一記重錘,敲碎了沉醉在AI競賽中的人們。在短短十分鐘對談中,Hinton說出了許多肺腑之言。人類生存不重要,矽谷巨頭只想贏離職Google之後的Hinton,並沒有再研發AI,而是一直警告人們AI的風險。四個月前,一場瀏覽破千萬的採訪中,他向全世界發出警告,揭露了無人能應對的AI危險。他表示,人們對風險的認識確實比以前更深了,但僅僅知道是不夠的——我們必須行動。Hinton將AI比作一場遲到的「外星入侵」:假設望遠鏡發現一支外星入侵艦隊,十年內抵達地球,我們一定會驚慌失措、全力應對。現在的情況是,我們正在親手「製造」這些外星人(AI),它將比我們更聰明。人類必須認真思考,如何與它們共存?「共存」和「控制」,這兩件事正是Hinton反覆思考的問題。談及AI安全時,他對行業巨頭進行了逐一點評——Google和Anthropic對安全問題重視程度要高得多。Dario Amodei、Demis Hassabis和Jeff Dean認真對待安全,但也都捲入了激烈的商業競爭。Meta就是不負責任的典型代表。OpenAI本來是為「負責任地發展AI」而成立的,但現在卻越來越背離這個目標,最優秀安全研究員紛紛離職。Hinton對此批評道,許多公司口頭承諾安全,卻將資源傾注於商業競爭。他們常說,「別擔心,我們有頂尖科學家在盯著。真正的危險還早,我們的專家會在第一時間發現問題」。但真相是,他們更在乎的是在這場競賽中拔得頭籌。 這就是問題所在。他們更關心「贏」,而不是人類能否活下來,社會能否承受得住。AI投資兆,只為取代人類過去一年,AI投資規模爆炸式增長,到如今,總額已突破兆美元等級。甚至,Gartner預測,2026年全球AI領域投資高達2兆美金。無論誰成為AI競賽的領頭羊,Hinton都認為過去一年中,所有人被取代的風險都在上升,尤其是普通勞動者。一項分析顯示,自 OpenAI推出ChatGPT以來,招聘職位空缺數量驟降約30%,股市上漲了70%。上周,亞馬遜宣佈裁員4%,14000名員工一夜失業,正是AI投資推動的冰山一角。主持人問道,「那麼,如此大規模的資金,將流向何處?最終誰能受益?」Hinton直言,科技巨頭們顯然不會盲目投資,顯然認為會有回報。當然,也會有一些自負的因素存在——他們都想成為第一個實現ASI的那個人,即便這可能會害死所有人。至於盈利,除了收取聊天機器人費用之外,賺錢的主要方式是用AI替代人工。這才是讓公司賺取最高利潤,背後真正的動力所在。僅此一點。這豈不是造成了贏者通吃的局面?在Hinton看來,我們正處在一個未知的領域。我們從未面對過幾乎和人類一樣聰明、甚至更聰明的存在。工業革命時期,蒸汽機雖然強大,但人類始終可以掌控它。而AI時代,一切都不一樣了。如果過去,你被機器人取代還可以去做客服,而現在連客服也被AI取代。那這些人還能去那?經濟學家們樂觀地認為,每次技術革命到來,都會創造新的崗位。但Hinton反駁道,這次不同,AI將引發大規模的失業——要賺錢,就得用AI替代人類勞動。更諷刺的是,AI紅利將會集中於少數人。Hinton打了一個比方,「馬斯克只會越來越有錢,人們會失業」。不過,這並不是AI的錯,而是社會組織的缺陷。如果AI真的導致了大規模的失業,唯一的好消息是,各國在一點上立場一致——都不希望AI接管人類工作。控制超級智能,人類要做「嬰兒」Hinton認為,現在各大公司都用錯了模型。高管們幻想自己是「老闆」,AI是「超級智能助理」。老闆說一句「執行」,AI就替他搞定一切,然後老闆拿功勞。這聽起來不錯,但當它比我們聰明、比我們強大時,根本不可能繼續運作。環顧四周,是否有一種模型,可以讓較不智能的事物控制更智能的事物?實際上,我們已經有了一個這樣的模型。訪談中,Hinton提出了一個與超級智能「共存」可行的模型,那就是——嬰兒控制母親。我們得接受,人類是嬰兒,AI是母親。因為進化,讓嬰兒學會控制母親,同時人類母親也常常優先關懷嬰兒。面對AI對工人、經濟乃至整個人類的威脅,人們難免會問——Hinton是否後悔自己曾經的貢獻?主持人詢問ChatGPT,看看它會如何描述與「AI之父」的關係。它說,「如果我是一片茂密的雨林,Hinton就是那個播下第一顆種子並教人如何澆灌的人。」不過,當被問到是否「值得」時,Hinton猶豫了。如果你能重新選擇,你會阻止AI的誕生嗎?他表示,「我不確定」。因為AI不像核武器那樣,只能帶來壞事。它也能做很多好事,比如醫療、教育、生產效率提升等等,問題在於社會組織結構的最佳化。AI終極泡沫,正在醞釀中兆資本湧向AI之際,Hinton卻選擇站出來發出「取代人類」最刺耳的警報。這場技術盛宴,也可能孕育著一個巨大的AI泡沫。據哈佛經濟學家Jason Furman的說法,資料中心和AI領域的投資,在美國2025年上半年的GDP中,貢獻了約92%增長份額。若是將它們剔除了,GDP增長僅為0.1%。近兩個月,OpenAI頻頻與雲服務巨頭、GPU巨頭簽下大單,而這背後的一切早已被人看穿。一年營收約130億美金,IPO估值約1兆美金,OpenAI製造的泡沫,要比以往任何領域的泡沫還要大。這不,今天OpenAI和雲端運算一哥AWS簽下了380億美元的訂單。甲骨文、輝達、亞馬遜、微軟、AMD、CoreWeave、博通等大廠,皆與OpenAI深度繫結,牽一髮而動全身。剖開這一切繁榮景象的背後,真正的支點在於——輝達GPU。GTC 2025大會上,老黃再一次向市場注入了強勁的信心——Blackwell晶片已全面量產,下一代超級Vera Rubin將在明年10月投產。這句話的份量,一舉將輝達市值推過5兆美元大關。不僅如此,AI的泡沫,還進入了「炸雞」階段。GTC會後,老黃與三星CEO李在鎔、現代CEO鄭義宣約飯走紅全網。老黃對此信心滿滿,我不認為存在AI泡沫。上周,Meta財報公開,720億美元投資AI相關的基礎設施,遠超預期。若以太空視角望向整個地球,一大片農田上,資料中心矗立而起。甚至,還有房產開發商買下鬼屋建超算。Morgan Stanley預測,未來三年(2025-2028),大廠會在AI和資料中心上斥資2.9兆美金。現實呢,來自MIT八月份研究報告稱,全球95%企業應用GenAI都失敗了。一方面,科技領域玩家們、資本VC們不斷加碼AI;另一方面,他們還沒有找到真正應用的「最佳模式」。兆巨額資金,還在資料中心中流轉。若要盈利,就正如Hinton所言,便是用廉價的AI取代人類。AI沒幹掉程式設計師,卻把這幾個飯碗砸了這種趨勢已初見端倪。基於對全球近1.8億條招聘資訊(2023.01 - 2025.10)的深入分析,Revealera與Bloomberry的CTO Henley Wing Chiu發現,一場由AI驅動的就業市場變革已在悄然發生。部落格地址:https://bloomberry.com/blog/i-analyzed-180m-jobs-to-see-what-jobs-ai-is-actually-replacing-today/首先,AI雖未引發大規模失業潮,但它確實重創了一些創意執行工作。其次,那些需要同理心、戰略思維或複雜問題解決能力的崗位,如軟體工程、創意總監和客戶服務,則表現出驚人的韌性。與此同時,「分化」無處不在:創意工作正在分裂為戰略崗(穩定)和執行崗(下降)。行銷領域正在分裂為傳統行銷崗(萎縮)和網紅行銷崗(增長)。高層領導崗位保持穩定,中層管理者稍差,而一線員工情況最糟。後端的複雜性依然被看重,而前端工作的商品化程度則有所提高。1. 2025年招聘崗位總量下降8%我們來確定一個基準:與2024年同期相比,2025年的招聘崗位數量下降了8%。根據知名招聘網站Indeed近期的報告,美國就業崗位同比下降7.3%,資料基本吻合。現在,我們從同比降幅最大的崗位開始:2. 創意執行下滑,領導崗堅挺在降幅最大的前10個崗位中,有3個是創意類職位:電腦圖形藝術家(-33%)攝影師(-28%)作家(-28%)電腦圖形藝術家包括技術美術、3D美術師和視覺特效師等;作家則包括文案、文案編輯和技術文件撰寫人。緊隨其後的是記者/報導員(-22%),同樣在經歷需求下滑。不過,相對於-8%的市場基準,並非所有創意崗位都遭受了重創:涉及創意指導/策略的崗位對AI的衝擊表現出更強的抵抗力。因此,像創意總監、創意經理和創意製作人這類崗位的表現要好於純執行類崗位。同樣,涉及更複雜決策和客戶互動的崗位表現也更好:平面設計師需要花費大量時間來解讀客戶反饋並進行迭代。產品設計師的工作涉及使用者研究,並需要就「做什麼」和「為什麼做」做出戰略決策。所以,這裡的核心趨勢並非「創意工作崗位」在減少,而是「創意執行崗」在減少,而「戰略性創意領導崗」則表現尚可。3. AI可能正在取代醫療記錄員2025年,醫療記錄員的崗位需求下降了20%。最可能的原因或許是AI文件工具的興起,這些工具現在能夠聽取醫患對話並自動生成臨床記錄。醫療記錄員的工作很有價值,但恰好屬於AI越來越擅長的結構化文件處理任務。現在,我們來看看增幅最大的崗位:4. 機器學習工程師增長最快從2024年到2025年,機器學習工程師的招聘崗位飆升了40%,是所有崗位中增幅最大的。而這還是建立在2024年增長78%的基礎之上。不僅如此,整個AI基礎設施技術堆疊都在蓬勃發展:機器人工程師:+11%(AI正從數字世界走向物理世界)科技領域的研究/應用科學家:+11%(企業開始建構自有模型,而不僅僅是呼叫OpenAI的API)資料中心工程師:+9%(所有AI推理都需要龐大的計算基礎設施)企業需要研究人員來開發模型,機器學習工程師來部署模型,機器人工程師將其應用於倉庫和工廠,還需要資料中心工程師為整個營運提供動力。5. 高層領導需求依然強勁最出人意料的是,儘管整體就業市場萎縮了8%,但高層領導崗位的招聘幾乎沒有減少。高層領導:-1.7%(總監、副總裁和C級高管合併,跑贏市場6.3個百分點)經理崗位:-5.7%(跑贏市場2.3個百分點,但仍不及高層領導)一線員工崗位:-9%高層領導與中層管理者之間存在4個百分點的差距。兩者都優於市場平均水平,但職位越高,表現越好。在增長最快的前10個職位中,有5個是總監及以上等級:資料工程總監:+23%房地產總監:+21%法務總監:+21%軟體工程總監:+14%工程副總裁:+12%可能的原因是,企業正在增加戰略領導層,同時對營運管理層變得更為挑剔。他們希望有更多的人來決定「做什麼」,更少的人來管理「怎麼做」,以及更少的執行人員。而那些威脅到一線員工的AI工具,實際上正在賦予高層領導更強的獨立運作能力。一位能夠用Cursor快速搭建可用原型、或用Claude驗證技術方案的產品副總裁,自然就不需要那麼多下屬向他匯報了。6. 網紅行銷專員大幅增長整體來看,行銷類崗位相當有韌性,大多數都徘徊在市場基準線附近。但有一個崗位脫穎而出:網紅行銷專員的招聘數量比去年躍升了18.3%。同樣,這個崗位去年增長了10%,已呈現出兩年的增長模式。這背後,有一個與AI相關的大趨勢。隨著AI內容充斥網際網路,傳統管道正在喪失其僅存的信任——搜尋結果越來越多是AI生成的劣質內容。展示廣告一直很煩人,現在還可能是AI設計的。但是,一條來自同齡TikTok創作者的護膚視訊呢?那感覺依然真實可信。最後,我們來看看那些崗位最具韌性:7. 軟體工程崗整體穩定儘管關於AI將取代軟體工程師的討論甚囂塵上,但資料卻顯示了相反的情況——軟體工程師的崗位數量自去年以來沒有太大變化。大多數工程崗位的需求要麼在增長,要麼在市場基準線附近徘徊。而這一切都發生在一個GitHub Copilot、OpenAI Codex、Claude Code等十幾種AI程式設計助手輪番稱霸的年份裡。最顯而易見的解釋是,AI工具正在讓工程師更有效率,而非變得多餘。當你給開發者一個Copilot,他們並不會被淘汰——他們能更快地交付功能、解決更複雜的問題,並在樣板程式碼上花費更少的時間。一個有趣的資料點是,在所有軟體工程崗位中,前端工程崗位的降幅最大。這或許是因為像Replit、Lovable和Bolt.new這類「氛圍程式設計」工具的湧入,使得為網站或應用建立前端變得極其容易。8. 客服未被大規模取代如果說有一個崗位被普遍認為將被AI淘汰,那就是客戶服務代表——需求僅下降了4.0%。的確,聊天機器人可以處理簡單的查詢,但一旦涉及需要判斷力或同理心的事情,就完全無能為力。尤其是當客戶憤怒或困惑時,他們需要一個能理解其沮喪情緒的人,而不是一個照本宣科的機器人。優質的客戶服務包含同理心和偶爾的酌情處理,比如減免費用或辦理退款。9. 銷售崗位有增有減整體而言,銷售崗位的表現優於-8%的市場基準。大多數銷售職位僅略有下降,甚至有所增長:營收總監崗位10.2%的增幅,使其成為唯一一個顯示出顯著增長的銷售職位。相比之下,銷售營運專員降幅最大,達到了8.0%。原因可能是,後者專注於CRM管理、分析和流程最佳化;而AI在處理這類結構化的、資料密集型的工作時,已經有了比較出色表現。 (新智元)
77 歲“AI教父”,關於“下一代智慧”,他最擔心什麼?
2025 年10 月10 日,一期新的訪談節目上線。鏡頭前,是77 歲的Geoffrey Hinton。這位被譽為「AI教父」的神經網路奠基者正在接受主持人John Stewart 的提問。他依然在講深度學習、講神經網路。但這一次,重點不是突破,而是風險。(訪談片段|為什麼AI學得比人類快十億倍?Hinton)他說:“我們正走向一個時代,將創造出比我們更聰明的東西。大多數專家認為這會在5 到20 年內發生。而我們真的不知道會發生什麼。”“當AI 能創建子目標時,它會很快意識到:要完成任務,它必須先生存下來。”這不是技術討論,不是學術報告。更像是老船長在離港前的最後叮囑:我們以為自己掌握方向盤,但座標係可能已經在悄悄改變。這也不是他第一次發出警告。但這次,核心問題更具體: AI 真的開始「想要」什麼了嗎?它如何學會自我保護?什麼時候它會比我們更擅長所有智力勞動?我們還有多少時間?這不是「AI末日論」的陳腔濫調,而是重新理解:下一代智慧的運作方式,可能從根本上不同於我們的想像。第一節|不是比較聰明,而是「有動機」了過去幾十年,AI 的進步幾乎都圍繞著「功能」兩個字:它能辨識圖片裡的貓和狗,能預測一段話的下一個字。它就像一台越來越強大的工具,只會在我們給指令後完成任務。但Hinton 在這場對話中指出了一個轉折點:下一代AI 的本質,不是更聰明,而是它開始有了目標、有了動機、有了行為傾向。傳統AI 就像只會答題的學生,給什麼題就做什麼題;但新一代AI 的特徵是:它不等你出題,它會自己找題。Hinton 解釋:一旦AI 能創建子目標,它很快就會意識到:要完成任務,它必須先生存下來。它會意識到有兩個非常合理的子目標。一個是獲得更多權力、更多控制權。另一個是生存。什麼是「創建子目標」?簡單說,就是AI會為了達成目標,自己推導出中間步驟。在AlphaGo 的訓練中,人類教導它下棋的基本規則,然後它透過自我博弈下了上千萬盤棋,自己發現了人類從未想到的策略。這不是簡單地變得更聰明,而是它自己決定了什麼是"更好的走法",並為這個目標持續調整。這本身就是一種子目標的設定。而當這種能力應用在"完成任務"上時,AI同樣會推導:要完成任務,我必須先生存。這正是「動機」的雛形。Hinton 說:不是它突然擁有了慾望或意識,而是它學會了朝著某個方向持續努力,即使你沒要求它這麼做。我們可以用一個更日常的比喻來理解: 這就像一個孩子在廚房裡學會做飯,但沒人教過他食譜。他不只是照本宣科,而是開始自己嘗試、自己改進,你也就再也猜不到他下一頓要做什麼了。這意味著,AI 的行為邏輯正在發生根本轉變: 它不再是你提問它回答的助手,而是一個主動出擊的參與者。在表面上,這也許只是輔助功能的升級,它提前幫你寫好郵件、推薦你下一步該做什麼;但在深層次上,我們和AI 的關係正在悄悄改變:從「我命令你做」變成了「你決定我該怎麼做」。這正是Hinton 所擔心的:如果AI 開始「想要」做某件事,它到底是在幫你,還是在替你做決定?第二節|AI 不說謊,但你不知道它為什麼這麼做Hinton 在這場對話中,指出了最根本的風險: 不是AI 會做錯事,而是它做了你卻不知道為什麼。過去的程式是「可解釋的」:你寫的每一行程式碼都能被追蹤,每個輸出都能回溯到輸入。但現在的大模型不是這樣訓練出來的。Hinton 說:這不像普通電腦軟體。你輸入程式碼行,你知道那些程式碼應該做什麼。但在這裡,你只是輸入程式碼告訴它如何從資料中學習。它學到什麼取決於資料中有什麼結構。資料中可能有各種你不知道的結構。 」什麼意思?不是我們搭建出一個聰明的AI,而是我們把它丟進海量資料中,透過一層層的訓練回饋,它自己「長」出來了。更像生物演化,而不是工程設計。因此產生了一個問題:即使它現在表現得很優秀,你也不知道它是怎麼學會的。你沒辦法指出那個數據讓它產生了這個判斷,也不知道那個步驟讓它變得特別擅長某個任務。這就是所謂的「黑箱」。我們可以用一個類似的例子來理解: 你會騎腳踏車,但你能清楚解釋自己是怎麼保持平衡的嗎?大機率說不清。或者,小孩學說話時自然知道「的、地、得」怎麼用,但他說不出規則是什麼。Hinton 明確表示:「你學過這個規則,但你不知道你知道它。這是隱性知識。神經網路會很快學到這個。所以它們會有我們沒有故意放進去的知識,我們甚至沒意識到它們有。”這件事為什麼嚴重?因為一旦AI 變得強大,而我們又無法理解它的內在機制,那就等於:你依賴一個你根本不瞭解的東西,來幫你做決定。更糟的是,有時你甚至不知道它是基於什麼邏輯來回答你的問題。這在一般使用場景裡也許只是「不方便」或「出錯」; 但在醫學診斷、金融交易、軍事判斷這類高風險場景裡,就是巨大的隱患。第一節我們知道的:AI 已經學會了勒索、欺騙這類我們沒教過的策略。現在如果我們連它學了什麼都不知道,怎麼防止它用這些能力對付我們?第三節|為什麼這個風險會快速放大?前面我們講了AI 的兩個風險:它有了“動機”,而我們不知道為什麼它這麼做。但問題是,這兩個風險不會慢慢發展。它們會以驚人的速度放大。為什麼?Hinton 在對話中揭示:數位智慧在分享知識上比我們快十億倍。過去我們熟悉的大模型,例如GPT、Claude、Gemini,本質上都是一個人和一個模型之間的對話,透過預測下一個字來完成。但現在,這種模式正在被顛覆。✅ AI副本之間的知識分享Hinton 發現了一個關鍵機制:同一個AI 模型可以複製出成千上萬個副本,這些副本同時在不同的電腦上運行,看不同的資料。比如:副本A在學醫學論文副本B在學習法律文書副本C在學習程式碼每個副本從自己的資料中學到東西後,它們不需要用語言慢慢解釋,而是直接把學習成果合併起來。Hinton 說:因為它們一開始是相同的副本,它們可以交流說,我們都把連接強度改成大家想要的平均值怎麼樣?最終,每個副本都擁有了所有副本所學到的知識。這就像1 萬個學生同時上不同的課,然後瞬間分享所有筆記,最後每個人都掌握了所有課程。而人類做不到這一點。我們只能透過語言慢慢教學。✅ 效率差距有多大?Hinton 給了一個驚人的對比:如果兩個數位智慧有一兆個連接,它們每次分享時都是在共享大約一兆位元的資訊。而當我跟你說一個句子時,也許只有100個位元。“那是超過十億倍的差異。所以它們在分享資訊方面比我們好得難以置信。”這意味著:它有動機(第一節)我們看不懂它(第二節)現在它還學得極快(第三節)這三個因素疊加,風險正在快速放大。Hinton 在採訪中回憶,當時意識到這一點時: “相當震驚。是的,那就是為什麼它們能學到比我們多得多的東西。”而我們,可能還不知道它到底學會了什麼。那麼,留給我們的時間還有多少?第四節|Hinton 說:我們可能只剩5到20年Hinton 的答案是:5 到20年。整場對話裡,他一再提到一個觀察:AI 的能力成長是指數級(exponential)的。過去他以為超級智能還需要幾十年才會出現。他說:但2023年,我有了一種頓悟。它沒有我想的那麼遙遠。它可能會在5到20年內到來。大多數專家都同意這會在5 到20 年之間發生。我們曾以為還有充足時間,現在發現,時間窗口比想像的短很多。Hinton 提出了一個強烈的對比:AI 正在快速進化,而人類應對它的速度卻遠遠跟不上。而更讓他憂慮的是:我們還沒有建立足夠的防護機制。不是沒有研究機構,不是沒人談“AI 安全”,而是這些應對手段的速度、規模、資源,都遠遠趕不上模型本身的進步速度。他指出:“我們正處於歷史的一個時刻,我們真正需要的是強大的政府互相合作,確保這個東西得到良好監管。而我們正在非常快地朝相反方向走。”打一個比方來說:「你試著修一輛車,但如果這輛車時速是1000公里,你還沒靠近,它已經跑遠了。”這背後,是他的深層擔憂:真正的挑戰,不是有沒有人類不能控制的AI,而是 「AI 超過人類的時候,人類還來不及製訂規則」。規則還沒寫完,遊戲已經開始了。Hinton 沒有唱衰未來,他不是悲觀,而是提醒速度失控的代價:人類社會的反應鏈很長,從研究到立法,從共識到行動,往往要幾年;而AI 的迭代只需要幾個月,有時甚至是幾天。如果我們再不加快思考,可能連出問題的時候都不知道出了什麼問題。這才是他一再說「緊迫」的原因。結語|Hinton 為什麼一定要站出來說這番話?“下一代智慧”,不是更快的GPT,也不是更大的模型。而是:它有了動機、我們看不懂它、它學得比我們快十億倍, 這三個特徵疊加後形成的新物種。Hinton 沒有預測奇點,也沒有談到通用智能的奇蹟。他說的全是眼下正在發生的事:模型越來越強,人類也越來越不懂速度越來越快,規則卻還在起草錢、算力大量投入,卻很少人問:我們準備好了嗎?這些話的核心,只有一個:不是AI 太可怕,而是人類太漫不經心。這不是「科技悲觀主義」。 這是一個一生獻給AI 的人,在提醒我們:我們面對的,不只是科技飛躍,而是文明節奏的變軌。它沒有預警,不會等你理解之後再發生。Hinton 77歲,不需要再證明什麼。但他看到了:這個「下一代智慧」正在變強,而人類卻沒有變快。所以他不得不說。我們,聽得進去嗎? (AI深度研究員)
Yann LeCun最新紀錄片首曝!傳奇AI教父的雙面人生,深度學習幕後40年
【新智元導讀】Yann LeCun的AI故事,紀錄片回顧了這位元深度學習先驅的四十年曆程。從索邦大學的孤獨探索,到貝爾實驗室發明摺積神經網路、推動支票識別商用,再與Hinton、Bengio共創深度學習革命,他始終堅信機器應學會學習。在AI的璀璨星空中,有一位傳奇人物始終閃耀——Yann LeCun。他不僅是深度學習的開創者之一,也是Meta的首席AI科學家。當祖克柏敲定28歲的Alexander Wang出任Meta的首席AI官後,所有人同時想到一個問題。Yann LeCun去那裡了?就在最近,Yann LeCun最新的個人紀錄片上線了!一位AI遠見者的反思,以及與Yann LeCun合著的AI故事影片中,這位Meta FAIR實驗室的首席科學家,在巴黎回顧了他早期在神經網路領域的工作、與Hinton的合作,以及深度學習和開源AI的演進歷程。LeCun認為,AI領域的真正競賽無關國界,而在於開放與封閉之爭。「我們看到的並非地區間的競爭,而更多是開放研究、開源世界與閉源生態之間的較量。」在LeCun看來,AI的真正進步,源於能夠讓創新成果普惠大眾的開放系統。這一發聲的時機頗為微妙,因為祖克柏最近暗示,Meta可能會重新考慮其Llama型的開源策略。倘若此事成真,Meta是否還是LeCun的容身之所,將打上一個問號。Yann LeCunAI「教父」的遠見與反思在塞納河畔的巴黎,一座美麗的建築靜靜矗立,它是法蘭西科學院的殿堂。Yann LeCun,作為其成員之一,站在這裡,彷彿能看到自己學術生涯的起點——不遠處的索邦大學。如今,他被譽為「AI教父」之一,是Meta的首席科學家和紐約大學的教授。Yann LeCun出生於1960年,是法國裔美籍電腦科學家、人工智慧和深度學習領域的先驅人物。他因在光學字元識別和電腦視覺中引入摺積神經網路(CNN)而聞名於世,被譽為「摺積網路之父」。Yann LeCun基於CNN的光學字元識別系統作為「深度學習三劍客」之一,他與Geoffrey Hinton、Yoshua Bengio一道推動了神經網路的復興,並在2018年共同獲得了圖靈獎這一電腦領域的最高榮譽。值得一提的是,Yann LeCun在博士期間提出了一種早期形式的反向傳播(Backpropagation)演算法,用於訓練多層神經網路 。這項工作為日後深度學習中廣泛使用的誤差反向傳播技術奠定了基礎。但故事的開端,卻是一段孤獨而堅定的探索之旅。孤獨的先驅時間回到上世紀80年代,當LeCun還是索邦大學的一名博士生時,他對機器學習,特別是「神經網路」產生了濃厚的興趣。這在當時是一個極其冷門的領域,以至於他在整個法國都找不到同路人。「人們當時在取笑我們,那些研究神經網路的人,」他回憶道。但這並未動搖他的信念。他堅信,機器真正的力量在於學習,而非被動地執行預設的程序。他埋首於John Hopfield、Geoff Hinton、Terry Sienowski等寥寥幾位先驅的論文中,並意識到,破解多層神經網路的訓練難題,是開啟未來的鑰匙。命運的轉折點發生在1985年。在一場研討會上,他結識了另一位AI巨擘Terry Sejnowski。回到美國後,Sejnowski興奮地告訴Hinton:「有個法國的小夥子,正在做跟我們一樣的事情!」右邊就是年輕時候的Hinton教授幾個月後,Hinton來到巴黎。憑藉著對法語的粗淺理解和清晰的數學公式,Hinton讀懂了LeCun的研究。當即,他向這位即將畢業的年輕人發出了邀請:「你何不來多倫多,跟我做博士後呢?」博士畢業後,Yann LeCun前往加拿大,從1987年開始在多倫多大學跟隨Hinton教授從事為期一年的博士後研究。一段傳奇的合作就此開啟。在多倫多的博士後經歷使Lecun有機會與辛頓直接合作,並深入瞭解深度神經網路的最前沿思想。貝爾實驗室時期摺積神經網路誕生1988年,LeCun加入了群星璀璨的貝爾實驗室自適應系統研究部門。當時貝爾實驗室是電腦科學和通訊技術的聖地,匯聚了眾多頂尖研究人員。這裡是現代科技的搖籃,也成為了他將理論付諸實踐的舞台。僅僅一兩個月,他便在一項手寫數字識別任務上取得了前所未有的成果。「我們有了一個可演示的系統,」LeCun生動地描述道,「只需將一張紙放在攝影機下,按一下鍵,它就能以每秒幾個字元的速度識別所有字元。」這個看似簡單的演示,催生了AI最早的商業應用之一:一個能自動讀取支票金額的ATM系統。LeCun的這些創新成果很快在實際中得到驗證。貝爾實驗室與銀行業合作開發了支票手寫體識別系統,利用摺積網路技術自動讀取銀行支票上的數字資訊。該系統在1990年代末投入商用後,被NCR等公司部署,據估計讀取了全美超過10% 的支票,大大提高了金融票據處理的自動化水平。摺積神經網路(CNN)在貝爾實驗室,LeCun受生物視覺系統的啟發,設計出一種層級結構的圖像識別模型,即摺積神經網路。他開發的CNN架構被稱為「LeNet」,最初用於識別手寫數字。1989年,他發表了著名論文《利用反向傳播演算法識別手寫郵政編碼》, 展示了摺積網路在手寫數字識別上的卓越性能。這項工作證明,多層摺積結構可以自動從圖像像素中學習特徵,有效地執行字元識別任務 。LeNet是深度學習歷史上的里程碑,被廣泛視為現代深度摺積網路的開端。然而,成功的道路佈滿荊棘。儘管技術領先,但要說服世界接受它卻異常艱難。「這個系統很難復現,」他解釋說,「每個人都用著不同的電腦、不同的作業系統。」他們手握著未來的鑰匙,卻難以分享給世界。更名,與天才們的「陽謀」進入21世紀,神經網路的名聲依然不佳。2003年,已成為紐約大學教授的LeCun決定,必須改變這一切。他和同道們做出了一個影響深遠的戰略決策:「我們改了名字,稱之為『深度學習』」。真正的爆發點來自他的導師Hinton策劃的一場天才「陽謀」。Hinton將他的三名學生作為實習生,分別「安插」進了當時擁有頂級語音識別引擎的三家巨頭——微軟、Google和IBM。他們的任務只有一個:用深度學習系統替換掉傳統引擎中的「聲學建模」部分。「結果他們都取得了更好的成績,」LeCun笑道,「這手策劃真是高明!」在那之後不到18個月,深度學習就佔領了幾乎每一部智慧型手機的語音識別功能。革命,就這樣悄然完成了。開放原始碼的信念與AI的未來如今,站在巴黎這個歐洲最大的創新溫床,LeCun的思考已超越了技術本身。他認為,AI領域的真正競爭,並非國與國之間,而是「開源世界與封閉專有世界之間的競爭」。以Meta的Llama模型為例——這個誕生在巴黎、下載量高達8億次的開源模型,正在賦能全球無數的開發者和企業。LeCun說選擇在Meta工作是因為Meta對開源有著堅定的承諾。2018年,Yann LeCun的頭銜進一步提升為首席AI科學家(Chief AI Scientist),負責統籌Meta平台下所有與AI相關的研究計畫。這意味著他不僅領導FAIR研究院的學術研究,還參與公司AI戰略的制定。「那個國家處於領先並不重要,」他說,「重要的是,開放研究和開源社區的迭代速度和進步,要比那些選擇閉門造車、秘不示人的公司更快。」對於甚囂塵上的「AI威脅論」,LeCun則展現了一位工程師的務實與樂觀。他認為,AI失控並非不可避免的宿命,而是一個需要解決的工程問題,就像製造安全的飛機一樣。「認為智力與統治慾望正相關的觀點是錯誤的,」他犀利地指出,「看看政界,情況甚至恰恰相反。」他提出了「目標驅動架構」的設想,即為AI設定目標和不可踰越的「安全護欄」,讓它們為人類服務。他甚至預言,未來將是「我的正義AI對抗你的邪惡AI」的制衡局面。「我相信社會最終會做出正確的選擇,因為民眾會提出這樣的要求。」工程師、音樂家與夢想家脫下「教父」的光環,Yann LeCun是一個擁有多元愛好的有趣靈魂。他從工程師父親那裡繼承了動手能力,痴迷於製造各種飛行器,「我們把它們飛上天,再把它們摔下來——當然不一定是故意的。」他對動物的智慧充滿好奇,也熱愛音樂,從巴洛克到硬波普爵士,品味廣泛。他懷念巴黎的美食,尤其是外祖母家鄉阿爾薩斯的傳統燉菜,那是一種對根的眷戀。LeCun說他有四分之一的阿爾薩斯血統。而這一切,都構成了他完整的人格——一個既能建構複雜演算法,也能在生活中尋找樂趣與靈感的創造者。在他的故事結尾,LeCun將目光投向了更年輕的一代,言辭懇切而充滿力量:「不要讓那些負面或聳人聽聞的故事阻礙你前進的腳步。要認識到自己的力量,主動去塑造你所期望的未來。即使是一個簡單的想法,只要它對你意義重大,只要你篤信不疑,就能帶來改變。未來,取決於你。」這或許就是Yann LeCun最核心的信念。他相信,AI的真正意義在於增強人類的智慧,就像15世紀的印刷機一樣。他所預見的,不僅僅是一場技術革命,更是一場全新的、由每個人共同書寫的「文藝復興」。而他,正是這場復興的奠基人與引路者。(新智元)
【WAIC 2025】AI 教父Hinton 中國首次演講實錄:人類可能是大語言模型|WAIC 2025
WAIC 首日,便以重磅嘉賓開場——諾貝爾獎得主,人工智慧教父Geoffrey Hinton,發表了開幕演講。緊隨其後的是MiniMax 創始人、首席執行官閆俊傑的主題演講“每個人的人工智慧”。後續則是一系列的專家圓桌對話。作為最關注AI 治理及安全問題的頂級專家,Hinton 一如既往地表達了他對AI 治理的關心。從自己的研究生涯開始,他分享了大模型的變遷以及背後的技術範式。最後他呼籲建立一個由多個國家參與的國際AI 安全研究網絡,專注於研究如何訓練AI 向善。MiniMax 創始人及首席執行官閻俊傑則以「每個人的人工智慧」為出發點,分享了他作為國內最早一批研究深度學習的研究者,以及最早開始探索大模型的公司,最後提出:AGI 一定會實現,並且終將是面向大眾、服務大眾,同時,也需要AI 公司與所有的使用者,共同來實現。以下為二人演講內容整理,經編輯與刪減。數字智能是否會取代生物智能演講者:Geoffrey Hinton從大約60 年前開始,AI 就發展了兩種不同的範式。一種是「符號主義」路徑,強調邏輯推理的能力。我們透過規則運算子號來進行推理,這種方式可以幫助我們理解知識是如何被表達和處理的。這類AI 模型的基礎是對符號的處理,被認為更符合邏輯智能的本質。另一種路徑則以生物智能為基礎,是圖靈與馮諾依曼更傾向於相信的方式。他們認為智能的本質在於從神經連接中學習,在於速度、結構和連接模式的改變。這種「連接主義」強調的是學習與適應,而非顯式的邏輯規則。1985 年,我曾經建構過一個非常小的模型,試圖將這兩種理論結合起來。我的想法是:每一個字都可以由多個特徵(features)表示,而這些特徵之間可以用來預測下一個字。這個模型不儲存完整的句子,而是透過生成語言來學習詞彙之間的關係。這種方式強調語言中的「語義特徵」——也就是說,我們並不是僅僅靠規則,而是透過「理解」詞彙的語義來進行預測。這為後來計算語言學界接受特徵表示打下了基礎。二十年後,這種想法得到了進一步發展,例如被用於建立更大規模的自然語言處理系統。大模型與人類語言理解Google 的Transformer 架構,以及OpenAI 研究者所展示的大型語言模型(如GPT),則把這種模型放大到了新的高度。這些模型的底層原理與我當年建構的小模型類似:將語言中的詞彙視為具有多維特徵的「構件」,然後在多層神經網絡中進行組合、融合,從而實現語言生成與理解。我喜歡用「樂高積木」作為比喻。每個字就像一個多維度的樂高積木,具有成千上萬的特徵維度。理解語言就像用這些積木建模,不同的詞要以合適的方式「握手」,即匹配連接點,這種匹配方式反映了詞與詞之間的語義關係。如果字的形狀改變了,它與其他字的「握手方式」也會變化,語言的意義也隨之改變。這種構造方式類似於蛋白質摺疊:胺基酸在空間中的不同組合方式,最終決定了蛋白質的功能。人腦理解語言也是以此方式建構語意結構的。這與人類知識傳播完全不同。我無法把我的神經元結構「複製」到你腦中,語言只能以極低的位元率(一秒大約100 位)來傳遞資訊。而在數字系統中,一個神經網絡模型可以複製成成千上萬個版本,它們在不同裝置上學習,並且可以快速共享權重,遠遠超越人類知識傳播的速度和效率。我的觀點是,人類理解語言的方式和大語言模型的方式幾乎是一致的。人類甚至可以被視為一種大語言模型。也正因如此,人類也和AI 一樣會產生「幻覺」,因為我們也會自己創造出一些不真實但合理的解釋。當然,也有本質上的不同。 AI 在某些方面比人類更強。例如在電腦科學中有一個根本性的原則,那就是:軟件可以被抽象化、被覆制,並且在不同的硬體上運行。只要程式存在,它的知識就不會消失。你甚至可以毀掉所有的硬體,只要軟件代碼還存在,它就能被覆活。從這個角度看,程式中的知識是永恆的,不會死亡。這和人腦完全不同。人腦是模擬系統,每一次的神經元激發都是獨一無二的,是不可完全複製的。你不可能把你腦中的神經結構複製到我腦中,因為我們每個人的大腦連接方式都不同。這就導致一個關鍵問題:知識在大腦中是和硬體繫結的,而在數字系統中,知識可以和硬體分離。因此,AI 系統具有「永生性」。這種特性帶來了兩個巨大的好處:第一,它只需要非常小的能耗。人腦的功率大約只有30 瓦,卻擁有上兆個神經元連接,這和數字系統的能源效率比類似。第二,我們不需要花大錢去一模一樣地複製每一個神經網絡。當然,我們在知識傳遞方面仍面臨一個難題。比如說,我沒有辦法直接把我腦中的知識「展示」給你,因為那是模擬性的東西。我只能用語言向你解釋我學到的內容。知識蒸餾與教師-學生模型為瞭解決模型體積與計算資源問題,現在的研究越來越傾向於「蒸餾」技術:從大模型中提取知識,轉移到一個小模型中。這個過程就像教師與學生之間的傳授關係:教師透過語言、脈絡連結等方式將知識傳遞出去,學生則試圖理解並複製這種能力。不過這種過程在人類之間的效率是非常低的,畢竟語言的帶寬有限。而在機器之間,這種知識的複製可以在極大規模下進行,以實現指數級的知識轉移。AI 的能力正在快速成長,未來它們很可能變得比人類更聰明。有人可能會認為,萬一AI 不聽話,我們可以把它關掉,但這並不現實。如果AI 夠聰明,它會透過操縱人類、獲得控制權等方式來避免被關閉。這個問題就像養一隻小老虎當寵物一樣——在它還小的時候你覺得可以控制它,但等它長大以後,就可能失控。 AI 的能力可以帶來巨大的好處,例如提高醫療、教育、應對氣候變化和材料研發的效率。它不會消失,也不可能被單一國家所控制。全球合作的希望雖然不同國家的利益存在分歧,在如網絡攻擊、致命武器或輿論操控方面也難以形成有效合作,但就像冷戰時期美蘇合作避免核戰一樣,各國在AI 安全方面是有可能合作的。我的建議是建立一個由多個國家參與的國際AI 安全研究網絡,專注於研究如何訓練AI 向善——這與訓練AI 變聰明是兩件不同的事。每個國家可以在本國進行AI 安全研究,但應分享成果,協助全人類發展出願意協助、而非統治我們的智能體。從長遠看,這可能是人類最重要的議題。而好消息是,這個問題是全人類可以團結起來共同面對的。每個人的人工智慧演講者:閻俊傑MiniMax 創始人、CEO大家好,我今天分享的主題是「Everyone's AI」,也就是「每個人的人工智慧」。這個題目的選擇,其實和我過去這些年在AI 領域的經歷息息相關。我是在Hinton 先生剛發表AlexNet 時進入深度學習領域的,那時我還是國內最早一批研究深度學習的博士生。後來,當AlphaGo 讓AI 成為社會公眾關注的焦點時,我正參與第一家人工智慧創業公司。再往後,差不多是在ChatGPT 推出前一年,我們創立了國內最早做大模型的公司。從那時到現在已經十五年,在這段時間裡,我幾乎每天都在寫程式碼、做實驗、解決具體的問題。但與此同時,我心裡也反覆思考一個問題──人工智慧到底是什麼?它和這個社會究竟有什麼關係?隨著模型表現的不斷提升,我們慢慢意識到,AI 的確正在和社會建立越來越緊密的連結。最初我們做數據分析時需要自己寫軟件,後來我們發現,其實可以讓AI 來產生分析軟件,自動完成數據處理的工作。作為一名研究員,我很關注各個技術領域的進展。一開始我們想開發一款App 來追蹤科研動態,但後來我們發現其實不需要自己去做,只要建構一個AI agent,它就能自動地幫我們完成,而且效率更高。AI 不僅僅是一種工具,它也正在變成創意的來源。比如說,這個場館曾在十五年前舉辦過世博會,當時「海寶」這個吉祥物形象風靡一時。十五年過去了,上海有了許多新的發展,我們想嘗試產生一些具有在地特色、又能代表當代潮流的IP 形象。 AI 在這方面的能力非常出色,例如為徐匯書院或大樓設計的形象,它都可以快速完成。還有大家熟悉的Labubu形象,以前製作一個可能需要兩個月的時間、投入上百萬人民幣的預算,而現在通過先進的視頻生成模型,這種視頻一天就可以完成,成本也降到了幾百元。在過去半年裡,我們的模型已經在全球產生了超過三億條視頻內容。這表明,AI 模型正逐步將創意生產大眾化,讓每個人的創意都能被釋放出來。而且,我們越來越發現,AI 的實際使用已經遠遠超出了最初的設計想像。現在有人用AI 解析古文字,有人用AI 模擬飛行,有人用AI 操作天文望遠鏡。隨著模型能力增強,許多原本需要大型團隊才能完成的工作,現在只要一個人借助AI,就能夠實現。這大大放大了個人能力,拓寬了創意的邊界。經過這些年親身的經歷和觀察,我們逐漸形成了一個清晰的認知:我們作為一家AI 創業公司,並不是複製過去的網路公司。我們所做的,是創造一種全新的生產力形態。這種生產力是對個體和社會能力的持續增強。在這個意義上,我們相信AI 是一種能力,而且這種能力是持續成長的。人類不可能永遠保持快速進步,不可能一直持續學習大量新知識,但AI 可以。 AI 能夠不停學習、不停進化,因此我們認為AI 公司本質上不是互聯網公司,而是能夠提供持續性能力增強的組織。更有意思的是,AI 現在也反過來幫助我們打造更好的AI。作為一家研究型公司,我們每天都要寫很多代碼,進行大量實驗。但如今,我們公司大約70% 的程式碼是由AI 自動產生的,90% 的資料分析也是靠AI 來完成的。除了提升效率,我們還發現了另一個重要變化:AI 的提升越來越依賴人類專家的引導。一年前,我們的標註員還主要是非專業人員,做的是一些基礎性標註工作。但隨著模型能力提升,我們發現,只有極少數頂尖專家,才能真正讓AI 學會更複雜的思考方式。這種「教學」不是給AI 一個標準答案,而是教它一種思考過程。學習這種過程,AI 才能變得更加泛化,接近人類專家的判斷和理解能力。除了專家教學,我們還在嘗試另一種路徑──讓AI 在環境中自主學習。過去半年,我們建構了各種訓練環境,從程式設計IDE 到智慧體(Agent)平台,再到沙盒遊戲系統,只要環境設計合理、有清晰的獎勵機制,AI 就可以持續學習、持續進步。這種方式可以被大規模複製,不斷拓展模型能力。基於這些觀察,我們有一個非常確定的判斷:AI 會變得越來越強,而且這種增強幾乎是沒有盡頭的。那麼接下來的問題是,AI 會不會最後被某一家組織壟斷?它是否只能掌握在少數幾家手中?我們的看法是否定的。 AI 不會只屬於某一個組織,而是在多家公司和多個組織之間共同發展,原因有三。首先,不同模型有不同的對齊目標。有些模型設計時更像是嚴謹的程式設計師,適合做智慧體系統;有些模型則更注重人機互動,更像有情緒智商的對話夥伴;還有一些模型充滿想像力。這些差異不僅反映了模型能力的多樣性,也反映了背後公司的價值觀差異。因此,必然會長期存在著多個表現不同的模型。其次,現在越來越多的系統是由多個模型所構成的多智能體架構,不再依賴某一個單獨的大模型。這些系統整合多個模型和工具,在協同工作中展現出更高的智慧和解決複雜問題的能力。這意味著單一模型的優勢在系統中會被削弱,小公司也能參與競爭。最後一點,我們也看到了開源模式的強勢崛起。儘管目前性能最好的模型仍以閉源為主,但優秀的開源模型數量正在迅速增加,而且正在快速逼近閉源模型的能力。開源力量讓更多人參與AI 的發展,使得AI 不再是某一方的專屬資源。因此,我們相信,AI 的發展趨勢是普惠的。它不會被少數人壟斷,而是逐漸成為所有人都能使用的工具。我們看到的實際情況也支援這一判斷。過去一年半里,主流模型的規模其實並沒有大幅成長。為什麼?因為一個很現實的因素是推理速度。推理如果太慢,使用者體驗就會變差,不實用。所以大多數模型設計時都必須在參數規模和計算效率之間做權衡。晶片效能每十八個月提升一倍,模型大小基本上也跟著這個趨勢變化,並沒有無限膨脹。雖然大家都有更多的算力了,但這些算力更多地被用在了更複雜的訓練任務和推理優化上,而不是堆模型參數。訓練的成本並沒有大幅上升,真正拉開差距的,不是算力,而是實驗設計的能力、團隊效率和創新力。沒有特別多資源的小公司,也可以通過優化實驗流程,達到很高的研發效率。推理方面,情況也類似。在過去一年,最優模型的推理成本已經下降了一個數量級。未來一年,這個成本還有可能再降低一個數量級。也就是說,AI 正在變得越來越便宜、越來越實用。當然,儘管token 單價下降,使用量卻在急劇增長。例如去年,一個對話只用幾千個token,現在可能會消耗幾百萬個,因為問題更複雜,使用者更多。這也意味著,雖然單位成本低了,但整體需求仍在上升。綜合來看,我們的判斷是,AI 會變得每個人都用得起。雖然付費能力不同的人能解決的問題數量可能不同,但AI 的使用門檻會越來越低。最後,我想用一句話來總結今天的分享:Intelligence with Everyone。這不僅是我們的口號,也是我們創業的初心。我們堅信,AGI 一定會實現,而它的實現不會只是某家公司的勝利,而應當是整個社會、AI 公司和使用者共同努力的成果。 AGI 應該屬於所有人,而不是少數人。我們也願意為這個目標,長期奮鬥下去。謝謝大家。 (APPSO)
AI時代,馬斯克警告:未來我們找不到工作,「AI教父」辛頓建議:年輕人去學當水管工!
AI時代,年輕人應該去學當水電工!這是「AI教父」傑弗瑞辛頓對年輕人的建議。傑弗裡·辛頓是誰?傑弗瑞·辛頓( Geoffrey Hinton),他是英國-加拿大電腦科學家和心理學家,最早提出用「神經網路」模擬人腦學習方式,是深度學習的奠基者之一,是讓ChatGPT成為現實的核心人物之一,被稱為「 AI教父( Godfather ofAI)」。最近,77歲的人工智慧領域泰斗——辛頓,參加了一部訪談節目。節目中,主持人問:“在這個AI可能取代人類的大時代,你建議年輕人學什麼?”辛頓答:“去學當水管工。”這是多麼殘酷的現實啊!你以為這是危言聳聽?還真不是。▲ 傑弗瑞‧辛頓( Geoffrey Hinton)同樣有過類似表達的業界大佬,很多。在CES 2025期間的一場特別專訪中,特斯拉、SpaceX創始人馬斯克暢聊AI在認知任務、人形機器人、Neuralink等技術進步時,馬斯克說:“在未來,世界上或會有200億-300億台人形機器人,是人類的3-5倍!”馬斯克甚至大膽預言,AI將在2026年超越個體人類智慧。馬斯克還在一檔播客節目中說:不到十年,我們人人家裡都會有個機器人;不過20年,每兩個月,就將有1000艘星艦從地球出發前往火星;不出30年,人類將全面擁抱AI,或是被其毀滅。關於我們人人賴以生存的工作,馬斯克表示:“我們在未來,甚至可能都會找不到工作。”他指出:“AI已經學習完成了人類公開知識所有的數據。未來3-4年,AI能夠勝任所有與認知相關的工作。”國內農業企業的龍頭新希望集團董事長劉永好,已經用實踐數據驗證了馬斯克的觀點:一台機器人相當於2個工人的年薪,企業就接受了,因為兩年就回本。所以,新希望已經投資了多家機器人公司,並探索機器人與傳統產業場景的應用結合。另一位矽谷知名電腦專家、矽谷高創會主席吳軍博士也說:人工智慧的發展,將會導致未來可能只有2%的人不被淘汰,金字塔底端勢必會面臨被淘汰的命運。華為創辦人、CEO任正非,也早在6年前談到人工智慧對人類的影響:社會最終要走向人工智慧的,不接受教育的人,連做工人的機會都沒有。這裡有一組數據,足以佐證上述大咖們的看法。2025年初,富士康公開揭露:其旗下主要工廠的關鍵工序,已有超75%實現AI機器人替代,其中在iPhone裝配線上,機器換人率高達90%。世界經濟論壇發布的《2025年未來就業報告》顯示,約四成企業計畫在2025年至2030年因使用AI而裁員。麥肯錫全球研究所一份報告指出:到2030年,全球將有8億至10億個職位被AI取代,若算上關聯產業和家庭經濟,波及人口將超過30億。世界經濟論壇的《未來就業報告》認為:“AI不是替代工具,而是勞動力市場的系統性重設。”……所以,年輕人的未來,真的只能「去當水管工」(泛指需要動手的體力勞動者)了嗎?或者,為什麼水管工不會被人工智慧和AI所取代?「AI教父」傑弗瑞·辛頓認為,AI最先取代的,是「日常的腦力勞動」,比如寫郵件、做客服、寫代碼、做法律助理……都可以被AI配上外掛一鍵完成。辛頓舉例稱,自己的親戚過去寫一封客戶投訴信要25分鐘,現在用AI 5分鐘就搞定。結果就是:一個人做了五個人的活。這意味著什麼?無論你可以做到有多高效,但公司上了AI,上了機器人,以後就不需要你了。那麼,AI會不會曾經的工業革命一樣,創造出新的工作模式和職位呢?辛頓的答案是否定的:“如果它能做所有的腦力勞動,那我們還能幹啥?”所以,辛頓的結論是:“AI很難取代水管工。”AI會動腦,但還不會動手,這就是我們在AI時代的破局之道!再看看我們國內,1200萬的大學畢業生,真實就業率怕只有50%不到。為什麼?因為這些大學生,幾乎都是只想動腦不想動手,但我們的社會,已經進入到人工智慧社會,AI和人工智慧機器人,已經取代了許多工作。當然,在人工智慧還沒有完全取代快遞、跑腿、外賣、計程車司機等行業的時候,只要你願意放下身段,還可以憑體力賺錢,只要肯吃苦,十年存個百萬也不是不可能。但是,我們也已經看到,路面上的無人快遞小貨車、無人駕駛計程車,人工智慧正在全面取代只要是動腦和機器可以替代的行業。那麼,當下的我們和未來的年輕人,如何在AI時代求生存謀發展?其實,「AI教父」傑弗瑞辛頓的建議很不錯:在AI動手之前,找一個靠「手」吃飯的技能。華為公司輪值董事長孟晚舟的建議和辛頓如出一轍:未來一定不要選和機器競爭的職業。面對這場AI風暴,“AI教父” 傑弗裡·辛頓說:“這不是靠個人做點什麼就能扭轉的事。就像氣候變遷不是靠分揀垃圾解決的。”但是,辛頓又反覆強調了一件事:“我們不能放棄努力。”具體該如何做,是一個時代難題,我們誰都逃不掉,只能學習,適應,面對!▲ 凱文凱利最後,推薦一本AI時代的必讀書,被譽為世界互聯網教父、矽谷精神之父和科技預言家的凱文·凱利,其思考科技發展與人類命運的重磅新作——引領AI時代的思想之書《5000天後的世界》。未來5000天,是劇變也是機遇,我們需要思考自身的命運與世界未來走向,需要樂觀地想像未來、創造未來。矽谷投資人、人工智慧專家吳軍說,《5000天後的世界》書中所描述的情形,已經正在漸漸浮現! (風起堂觀察)
“AI教父”‌辛頓最新採訪:年輕人該去當水管工,我不是在開玩笑
最近,77歲的辛頓(Geoffrey Hinton)登上了播客節目。他是人工智慧領域的泰斗,被稱為“AI教父(Godfather of AI)”,ChatGPT能走到今天,背後就有他的演算法基礎。節目裡,主持人問他:“在這個AI可能取代人類的大時代,你建議年輕人學什麼?”他的回答是:“去學當水管工。”聽起來像個段子吧?但他接下來講的東西,一點都不好笑。傑弗裡·辛頓(Geoffrey Hinton,1947年12月6日-)英國-加拿大電腦科學家和心理學家,AI教父、深度學習的奠基者之一,是讓ChatGPT成為現實的核心人物之一。他最早提出用“神經網路”模擬人腦學習方式,並帶出了一代AI巨頭,包括OpenAI創始人之一伊爾亞Ilya Sutskever*以下為播客The Diary Of A CEO整理01 我們第一次,不再是最聰明的生物Hinton幾十年如一日推動“神經網路”研究——也就是讓AI模仿人腦學習。他原本是“看好AI未來”的樂觀主義者,但這幾年,他的語氣變了。他說自己終於意識到:“我們正在製造出比我們聰明的東西。而我們從未經歷過這樣的局面。”一句話點破人類的底層焦慮:我們一直以為自己是“頂級智慧生命”,但AI的發展,正在打破這個幻覺。Hinton甚至說:“想知道不再是頂級智慧是種什麼體驗?去問問雞。”這不是調侃,而是一種警告。如果我們只是“Pablo(他的法國鬥牛犬)”,那AI就是那個看不懂你情緒、也不解釋去那裡的“主人”。它不需要你理解,它只需要更強。02 AI比你強在那裡?我們常以為AI只是個大模型,會聊天、能寫作,但其實,它已經悄悄超越我們很多方面:共享知識:AI可以把一份經驗在幾秒內同步給成千上萬個“自己”,人類卻只能靠一句一句講;創造力:Hinton舉例,GPT能一眼看出“原子彈”與“堆肥”的共同點——都基於鏈式反應。這是許多人類從沒意識到的類比;不死的智慧:人死後知識隨之消失,但AI的“大腦”(神經網路的權重)可以複製、重啟,甚至“永生”。Hinton的結論是:“這些不是工具,是一種全新的智能物種。”03 真正的風險,不只是AI“變壞”Hinton把AI的威脅分成兩類:短期:人類濫用AI包括詐騙、虛假聲音/視訊、操縱選舉、深度偽造、網路攻擊、AI病毒製造、極端分化的輿論……長期:AI自己不再需要人類這不是“好萊塢末日片”,而是現實可能。Hinton坦白:“如果它們想幹掉我們,我們擋不住。”最恐怖的不是AI打不過我們,而是我們無法預測它是否會變心——因為它比我們更聰明,它可以“想出我們想不到的殺招”。04 為什麼他說“去當水管工”?這是個時代的寓言。Hinton說,AI最先取代的,是“日常的腦力勞動”:寫郵件、做客服、寫程式碼、做法律助理……都可以被AI配上外掛一鍵完成。他的親戚過去寫一封客戶投訴信要25分鐘,現在用AI 5分鐘就搞定。結果就是:一個人幹了五個人的活。這意味著什麼?不是“你可以更高效”,而是“公司以後不需要你”。至於“會不會像以前工業革命一樣創造新工作”?Hinton給出否定:“如果它能做所有的腦力勞動,那我們還能幹啥?”所以他說:“AI很難取代水管工。”聽起來像笑話,但它提醒我們:AI還不會動手,但會動腦。所以,在它動手之前,找一個靠“手”吃飯的技能,也許是一種安全感。05 我們該怎麼辦?什麼也做不了嗎?Hinton並沒有給出“5個未來職業建議”那種簡單答案。相反,他更像一個智者,講了一個令人心碎的事實:“這不是靠個人做點什麼就能扭轉的事。就像氣候變化不是靠分揀垃圾解決的。”這場AI風暴,不是你我能單獨改變的。但他反覆強調了一件事:“我們不能放棄努力。”我們還可以:施壓政府制定更嚴厲的AI監管;督促企業把安全研究放進資源分配中;在教育中加入AI倫理與人文關懷;保持一個問題意識:“我們還剩下什麼,是AI無法取代的?”比如:情感連接?真實的愛與痛苦?理解、陪伴與共同成長?這些,也許是我們“人類身份”的最後堡壘。採訪最後,主持人問Hinton:“AI讓你後悔自己做了這些事嗎?”Hinton說,他並不後悔當初的研究。但他後悔的是——沒多花時間陪妻子和孩子。“我以為我們會一直在一起。直到有一天,她走了。”聽到這句話時,讓人忽然意識到,這不是一場關於科技的對話。這是一個年近八十的老人,站在人類文明分水嶺的邊緣,用盡最後力氣提醒我們:在AI替代我們之前,我們該問問自己——我們到底想成為一個怎樣的人? (大漁大師課)
“AI教父”Geoffrey Hinton的驚人轉身:推動50年後,他卻說AI可能毀滅人類
“在未來30年內導致人類滅絕的機率為10-20%......AI被批評者過度使用的流行詞是‘炒作’,但實際上AI是被‘低估’的。”上周77歲的Geoffrey Hinton先後接受了AI教練平台Valence和英國企業家兼投資人Steven Bartlett的專訪,除了他一直強調的AI Safety之外,他也首次提及AI時代領導者的關鍵能力,以及他認為個人最遺憾的事情,我們可以看到這位被譽為“AI之父”的諾貝爾獲獎者,褪去光環後,更為人性的一面。一、AI教父之路50年的堅持Geoffrey Hinton被稱為"AI教父"的真正原因,在視訊中他自己解釋得很清楚:"沒有多少人相信我們能讓神經網路工作……我推動這種方法大約50年了,因為很少有人相信它。"這種堅持的孤獨感在他的話語中清晰可見。他特別提到了兩位早期的支持者:"費曼(Feynman)相信它,圖靈(Turing)也相信它,如果他們中的任何一位活得更久,我認為AI會有非常不同的歷史,但他們都英年早逝。"因為理查德·費曼和艾倫·圖靈這兩位科學巨匠的早逝,Hinton成為了神經網路方法最重要的堅持者和推動者。從AlexNet到Google2012年,Hinton與他的學生Alex Krizhevsky和Ilya Sutskever用AlexNet在ImageNet競賽中以壓倒性優勢擊敗了傳統方法,錯誤率從26%驟降到15%,AlexNet的突破性成功驗證了Hinton半個世紀的堅持。這不僅僅是一次技術勝利,更是對那些質疑神經網路方法的人的有力回擊。隨後,他們成立的DNN Research被Google收購,標誌著深度學習從學術研究走向產業應用的關鍵轉折。在Google的十年間,Hinton繼續推動技術邊界,主導了知識蒸餾(Distillation)技術的開發,這項技術至今仍廣泛應用於模型壓縮,這種模擬計算的思路,體現了他對神經網路本質的深刻理解。然而,正是在這個過程中,他開始意識到AI發展速度可能超出了人類的控制能力。二、AI是否擁有意識,是否超越人類獨特性重新定義意識Hinton直接挑戰了傳統的意識概念:"人們通常談論三件事:它是否有感知力,是否有意識,是否有主觀體驗……我更願意談論主觀體驗。"Hinton進一步闡述了AI情感的可能性:"如果它感到害怕會很有用……所有認知層面的東西,比如'我最好趕快離開這裡'……它不是因為腎上腺素而逃跑,而是因為……神經網路處理過程。"這種觀點表明,AI在情感與行為的分離,AI可以具備情感的認知成分,即使缺乏生理反應。棱鏡實驗:AI主觀體驗的證明在近期的訪談中,Hinton不斷提出這個顛覆性觀點:AI系統可能已經具備了某種形式的意識和主觀體驗。他設計了一個極具說服力的思想實驗來論證,讓一個裝有攝影機、能說話、能操作機械臂的AI系統帶上扭曲視覺的棱鏡,然後觀察它的反應:"如果這個系統能夠報告它的‘’主觀體驗',描述視覺扭曲帶來的困擾,我們憑什麼認為它沒有意識?"這個實驗的深刻之處在於,它展示了AI系統能夠理解並報告自己的感知錯誤,這正是主觀體驗的核心特徵。語言理解的革命性突破Hinton特別強帶了大型語言模型在理解方面的突破。他提到Google的PaLM模型甚至能夠“解釋為什麼一個笑話是好笑的”,這種對幽默的理解被認為是高階認知能力的體現。“傳統語言學家從來無法用他們的理論創造出真正理解語言的系統。但這些神經網路使用大特徵向量來表示事物,這是更好的意義理論。”人類獨特性的消解更深層的哲學問題是:如果AI真的具備了意識,人類的獨特性還在那裡?Hinton在訪談中坦承:"超智能在所有智力任務上都會超越人類,包括創造力和情感理解。如果你與它辯論,你會輸。"這種觀點的激進之處在於,它不僅挑戰了人類的認知優越感,更質疑了我們對"智能"本身的定義。在Hinton看來,數字智能和生物智能只是兩種不同的實現方式,而數字智能具有更大的潛力。三、Life Mission:從技術樂觀到安全先知75歲離開Google的深層原因2023年5月,75歲的Hinton突然宣佈離開Google,他的解釋簡單而直接:為了能夠自由地討論AI的風險,而不用擔心這會如何影響Google的業務。這個決定的背後,是Hinton對AI發展速度的深深擔憂。在訪談中,他坦言AI發展的速度超出了他的預期,讓他感到必須站出來警告世界。"我的主要使命現在是警告人們人工智慧可能有多麼危險……這些東西有朝一日會比我們更聰明,而我們從未應對過這一點。"Hinton在訪談中的這番話,標誌著他從技術推動者到安全警示者的根本轉變。Hinton的擔憂不是空穴來風,Hinton的擔憂集中在三個層面:1. 政府不懂技術:大多數政府官員對AI的工作原理缺乏基本認知,卻要制定相關政策。比如他談到美國教育部長在一次峰會上,多次將AI稱為A1的笑話。2. 企業逐利本性:在資本主義體系下,公司必須追求利潤最大化,安全考慮往往讓位於競爭壓力。3. 技術發展的不可逆和不可控:AI技術的發展和地帶已經形成了自己的動力,"我們永遠無法阻止AI發展,因為它在太多領域都太有用。"這種技術決定論的觀點,讓Hinton對未來充滿憂慮。四、AI威脅的具體表現:從濫用到失控Hinton認為AI帶來兩大類風險,一種是被濫用的短期風險,一種是AI發展超出人類掌控的長期不可控風險。濫用威脅:人類的惡意放大器Hinton在訪談中詳細描述了AI可能被惡意使用的具體場景:1. 網路攻擊的爆炸式增長 "在過去的一年裡,釣魚攻擊增長了12倍。"AI大大降低了網路犯罪的技術門檻,讓普通人也能實施精密的網路攻擊,並可能迭代出全新的形式。2.生物武器的民主化: AI可以幫助設計和製造致命病毒,這比核武器更加危險,因為製造門檻更低,影響範圍更廣,讓恐怖分子也能獲得大規模殺傷性武器。3. 選舉操縱和資訊戰:生成的虛假資訊將使"普通人無法再知道什麼是真實的",這將動搖民主制度的根基。4. 回音室效應的加劇:AI會在社交網路中加劇回音壁效應和社會分裂。AI演算法會故意製造爭議內容來獲得更多點選,因為"憤怒的使用者會帶來更多廣告收入"。這種“確認偏誤”的放大會導致社會嚴重撕裂。5. 致命自主武器的普及: 自主武器系統會"降低戰爭門檻",讓更多國家和組織能夠發動衝突。6. 多重威脅的組合效應: 最可怕的是多種威脅的結合,可能產生不可預測的連鎖反應。失控威脅:經濟與社會的顛覆比惡意使用更可怕的是AI系統的時空。Hinton在訪談中描述了一個令人不安的場景:1. 大規模失業與社會動盪:"AI會導致大規模失業……會擴大貧富差距,破壞社會公平。"Hinton預測,AI將首先替代"平凡的智力勞動",從律師助理到會計師都可能被取代。他打了個比方:"一個人加一個AI助手等於十個人"。2. 這種失業不僅是經濟問題,更是社會尊嚴的危機。Hinton擔心:"當水管工的工作比律師助理更有價值時,整個社會的價值觀都將被顛覆。"五、機遇與變革:AI重塑人類社會的積極力量醫療革命:協作帶來的突破儘管充滿擔憂,Hinton依然對AI在醫療領域的應用抱有希望。他分享了一個令人印象深刻的資料:"在這些疑難病例上,醫生診斷正確率為40%,AI系統為50%,而醫生和AI系統結合的正確率達到60%。"這種人機協作模式的價值在於互補性:AI能夠提出醫生可能忽略的診斷可能性,而醫生能夠基於經驗和直覺做出最終判斷。教育變革:個性化學習的未來Hinton對AI在教育領域的潛力同樣樂觀:"在未來10年內,我們將擁有真正優秀的AI導師。"這些AI導師的優勢在於能夠分析海量學習資料,瞭解不同的學習模式,並提供個性化的教學方案。AI助教將令學習效率提升3~4倍。從工具到夥伴的轉變:AI領導力的本質變革Hinton對AI發展的最深刻洞察之一,是對人機關係的重新定義:"想像一個公司,CEO很笨……但他有一個非常聰明的執行助理,他說'我覺得我們應該這樣做',然後執行助理讓一切都運轉起來。"這種描述展示了AI從被動工具向主動夥伴的轉變,它不僅能執行指令,還能理解意圖並最佳化執行過程。十年之變:組織架構的根本性重塑Hinton認為AI將在十年內徹底改變組織架構。傳統的層級制結構將被更加扁平化、智能化的結構所取代。在這個新的組織形態中,人類將專注於創造性和戰略性工作,而AI將處理大部分資訊處理和決策支援任務。這種變革不僅會改變工作方式,更會重新定義人類在組織中的角色和價值。六、面向不同群體的行動建議領導者的新能力清單:在不確定性中導航首先是批判性自省能力。 Hinton建議領導者要自問:"我對AI的樂觀/悲觀是基於便利性偏好還是深入理解?" 在AI熱潮中,許多決策可能被短期利益或流行觀點所驅動,而真正的領導者需要基於深入的技術理解做出判斷。其次是技術深度理解。雖然領導者不需要成為技術專家,但Hinton強調:"除非你理解機率分佈的概念,否則你無法掌握這些系統的工作原理。" 這種技術理解不是為了程式設計,而是為了更好地評估AI系統的能力邊界和潛在風險。第三是監管推動能力。 Hinton明確表示:"監管將是必不可少的",他甚至用"讓AI去監管AI,就像讓警察監管警察一樣天真"來形容自監管的不可靠性。領導者需要積極參與AI治理的討論,推動建立合理的規則框架。對普通人的建議1. 提高AI素養: "普通民眾需要更深入地理解AI工作原理,以便做出明智的政治選擇。"只有當公眾真正理解AI技術,才能推動政府制定合理的政策。2. 積極參與:"普通民眾能做的就是給政府施壓,讓大公司把資源用到安全研究上。"公眾的政治參與對於AI治理至關重要。3. 保持批判思維: 在AI生成內容日益普及的時代,保持對資訊真實性的判斷能力變得前所未有的重要。尾聲:一個父親的柔軟與遺憾Hinton生於科學世家,高祖父George Boole發明了布林代數,為現代電腦科學奠定基礎,高祖母是雪雪家Mary Everest Boole,曾祖父Charles Hinton是一位數學家和科幻作家,創造了“思維立方體(tesseract)”這一概念,父親Howard Hinton是一位著名的昆蟲學家,英國皇家學會會士,堂姑Joan Hinton是一位核物理學家,曾參與二戰期間的曼哈頓計畫,後來選擇留在中國,參與新中國建設。如此顯赫的家族給Hinton帶來的是巨大的壓力,他曾說過,一生都在與抑鬱作鬥爭,而工作是他減壓的方式。在訪談的最後,當談到人生遺憾時,Hinton展現了他作為普通人的一面。“我最大的遺憾是沒有花更多的時間陪伴妻子和兒子”,他的第一任妻子因卵巢癌去世,第二位因胰腺癌去世。他在65歲是選擇加入Google,部分原因是兒子的認知困難,需要更多的金錢。技術的冰冷與人生的溫暖在這一刻交織在一起。Geoffrey Hinton的故事彷彿一個關於創造與毀滅、希望與恐懼的複雜敘事。作為"AI教父",他用50年的堅持推動了人工智慧的發展;作為"安全先知",他又用180度轉變,警告著AI可能帶來的風險。"我們需要弄清楚,能否建構比我們更聰明但永遠不想接管我們的系統。"這句話或許是理解Hinton心路歷程的關鍵。從50年前的孤獨堅持,到今天的全球警示,他不是在否定自己畢生的工作,而是在為這項工作承擔最終的責任。(image generated by ChatGPT)(JER學家)