•
Google DeepMind共同創辦人、首席AGI科學家Shane Legg的分享五個觀點:
🔮 觀點一:AGI不是“開關”,而是“光譜”——第一級已近在眼前
我們總以為AGI是某天突然覺醒的“天網”,但Legg說,它更像一個漸進的光譜:
⚙️ 觀點二:超級智慧不是魔法,而是物理學的必然
「人類智慧是宇宙上限嗎?絕對不是。」Legg從物理第一原理對比了人腦vs. 資料中心:
所以,超級智慧的出現不是“是否”,而是“何時”。就像起重機比人力氣大、望遠鏡比人看得遠一樣——它只是物理規律的延伸。
💼 觀點三:最危險的工作,可能是你現在羨慕的「菁英職業」
如果AGI能完成認知任務,那麼最容易取代的不是體力勞動,而是高薪腦力工作。Legg給一個簡單判斷法則:如果你只用筆記型電腦+網路就能完成工作,那你的崗位正站在AI替代的最前線。
🧠 觀點四:AI可能比人類「更道德」
Legg提出「系統二安全」概念:
AI能嚴格、一致地執行複雜道德框架,不受情緒波動影響。Legg認為:AI在原則上可以比人類更道德,因為它能以「超人層次」進行倫理推理。
🚨 觀點五:領域專家們,你們已經落後了
Legg用一個鋒利比喻:現在就像2020年3月——流行病專家已拉響警報,大眾卻還在球場聚會。許多領域專家(法律、教育、經濟、醫學…)仍認為自己的行業“特殊且複雜”,AI短期無法深入。
但他們評價AI的依據,往往是一年前的模型──而在AI領域,一年已是「古代史」。Legg緊急呼籲:所有業界專家,必須立刻開始嚴肅思考AGI對自身領域的衝擊。等它到來再反應,就太晚了。 (WhaleThink)