AGI真相大揭密! DeepMind創辦人5個顛覆認知觀點,未來比你想像的更近

Google DeepMind共同創辦人、首席AGI科學家Shane Legg的分享五個觀點:

🔮 觀點一:AGI不是“開關”,而是“光譜”——第一級已近在眼前

我們總以為AGI是某天突然覺醒的“天網”,但Legg說,它更像一個漸進的光譜:

  1. 最低限度AGI:能完成普通人的所有認知任務(比如讀文件、寫郵件、做基礎分析)
  2. 完整的AGI:能完成普通人的所有認知任務(比如讀文件、寫郵件、做基礎分析)
  3. 超級智慧ASI:全面超越人類Legg預測,2028年我們有50%的機率實現最低限度AGI。

⚙️ 觀點二:超級智慧不是魔法,而是物理學的必然

「人類智慧是宇宙上限嗎?絕對不是。」Legg從物理第一原理對比了人腦vs. 資料中心:

  • 能耗:大腦20瓦vs 資料中心 2億瓦
  • 訊號速度:大腦30公尺/秒vs 光速3億米/赫茲頻寬:大腦80v 大腦資料中心100億赫茲
  • 體積/重量:幾磅vs 數百萬磅機器在多個維度上領先6-8個數量級。

所以,超級智慧的出現不是“是否”,而是“何時”。就像起重機比人力氣大、望遠鏡比人看得遠一樣——它只是物理規律的延伸。

💼 觀點三:最危險的工作,可能是你現在羨慕的「菁英職業」

如果AGI能完成認知任務,那麼最容易取代的不是體力勞動,而是高薪腦力工作。Legg給一個簡單判斷法則:如果你只用筆記型電腦+網路就能完成工作,那你的崗位正站在AI替代的最前線。

🧠 觀點四:AI可能比人類「更道德」

Legg提出「系統二安全」概念:

  • 系統一:直覺、快速反應(人類道德判斷常受情緒、偏見影響)
  • 系統二:慢思考、邏輯推理(AI可被訓練為純理性道德推理者)

AI能嚴格、一致地執行複雜道德框架,不受情緒波動影響。Legg認為:AI在原則上可以比人類更道德,因為它能以「超人層次」進行倫理推理。

🚨 觀點五:領域專家們,你們已經落後了

Legg用一個鋒利比喻:現在就像2020年3月——流行病專家已拉響警報,大眾卻還在球場聚會。許多領域專家(法律、教育、經濟、醫學…)仍認為自己的行業“特殊且複雜”,AI短期無法深入。

但他們評價AI的依據,往往是一年前的模型──而在AI領域,一年已是「古代史」。Legg緊急呼籲:所有業界專家,必須立刻開始嚴肅思考AGI對自身領域的衝擊。等它到來再反應,就太晚了。 (WhaleThink)