根據美國有線電視新聞網(CNN)12日報導,美國國務院委託第三方機構進行的一份新調查報告稱,快速發展的AI或對人類構成「毀滅級」風險。該報告還警告說,美國政府避免災難的時間已經不多了,必須介入。
這份報告由專注於AI領域的公司「格拉斯頓人工智慧」撰寫。報告基於一年多來對200多名AI公司高管、網路安全研究人員、大規模殺傷性武器專家和美國國家安全官員的採訪,得出「在最壞的情況下,最先進的AI系統可能對人類構成毀滅等級的威脅」的結論。CNN稱,研究人員提出了兩個主要危險:首先,最先進的AI系統可能會被“武器化”,造成潛在的不可逆轉的損害;其次,AI實驗室內部存在擔憂,即在某些時候,他們可能會“失去對正在開發的系統的控制”,從而“對全球安全造成潛在的破壞性後果”。
報告將AI發展為全球安全帶來的風險與核武相比,表示未來AI發展存在「軍備競賽」、衝突和「大規模殺傷性武器致命事故」的風險。CNN稱,最大的不確定因素之一是AI的發展速度有多快,尤其是通用人工智慧(AGI)的發展速度。報導稱,AGI具有類似人類甚至超越人類的學習能力,「被視為失控導致災難性風險的主要驅動因素」。格拉斯頓人工智慧的報告稱,OpenAI、GoogleDeepMind等都公開表示,AGI可能在2028年實現。
報告還稱,AI可用於設計和實施「能夠破壞關鍵基礎設施的高效網路攻擊」。一個簡單的口頭或打字命令,例如“實施無法追蹤的網路攻擊,使北美電網崩潰”,就可能造成一場災難。其他風險案例包括由AI驅動的「大規模」虛假宣傳活動、武器化機器人應用、心理操縱、武器化生物和材料工程等。報告也提到,競爭壓力正在推動企業「以犧牲安全和保障為代價」加速AI的發展,這增加了最先進的AI系統可能被竊取並被武器化的風險。
報告呼籲採取重大新措施來應對這一威脅,包括成立一個新的AI機構,實施緊急監管,並限制用於訓練AI模型的電腦能力等。