近日,斯德哥爾摩國際和平研究所發佈報告《人工智慧與核武器關聯領域的治理推進》,報告分析了AI在核預警、指揮系統等應用的風險及治理缺失,梳理現有軍事AI治理框架(如“人類在環”原則)的侷限性,並指出了概念模糊、政治分歧和實施難題,提出分層治理、非正式對話及技術驗證等路徑。
(一)AI治理在核武器中的使用
目前,全球尚未形成專門針對AI與核武器結合點的獨立治理框架。現有的治理倡議主要嵌入在更廣泛的AI治理或核武器治理框架中,且這些倡議的核心理念是確保在核指揮、控制和通訊(NC3)系統中維持“人在回路”(human in the loop)的概念。以下是三個具有代表性的治理倡議:
英法美聯合工作檔案:2022年,法國、英國和美國向《不擴散核武器條約》(NPT)第十次審議大會提交工作檔案,承諾在核武器使用決策中保持人類控制,確保領導人有足夠時間收集資訊並考慮行動方案,以降低核衝突風險。
美國主導的政治宣言:2023年,美國發佈《負責任地使用軍事人工智慧和自主性的政治宣言》,最初版本強調“人類控制和參與”,但因盟友要求更深入討論 AI 與核武器的關聯而刪除。截至 2024 年 11 月,58 國簽署宣言,包括法、英、美等核武國家。
REAIM峰會的行動藍圖:2024年REAIM峰會通過的《行動藍圖》重申了在核武器使用決策中保持人類控制的重要性,得到了60多個國家的支援。
(二)軍事AI治理的通用方法
1. 意識提升措施
意識提升措施旨在通過多利益相關者的對話和資訊共享,增強對軍事AI使用風險的認識,建立信任和規範。倡議強調AI在軍事領域的使用應遵守國際法、人道法和人權法,同時明確行為邊界,防止AI被用於發動戰爭或破壞他國主權。例如,2021年中國發佈立場檔案,主張軍事AI不應被用作發動戰爭或追求霸權的工具,強調遵守國際法的重要性。
2. 責任措施
責任措施強調在軍事AI的開發和使用中保持人類責任和問責制,確保人類對AI系統的控制和監督。倡議建議通過培訓增強操作人員對AI技術的理解,並促進國際知識共享,幫助開發中國家提升能力。例如,2023年美國強調高級官員對軍事AI開發和部署的監督責任,要求操作人員具備判斷和決策能力。
3. 安全措施
安全措施旨在確保AI系統的可靠性和安全性,防止因系統故障或資料問題導致的意外事故。倡議強調建立資料治理框架,確保資料質量,並對AI系統進行持續監測和測試。例如,2024年REAIM峰會呼籲各國開發測試和評估協議,建立穩健的監測流程。
4. 安保措施
安保措施旨在保護AI系統的安全性能,防止惡意攻擊或技術擴散。倡議強調限制對AI資料的訪問,防止AI技術落入不良行為者手中,同時強調國際合作以應對網路安全風險。例如,2024年聯合國大會通過決議,強調防止AI技術擴散到非國家行為者手中,以維護國際和平與安全。
這部分探討了在核力量中治理人工智慧(AI)所面臨的挑戰,並提出了可能的解決路徑。報告指出,儘管AI技術的快速發展帶來了諸多風險,但目前的治理框架仍難以跟上技術進步的步伐。
治理AI與核武器結合點的挑戰主要來自三個層面:概念上的模糊性、政治與制度上的複雜性以及實施上的困難。報告認為,要有效治理AI在核力量中的應用,必須克服這些挑戰,並通過多邊合作和創新治理方式來建立一個更加穩定和安全的國際環境。
(一)概念挑戰
AI技術的通用性和快速進步導致其定義模糊,難以形成統一的治理框架。AI在軍事和民用領域的雙重用途進一步增加了治理的複雜性,使得基於技術特徵的監管框架迅速過時。作者提出了以下針對性的建議:
建立通用定義:國際社會需共同努力,形成關於AI及其軍事應用的通用定義和術語表,為治理框架奠定基礎。
兩層治理方法:採用兩層治理模式,結合一般行為規範與系統特定的、可適應的措施,確保治理措施的持續相關性。
聚焦核武器特定系統:核武器國家應識別並溝通那些潛在的AI整合可能引發最大擔憂的核相關系統,建立針對特定核指揮與控制系統或核交付系統的技術紅線。
(二)政治和制度挑戰
核武器的高度敏感性、國際核治理框架中的政治分歧以及各國對戰略優勢的追求,使得多邊對話和合作變得困難。此外,目前尚未確定最適合討論AI與核武器結合點的國際論壇。對此作者提出了如下對策建議:
開展多邊對話和信任建設:建立專門針對AI與核武器結合點的國際論壇,或利用現有框架(如CEND倡議)促進開放交流,緩解核武器政治的敏感性。
利用現有治理框架:借助聯合國大會、NPT審議大會等現有國際治理框架,推動AI與核武器結合點的治理討論,分享經驗和最佳實踐,逐步形成共識。
促進私營部門和專家社區的參與:通過非正式對話和合作項目,促進私營部門和專家社區的參與,為制定技術上可行的治理措施提供支援。
(三)實施挑戰
AI技術的隱蔽性和核武器領域的敏感性使得驗證AI技術的應用和影響極其困難。缺乏透明度和存取權進一步阻礙了治理措施的實施。對此,作者提出了如下對稱:
風險緩解和信心建立措施:採用風險緩解和信心建立措施,如開發共同的AI能力評估標準、建立國際熱線、聯合資料中心等,以提高AI系統的可靠性和安全性。
測試、評估、驗證和驗證(TEVV)實踐:各國在國內建立針對軍事應用中AI的TEVV協議標準,逐步標準化紅隊測試方法,提高AI系統的可靠性和安全性。
資料治理和安全合作:建立多利益相關者協調平台,共同制定訓練資料集的監管方法和資料集文件標準,合作開發防止資料投毒的規範並共同應對檢測。
總而言之,AI與核武器結合點治理中,儘管面臨諸多挑戰,但通過明確人類控制的重要性、建立技術參數和規範以及持續的國際合作,國際社會仍有可能在這一領域取得實質性進展。這不僅有助於降低AI技術帶來的戰略風險,還可以為全球安全和穩定提供保障。 (稻香湖下午茶)