評論導讀
本文分析了關於過去一年人工智慧(AI)帶來的政治、經濟及社會影響。它也涉及了AI技術的發展,國際政策制定,以及對這一領域未來發展的預測。
美國、歐洲、中國等國家和地區迅速採取行動試圖圍繞人工智慧設立監管框架。這種努力顯示了國際社會對於AI可能帶來的社會、經濟和軍事影響的高度關注和緊迫性。
Paul Scharre的觀點強調了大公司在強化AI模型時政府不能袖手旁觀的必要性。這不僅反映了企業與政府之間的關係問題,也揭示了在AI發展中國際合作與競爭的複雜性。中國在AI監管上的進展可能為美國提供一些借鏡。這暗示了在全球範圍內對AI技術治理的不同方法和策略,以及各國政策制定者在藉鏡國際經驗時所面臨的挑戰。
將AI與核武相比較,以及聯合國秘書長提出的類似國際原子能總署的全球AI治理機制建議,反映了國際社會對AI可能的災難性後果的擔憂。但這也暴露出AI治理相比核不擴散更為複雜和迅速發展的特徵。文章指出了AI監管過程中的一個重要問題——監管聲音的不平等分佈和對全球不同地區的不同影響,特別是在內容審查和虛假資訊傳播方面。文章最後提到的黑客大會上的紅隊演習,展示了政府和私營部門在理解和控制AI技術方面的合作。這種合作模式是應對AI挑戰的一個重要途徑。
綜上所述,本文揭示了AI作為一種變革性技術,不僅在技術領域內部引發深刻變化,而且在國際政治、經濟和社會層面產生了廣泛而深遠的影響。監管機構、私營部門以及國際組織在應對這些挑戰時需要展現更大的適應性、合作和創新。同時,我們也必須認識到,在這過程中,不同國家和地區的利益、策略和能力存在顯著差異,這對全球AI治理構成了額外的挑戰。
要了解過去一年人工智慧的能力、矛盾和混亂,我們只需要看看這項技術最引人注目的頭部公司。
總部位於加州的OpenAI公司在2022年11月推出了ChatGPT,為2023年定下了基調。ChatGPT是一款多功能聊天機器人,將人工智慧推向了公眾對話,並引發了一場開發更強大模型的全球競賽。該公司在年底突然解雇了具有護身符意義的首席執行官薩姆•奧特曼(Sam Altman),但五天后又讓他回來,並組建了新的董事會,似乎鞏固了他的掌舵權力。
ChatGPT令世界各地的政策制定者感到不安。美國、歐洲和中國的政府都迅速採取行動,試圖在人工智慧周圍設置監管護欄,七國集團和二十國集團會議、聯合國和英國的人工智慧安全峰會上的多邊努力試圖擴大這些護欄。
我們有充分的理由感到擔憂。人工智慧有可能重塑世界各地的經濟、社會和民主,以及重要的軍事應用——其中一些已經在使用中。開發人工智慧的競賽不僅發生在企業之間,也發生在國家之間。
最嚴厲的警告來自那些製造這種技術的人。與人工智慧產業的許多人一樣,奧特曼在佈道者和末日預言家之間搖擺不定,呼籲華盛頓和其他地方加強監管。在2023年的大部分時間裡,他也是該行業最傑出的外交官,會見了來自印度、澳洲和中東的領導人。這反過來又引發了人們對大公司對該技術的開發和監管有多大影響力的恐慌。
同時,中國已經宣布了到本十年末成為全球人工智慧領導者的目標,並在幾個方面取得了重大進展。華盛頓最近的許多重大外交政策舉措,例如對半導體和對外科技投資的廣泛限制,都旨在減緩中國的進步。
2024年關於人工智慧的最大問題是,監管是否有效,適應性是否足以跟上快速發展的能力,以及最終世界各國是否能就這些護欄達成一致。明年,世界上許多最大的民主國家都將舉行全國大選,這事關重大。
1. 人工智慧的看門人沒有為即將到來的事情做好準備
儘管早期對人工智慧競爭的關注主要集中在產業本身,但對話很快就擴展到變革性技術將如何影響地緣政治,哪些國家最能利用這一時刻,以及是什麼決定了誰會領先。
《外交政策》雜誌的夏季版是理解這些辯論的早期嘗試,由新美國安全中心(CNAS)執行副總裁兼研究主任保羅·沙雷(Paul Scharre)撰寫了一篇主要文章。沙雷認為,當大公司對人工智慧模型進行強化時,政府不能袖手旁觀。
沙雷的許多預測和建議都已成為現實,近幾個月來,一些國家和跨國監管機構共同採取了措施。但2024年將為監管機構帶來新的挑戰,包括人工智慧可能使惡意網路攻擊或幫助製造生物武器變得更容易。考慮到這些風險的發展速度,有一個堅實的基礎是很重要的。
2. 美國可以向中國學習如何監管人工智慧
人工智慧最大的問題之一是「誰贏了?」——尤其是在美國和中國之間。在《外交政策》夏季版的另一篇文章中,卡內基國際和平基金會(Carnegie Endowment for International Peace)的馬裡亞諾-弗洛倫蒂諾·庫姆西拉(Mariano-Florentino cusamullar)和馬特·希恩(Matt Sheehan)強調了為什麼這可能是一個錯誤的問題,以及兩國應如何專注於管控技術,避免兩國之間的「人工智慧事故」。
在9月的這篇文章中,希恩認為,中國嚴格的人工智慧監管可以為美國提供一些教訓。其中最主要的是願意迭代和快速適應技術,而不是以保護傘立法為目標。希恩寫道:「中國已經挑選出了它所關注的具體應用,並製定了一系列法規來解決這些擔憂。」「這使得它能夠在每一項新規定出台後,穩步建立新的政策工具和監管訣竅。”
3. 每個國家都有自己的人工智慧
考慮到人工智慧的範式轉換性質以及該技術可能造成災難性事故,許多地緣政治話語將其與核武相提並論也就不足為奇了。聯合國秘書長古特雷斯是呼籲效法國際原子能總署(IAEA)的全球人工智慧治理機制的聲音之一。國際原子能總署於1957年成立,目的是確保核不擴散。
儘管這種模式可以提供一些指導,但正如CNAS的比爾·德雷塞爾(Bill Drexel)和邁克爾·德普(Michael Depp)在6月份所指出的那樣,有幾個原因表明,它並不完全適合人工智慧監管。人工智慧的應用範圍更廣,而且發展太快,國際原子能機構這樣的機構無法真正發揮作用。德雷塞爾和德普寫道:「條約和多邊協議的進展往往比人工智慧慢得多。」隨著2023年即將結束,一些顯然不像國際原子能總署的多邊努力已經開始形成,但前面還有很長的路要走。
4. 人工智慧監理悖論
隨著人工智慧監管在全球範圍內積聚勢頭,我們有必要問一下,誰在談判桌上發出了最響亮的聲音,這對其他人有什麼影響。今年8月,塔夫茨大學(Tufts University)弗萊徹法律與外交學院(Fletcher School of Law and Diplomacy)全球商學院院長巴斯卡爾•查克拉沃蒂(Bhaskar Chakravorti)強調,人工智慧可能會加劇大型科技公司在西方以外地區如何將資源投入內容審核的差異。
Chakravorti認為,這些公司必須傾向於美國和歐洲“最吱吱作響的輪子”,這些輪子呼籲對人工智慧進行監管,並占公司利潤的大部分,這可能會在全球南部的大部分地區留下空白,在關鍵的選舉年,虛假訊息和仇恨言論可能比以往任何時候都更加猖獗,這可能是危險的。
5. 白宮內—支持駭客入侵人工智慧
今年,我們發表了許多關於人工智慧的危險以及遏制其有害影響的鬥爭的文章,但《外交政策》難得地發現了人工智慧在實踐中是如何發揮作用的。
8月中旬,我去拉斯維加斯參加了世界上最大的駭客會議之一,在那裡,八家主要的人工智慧公司與美國政府合作,開放他們的模型,進行所謂的紅隊演習。目標是推動這些模型做壞事,例如教導使用者如何追蹤某人或產生誤導性事實。
2000多名與會者中的許多人輕鬆成功——儘管是在受控的環境中——突顯了正確監管的重要性,以及白宮為何扮演如此重要的角色。將這種情況擴展到世界其他地方,那裡有數百種語言和文化背景,這變成了一個更令人生畏的命題。(尚道策略)