"AI可能毀滅人類,而中國正在引領全球應對這場危機——其他國家必須加入!"
你是否知道,全球AI發展正面臨一個致命悖論:我們正在以火箭般的速度開發AI,卻沒有建立相應的安全機制?Nature最新 editorial 發出震撼警告:中國提出的"世界人工智慧合作組織"(WAICO)可能是阻止AI毀滅人類的唯一希望,而美國等國家的不作為將使全球陷入危險境地!
AI模型擁有令人驚嘆的能力,既能加速科學發現、推動經濟增長,也可能在不經意間造成災難性後果:
• 加劇社會不平等:AI演算法可能強化現有的社會偏見
• 助力犯罪活動:深度偽造技術已用於詐騙和政治操縱
• 傳播虛假資訊:AI生成內容難以分辨真偽
• 最可怕的威脅:部分頂尖研究者警告,超級智能AI可能在未來"毀滅人類"
"它們不完全理解世界,可能會以不可預測的方式失敗。" ——Nature editorial
更令人擔憂的是,在AI開發的"百米衝刺"中,安全問題被嚴重忽視。許多專家擔心,當前的AI熱潮正在形成一個即將破裂的經濟泡沫,而全球卻缺乏統一的監管框架!
🇺🇸 美國:自由放任的"野蠻生長"
美國作為全球AI技術的領導者,卻沒有國家層面的AI法規,僅靠各州零散的法律和企業自律。最新發佈的"AI安全指數"顯示,沒有一家美國公司得分高於C+。
更令人擔憂的是,美國政府不僅沒有加強監管,反而在推動"創世任務"(Genesis Mission),為AI開發者提供前所未有的政府資料存取權,被比作"登月計畫"。
"美國公司期望自己監管自己,同時又在無休止的競爭中。" ——Nature
🇪🇺 歐盟:謹慎前行的"AI法案"
歐盟去年推出的《AI法案》要求最強大的AI系統加強威脅分析,但實施效果尚不明確。媒體報導稱,企業正在向歐盟施壓,要求放寬法律限制。
儘管有巨額罰款的威脅,但法案實施仍處於初級階段,實際效果有待觀察。
🇨🇳 中國:快速行動的"監管先鋒"
與美歐不同,中國自2022年以來已推出一系列AI法規和技術標準:
• 要求AI開發者提交生成式AI模型進行部署前安全評估
• 強制在AI生成內容上加入可見、不可磨滅的水印
• 2025年上半年發佈的AI國家標準數量等於過去三年總和
"中國在2025年上半年發佈的AI國家標準數量等於過去三年總和。" ——Concordia AI
中國AI監管的核心理念是:既要推動AI廣泛應用,又要確保可追溯性和企業責任。儘管中國AI企業在"AI安全指數"上的得分低於西方同行(部分原因是未能充分應對災難性濫用風險),但其監管速度和系統性令人矚目。
中國提出建立"世界人工智慧合作組織"(WAICO),旨在協調全球AI監管規則,同時"充分尊重各國政策和實踐的差異",並特別關注全球南方國家。
WAICO的總部計畫設在上海,雖然細節尚未明確,但Nature認為:
"建立這樣一個機構符合所有國家的利益,全球各國政府都應該加入。"
WAICO不會直接強制執行AI規則(中國也表示支援聯合國主導的全球AI治理),但它可能成為各國逐漸凝聚共識的平台。
中國推行"開放權重"政策,使全球公司越來越多地基於中國AI建構服務。中國AI模型的可獲取性和低成本正在重塑全球AI生態。
"中國'開放權重'模型政策意味著全球公司越來越多地基於中國AI建構服務。" ——Nature
現有全球AI治理努力——如經濟合作與發展組織的AI原則和歐洲委員會的《人工智慧框架公約》——要麼不具約束力,要麼未得到有效執行。
Nature建議,WAICO可以借鑑國際原子能機構(IAEA)的模式:各國同意限制AI開發並開放系統接受檢查,使各國能夠驗證彼此是否遵守規則。
Nature editorial 發出重要警示:
"AI治理不應被視為地緣政治競賽,認為一個國家的安全可以通過技術主導來保證。'獲勝'對大多數國家來說不是選項,AI軍備競賽不會保證人們更安全或更富裕。"
相反,全球應共同合作,就什麼是安全的AI以及世界希望如何利用AI達成共識。
中國學者Angela Zhang指出,儘管中國監管有其政治考量,但其基本動機與他國"相當相似":
"他們不想被機器人消滅。"
隨著中國AI影響力的擴大,瞭解中國的AI標準對全球研究人員和企業至關重要。忽視這一趨勢可能導致技術落後或合規風險。
科研人員應積極參與多邊對話,幫助評估什麼樣的全球治理既有效又現實。AI安全需要全球智慧,而非單一國家的解決方案。
企業和研究機構需要在追求創新的同時,主動加強內部AI安全機制,而不是等待監管強制要求。 (聖不可知)