#AI安全
五角大樓極限施壓Anthropic,要求周六前解除所有AI安全限制
【新智元導讀】美國五角大樓正向 Anthropic 極限施壓,要求徹底解除 Claude 的軍事應用限制。會後,Anthropic 發佈新版政策。公司正式放棄了「單方面暫停大模型訓練」的安全承諾。在政治與商業的雙重壓力下,AI 安全理想主義最終向現實妥協。就在這兩天,美國五角大樓內醞釀著一場氣氛冷硬的會面。坐在談判桌兩端的,是代表著截然不同兩種意識形態的權力掌舵者。一邊是美國國防部長皮特·海格塞斯(Pete Hegseth),他代表著新一屆政府在國家安全事務上毫無妥協的強勢姿態與放鬆監管的狂飆做派。另一邊則是達里歐·阿莫代(Dario Amodei),Anthropic CEO。在矽谷,阿莫代(Dario Amodei)和他的公司一直以「安全第一」的教條主義者形象示人,他們甚至將約束 AI 模型視作與開發 AI 模型同等重要的使命。這並非一次為了增進瞭解的友好拜訪。據多位知情人士透露,這場會面充滿了火藥味。五角大樓向阿莫代下達了最後通牒。國防部要求 Anthropic 在美國時間周五晚前(台北時間周六晚前)全面解除其大模型 Claude 在軍事機密系統中的安全限制,允許軍方將其用於「所有合法目的」。如果 Anthropic 拒絕,五角大樓將考慮動用《國防生產法》(Defense Production Act)強制其修改程式碼,或者直接將其打上「供應鏈風險」的標籤,徹底切斷其與軍方乃至其他聯邦承包商的商業聯絡。阿莫代帶來的底牌顯得有些單薄。Anthropic 同意放寬部分使用限制,堅持保留兩條紅線。這兩條紅線分別是禁止將其 AI 用於對美國民眾的大規模監控,禁止用於開發無需人類介入的致命性自主武器。在五角大樓看來,這種要求對軍方每一次具體使用進行審查的「護欄」,是對軍事決策權的僭越。就在這場驚心動魄的政商博弈進行的同時,另一場更為隱秘的蛻變正在 Anthropic 內部發生。會後,這家曾經最為保守的 AI 明星企業悄然發佈了第三版《負責任的擴展政策》(RSP 3.0)。這份長達近 20 頁的政策檔案宣告了一個核心承諾的終結。Anthropic 正式放棄了其在 2023 年立下的「一旦安全措施無法保障便單方面暫停大模型訓練」的誓言。一面是在華盛頓的圓桌上死守 AI 應用的倫理底線,一面是在舊金山的實驗室裡親手拆除制約研發速度的安全閥。當技術狂飆與大國博弈相互交織,曾經試圖為 ASI 戴上鐐銬的理想主義者們,正在無可奈何地向現實低頭。五角大樓的焦躁與矽谷的備胎五角大樓對 Anthropic 的憤怒與依賴是一體兩面的。早在此次僵局發生之前,國防部與 Anthropic 已經簽署了一份價值 2 億美元的試點合同。Claude 是目前美國軍方機密網路中唯一獲得授權並正在運行的 AI 模型。在敏感情報分析、武器開發以及戰場行動中,軍方人員常常將 Claude 與資料分析巨頭 Palantir 的技術結合使用。一月份發生在委內瑞拉的「馬杜洛突襲」行動中,Claude 就曾深度參與並行揮了關鍵作用。防務官員們毫不諱言 Claude 的強大。正是因為 Claude 的性能在同行中一騎絕塵,五角大樓才容忍了 Anthropic 至今。然而,海格塞斯(Pete Hegseth)在今年 1 月發佈的一份備忘錄打破了原有的默契。備忘錄要求所有提供給軍方的 AI 技術必須移除限制,這直接導致了雙方合同的重新談判。在海格塞斯(Pete Hegseth)強硬的施壓策略背後,是一套精心編織的替代方案。就在阿莫代(Dario Amodei)被傳喚至五角大樓的幾乎同一時間,埃隆·馬斯克旗下的 AI 公司 xAI 與五角大樓達成了協議,同意讓其模型 Grok 進入機密系統,並完全接受了軍方「用於所有合法目的」的標準。xAI 的妥協為五角大樓提供了向 Anthropic 施壓的絕佳籌碼。不僅如此,Google(該公司曾聲稱信條是: Don't be evil)和 OpenAI 也在緊鑼密鼓地與軍方接洽。知情人士透露,五角大樓正以前所未有的緊迫感推動與這兩家巨頭的談判。Google為了專門服務政府已經投入巨資建設資料中心,其 Gemini 模型被視為極具潛力的替代品。雖然 OpenAI 的 ChatGPT 目前仍在機密網路之外,且由於複雜的安全問題距離達成協議尚有距離,但大門已經敞開。這構成了對 Anthropic 的極限施壓。軍方官員直言不諱地指出,如果 Anthropic 不讓步,就讓其徹底出局。將 Anthropic 列為「供應鏈風險」是一項極具毀滅性的懲罰。這意味著任何希望與國防部做生意的企業,都必須提供證明,確保其工作流程中沒有使用 Claude。對於一家估值高達 3800 億美元、年化收入正以十倍速度瘋漲的明星獨角獸而言,這無疑是切斷了其在政府(To G)與企業級市場(To B)最豐厚的一條主脈。更為極端的威脅是《國防生產法》。這項在新冠疫情期間曾被用來強制生產呼吸機和疫苗的法案,此刻被異化為一種帶有敵意的行政大棒。五角大樓試圖借此繞過商業談判,以國家安全的名義直接剝奪一家科技公司對其核心產品的控制權。儘管有顧問指出 Anthropic 可以在法庭上抗辯,證明 Claude 是為政府敏感用途定製的軟體而非普通商品,但這種曠日持久的法律消耗戰同樣是初創公司難以承受之重。「暫停鍵」的消亡與絕對安全的幻滅就在外界的目光聚焦於華盛頓的政治交鋒時,Anthropic 內部正在進行一場痛苦的路線修正。Anthropic 由達里歐·阿莫代(Dario Amodei)及其妹妹丹妮拉·阿莫代(Daniela Amodei)等一眾前 OpenAI 核心成員創立。妹妹 Daniela Amodei這群人當年離開 OpenAI 的初衷,正是擔憂資本的過度介入會使得 AI 的安全被拋之腦後。成立之初,Anthropic 就確立了將安全性作為最高信仰的企業文化。2023 年出台的第一版《負責任的擴展政策》更是將這種信仰條文化。那份政策中有一個被外界廣泛讚譽的條款,即如果模型能力超越了特定的安全閾值,且公司無法保證相應的風險緩解措施到位,Anthropic 將無條件暫停新模型的訓練和部署。當時的 Anthropic 高層曾天真地認為,這種單邊承諾能夠產生一種「向上攀比」的示範效應。他們希望借此倒逼整個行業將安全置於速度之上,並最終促成具有約束力的國家法規甚至國際條約。3 年的時間足以讓任何烏托邦式的幻想破滅。Anthropic 的首席科學官傑瑞德·卡普蘭(Jared Kaplan)在接受採訪時道出了變更政策的實情。全球 AI 立法的步伐不僅沒有跟上技術的發展,反而出現了嚴重的倒退。美國新一屆政府高舉放鬆監管的大旗,甚至試圖廢除部分州一級的 AI 監管法案。國際間的協同治理更是遙遙無期。與此同時,同行間的算力軍備競賽已經進入白熱化。「如果我們停下腳步,而競爭對手正在毫無顧忌地全速前進,這對於任何人都沒有好處。」卡普蘭的這番話解釋了RSP 3.0 的核心邏輯。新版政策完成了從「絕對風險」向「邊際風險」的評估體系轉移。Anthropic 在檔案中坦承,AI 造成的災難性風險取決於全行業多個參與者的共同行動。如果一家負責任的開發者為了實施安全措施而暫停開發,那些缺乏安全保障的開發者就會主導技術的前沿。結果將是一個更加不安全的世界,因為負責任的公司會因此喪失對前沿技術的理解力,進而失去進行安全研究的能力。這是一個充滿宿命感的悖論。為了確保 AI 的安全,必須讓它足夠強大;為了研究前沿的風險,必須自己先觸及前沿。Anthropic 最終得出的結論是:在大模型時代,沒有公司可以停在原地。這種轉變也源於科學評估的困境。早期的政策設想中,安全閾值被設定為一條條清晰的紅線。然而實際操作中,紅線變成了模糊的漸變色。以生物武器研發風險為例,現有的 Claude 模型已經具備了相當程度的生物學知識,能夠輕易通過各項基準測試。這使得 Anthropic 無法證明該模型風險很低。缺乏能夠量化嚴重災難風險的成熟科學標準,讓 Anthropic 在試圖說服競爭對手或政府放慢腳步時顯得極其缺乏說服力。沒有退路的前沿實驗作為對放棄「單邊暫停」承諾的補償,Anthropic 在 RSP 3.0 中引入了更為密集的透明度機制。他們承諾每 3 到 6 個月發佈一次詳盡的「風險報告」(Risk Reports)(特別寫明了:「部分內容會進行刪減」),並在必要時引入無利益衝突的第三方進行嚴格的外部審查。公司還會定期更新「前沿安全路線圖」(Frontier Safety Roadmap),將未來的安全目標公之於眾,作為一種不具強製法律約束力卻能接受公眾監督的軟性承諾。非營利組織 METR 的政策主管克里斯·佩因特(Chris Painter)將 Anthropic 的這一轉變形容為進入了「分診模式」(Triage mode)。在醫療急救中,分診意味著放棄對輕傷者的即時救治,集中有限的資源搶救最危重的病人。在 AI 安全領域,這意味著 Anthropic 承認現有的評估和緩解手段已經跟不上模型能力增長的速度,他們只能在不斷升級的風險中做最壞打算。佩因特表達了對這種「溫水煮青蛙」效應的擔憂:當二元化的安全紅線被取消,由一項項具體的風險評估取而代之時,社會可能會在不知不覺中滑向危險的深淵,卻再也不會有一個明確的觸發機制來拉響警報。回望五角大樓那間氣氛凝重的會議室,我們或許能更深刻地理解 Anthropic 眼下的處境。面對軍方的極限施壓,阿莫代依然拒絕在「大規模監控」和「致命自主武器」這兩項直接關乎人命與公民權利的應用層面上妥協——至少在明面上要維持住公司體面的「人設」。他們已經意識到,在這個由算力、資本和國家意志共同驅動的龐大齒輪前,一家試圖通過閉門修行的初創公司是極其脆弱的。如果拒絕五角大樓,將被貼上敵視國家安全的標籤,被驅逐出擁有無窮資源的市場,進而被那些沒有道德包袱的競爭對手碾壓。為了留在牌桌上,他們必須保持技術領先;為了保持領先,他們必須放棄當年立下的那份會阻礙擴張步伐的誓言。從堅持絕對安全,到尋求相對安全;從單方面暫停訓練的果決,到只求在狂飆的列車上加裝更好剎車片的妥協。Anthropic 的蛻變史,就是一部矽谷 AI 理想主義在現實土壤上的降級史。技術精英們曾經深信自己可以用演算法和政策為人類鎖住潘多拉的魔盒,但地緣政治的壓力和商業競爭的殘酷重塑了遊戲的規則。在這條通往 ASI 的單行道上,人類最終會驚恐地發現,比機器失控更早到來的,是人類自己對按下暫停鍵的無能為力。 (新智元)
【重磅】美國"第二個曼哈頓計畫":全球AI霸權爭奪戰的深度解析
大家好,我是老莊。今天給大家帶來一篇分析報導《美國"第二個曼哈頓計畫":全球AI霸權爭奪戰的深度解析》一、美國"第二個曼哈頓計畫"根據11月22日戰略與國際問題研究中心的報導:美國政府和業界呼籲啟動‘第二個曼哈頓計畫’,聚焦人工智慧領域,以確保美國技術領先地位。美中經濟與安全審查委員會建議啟動類似倡議,協調公共和私營部門資源。7月,美國能源部長克里斯·賴特提出復興核能支援該計畫。同時,xAI公司等企業加速建設人工智慧基礎設施,如千兆瓦級電力設施和資料中心。陸軍通過‘FUZE項目’等舉措推動現代化,包括改造基地支援資料中心及礦物精煉廠,強化人工智慧能力。陸軍不僅負責物理安全,還整合反情報、網路安全等團隊保障關鍵基礎設施安全,確保人工智慧發展不受干擾。從美國"第二個曼哈頓計畫"的名稱可以看出美國對於這個計畫的重視。下面是我的深度分析和報導內容。二、曼哈頓計畫曼哈頓計畫是美國陸軍部於1942年6月開始實施的利用核裂變反應研製原子彈的重大計畫。這一計畫誕生於第二次世界大戰的關鍵時期,背景極為特殊。1939年,愛因斯坦致信羅斯福總統,警告納粹德國可能正在研發原子武器,並在信中明確指出:"某些近期工作使我相信,鈾元素可能成為一種新型的重要能源......這種新現象也將導致炸彈的構造變化"。這封信件引發了美國高層的極大關注,珍珠港事件後,美國參戰,最終在1941年12月6日,即日本偷襲珍珠港的前一天,正式批准了原子彈研製計畫。曼哈頓計畫集中了當時西方國家(除納粹德國外)最優秀的核科學家,動員了10萬多人參與這一工程,歷時三年,耗資20億美元(相當於2020年的254億美元)。在工程執行過程中,負責人格羅夫斯和奧本海默創造性地應用了系統工程的思路和方法,大大縮短了工程所耗時間,這一成功也促進了二戰後系統工程的發展。實施特點與戰略價值曼哈頓計畫的實施展現了多個突出特點,這些特點也成為後來大型國家科技工程的典範:前所未有的資源集中:羅斯福總統賦予該計畫"高於一切行動的特別優先權"。在計畫巔峰時期,曾起用了53.9萬人,總耗資高達25億美元,其資源集中程度在美國歷史上罕有其匹。多路徑平行推進:由於當時不知道分裂鈾-235的三種方法那種最好,曼哈頓計畫採取了三種方法同時進行裂變工作的策略。這種多路徑平行的技術策略有效降低了研發風險,保證了項目整體進度。軍事與科學的高效結合:在參謀長聯席會議主席馬歇爾的支援下,美國軍方同意按照原S-1委員會的建議,開始建設四種分別採用不同方法的鈾同位素分離工廠。而格羅夫斯上校(後晉陞為準將)接管計畫後,在不到48小時內就將計畫優先權升至最高級,並選定田納西州的橡樹嶺作為鈾同位素分離工廠基地。獨特的組織管理模式:為確保科學家能夠充分發揮創造力,曼哈頓計畫採取了獨特的組織管理模式。儘管計畫由軍方領導,但格羅夫斯同意加州大學成為洛斯阿拉莫斯實驗室的名義管理單位,基地軍隊只負責實驗室建設、後勤供應和安全保障,保證了實驗室內部的自由學術討論。曼哈頓計畫於1945年7月16日成功進行了世界上第一次核爆炸試驗,並按計畫製造出兩顆實用原子彈,標誌著核時代的來臨。這一計畫不僅促進了二戰後系統工程的發展,更從根本上改變了世界戰略格局和戰爭形態,為戰後國際秩序奠定了基礎。三、兩個"曼哈頓計畫"的異同分析戰略目標與時代背景的差異原版曼哈頓計畫與"第二個曼哈頓計畫" 雖然都被賦予國家戰略優先順序,但其戰略目標和時代背景存在顯著差異。原版曼哈頓計畫是在二戰期間實施的緊急戰時計畫,目標單一而明確——搶先納粹德國研製出原子彈。而川普政府推出的"創世紀行動"(Genesis Mission)則旨在確保美國在人工智慧領域的全球領導地位,其本質是一場關於算力霸權的國家競爭。從戰略緊迫性來看,原版曼哈頓計畫面對的是明確的、急迫的安全威脅——納粹德國的核武器計畫,具有明確的倒計時性質。而"第二個曼哈頓計畫"則是對長期性、系統性戰略競爭的響應,針對的是美國認為可能挑戰其技術霸權地位的國家,特別是中國。兩者的對比如下:原曼哈頓計畫:應對現實存在的戰爭威脅,目標具體、時間緊迫。第二個曼哈頓計畫:應對未來戰略競爭,目標廣泛、時間跨度長。實施主體與協作模式的轉變在兩個計畫的實施主體和協作模式上,也體現出顯著的時代差異:原曼哈頓計畫:由美國陸軍部主導,政府、軍方與科研機構緊密合作,但國際協作有限,主要與英國、加拿大合作。第二個曼哈頓計畫:體現出軍民融合的特點,聯邦政府提供政策支援和資源協調,但私營企業如OpenAI、輝達等扮演核心技術角色,且國際合作更加複雜,包括與沙烏地阿拉伯等國的晶片合作。技術特徵與資源需求的不同原曼哈頓計畫與"第二個曼哈頓計畫"在技術特徵和資源需求方面也存在本質區別:原曼哈頓計畫:依賴於物理和化學領域的突破,核心挑戰是核裂變材料生產和原子彈結構設計。資源需求主要集中在特殊材料(如鈾礦石)和工業生產能力上。第二個曼哈頓計畫:以數位技術為核心,依賴算力、演算法和巨量資料三大基礎。資源需求更加多元化,包括高端晶片、海量資料、電力能源和人才資源。表:兩個"曼哈頓計畫"關鍵維度對比保密與開放之間的平衡差異兩個計畫在知識管控方面採取了截然不同的策略。原曼哈頓計畫實施了極其嚴格的保密制度,科學探索成為軍事機密的重要組成部分。政府對所有核研究實施了嚴格的新聞檢查和保密措施,與戰前科學界的開放交流形成鮮明對比。相比之下,"第二個曼哈頓計畫"則採取了更為複雜的知識管控策略。一方面,川普政府的《美國人工智慧行動計畫》將開源AI技術列為戰略資產,鼓勵共享;另一方面,又通過晶片位置驗證技術,精準阻斷先進計算晶片流向特定國家,並完善對半導體製造裝置的出口管制,編織覆蓋全球的"技術流動過濾網"。這種選擇性開放與精準封鎖相結合的策略,反映了數字時代技術控制的複雜性。四、全球格局:主要國家的AI戰略佈局美國的全方位AI戰略體系美國推出的"第二個曼哈頓計畫"——"創世紀行動"(Genesis Mission),是一套全方位、多層次的AI戰略體系。該計畫由多個關鍵組成部分構成:政策法規層面:通過行政命令強制掃除監管障礙,授權司法部起訴那些制定"違憲"AI法規的州政府。川普政府還明確表示,對於試圖通過繁瑣安全測試、版權審查或以"倫理"為名限制AI發展的州,聯邦政府將揮舞削減資金的大棒。國際合作層面:積極開展技術外交與聯盟建構,如批准向沙烏地阿拉伯出售最先進的AI晶片,換取沙烏地阿拉伯資金支援。同時,輝達與馬斯克旗下的xAI宣佈,將與沙烏地阿拉伯支援的AI風投機構Humain合作,建立大型資料中心。產業供應鏈層面:推動供應鏈本土化,如OpenAI與富士康聯手在威斯康星州等地的美國工廠設計並製造下一代AI基礎設施硬體。這一合作旨在建構完全位於美國境內的、具有韌性的AI供應鏈,從晶片到機架,從冷卻液到電源模組,將AI物理層的控制權牢牢掌握在手。能源保障層面:能源部被賦予極高的戰略地位,因為未來的AI競爭,本質上是一場能源競爭。美國計畫建立"雲端自動化實驗室",利用AI加速從材料科學到生物學的全方位研究。中國的AI發展戰略與應對面對美國的AI戰略佈局,中國正在形成自己的AI發展路徑。中國發展AI的優勢主要體現在:豐富的應用場景:中國擁有龐大的國內市場,在智慧城市、工業網際網路、智慧醫療、自動駕駛等領域,形成了無可比擬的"超級試驗場"。這使中國企業有機會走出一條"應用反哺技術"的路徑,在解決實際痛點中打磨出具有中國場景特色的差異化競爭力。技術突破:中國已在AI技術領域取得一系列突破,如華為昇騰系列晶片在AI推理市場佔比超70%,DeepSeek模型以低算力實現高效率,打破了"唯算力論"的迷思。開放合作:中國正建構"去美國中心化"的AI生態圈,通過"一帶一路"等多雙邊框架,推動AI技術務實合作。例如,在東南亞、非洲推廣智能農業技術,在開發中國家部署AI醫療輔助系統。其他主要國家的戰略應對在全球範圍內,其他主要國家也紛紛制定了AI發展戰略:歐盟:早期通過"尤里卡計畫"(EUREKA)推動歐洲高科技合作,現在正致力於在技術主權與倫理監管之間尋求平衡。歐盟傾向於通過《人工智慧法案》等法律框架,建構可信AI的發展環境。日本:早在1980年代就提出了"技術立國"戰略,現在繼續加強在AI領域的研究與發展,但在基礎研究和原創技術方面面臨挑戰。俄羅斯:其科技發展模式有著獨特特點,歷史上曾執行過類似曼哈頓計畫的大型科學計畫,如斯大林時期的石油科研計畫。在AI領域,俄羅斯可能更注重AI在國家安全和軍事領域的應用。表:全球主要國家/地區AI戰略比較五、美國"第二個曼哈頓計畫"的深層動因技術霸權與國家安全的雙重考量美國推出"第二個曼哈頓計畫"的背後,是對於技術霸權旁落的深切焦慮。《美國人工智慧行動計畫》開宗明義,將AI定位為決定21世紀國家命運的終極"戰略制高點",認為誰主宰AI,誰就掌控科技命脈、經濟引擎與軍事利刃,進而定義全球秩序。該計畫的終極目標是建立"無可置疑、無可挑戰的全球技術主導權"。從國家安全形度看,美國軍方認識到AI技術正在成為新的戰略威懾力量,類似於冷戰時期的核武器。正如原版曼哈頓計畫是為了防止納粹德國率先獲得核武器一樣,"第二個曼哈頓計畫"旨在防止競爭對手在AI領域取得領先。美國國防部牽頭為軍事用途的AI資料中心制定"新的技術標準",以抵禦"最堅定、最有能力的民族國家行為者的攻擊",這充分反映了AI技術在國家安全的極端重要性。經濟競爭與產業發展的現實需求在經濟層面,AI技術已成為新一輪產業革命的核心驅動力。川普在沙烏地阿拉伯投資會議上的表態充分體現了這一點:"我們將與合作夥伴一起,建立世界上最大、最強大、最具創新性的AI生態系統"。這種對AI生態系統的重視,源於對AI帶動經濟增長和產業升級的期待。AI產業的發展直接關係到全球價值鏈重構中的國家地位。通過OpenAI與富士康的合作,美國試圖將供應鏈從"美國設計、亞洲製造"的分工模式,轉向完全位於美國境內的、具有韌性的供應鏈。這不僅關乎AI產業本身,更關係到未來製造業的整體競爭力。地緣政治與聯盟體系的重塑動力在地緣政治層面,"第二個曼哈頓計畫"成為美國重塑全球聯盟體系的重要工具。該計畫明確提出向核心盟友("小院")開放全套AI技術堆疊(硬體、模型、軟體),以技術共享深化戰略繫結,構築排他性技術圈層。這種技術聯盟的建構,與冷戰時期西方聯盟體系有著驚人的相似性。同時,美國在國際組織層面,於聯合國、國際電信聯盟(ITU)等平台強力推銷符合美國技術路徑的AI標準,並主導如人臉識別等敏感領域的全球規則制定,搶佔治理制高點。這種規則與標準的競爭,反映了美國試圖通過"第二個曼哈頓計畫"不僅保持在AI技術本身的領先,還要掌握AI治理和國際規則制定的話語權。六、中國影響:面臨的挑戰與機遇技術"卡脖子"的風險加劇美國"第二個曼哈頓計畫"對中國最直接的影響是技術封鎖的進一步加強。美國對華技術管制已升級至"外科手術"等級:運用晶片位置驗證技術,精準阻斷先進計算晶片流向特定目標;完善對尖端半導體製造裝置的出口管制,堵死"漏網之隙"。同時,利用關稅、政策協調等手段,施壓盟友採取同步管制措施,編織一張覆蓋全球的"技術流動過濾網"。這種全方位、精準化的技術封鎖,使得中國AI產業面臨嚴峻的"卡脖子"困境。高端晶片獲取難如登天,先進演算法接觸受阻,直接威脅大模型研發的算力根基,拖慢迭代步伐;半導體製造裝置的嚴控,更讓晶片產業自主升級之路成本陡增、道阻且長。特別是在訓練下一代AI模型所需的高端晶片和資料中心技術方面,中國可能面臨供應鏈斷裂的風險。國際合作空間受到擠壓美國的"第二個曼哈頓計畫"還包括建構排他性的技術聯盟,這將對中國的國際科技合作空間形成擠壓。計畫中明確提出由商務部牽頭,建立一個旨在向盟友和夥伴"出口其完整的人工智慧技術堆疊——硬體、模型、軟體、應用和標準"的計畫。這標誌著美國將系統性地捆綁其技術優勢,以鞏固地緣政治聯盟。中國AI企業"出海"過程中,將面臨美國主導的技術聯盟和標準體系設定的"玻璃門",尤其在智能駕駛、人臉識別等應用領域,規則話語權的缺失可能導致市場准入障礙重重。中國在聯合國、國際電信聯盟等國際組織中的影響力也可能受到美國有計畫的制衡。倒逼自主創新的歷史機遇儘管面臨嚴峻挑戰,但美國的技術封鎖也可能成為倒逼中國自主創新的強大動力。近年來,中國在AI領域的突破已有端倪,如華為昇騰系列晶片在AI推理市場佔比超70%,DeepSeek模型以低算力實現高效率,打破了"唯算力論"的迷思。外部高壓必將促使中國在基礎研究與核心技術攻堅上加倍投入,推動產業鏈從"整合組裝"向"核心自主"的深刻轉型。歷史經驗表明,技術封鎖往往是一把雙刃劍。原版曼哈頓計畫雖然使美國一度壟斷核武器技術,但最終蘇聯、英國、法國、中國等國都相繼實現了核技術的自主突破。同樣,在AI領域,美國的封鎖可能短期內延緩中國的發展速度,但長期來看,難以阻止中國實現技術自主。"負責任AI"的標竿機遇美國激進"去監管"可能引發的倫理失控、安全風險,反襯出中國堅持發展與規範並重道路的潛在價值。若中國能在AI倫理治理、資料安全等領域形成成熟可信的"中國方案",將極大提升國際形象與治理話語權,開闢更廣闊的合作空間。中國於2025年7月26日倡議成立世界人工智慧合作組織,初步考慮總部設在上海,希望利用中國特別是上海人工智慧先發優勢,凝聚國際共識,促進務實合作,讓人工智慧真正造福全人類。這一舉措表明,中國正試圖通過強調AI發展的普惠性和包容性,與美國的技術霸權形成對比,爭取國際社會的理解與支援。七、啟示與建議:中國的破局之路強化自主創新,突破核心技術瓶頸面對美國"第二個曼哈頓計畫"的全面圍堵,中國的根本出路在於強化自主創新能力,突破AI核心技術瓶頸。具體而言:晶片領域:需要集中力量攻克AI晶片的設計、製造和封測全環節技術難關。華為昇騰系列晶片的成功已經證明了中國在晶片設計領域的能力,下一步需要打通全產業鏈,降低對外部技術依賴。演算法與模型:應當鼓勵像DeepSeek這樣以低算力實現高效率的技術路徑創新,在基礎模型、高效訓練推理框架的研發上持續投入,以"巧實力"彌補可能的"硬差距"。開源生態建設:建構自主可控的AI開源生態,形成從底層框架、開發工具到應用場景的完整技術堆疊,避免在軟體生態層面受制於人。發揮市場優勢,深化應用場景驅動中國最大的優勢在於龐大的國內市場和豐富的應用場景。應當充分利用這一優勢:推進AI與實體經濟深度融合:在智能製造、智慧城市、醫療健康、農業等傳統產業領域,加快AI技術的落地應用,通過場景應用反哺技術創新。打造行業示範案例:選擇中國具有優勢的產業領域,打造一批具有國際影響力的AI應用示範項目,形成可複製、可推廣的解決方案。鼓勵中小企業創新:通過政策引導和市場機制,激發中小企業在AI應用創新方面的活力,形成大中小企業融通發展的產業生態。建構合作網路,拓展國際發展空間在美國建構排他性技術聯盟的背景下,中國需要更加靈活地拓展國際合作空間:深化"一帶一路"AI合作:通過在東南亞、非洲等地區推廣智能農業技術、AI醫療輔助系統等,建構"去美國中心化"的AI生態圈,實現互利共贏。參與全球規則制定:在國際標準組織(ISO、IEC、ITU)及聯合國框架下,積極參與甚至主導AI安全、倫理、互操作性等關鍵標準的制定,提供基於實踐的"中國方案"。保持與美國的技術交流:儘管面臨封鎖,但仍需通過各種管道保持與美國學界、企業界的技術交流,利用開源社區和國際科學合作平台,吸收全球創新養分。夯實數字基建,佈局能源支撐體系AI競爭的背後是算力基礎設施和能源支撐體系的競爭。中國需要:建構全國一體化算力體系:通過"東數西算"等國家工程,最佳化算力資源佈局,提升算力使用效率。加強綠色能源與AI融合:前瞻佈局AI與核能、可再生能源結合的技術路線,確保未來AI發展的能源需求得到滿足。推動基礎設施建設:加強資料中心、通訊網路等數字基礎設施建設,同時注重能效提升和環境影響控制。完善治理體系,保障AI安全可控在美國激進"去監管"的背景下,中國可以通過建構負責任AI治理體系形成對比優勢:發展與規範並重:在鼓勵AI創新的同時,建立健全AI倫理、安全和隱私保護規範,實現技術創新與有效監管的平衡。探索敏捷治理模式:針對AI技術發展快、迭代頻繁的特點,探索分類分級、敏捷高效的治理模式,避免"一刀切"阻礙創新。加強AI安全研究:針對AI系統的漏洞和風險,加強安全技術研究和保障體系建設,確保AI技術應用安全可控。八、迎接智能時代的大國競爭美國"第二個曼哈頓計畫"的推出,標誌著全球AI競爭進入了一個新的歷史階段。與原版曼哈頓計畫不同,這場競爭並非在戰爭背景下展開,但其對國際格局的影響可能同樣深遠。對中國而言,這既是前所未有的挑戰,也是歷史性的機遇。中國在AI領域有著自身的獨特優勢:龐大的市場、豐富的資料資源、強大的工程化能力和較為完整的產業體系。通過自主創新、應用驅動、開放合作和有效治理,中國完全有能力在美國的技術封鎖中開闢出一條自己的AI發展道路。這場關乎未來的AI霸權爭奪戰,勝負遠未分曉。中國若能持續在核心技術上取得突破,在應用場景上深化落地,在治理規則上貢獻智慧,不僅能有效打破美國的戰略圍堵,更能在全球AI發展版圖上刻下鮮明的"中國坐標",最終為人類智能時代的進步貢獻不可或缺的中國力量。這場博弈,不僅是技術的較量,更是道路與智慧的考驗,其結果將深刻影響21世紀的世界格局。 (莊說)