“最初用於編寫程式碼和詩歌的工具,如今已成為致命的武力。”·達里歐·阿莫迪。(美國哥倫比亞廣播公司)美以對伊朗的軍事行動已持續數日,一則新聞再次吸引了全球的目光。據《華爾街日報》報導,美軍在對伊朗的大規模轟炸行動中,用上了美國AI公司Anthropic旗下的大語言模型克勞德(Claude)。知情人士證實,包括美國中央司令部在內的全球各司令部,都在使用Anthropic的AI工具。對此,英國《衛報》稱,“這是危險的轉折點” 。這已不是AI第一次走上戰場。今年1月美軍抓捕委內瑞拉總統馬杜洛時,克勞德就已被用於軍事行動。而這也引發了美國政府與Anthropic之間持續數月的爭執——關於五角大樓究竟該如何使用AI模型。而站在風暴中心的,是Anthropic創始人兼首席執行長達里歐·阿莫迪。當導彈能像人一樣思考據《華爾街日報》報導,克勞德主要服務於指揮部門,承擔情報分析、目標識別以及戰鬥場景模擬等任務。·當地時間3月2日,美以聯合對伊朗發起的軍事行動仍在持續,一名男子走過德黑蘭尼盧法廣場附近受損的居民樓。(法新社)Anthropic與美軍的合作始於2024年11月。同一時期,美國資料分析公司Palantir和亞馬遜網路服務也開始為美軍提供技術支援。據《華盛頓郵報》報導,由Palantir開發的軍方“梅文智能系統”,能從衛星、監控及其他情報來源的資料中提取關鍵資訊。而被整合進這套系統的克勞德模型,則負責對敏感情報進行分析處理。目前,克勞德已成為美軍許多部門使用的日常工具。對美軍而言,AI帶來的最大改變,是戰爭節奏本身。《戰爭律師》一書的作者克雷格·瓊斯在接受英國《衛報》的採訪時提到,在一戰和越南戰爭期間,美軍從空中偵察到執行轟炸任務通常需要6個月。但現在,整個周期已經被AI大幅壓縮。“AI系統會給出打擊目標的建議,速度遠超人類思維。”新美國安全中心執行副總裁保羅·沙雷則向路透社介紹,對美軍而言,AI已經從理論假設走向真實戰場。“這讓美軍能夠以機器速度,而非人類速度來制定打擊方案。”在此次對伊軍事行動中,以軍也用上了AI技術。其使用的新型空對地巡航導彈“破冰者”,深度融合了AI演算法。它能像人一樣思考,自主規劃飛行路徑,精準辨別目標,甚至可以在空中與其他導彈即時溝通、分工協作。·美國海軍托馬斯·哈德納號驅逐艦發射戰斧導彈,支援美以對伊實施的“史詩怒火”行動。(蓋蒂圖片社)此外,據《財富》雜誌報導,AI目前也出現在了其他戰場上。以色列在以巴衝突期間曾利用AI識別哈馬斯目標。而在俄烏衝突中,自主化無人機已經投入使用,俄羅斯和烏克蘭都採用了不同形式的自主技術。對於AI介入軍事行動,外界普遍感到不安。以色列《耶路撒冷郵報》評價,將大語言模型融入戰爭,標誌著現代戰爭的重大轉變,“最初用於編寫程式碼和詩歌的工具,如今已成為致命的武力”。Anthropic剛被踢出局,競爭對手立刻補上了空缺。川普禁令發佈幾小時後,美國AI公司OpenAI就與五角大樓達成協議,開始向機密系統提供AI技術。“要麼配合,要麼出局”在此次美以對伊朗的軍事行動中,Anthropic公司的AI模型扮演了關鍵角色。然而頗具戲劇性的是,就在空襲開始前幾個小時,這家公司剛剛被美國國防部和川普雙雙“拉黑”。據英國廣播公司報導,Anthropic與美國當局的緊張關係“可以追溯到幾個月前”。今年1月,美軍在抓捕委內瑞拉總統馬杜洛的突襲行動中,使用了克勞德模型。Anthropic隨後提出反對,聲明其使用條款明確禁止將AI用於暴力目的、武器研發或監控活動。此後雙方關係持續惡化,開始了長達數周的談判。據美國有線電視新聞網報導,談判中Anthropic在兩個問題上寸步不讓:一是AI控制武器,二是AI對美國公民的大規模監控。他們認為,AI目前還不足以可靠地操控武器,而且也無法律規範大規模監控的行為。面對Anthropic的堅持,美國國防部長赫格塞斯下了最後通牒。·赫格塞斯。(蓋蒂圖片社)當地時間2月24日,他與阿莫迪會面,要求對方放寬AI模型的安全限制,並給出了最後期限:2月27日前,美軍必須獲得克勞德模型的無限制使用權,否則公司將被列入政府“供應鏈風險”黑名單。進入黑名單意味著,所有簽有軍事合同的公司,此後不得在任何軍事工作中使用Anthropic的產品。26日,阿莫迪公開發文,表明立場不變。“即便是當今最先進、最強大的AI系統,其可靠性也不足以支撐完全自主武器的運作。”他在文中寫道,“我們不能昧著良心答應美軍的要求”。阿莫迪發文不久後,五角大樓給出了回應。一名美國國防部官員對媒體表示,Anthropic必須做出選擇,“要麼配合,要麼出局”,否則國防部將強制使用克勞德模型,無論Anthropic是否願意。·阿莫迪。(蓋蒂圖片社)緊接著,川普下令所有聯邦機構立即停用克勞德。他還在真實社交(川普於2021年自創的社交媒體平台)上痛批Anthropic,稱其為“由一群不懂現實世界的人營運的左翼瘋子公司”。幾小時後,美軍戰機從部署在中東的“林肯號”和“福特號”航母以及海外軍事基地起飛,與以色列空軍一起,向伊朗發動了大規模空襲。“技術的青春期”與美國當局“硬剛”的阿莫迪,實際上與OpenAI的淵源頗深。阿莫迪出生於1983年,本科畢業於美國史丹佛大學物理學專業,後取得美國普林斯頓大學生物物理學博士學位。畢業後,他曾在百度矽谷AI實驗室工作,後加入Google從事語音識別研究。2016年,他加入OpenAI,一路做到研究副總裁,主導開發了GPT-2和GPT-3大語言模型。然而在2021年,他與OpenAI創始人薩姆·奧特曼在AI安全理念及商業化方向上產生了分歧。此後,阿莫迪帶著包括妹妹丹妮拉·阿莫迪在內的十多名公司核心成員離職,創辦了Anthropic,並推出克勞德系列模型。·阿莫迪(左)與妹妹丹妮拉。(蓋蒂圖片社)離開OpenAI後,阿莫迪與奧特曼的分歧並未消解。就在今年年初,他與奧特曼在新德里的一場AI峰會上同台,但彼此拒絕握手、沒有眼神交流。他曾在播客裡直言,“不相信奧特曼能讓AI不走彎路”。·2026年2月,在新德里舉行的“AI影響力峰會”上,印度總理莫迪(左)與奧特曼(中)、阿莫迪等AI企業負責人合影。(蓋蒂圖片社)兩人最大的分歧,還是在於對AI安全的擔憂。今年1月,阿莫迪在題為《技術的青春期:直面並克服強大AI的風險》文章中警告“AI海嘯將至”,但社會遠未準備好。他認為,當“智力、工具規模、時間優勢”疊加,AI將是一個會重寫安全、經濟與權力結構的變數。他擔心,一旦強大的AI被大型組織掌控,將對外形成壓倒性優勢,帶來不可預估的後果。然而也有觀點指出,阿莫迪的AI恐懼論實際上是刻意利用科技倫理問題,打壓競爭對手。今年2月,阿莫迪曾公開指控DeepSeek等三家中國AI企業發動“工業級蒸餾攻擊”,“抽取”克勞德模型能力。但在AI領域,“蒸餾”本就是將大參數模型遷移到小模型的常用技術,類似於模仿學習,而非抄襲。而阿莫迪此番發言卻把這一技術污名化,試圖抹黑中國同行。從這個角度看,阿莫迪似乎並非單純追求AI的正確發展,而是在爭奪誰有做AI的權利。正如普利策獎得主、國家安全記者斯賓塞·阿克曼所指出的,阿莫迪在最初與美國軍方簽訂協議時就忽略了科技倫理問題。阿克曼批評道:“當你收了末日博士(漫畫中的反派角色)的錢,給他製造零件時,你難道不知道他要造的就是末日機器人嗎?”有評論認為,阿莫迪堅守技術倫理底線的選擇,固然有科學家式的理想與堅持,但他對中國AI公司的無端敵意與雙重標準,又讓這份堅守失去了應有的中立與格局。 (環球人物)