上周,一條新聞悄悄刷屏了,但大多數人可能沒意識到它的份量。
美軍一口氣掏出540億美元——注意,是540億,美元——把OpenAI、Google、NVIDIA、Microsoft這些矽谷最頂尖的AI巨頭,全部拉進了自己的機密軍事網路。
不是買幾塊顯示卡,不是搞個試點項目。而是讓最前沿的大語言模型、最強算力叢集,直接與美軍最高等級的作戰系統深度耦合。
我翻遍了能找到的公開資料,越看越覺得後背發涼。一位前五角大樓AI項目負責人的原話是:“未來的戰爭,可能在你眨完一次眼之前,就已經結束了。”
這不是科幻片。這是正在發生的現實。
一、戰爭規則正在被這三件事徹底改寫
這份合同,把人類戰爭史硬生生推過了三道分水嶺:
第一,戰爭速度將從“小時級”壓縮到“毫秒級”。 過去打仗靠將軍拍腦袋,未來打仗靠AI跑演算法。OODA循環——觀察、調整、決策、行動——將從“人機協同”變成“機器主導的納秒級閉環”。人類指揮官的角色,正在從“操作者”退化為“緊急停止按鈕的看守者”。
第二,戰爭形態將從“航母對轟”變成“蜂群撕咬”。 成千上萬的無人機、無人艇、地面機器人,不再是人遙控的“飛行攝影機”,而是搭載AI智能體的自主作戰單元。它們能自己組網、自己分工、自己找目標。SpaceX的星鏈與AI結合,賦予這些分佈式節點近乎全球的連通性。
第三,戰爭前線將從戰場延伸到你的手機螢幕。 OpenAl和Google的模型接入機密網路後,最核心的用途之一就是全頻譜情報分析和認知戰。AI可以即時生成深度偽造視訊、定製化虛假新聞、在社交網路上操控輿論——戰爭可能在沒有開槍的情況下,就已經通過瓦解民心分出勝負。
這三件事,每一件都足以改寫現代戰爭的全部邏輯。而它們正在同時發生。
二、“閃電戰”進化成“納秒戰”
傳統的戰爭理論講“唯快不破”。但過去這個“快”受限於人類神經反射速度——指揮官要看情報、開會、拍板、下達指令,幾個小時甚至幾天是常態。
現在不一樣了。
部署在機密網路中的多模態AI,可以在瞬間完成海量衛星圖像、訊號情報、網路流量、感測器資料的交叉比對。AI不僅能在幾秒內生成動態戰場態勢圖,還能推演敵方幾十種可能的行動分支,並給出最優解及配套的執行方案。
更關鍵的是戰術邊緣的自主系統。搭載了輕量化AI模型的無人機和智能彈藥,具備即時識別、分類目標、自主規劃攻擊路徑的能力。這意味著未來的高強度衝突,可能不再有傳統意義上的“拉鋸戰”,而是一系列極其短暫、劇烈、連續不斷的“脈衝式”交鋒。
戰爭的持續時間可能被壓縮到數天甚至數小時。誰家的AI先識別出對方指揮鏈的關鍵節點並完成“斬首”或癱瘓,誰就能在戰爭剛開始時就奠定勝局。
人類士兵和指揮官的角色,正在從“操作者”退化為“許可者”——絕大多數高動態的決策將由AI在後台以納秒級速度完成。我們只剩下一個權限:按下停止按鈕。
三、航母的末日?無人“狼群”正在接管戰場
這次合約中提到的作戰系統升級,必然包含無人作戰平台的指數級擴張。
你可以想像這樣一個場景:未來的戰場上,天空中盤旋著數萬架只有巴掌大小的無人機,海面上漂著密密麻麻的無人艇,海底有無人潛航器在游弋。這些平台不再是單個遙控的“玩具”,而是通過AI動態自主組網的“智能體叢集”(Agent Swarm)。
它們能根據一句高層指令——比如“封鎖某海域”或“清除某區域內的裝甲目標”——自行分配任務、規避防空火力、共享目標資訊,甚至在被擊落後自動重組陣型。這就是所謂的“蜂群”或“狼群”效應。
這就帶來一個細思極恐的問題:航母還扛得住嗎?
一艘造價130億美元的福特級航母,需要5000名官兵操作。而一群造價加起來不到1億美元的無人機蜂群,可以對其發動飽和攻擊。這不是“能不能打下來”的問題,而是“效費比”的問題——你用1億美元的蜂群換掉一艘130億美元的航母,戰爭的天平會瞬間傾斜。
未來的戰爭將從“摧毀有生力量”為主,轉向“癱瘓對方的智能作戰體系、演算法鏈路和資料流”為主。誰能切斷對方的“神經網”,誰就能讓對方龐大的鋼鐵巨獸變成瞎子聾子。
四、認知戰——戰爭還沒打,你可能已經輸了
Google和OpenAI的技術接入機密網路,最讓我感到不安的其實是這個方向。
AI可以抓取全球開放和閉源情報,通過情感分析和趨勢預測,精準把握一個國家的社會脈搏、輿論動向和決策層的心理畫像。然後,生成式AI可以即時製造以假亂真的深度偽造視訊、定製化虛假新聞、模仿領導人的語音指令。
更可怕的還不是造假。而是規模化、個性化的“認知操控”。
AI可以同時管理數百萬個社交帳號,針對每個人的心理畫像推送定製化的虛假資訊。你看到的消息,和你鄰居看到的截然不同,但都是精心設計來影響你判斷的。這種認知戰將與網路戰、電子戰同步進行——AI可以同時發現敵方指揮網路的協議漏洞、生成滲透程式碼,並配合虛假資訊投放,讓敵方的決策層在錯誤的認知基礎上做出災難性的決定。
這讓我想起一句話:“戰爭可能在沒有一發子彈射出、沒有一架飛機起飛的情況下,就已經通過瓦解民心、混淆決策而分出勝負。”
“不戰而屈人之兵”,將以AI自動化、規模化的方式成為大國博弈的常態。
五、演算法黑箱——比核武器更危險的不確定性
這部分很少有人講,但我認為是最值得警惕的。
核威懾的邏輯很清晰:互相確保摧毀(MAD)。你知道我有多少核彈,我知道你有多少,大家都不敢動手。
但AI戰爭不一樣。AI模型可以通過微調快速改變能力,演算法的不可解釋性讓對手根本無法評估你的真實殺傷力。你不知道對方的AI在什麼條件下會自主開火,對方也不知道你的。
更危險的是“人機脫離”。
如果在危機時刻,一方的AI預警系統因為資料噪聲或對抗樣本攻擊而產生誤判,自動發射了武器,而人類根本來不及干預——那麼局部摩擦可能在幾分鐘內升級為全面戰爭。如果法律允許一定範圍內的自主行動,情況會更加失控。
這次合同的一個細節很耐人尋味:Anthropic被排除在外了。為什麼?因為Anthropic明確拒絕將AI用於自主武器系統。這恰恰從側面印證了,合同涉及的內容確實包含自主殺傷鏈的研發。
未來的悲劇,可能不再源於人的瘋狂,而是源於一行有缺陷的程式碼或一次資料的污染。
六、軍工供應鏈革命——鋼鐵洪流讓位於資料洪流
這份合同讓矽谷巨頭直接成為國防核心供應商,打破了五角大樓傳統緩慢的軍工採購體系。
未來,軍事能力的更新將更像軟體迭代——通過OTA空中下載,向前線裝備推送新的AI模型權重,以應對敵方新的戰術或電子干擾模式。
這意味著什麼?擁有強大雲端運算基礎設施(微軟、Google、AWS)和頂級AI研發人才(OpenAI、Google DeepMind)的國家,將具備近乎無限的“戰爭韌性”和“能力生成速度”。戰場上繳獲對方的硬體將變得毫無意義,因為核心戰鬥力藏在雲端和模型的參數里。
這也讓科技公司的立場變得極其微妙。它們既是全球商業的支柱,又是致命武器系統的賦能者。Anthropic被排除的案例,恰恰反映了在巨額國防資金面前,科技倫理正面臨巨大的擠壓。未來可能會有更多的AI公司被迫在“不做惡”與“服務國家”之間做出艱難抉擇,而這也將影響全球AI人才流動和技術路線的分化。
七、【避坑提醒】普通人該怎麼面對AI戰爭時代?
聊了這麼多宏觀的,可能有人要問了:“這關我什麼事?”
說實話,關你的事,而且關係很大。
第一,AI軍事化正在加速AI技術向民用領域外溢。 你很快就會看到更強大的AI工具進入市場——視訊生成、智能體自動化、多模態分析——這些技術最初是為戰爭開發的,但最終會改變你的工作方式和職業賽道。我試過幾個軍用級AI技術降維到民用場景的工具,效果確實比市面上的普通產品強太多。
第二,認知戰離你並不遙遠。 2024年全球大選年,我們已經看到了AI生成的虛假資訊如何影響公眾輿論。學會辨別AI生成內容,正在成為一項基本生存技能。別讓演算法替你決定該信什麼——這句話在2026年比任何時候都重要。
第三,別踩這個坑:不要以為AI戰爭離你很遠就事不關己。 歷史告訴我們,每次軍事技術革命都會重塑全球經濟結構和就業市場。網際網路最初也是軍事項目(ARPANET),GPS是軍用技術,而它們最終改變了每一個人的日常生活。 (人工智慧奇點將至)
