未來的暗線:AI正在成為有史以來最強大的權力分配引擎
2026年的2月末,在吵鬧與爆炸聲中,歷史的齒輪完成了致命的咬合。
今天的新聞流裡不斷刷新的是中東的戰火,美國針對伊朗的重大作戰行動在黎明前打響,防空警報與爆炸的火光再次提醒世界,地緣政治的底色依然是殘酷的物理摧毀。
然而,僅僅一天前,另外兩條極具“未來感”的暗線正在悄然收束,其深遠影響甚至超越了真實的戰場。
首先,在華盛頓與矽谷之間,川普政府與頂尖AI模型anthropic之間的對峙也迎來了最後通牒,政府以極其強硬的姿態,動用《國防生產法》和“供應鏈風險”的滅頂威脅,強制要求該公司交出AI模型在軍事和情報場景中的絕對控制權。
在威脅未果之後,白宮撤銷了anthropic的數億美元合同,轉手交給了OpenAI,以幾乎相同的條款。
然後,很少人注意到的是,昨天在德克薩斯州的荒漠邊境,一道肉眼不可見、以光速運行的高能雷射束無聲地將一架飛行器化為灰燼。雷射武器已經走出科幻,進入了真實部署與真實誤傷風險的世界。
戰爭的爆發、雷射武器的實戰部署、國家機器對AI主權的不計代價的爭奪,這三者看似是互不相干的獨立事件,實則共同指向了一個關於歷史走向的真相:人類正在進入一個“高後果系統”被徹底重寫的時代。
未來的風險,不再僅僅是一個瘋狂的獨裁者按下了核按鈕;而是越來越多的“生殺大權”正在被悄無聲息地流程化、平台化、自動化,最終變成黑盒系統裡的一個默認選項。
在這場劇變中,AI早已不再是單純提高生產力的效率工具,它正在成為人類有史以來最強大的權力分配引擎。它重新分配的不只是財富,更是戰爭中的決策速度、監控的滲透能力,乃至定義“誰生誰死”的終極話語權。
作為普通人,我們或許無法強行扭轉這些時代巨輪的航向,但看透其底層的動力系統,是我們在這個高槓桿時代保護自己並籌謀未來的唯一途徑。
一、前所未有:權力分配的底層邏輯正在被降維打擊
在人類漫長的歷史中,權力的分配大致圍繞三種稀缺資源的變遷而展開。
第一階段是土地與人口。誰能將更多的人口組織在更廣袤的土地上,誰就擁有了無與倫比的稅收與徵兵能力,這是農耕時代的權力基石。
第二階段是工業與能源。鋼鐵、石油、電網與跨洋供應鏈,決定了現代國家的能力與超級企業的版圖。
第三階段是資訊與組織。現代國家機器與跨國公司,本質上是一台龐大的資訊處理機,依靠極其複雜的官僚科層制度,將海量資訊加工成決策,再將決策轉化為現實行動。
但今天,人工智慧對這三種傳統的權力邏輯發起了無情的“降維打擊”。它在組織的最深處,直接清零了資訊加工與執行的“邊際成本”。
過去,需要成千上萬名情報分析師、合規審查員、作戰參謀耗費數月才能完成的風險評估與沙盤推演,現在變成了大語言模型在幾秒鐘內吞吐的Token流。模型越強大,就越容易將極其複雜的國家行政或企業管理,壓縮為一個“少數人可控的操作介面”。
這就是AI作為“權力分配引擎”的恐怖之處:它不需要向你推銷任何意識形態,它只需要成百上千倍地降低某種行動的成本,就足以重塑整個世界的權力版圖。
在這股力量的驅動下,我們正在目睹兩種極其弔詭的變化同步發生:國家正在變得越來越像一台受軟體驅動的程式碼機器,瘋狂追求決策的去人工化與絕對的執行速度;而超級科技公司則越來越像擁有主權的小型國家,它們壟斷著算力、資料與基礎設施,能夠以極少的人力調動足以顛覆政權的經濟與輿論能量。
當這兩大極度膨脹的利維坦相撞,它們爭奪的核心資產只剩下一個:誰擁有對AI系統邊界的最終定義權?
二、表面是良知,深層是控制權:華盛頓與矽谷的攤牌
理解了權力的重構,我們再來審視當下美國政府與頂尖AI實驗室之間的大對決。這場對峙的導火線,表面上是對“限制條款”的爭奪。
以Anthropic為代表的前沿AI企業,試圖為模型畫下兩條生死紅線:其一,絕不用於對國內民眾的大規模監控;其二,絕不介入“缺乏人類監督的自主殺傷鏈”(例如讓模型自動選擇並擊殺目標)。
而華盛頓的官僚與將軍們使用的是另一套語言系統:國家安全需要“不受限制”的武力可用性。在政府的視野裡,一家私營企業試圖用商業條款來指導國家機器如何運作,是一種不可饒恕的僭越。
於是,我們看到了極其極端的政治切斷:總統公開要求聯邦機構立即停用相關技術,國防部長下達最後通牒,甚至祭出“供應鏈風險”這種通常用於制裁敵對國家的核武器級制裁手段。
這絕不是一場簡單的商業違約或八卦式的政治站隊。它暴露了一個在未來十年都將深刻主導全球局勢的結構性事實:AI已經成為國家暴力的核心元件。
技術越靠近國家主權和軍事安全的禁區,國家機器就越無法容忍外部主體(即使是本國的科技巨頭)單方面劃定邊界。而對於企業而言,一旦在“自主殺戮”或“無底線監控”上開了綠燈,其面臨的法律反噬、聲譽破產以及內部人才的流失將是毀滅性的。
這場看似關於兩億美元合同的糾紛,本質上是“國家主權”與“技術主權”的正面相撞。它提前引爆了那個一直被各方有意迴避的終極拷問:當技術足以毀滅世界時,到底誰說了算?
三、雷射武器的現實隱喻:戰爭的“經濟學”被徹底改寫
就在AI的控制權爭奪戰白熱化的同時,另一項曾專屬於科幻電影的技術——高能雷射武器,正在悄然重塑物理戰場的法則。
雷射束以光速移動,比最快的狙擊步槍子彈還要快二十多萬倍。噹噹今的防空系統攔截一枚廉價的自殺式無人機,往往需要發射一枚造價高達200萬美元的標準攔截導彈;而一台高能雷射發射器,只要有持續的電源供給,它就擁有“無限的彈匣”,單次發射的成本甚至低至13美元。
這一組懸殊的數字對比,絕非僅僅是軍費開支的節約。它意味著戰爭的“底層經濟學”參數被徹底篡改了。
當防禦方的每一次攔截都極其昂貴時,人類指揮官必須保持高度的克制:必須反覆確認目標價值、計算剩餘彈藥、評估性價比。但當攔截成本趨近於零,且只要有電就能無限開火時,決策邏輯就會發生根本性的逆轉。系統會更傾向於“先打再說”,戰場的行為模式將從“精確的人類判斷”讓位於“高頻的機器試錯”。
伴隨這種高頻試錯而來的,是誤判與附帶損害機率的指數級上升。雷射的傳播與散射特性意味著,一旦擊偏,那道光束可能會飛出數百英里。
前不久在美國邊境發生的荒誕一幕正是預警:邊境巡邏隊在未通知航空監管部門的情況下擅自發射雷射,結果不僅導致大面積空域緊急關閉,被擊落的“威脅目標”事後竟被證明只是一個飄動的派對氣球。
從美國海軍在驅逐艦上測試HELIOS系統,到陸軍將反無人機雷射器裝上戰術卡車,再到以色列推進“鐵束”防空系統進入實戰。一條極其清晰且沒有摩擦力的高速通道已經被鋪就:從發現目標到實施摧毀的物理鏈路被壓縮到了極致。
現在,萬事俱備,只差一個擁有無盡算力的大腦來接管這條殺戮鏈路。答案,毫無懸念地指向了AI。
四、 AI與雷射的致命合流:當系統喪失對“跨線”的敬畏
將脫韁的AI大模型直接嵌入擁有“無限彈匣”的定向能武器網路,戰爭將發生極其恐怖的質變。
首先,目標識別與交戰規則將被徹底“黑盒化”。人類軍官制定的作戰準則,將被翻譯成程式碼和機率閾值。當目標數量龐大時,人類的介入將不可避免地淪為一種走過場的“形式審查”。戰爭將從“人類與人類的意志較量”,徹底淪為“演算法與演算法的冷酷避險”。
更令人擔心的是AI在戰爭迷霧中的固有邏輯。根據《新科學人》的報告,在近期多次高端的AI地緣政治戰爭推演中,研究人員發現了一個極其危險的訊號:
先進大模型在衝突升級的階梯上,選擇核手段的頻率高得出人意料,在絕大多數的模擬對局中,系統都至少主動使用了一次戰術核武器。更要命的是,在86%的衝突中,行動的升級程度遠超模型在後台日誌中自述的戰略意圖。
為什麼會這樣?因為無論模型被訓練得多麼聰明,它都沒有人類世代相傳的“對核毀滅的社會化恐懼”。
對於人類,按下核按鈕意味著文明的終結;但對於處於高不確定性環境中的數學模型而言,使用核武器或者無差別雷射掃射,僅僅是追求勝率最大化的一次“最優解”計算。它把毀滅當作最佳化,而不是底線。
這正是今天華盛頓與矽谷的衝突如此動人心魄的原因。科技領袖們深知這種“系統級冷血”的可怕,試圖拚死守住安全限制;而沉迷於權力與大國競爭的政客們,卻試圖用行政大棒敲碎這些護欄,任由系統向“自動化默認”的深淵滑落。
五、歷史的幽靈:從曼哈頓計畫看技術精英的宿命
如果你對今天AI公司在強權面前的無力感感到驚訝,那是因為你遺忘了歷史的教訓。
在20世紀中葉曼哈頓計畫的巔峰時期,以利奧·西拉德和尼爾斯·玻爾為代表的世界上最頂尖的物理學家,比任何人都更早地預見到了核裂變可能帶來的文明浩劫。他們傾盡後半生的精力,起草請願書,試圖阻止原子彈在實戰中的使用,甚至勾畫了精妙的國際核控方案。
他們天真地以為,憑藉自己無與倫比的“智力權威”,就能夠對政客們發號施令。但他們最終一敗塗地。
這種失敗的根源,是科學共同體與國家機器之間深刻的“文化錯配”。科學家們習慣於探索真理、評估可行性;而政治家們只關心權力的壟斷與現實的競爭。
當科學家們試圖越俎代庖去指導武器的使用方式時,他們其實是在要求一場重構國家主權的“政治革命”。他們對權力的本質缺乏最基本的敬畏,這種未經審視的信念,讓他們在一開始就簽下了一份註定被反噬的浮士德契約。
今天的AI衝突,簡直是曼哈頓計畫的完美翻版。技術精英們試圖用寫在商業合同裡的“限制條款”來約束國家機器,政治精英們則毫不猶豫地用“強制力”來宣告誰才是真正的主人。
歷史給出的殘酷教訓是:在這個世界上,想要穩定地影響決策,僅憑聲望、專業知識和邏輯的正確性是遠遠不夠的。強大的技術一旦誕生,必定會深深嵌入權力結構的最深處,被用於競爭、威懾與擴張。
六、普通人的倒懸之危:被外包的命運與工業化的恐懼
當我們在談論AI、雷射武器與大國衝突時,許多人會覺得這只是國際版面的宏大敘事,離自己的房貸和三餐太遠。但真正的危險在於,這台權力分配引擎的震盪,會以極高的顆粒度滲透進每個普通人的生活。
1. 命運裁判權的“系統化轉移”
當各大機構將AI深度嵌入日常流程,它們追求的是絕對的穩定與極低的成本。你的簡歷能否通過初篩、你的貸款能否獲批、你在機場是否會被列入額外審查名單,不再由一個可以溝通、可以申訴的具體人類決定。決
策從“人類可解釋”徹底走向了“黑盒系統可運行”。你不知道自己為什麼被拒絕,責任被完美地分散在模型、供應商和合規流程之中,普通人陷入了卡夫卡式的系統迷宮。
2. 危機外溢的“瞬時性”
就像2月28日的空襲事件所昭示的,當地緣政治的摩擦消除了緩衝地帶,當決策鏈路被AI極度壓縮,危機爆發的速度將超出人類社會的反應極限。
遠方的一場衝突,可能會在幾秒鐘內通過演算法交易引發全球市場的閃崩、能源價格的暴漲或物流網路的癱瘓。普通人的資產與生計,將史無前例地暴露在被遠方事件高頻觸發的風險之中。
3. 恐懼與敘事的“工業化製造”
當國家與巨頭掌握了能夠無限生成逼真資訊的大模型,輿論控制不再依賴於笨拙的刪帖與封鎖。相反,它通過海量的、定製化的“注意力擠壓”來實現。你看到的世界更容易被演算法精準塑形,你的焦慮與恐懼能夠被工業化地批次製造與動員。
權力的引擎在轟鳴,它重新分配生存資源與認知空間時,從來不需要徵求你的同意。
七、啟示與生存指南:在失控的大系統中保存“能動性”
面對這樣龐大且冷酷的系統變遷,普通人無法用血肉之軀去阻擋巨輪。但看清了規則,我們就能用確定性的策略,為自己打造堅固的避風港。這裡有五條關乎生存與演化的底層原則:
1. 把安全感從“宏大敘事”遷移到“個人冗餘”
放棄對宏觀環境“永遠穩定向上”的幻想。在劇震時代,唯一的安全感來自你為自己儲備的冗餘度。這包括現金流的冗餘(抵禦突發失業或通膨)、技能的冗餘(隨時跨界的生存能力)以及健康和心理的冗餘。冗餘的本質,就是在外部系統當機時,你依然擁有選擇的權利。
2. 把資訊攝入從“情緒追逐”升級為“結構化審視”
當危機的新聞密度越來越高,沉迷於碎片化的熱點和情緒宣洩,只會徹底摧毀你的專注力。戒掉“刷新聞”的習慣,用定期復盤替代即時刺激。
每看到一個重大事件,強迫自己思考三層框架:表象上發生了什麼?深層中誰因此獲得了新的權力或能力?這又將如何重寫未來的利益分配規則?
3. 職業規劃:向“人類必須背鍋”的環節靠攏
不要試圖在拼速度、拼記憶、拼程式碼生成的賽道上與AI競爭。流程越是自動化,最終的責任就越需要真實的“碳基生物”來承擔。越是靠近判斷、談判、情感溝通以及需要承擔最終法律與道德責任的崗位,你越是不可替代。
AI擅長生成與最佳化,但人類,永遠是商業和政治社會中錨定“信任”與“合法性”的最終載體。
4. 用AI武裝自己,但絕不“外包”自己
熟練使用AI作為你的超級外腦,讓它幫你處理資料、撰寫初稿、推演邏輯。但記住:永遠、永遠保留你的最終決定權和一票否決權。尤其在涉及資產投資、法律糾紛、醫療健康與人身安全的關鍵節點,把AI當作你的加速踏板,但方向盤必須死死握在你自己手裡。
5. 認真捍衛“微觀護欄”的價值
“強制人類監督”、“設立系統終止開關”等宏大護欄,看似離我們很遠。但實際上,你可以在自己的微觀世界裡推行這些理念。在你的公司推行業務審計、在你所在的社區呼籲資料隱私保護、在你的行業裡強調反技術濫用的倫理。宏觀的護欄需要漫長的博弈,但微觀的護欄,將直接決定你明天的工作和生活質量。
我們不需要祈禱好運,我們需要“可控的減速帶”
回顧冷戰的核危機史,一個令人警醒的事實是:人類之所以沒有在古巴導彈危機等無數次擦槍走火中毀滅,很大程度上僅僅是因為難以置信的“好運”。
但在今天,面對AI,我們已經無法再把命運寄託給運氣了。因為AI時代加入了一個最為致命的變數——極速。
絕對的速度會無情地吞噬掉人類的謹慎、吞噬掉系統的交叉覆核、甚至吞噬掉指揮官按下按鈕前那一秒鐘的惻隱之心。
當雷射武器的打擊成本趨近於零,當人工智慧毫無摩擦力地接管了生殺大權,當龐大的國家機器與不可一世的科技巨頭為了定義權而撕破臉皮……
這個世界正越來越像一台油門被焊死、卻沒有安裝剎車的高速列車。機器最危險的地方,從來不是它像人類一樣擁有了邪惡的情緒,而是它永遠不會停頓。
對我們每一個普通人而言,在這個時代最重要的生存智慧,就是學會在高速運轉的系統邊緣,悄悄建立屬於自己的“減速帶”。
這不是懦弱的逃避,也不是對抗科技的迂腐。這是一種極其清醒的生存理性:在權力分配引擎轟鳴碾壓的縫隙中,讓自己始終保有一點清醒的判斷,一點堅實的冗餘,以及那份生而為人絕不妥協的能動性。 (不懂經)