一
國內一個投資人前不久去了一趟矽谷,然後寫了一篇很長的復盤,題目叫《全員 token-maxxing,一場沒人敢停的軍備競賽》。 他叫孟醒,五源資本合夥人,之前做過滴滴自動駕駛公司的COO。
文章裡有很多讓人意外的東西:Meta 全員都在用競爭對手 Anthropic 的 Claude Code,程式碼安全這條天經地義的紅線被扔到了一邊;一個工程師一年消耗的 token 接近他自己的工資;矽谷一位工程師朋友一句讓他記到現在的話:“我發現,矽谷自己都開始跟不上自己了。”
但那篇文章裡最值得劃線的,不是這些token 數字,也不是估值崩塌,是文章接近末尾時他寫到矽谷朋友們“安全感”的那一段:
“這次矽谷行,反覆聽到朋友們在認真討論同一件事:買比特幣、建地堡、給家裡裝防彈玻璃,他們都不是開玩笑的語氣。為CEO提供住宅安防的企業,創下了2003年以來的最高增長水平。”
最近矽谷流行種酸橙樹。這種樹枝條上長著4 英吋的尖刺,任何試圖翻越的人都會付出代價。
《華爾街日報》報導過一棟 1500 萬美元的“堡壘豪宅”:混凝土花盆裡栽著一圈酸橙樹,樹叢後面是壕溝,壕溝後面是雷射入侵探測系統,前門是 3 英吋厚的實心鋼板配 13 道鎖栓,屋內藏著一個 2000 磅重門的安全避難室,連景觀設計都是防禦工事。
然而,槍聲還是響到了AI 大佬家門口。
4 月 11 日凌晨 4 點,一個穿Champion衛衣的 20 歲男孩,從德州專程飛到加州,手提煤油罐,站在 Sam Altman(薩姆·奧特曼)價值2700 萬美元的豪宅門前,點燃了汽油彈扔了進去。一個半小時後,他出現在 OpenAI 總部,抄起椅子砸玻璃門,對保安喊:“我要燒了這裡,殺光裡面所有人。”
FBI 從他身上搜出了一份檔案,標題是“你的最後警告”,裡面列著多名 AI 公司 CEO 和投資人的姓名與家庭住址。兩天后的周日凌晨,奧特曼的家再次遇襲,一輛本田轎車在門口短暫停留,副駕駛把手伸出窗外,朝房子開了一槍,然後逃逸。
馬斯克本人也很擔心被槍殺,這在矽谷圈子裡是公開的秘密。
我之前寫的一篇文章裡提到過一個梗,在矽谷創業者圈子裡這兩年最熱的一個詞是“permanent underclass”,中文叫永久底層。諷刺在於:談論這個詞最多的人,不是即將淪為底層的普通工人,反而是親手造出 AI 的那群矽谷精英。他們一邊寫著取代別人的程式碼,一邊給自己家的窗戶裝防彈玻璃。
過去幾年,矽谷一直在警告失控 AI 的風險。比如 AI 會不會擁有自主目標,會不會欺騙人類,會不會導致某種科幻式災難。
但現在,矽谷醒悟過來的恐懼,變得更現實,也更刺痛人。它擔心的不是機器人某一天突然拿起武器,而是另一件更日常的事:
大量普通人的工作被自動化替代,他們失去在經濟系統中的籌碼。當一個人不再被公司需要,不再被市場需要,不再被組織需要,他還剩下什麼?
這才是“永久底層”真正指向的東西。它不是短期失業。也不是經濟周期裡的暫時低谷。
它意味著,一個人在技術系統中的位置被永久鎖死。他不再是生產者,不再是談判者,不再是可以通過學習、跳槽、創業、遷移完成上行的人。他變成一個被安置的人,一個被補貼的人,一個被娛樂內容填滿時間的人,一個在經濟上逐漸失去必要性的人。
更讓人不舒服的是,矽谷自己已經開始為這種世界做準備。
二、
“我們都覺得普通人完蛋了,但我們不知道該怎麼辦”
這種荒誕感不是我編的。它直接出現在《紐約時報》這兩天發表的一篇長文的第一句。文章的標題就叫《矽谷正嚴陣以待一個永久性底層階級的出現》(Silicon Valley Is Bracing for a Permanent Underclass)。
文章開頭就說:
“我認識的人工智慧行業裡的大多數人都認為,普通人已經‘完蛋了’(原文 screwed,意為處境極其糟糕),而他們完全不知道該怎麼辦。”
寫這句話的人住在舊金山,身邊是拿著百萬年薪的年輕AI 研究員、和爭著做下一個獨角獸的創業者。她在文章裡提出一個概念,叫“舊金山共識”(San Francisco consensus)。這個共識不分立場,不分陣營,幾乎橫掃所有人:
無論你交談的對像是工程師、風險投資家、創始人還是經理人,無論是末日論者(doomers)、加速主義者(accelerationists)、左翼分子還是自由意志主義者,所有這些人對 AI 給普通工人帶來的影響,都持同一種悲觀:
先進的AI 很快會超越人類的能力,帶來巨大的經濟增長和科學成就,但也會讓維持經濟運轉所需的人力大幅減少,從而取代數以百萬計的工作崗位。這項技術將壓制經濟流動性,加劇不平等,把權力和財富輸送給 AI 公司和現有的資本所有者。
這種共識不是秘密。
它出現在Anthropic CEO Dario Amodei(達里歐·阿莫代伊)關於“白領大屠殺”(white-collar blood bath)的公開聲明裡;出現在科技高管們用 Signal(一款閱後即焚的加密通訊軟體)互相吹噓“我打算自動化掉那個部門”的私聊截圖裡;出現在那些投了幾百份簡歷卻沒拿到一次面試的應屆畢業生的焦慮裡;也出現在軟體工程師們半開玩笑說“我現在的工作就是用 Claude Code 取代我自己”的自嘲裡。
OpenAI 自己建立了一個基準測試叫 GDPVal,用 44 個職業(從房地產經紀人到新聞分析師)來量化模型的表現。負責這套評估的研究員說,幾個月前剛發佈時,還沒有任何模型能達到人類專家水平,幾個月後,與人類專業人士相比,模型的勝率已經超過 80%。她舉的例子是身邊一位以前做投資銀行家的同事,“她不斷地對模型能完成多少她以前的工作感到震驚。”
這篇《紐約時報》文章裡有個耐人尋味的細節,藏在中間一句不起眼的括號裡:
“總的來說,科技界的消息人士在私下交談中,對 AI 對勞動力市場的影響表達了極其極端的擔憂。但一旦我打開麥克風,他們就突然變成了樂觀主義者。”
麥克風一打開,所有人都變成了樂觀主義者。麥克風一關上,所有人都在算自己還能上車幾年。
這不是某幾個高管在演戲,這是一種集體性的雙重生活。一個人可以在公司全員大會上講“AI 將賦能每一個普通勞動者”,然後下班回家在 Signal 群裡討論自己計畫替代掉那個部門。一個 CEO 可以在媒體面前講“豐裕時代來了”,然後在自家後院裝上雷射探測系統。這兩件事是同一個人做的,而且他們之間沒有任何認知失調。
Mechanize是一家以“實現經濟全面自動化”為使命的初創公司,它的創始人在自己的部落格裡寫得倒是很坦白:“唯一真正的選擇是,究竟由我們自己來加速這場技術革命,還是等待別人在我們缺席的情況下來發起它。”
這套話術結構,在哲學上有一個專門的詞,叫“道德前置免責”:只要相信趨勢不可逆,行動就被免責了。我做這件事不是我的選擇,是歷史的選擇。我不做,有別人做。所以我做了,我不必負責。
整個矽谷,正在用這套話術給自己披上一件免罪外衣。
三、
上車焦慮:每個人都在搶“最後一張船票”
這種“我知道這件事很糟,但我必須衝在最前面”的精神分裂,直接滲透進了矽谷工程師的日常生活,從存退休金、談戀愛、健身,到生育和買地。
《商業內幕》(Business Insider)記者 Rob Price(羅伯·普萊斯)去年走訪了一批灣區的 AI 從業者,採訪結果讓人有點眼界大開。這群人對未來的安排,要麼極端到反常,要麼反常到極端。
第一種人,不再為退休儲蓄了。
Daniel Kokotajlo(丹尼爾·科科塔伊洛)是前 OpenAI 研究員,2024 年因為擔心公司處理 AI 安全的方式而離職,今年發表了一篇廣為流傳的預測文章《AI 2027》。他從 2020 年開始就停止為退休儲蓄,那年他 28 歲。Anthropic 研究員 Trenton Bricken(特倫頓·布裡肯)在科技播客 Dwarkesh Patel(德瓦克什·帕特爾)節目裡也分享了同樣的決定:
“我很難想像一個世界,我所有的錢都靜靜地躺在那個帳戶裡,一直等到我 60 歲,而到那時,世界的樣子會如此不同。”
第二種人,在主動花光積蓄。
Haroon Choudery(哈龍·喬德里)是一位 AI 創業者,他父親是巴基斯坦移民,做過計程車司機,母親是家庭主婦。他把未來這幾年看作“為自己和孩子創造代際財富的最後機會”。他的原話:“我有一筆可觀的錢,特別是來自股權的,但我計畫把它花光。我計畫每年擁有的錢都比上一年少。”他說他知道還有很多 AI 研究員也在做同樣的事。
第三種人,在從“聰明”轉向“性感”。
Apoorva Srinivasan(阿普爾瓦·斯里尼瓦桑),洛杉磯的生物醫學資料科學家,她說自己以前喜歡聰明的男人,現在標準變了。因為生成式 AI 正在取代越來越多人的智力勞動,純粹的智力對她來說已經不如魅力、社交能力和外貌吸引力重要。或者用她在推特上半病毒式傳播的那句話總結:
“如果你很聰明,那就轉型變得又酷又性感吧。”
佛州科技創業者Soren Larson(索倫·拉爾森)一直在健身,他說:“當 AI 能做所有腦力活的時候,性感、風趣、幽默將成為稀缺特質。”
第四種人,在認真造地堡。
記者採訪了一位化名“亨利”的灣區 AI 安全研究員,他自己在搞 DIY 生物防護所:買一頂現成的正壓帳篷(平時用來做植物生長室),前面堆幾層 HEPA 過濾器,裡面塞滿三年份的耐儲存食品。整個成本不到一萬美元。
亨利說他還要求記者用化名,“末日準備者(prepper)這個身份在社會上帶有污名,特別是考慮到如果他的恐懼沒有成真,人類最終安然無恙的話。”
這些人的安排單看每一項都很怪,放在一起看就有了一種結構性的形狀。他們不再相信“工作 30 年後退休”這種敘事。在他們眼裡,“30 年後”已經不是一個有意義的時間單位。他們也不再相信“積累知識、提升技能”是穩健的人生策略,既然 AI 會做所有腦力活,身體的吸引力反而成了稀缺品。
孟醒的文章裡寫到矽谷“全員 token-maxxing”的時候,捕捉到了同一種情緒的另一面:Meta 內部搞了一個 token 消耗排行榜,誰用得多誰上榜,末尾的可能被裁,所以 Meta 員工在卷一個叫“token legend”的非官方頭銜。一邊全員用 Claude Code 沖 token 量,一邊大規模裁人。這兩件事不是矛盾,是同一件事的兩面。他們既是被 AI 替代的潛在對象,也是替代別人的執行者。
白天卷AI,晚上買地堡。這就是 2026 年灣區一位中位數 AI 工程師的日常。
四、
不止焦慮,他們還害怕被燒死
那個20 歲男孩從德州飛到加州燒奧特曼家這件事,不是孤立的。
3 月底,舊金山市中心已經出現了大規模反 AI 遊行,人群舉著“Stop the AI Race”(停止 AI 競賽)和“Don't Build Skynet”(不要製造天網)的牌子,在 Anthropic、OpenAI、xAI 的辦公室外面發表演講。參議員 Bernie Sanders(伯尼·桑德斯)在國會警告說:“人類可能真的會失去對這個星球的控制。”
然後是奧特曼家門口那兩次襲擊。
然後是馬斯克。據xAI 離職的朋友們透露,馬斯克本人也很擔心自己被槍殺,這在圈子裡是公開的秘密。
然後是Palantir CEO Alex Karp(亞歷克斯·卡普)。
Palantir 這家公司在矽谷有一種特殊的位置。它做的是政府監控和軍工合同,客戶裡有 CIA、五角大樓、ICE。它的 CEO 卡普是出了名的鷹派,平時講話總是把 AI 和“國家安全”“戰略競爭”掛在一起。
但在今年3 月,卡普和卡車司機工會(Teamsters,美國最大的藍領工人工會之一)主席 Sean O'Brien(肖恩·奧布萊恩)在一個公開座談會上對談。卡普在台上說了一段話,值得在這裡完整引用:
“在這個國家,A.I. 面臨的最大挑戰是政治動盪。如果我私下和同行們坐在這裡,我會告訴他們,這個國家可能會在政治上爆發,當這個國家爆炸時,我們誰也賺不到錢。”
這句話值得重視,因為卡普不是某個左翼經濟學家,也不是某個工會領袖。是一個把賣技術給政府當作主營業務的、最理解權力運作機制的科技CEO。他在公開場合,當著卡車司機工會主席的面,說出了一句私下場合裡所有同行都在說、但沒人敢公開承認的話:
我們造的這套東西,可能會讓這個國家炸掉。
他說這句話時不是在威脅,也不是在道德反思。他是在算帳。他給同行算帳:如果國家炸了,我們的錢也賺不成。
這句話無意中承認了一件事:他們知道自己造的不是“工具”,是一種正在系統性剝奪別人議價權的權力機器。如果你深信自己只是在做“中性技術”,你不會擔心這個國家會爆炸,你也不會需要裝防彈玻璃。
一個不會讓別人憤怒到拿燃燒瓶上門的產業,不會需要裝防彈玻璃。
五、
當“上車”變成新的精英意識形態
矽谷的“永久底層”焦慮,這兩年正在成為一種全球精英共享的意識形態。這不是中文世界跟著翻譯,是這種焦慮本身已經無國界。
我在之前的文章中提到過《華爾街日報》報導的一段話。一位叫Sheridan Clayborne(謝裡丹·克萊伯恩)的年輕 AI 創業者說得沒有任何修辭:“這是積累代際財富的最後機會。你必須現在賺錢,否則你就會淪為永久的底層階級。”
推特上有一個流行的梗,精準捕捉到了這種荒誕:“你還有兩年時間去做個播客(成為有影響力的人),否則就永遠困在底層了。”
《紐約客》在2025 年10月發過一篇文章《人工智慧會讓你陷入“永久底層”嗎?》,那篇文章裡描述了一個觀察:現在矽谷最受歡迎的員工原型,叫 “cracked twenty-two-year-old”,意思是技術強到變態、長期 996 工作的 22 歲年輕人。
文中有一個金句:
“大家非但沒有變得政治激進,反而更加賣力地‘肝’。”
這很諷刺。在馬克思的理論裡,無產階級一旦意識到自己被剝削,就會團結起來反抗。但在AI 時代,這套劇本根本沒啟動。人們意識到自己即將被替代之後,反應反而是更賣力地工作,拚命讓自己成為“還有用”的那 20%。
《紐約客》那篇文章裡還有一句話流傳很廣:
“你是想成為那頭豬,還是成為那個做豬食的人?”
這裡的“豬食”(slop)是 AI 時代的一個新詞,指由 AI 批次生成、用來填塞人類注意力的廉價內容。這個比喻把“永久底層”的圖景壓得很實:一端是少數掌握算力、演算法、核心資料資產的“餵豬人”,另一端是大多數失去經濟價值的“被喂者”,靠 UBI(全民基本收入)和 AI 生成的虛幻娛樂活著。
這種話術在矽谷已經流通了兩年。它從一開始的X上的玩笑梗,變成了《華爾街日報》、《紐約客》、《紐約時報》的嚴肅評論標題,變成了風投圈茶水間的真實焦慮,變成了上兆市值公司CEO 在公開場合的發言。
但這套話術裡藏著一件沒被討論的事。
“上車”這個隱喻假設了一個車上和車下二分的世界。它默認了一件殘忍的事:被甩下去的人,沒有誰會停下來等待他們。它把一個本應是政治問題的命題(誰分到 AI 紅利、誰被強制承擔代價),包裝成了一個個人選擇題(你抓不抓得住這個機會)。
這套話術最大的功能,是把社會斷裂前置合法化了。
孟醒文章裡那位投資人朋友的話,可以放在這裡看清楚它的真實結構:
“反正要麼 zero to 100,要麼 zero to zero。”
矽谷的資本邏輯已經不再容納“中間狀態”。要麼你是 100,要麼你是 0。要麼你在車上,要麼你在車下。要麼你是那個做豬食的人,要麼你是那頭豬。
中間地帶沒有了。
這是一種正在被預先合法化的社會斷裂:在它真正發生之前,所有人就已經接受了它的語言。
六、
諷刺的悖論:他們造神,他們也害怕神
把矽谷的這套行為模式放在一起看,會發現一個奇怪的悖論。一群人,一邊在拚命造一個他們自己相信會讓大多數人變得多餘的東西,一邊在為“那個東西真的造出來之後的世界”做物理性的末日準備。
這是一種新型的、人類歷史上很少見到的精神狀態。
中世紀修建大教堂的工匠,相信自己在為上帝做工,這套信仰讓他們的勞動有意義。曼哈頓計畫的科學家,造完原子彈之後大多數人被深刻的道德掙扎籠罩了一輩子,Oppenheimer(奧本海默)說“我成了死神,世界的毀滅者”。這些人造出某種巨大的、超出自己理解的東西后,要麼相信它有終極意義,要麼被它的倫理重量壓垮。
矽谷不是這兩種。
他們既相信自己在造神,又相信這個神會讓大多數人多餘;他們既不為這件事提供宗教意義上的辯護,也不被它在倫理上壓垮。他們的反應是:
繼續造,同時給自家窗戶裝防彈玻璃。
這種內部矛盾不只是個體的精神分裂,它已經滲透到這些公司的內部話語結構裡。Karen Hao(凱倫·郝)(MIT Technology Review 前資深記者,《大西洋月刊》撰稿人)2025 年 5 月的報導裡,披露了 OpenAI 內部一個被稱作“地堡”的故事。
2023 年夏天,OpenAI 聯合創始人、首席科學家 Ilya Sutskever(伊利亞·蘇茨克維)在和一批新入職的研究員開會。他正在討論一個計畫,中間他說了一句:“等我們全員進入地堡之後……”
一位研究員打斷:“抱歉,地堡?”
蘇茨克維回答:“我們在發佈 AGI 之前,肯定要先建一個地堡。”
他補充:“當然,是否進入地堡是你們自己的選擇。”
另一位OpenAI 研究員後來告訴凱倫·郝:“有一批人,伊利亞就是其中之一,相信建構 AGI 會帶來‘終極救贖’。真的,字面意義上的‘救贖’。”
Anthropic 內部其實也有相似的緊張氣氛。《紐約時報》、文章引用Anthropic 聯合創始人、Anthropic Institute 負責人 Jack Clark(傑克·克拉克)的一段訪談。記者直接問他:你也認為AI 會創造一個永久底層階級嗎?
克拉克回答:“這基本上是一個社會選擇。”他說自己很樂觀,認為有“足夠負責任的 AI 開發者和政策制定者”能讓世界避開風暴。但當記者接著問Anthropic Institute 是否會為再分配政策(比如他自己提到的擴大教師、護理這類人際關係工作的份額)進行遊說時,克拉克委婉地拒絕了,把政策倡導描述為“一條非常、非常長的工作鏈的末端”。
翻譯過來:我們公司知道這件事很糟,我們公司認為這是社會選擇,但我們公司不會為修復這件事而花政治資本。
這種“我們意識到了,但我們不會負責”的態度,在 Anthropic 內部員工身上表現得更劇烈。紐約時報文章裡寫,Anthropic 是鎮上最令人嚮往的僱主之一,把火箭般躥升的商業模式和“高尚的道德原則”結合在一起;但和員工聊天時,她聽到一種“對自己正在引發的社會變革規模的存在主義眩暈感”。
許多工程師同時跑著多個 Claude Code 代理,給它們分配徹夜完成的任務,這樣總有人(無論是人還是機器)在時刻工作著;他們一邊每周工作 80 小時,一邊討論“後工作時代”(postwork)的烏托邦。
這套行為最深的含義,要從他們造的東西本身去看。
他們造的不是一個工具。
一個工具有邊界,你可以用它,也可以放下它,它不會改變你怎麼看待自己。他們造的是一種新的世界座架,把所有人,包括他們自己,都重新揭示為“可被替代的資源”。當一個人意識到自己也活在這個座架裡時,他的反應可以是修改它,可以是拒絕它,也可以是給自己挖一個能熬過它的避難所。
他們選了第三種。
他們在造一個會讓所有人(包括自己)變得多餘的系統,然後在系統降臨之前,先用鋼板和酸橙樹為自己圍出一塊“還能保持人類身份”的小地方。
這就是為什麼他們既造神,又害怕神。
他們知道這個神不會區分施害者和受害者。它只會區分“還在車上的”和“已經下車的”。
而他們對自己能不能一直留在車上這件事,信心遠沒有他們公開宣稱的那麼足。
七 、
如果連那些造出AI 的人,都已經開始為“普通人完蛋了之後的世界”做物理準備,那麼所謂的“最後窗口期”,到底是給所有人的最後機會,還是只是少數人為自己留好出口的最後時間?
這個問題在中文世界還沒有真正被問出來。所有討論AI 的國內文章,基本上分兩類:一類講 AI 多厲害,催你趕緊學;一類講 AI 多可怕,催你趕緊上車。兩類文章共享同一個敘事前提,即你是那個還有機會、還需要選擇的主體。
這個前提本身,本身就值得懷疑。
孟醒在矽谷半個月,回北京飛機上翻完筆記,發現從頭到尾都在寫同一個詞:跟不上。
YC 跟不上、Meta 的程式碼安全規矩跟不上、xAI 的管理跟不上、研究跟不上、算力跟不上、估值框架跟不上、社會的心理承受力也跟不上。他寫,“以至於矽谷自己都跟不上自己了。”
但還有一種東西也在跟不上,那就是:
我們的語言。
我們手上拿著19世紀的社會契約,在簽 22 世紀的合同。我們用“上車”、“轉型”、“學習曲線”這些工業時代留下的詞彙,去描述一個可能正在讓“工作”這個概念整體失效的轉變。我們用“中產階級焦慮”這種 20 世紀的診斷,去描述一種在矽谷已經具體到買防彈玻璃和酸橙樹的存在性恐懼。
舊的語言還在跑,但它解釋的世界已經不存在了。
我傾向於認為,真正的危險不是AI 讓大多數人失去工作,而是大多數人在失去工作的同時,還在用舊的詞彙相信自己只是“暫時落後”。當一個人不知道自己被什麼東西打中了,他就連還手的方向都找不到。
在矽谷,他們已經在用酸橙樹、防彈玻璃、雷射探測系統、煤油罐、燃燒瓶、和那一串列在“最後通牒”上的家庭住址,回答這個問題。 (不懂經)
