三年過去,AI 不再僅僅是工具,它正在成為我們認知的假肢。
從世界頂尖大學的“教育自殘”,到普通人面對生活瑣事的“決策癱瘓”,一場關於人類心智的“去技能化”實驗正在悄然進行。當思考變得多餘,我們還能稱自己為“智人”嗎?
2022 年底,ChatGPT 問世。那一刻,彷彿打開了“未來”的大門。那時的我們,帶著驚奇、恐慌與興奮,以為自己拿到了一把通向未來的鑰匙。
三年過去,AI 不再是遙遠的科幻名詞,而成了日常生活的“作業系統”:寫郵件?問它。寫論文?交給它。寫簡歷、寫程式碼、寫產品文案、做 PPT、解人生困惑、預測風險、建議午餐……“先問 AI 一下”成了這個時代的默認動作。
然而,現實證明,AI 給我們帶來的,遠不是“認知增強”那麼簡單。它帶來的,或許是人類有史以來最大規模的一次認知外包與自我退化。
這把鑰匙確實打開了無數扇門,但似乎也鎖上了一扇最重要的門,即通往我們自己大腦的門。
在ChatGPT 問世三周年之際,一種新的群體正在全球範圍內崛起。美國《大西洋月刊》給他們起了一個極其諷刺的綽號:“LLeMmings”(大模型旅鼠)。
這個詞源於“Lemmings”(旅鼠),一種傳說中會盲目跟隨集體跳崖的生物。而現在的“LLeMmings”,指的是那些無時無刻不在使用 LLM(大語言模型),離開了 AI 引導就無法在這個世界獨立行動的人。
我們曾經以為AI 是人類的“副駕駛”;但三年後的資料顯示,對於許多人來說,AI 已經搶過或接過了方向盤,而人類正心滿意足地在後座上睡去。
我們的大腦,正在被不可逆地改變。正如麥克盧漢所說,人類創造了工具,工具又反過來塑造了人。
提姆·梅茨(Tim Metz)今年 44 歲,是一名內容行銷專家。但他現在更像是一個“連體人”,連接他的是 Anthropic 公司的 AI 模型 Claude。
他每天使用AI 長達 8 小時。這不是為了工作,而是為了生存。
去超市買水果,他會拍張照片發給AI:“這個熟了嗎?”家裡門前的大樹在大風中搖晃,他不敢自己判斷,而是拍了照片傳給Claude。AI 建議他:“為了安全,去朋友家過夜吧。”於是,他帶著全家連夜撤離。事後他說:“如果不是 Claude 的建議,我絕不會離開家。”
更離譜的是,在接受《大西洋月刊》記者採訪前,他還請Claude 預判記者可能會問什麼問題,並出具一份專屬的“應對手冊”。Claude 竟然精準預測了記者的三個問題。
梅茨坦言:“這就像真正的上癮。”他正在經歷大腦的“Google地圖化”。就像習慣了 GPS 的人不僅記不住路,甚至喪失了方向感一樣,習慣了 AI 的人,正在喪失“生活感”。
這種症狀正在像病毒一樣蔓延。
詹姆斯·貝德福德(James Bedford)是澳大利亞一所大學的教育者。有一天,他在火車上看到一位女士的 AirPod 掉進了座椅縫隙。那一瞬間,他的大腦一片空白,第一反應竟然是掏出手機問 ChatGPT:“我該怎麼幫她拿出來?”
直到那一刻,他驚出一身冷汗。解決物理世界的簡單問題,本是人類的本能。但他的大腦已經形成了新的神經回路:遇到問題-> 呼叫 AI -> 執行指令。中間那個至關重要的步驟——“思考”,被跳過了。
這不再是使用工具,這是一種“認知解除安裝”。
心理學家和神經科學家警告我們,AI 工具的可怕指出,在於它們被設計出來,專門攻擊人類大腦最脆弱的縫隙。
我們的大腦天生吝嗇,傾向於節省能量。當一個不知疲倦、隨叫隨到的“外腦”出現時,大腦會毫不猶豫地交出控制權。
我們以為自己在訓練AI,其實是 AI 在馴化我們。它讓我們不僅在智力上退化,更在情感耐受力上萎縮。我們變得無法忍受未知,無法忍受焦慮,無法忍受那怕一秒鐘的“獨自思考”。
這不僅是認知的偷懶,更是一場存在主義的自我流放。
麥克盧漢曾警示:我們並非僅僅在使用技術,而是在“參與”技術,並被其重塑。當我們連“水果是否成熟”這種最原始的感知體驗,都需要經過演算法的中介來確認時,我們實際上是在主動切斷與真實世界的臍帶。
人類的尊嚴,往往建立在與不確定性的博弈之上。正是那些猶豫、糾結、試錯的瞬間,構成了所謂的“主體性”。然而,AI 正在用它那看似完美的機率預測,填平了這些溝壑。它為我們提供了一種“無摩擦的生存”,但代價是讓我們失去了感知的觸角。
正如海德格爾所預言的,技術不僅僅是工具,更是一種將世界納入計算軌道的“座架”。當我們把“思考”外包,就不再是世界的體驗者,而淪為了系統的資料連接埠。
我們以為自己在用神一般的工具駕馭生活,但在不知不覺中,在演算法的凝視下,那個名為“自我”的核心,正因為長期的缺席而被掏空。
所以,這才是最恐怖以及最諷刺的地方:不是機器產生了意識,而是人類自願放棄了意識,退化成了一台僅僅負責執行指令的血肉機器。
如果說個人的退化是個體的悲劇,那麼教育系統的崩塌則是文明的危機。
媒體理論家尼爾·波茲曼(Neil Postman)早已警告,一個技術霸權社會(Technopoly)的誕生,是當社會將判斷力讓位於技術需求,當“效率”“創新”本身就被視為道德價值。
一旦“速度”和“最佳化”取代了“反思”和“對話”,教育就變成了物流操作:自動評分、幾秒出稿。知識淪為資料;教學變成配送。最終被抹去的,是人類最珍貴的能力:好奇心、判斷力、真實的存在感。
這並不是“增強智能”,而是一種模擬學習:像填色遊戲一樣的思想過程。
以美國最大的公立大學系統——加州州立大學(CSU)為例。這個擁有 50 萬學生的龐然大物,最近幹了兩件極具諷刺意味的事:
1. 擁抱 AI:宣佈與 OpenAI 達成 1700 萬美元的合作,讓全校師生免費使用 ChatGPT Edu,誓言打造“AI 驅動的經濟”。
2. 裁撤人類:幾乎在同一時間,宣佈削減 3.75 億美元預算,裁撤大量教師,關閉哲學、經濟學、物理學、人類學和性別研究等“不賺錢”的學科。
這一幕充滿了黑色的荒誕感:學校花重金買來一個會“自動生成答案”的機器人,同時解僱了那些教學生“如何提出問題”的教授。甚至出現了這樣的場面:教授剛收到裁員通知,樓下就舉辦“如何用AI重新設計教學”的公開課。
所謂的“重新設計”,就是讓 AI 生成教學大綱,讓 AI 出題,讓 AI 批改作業,再讓 AI 告訴學生怎麼用 AI。
這變成了一個完美的“狗屁閉環”(Bullshit Loop):
這種局面的真實寫照是:教育的目的不再是思考,而是“最佳化”;大學的任務不再是啟發,而是交付。在這個閉環裡,唯一的輸家是“真實的教育”。
哲學教授Martha Kenney 一語道破其中的荒謬:“大學讓最有能力質疑 AI 的學科關門,卻讓全校都用 OpenAI 的產品。這不是創新,是制度性自我吞噬。”
更可怕的是,這種環境催生了一種新的“成功學”。典型事例就是哥倫比亞大學的學生李鍾仁(Chungin "Roy" Lee)。他的名言是,“我來大學,是為了找老婆和創業夥伴,不是為了上課。”
他自豪地承認,他在常春藤名校的作業80% 都是 AI 寫的。他最終退學了,創辦了一家名為Cluely的公司,並成功融資 530 萬美元。
Cluely 的口號非常赤裸裸:“我們想在所有事情上作弊。我們建立 Cluely,是為了讓你永遠不必獨自思考。”
在“Chat 大學”(Chatversity)裡,作弊不再是道德瑕疵,而被重塑為“高槓桿率”的創業精神。思考被視為一種低效的、可以被最佳化的過時行為。
當大學不再問“教育是為了什麼”,而只問“AI 能幫我們要到多少預算”時,文憑就變成了一張毫無意義的收據。
正如經濟學家泰勒·科文(Tyler Cowen)那句冷酷的預言:“高等教育將繼續存在,不過,是作為一個交友平台,一個離家住的方式,一個狂歡看球的機會。”
換句話說,大學的知識使命早已死亡,被文憑主義、消費主義和便利主義取代。
“AI只是工具,用了能提高效率,為什麼不用?”這是最常見的辯護。但神經科學告訴我們:這世上沒有免費的認知午餐。
麻省理工學院(MIT)的一項近期研究,揭示了依賴 AI 寫作的驚人代價。研究人員發現,當參與者使用 ChatGPT 起草論文時,他們大腦中負責記憶、語言和批判性推理的區域,神經連接活躍度下降了47%。
這被稱為“認知債務”。就像你用信用卡透支消費一樣,你也在透支你的大腦。你現在圖省事省下的“腦力”,未來都要連本帶利地還回去。
研究中還有一個更令人不安的發現:那些長期依賴AI 的人,一旦被迫脫離 AI 寫作,其表現甚至不如那些從未接觸過 AI 的人。
這意味著,AI 不是在輔助你,而是在廢掉你。
這就像你去健身房,結果開著叉車來舉槓鈴。你花了一小時,任務完成了,但你的肌肉完全沒動。
思考,本質上是一種阻力訓練。那種面對空白文件的焦慮,那種在腦海中搜尋詞彙的掙扎,那種邏輯打架時的痛苦——這些正是神經元建立連接的過程。
當你把這些“痛苦”外包給 AI,你也就把“成長”外包了出去。結果就是我們現在看到的景象:
AI 不只是工具,它正在馴化我們的心智,把“提問—研究—思考—驗證”的漫長鏈條,變成“輸入—輸出”的即時滿足。
AI正在培養一代“流暢的文盲”:他們能生成莎士比亞風格的十四行詩,卻讀不懂其中的悲傷。
其實,很多大學教授已經看透了這一切。
加州州立大學奇科分校哲學教授特洛伊·喬利摩爾(Troy Jollimore)接受採訪時警告說:“大量大學畢業生將走入職場,他們基本上是文盲。”
“我每次和同事談起這事,大家都會提到同一句話:我什麼時候能退休?我什麼時候能離開這地方?現在,我們所有人都在想這件事。”
在這樣的時代,願意自己寫一封郵件、動腦解決一個問題、花時間琢磨一段話的人,變得異常稀少,也因此變得珍貴。
在AI 寫作氾濫的年代,反而你用原始人方式寫的內容,才有質感、有溫度、有靈魂。
AI 可以模擬語言,但它無法模擬“你掙紮著推敲出一句話的過程”。真正的原創、思辨、共情、頓悟……是任何模型都偽裝不了的。
麻省理工的研究還發現:
•長期依賴AI 寫作的人,在不借助 AI 後寫作能力明顯下降。
•他們以為自己“寫得不錯”,但腦電圖顯示,大腦幾乎沒有“語言創造區域”的活躍。
•中性讀者評價他們的文字:“空洞、無趣、缺乏個性。”
換句話說:AI 使用者以為自己寫了東西,實際上他們什麼都沒寫。他們不是作者,而是複製機的操作員。
教育學者Mike Kentz 曾感慨說:“2015 年的我,寫郵件遊刃有餘。2025 年的我,每封信都得問 AI 是不是說得太直、太柔、太主觀。”
他的能力並沒有被增強,而是在慢慢萎縮。這不是技術問題,而是人類尊嚴和生存問題。
未來屬於“會用 AI,但知道什麼時候不用 AI”的人。真正強大的認知者,是那種:
• 知道AI 擅長什麼,也知道它不擅長什麼
• 知道什麼時候該借助它,什麼時候必須靠自己
• 能用它工作,但不會用它代替思考
我們不是要成為“AI 的使用者”,而是要做“認知主權的掌握者”。
未來真正有價值的能力,不是“會用 AI”,而是即使身邊有 AI,也選擇用自己的大腦思考,並且有能力進行獨立深刻的思考。
⸻
Joseph Weizenbaum 是 MIT 的電腦科學家,也是世界上第一個“聊天機器人”ELIZA 的發明者。他晚年一再警告世人:
“機器可以模仿智能,但永遠無法理解人類的問題。”
“賦予機器道德判斷力,就像讓一個電話簿來談愛情。”
在人人用AI 的時代,最值得修煉的能力,是“抵抗 AI 的誘惑,保持思考的定力”。
所以,不如從今天開始,嘗試一件事,不用AI 做。寫一篇日記,構思一個想法,做出一個判斷,那怕花上比平時多兩倍的時間。
這不是低效。這是你在說:“我還在,意識還在,思考還在。” (不懂經)