用 AI 後,我效率翻 3 倍,人卻更疲憊,別再掉進這個陷阱了

「學不完,真的學不完。」

這大概是每一個關心 AI 進展的人,在 2026 年開年最真實的心聲。

模型、Agent 、Coding,每天刷新著我們的認知和焦慮 ,尤其是今年春節 AI 發佈的節奏甚至比平日更加瘋狂。

我們被一種巨大的 FOMO(錯失恐懼)推著往前跑,生怕一不留神,就被時代甩在身後。

但這種追趕是有代價的。

像本文作者 Siddhant Khare 這樣的資深工程師,他身處 AI 基礎設施建設的核心,卻發現自己「產出越多,越被掏空」。

當 AI 把我們從「創作者」變成了停不下來的「質檢員」,當效率的提升帶來了指數級增長的認知負荷,一種名為「AI 疲勞」的隱性流行病便開始蔓延 。我們都成了在 AI 倉鼠輪上奮力奔跑,卻感覺那裡都去不了的實驗品。

同時最近大火的 Clawdbot ,開發者 Peter Steinberger 財富自由後「躺平」了三年,完美錯過了 AI 最喧囂浮躁的階段 。當他重新入場,純粹因為好玩與熱愛。他沒有追趕每一個熱點,只是為瞭解決一個自己真正著迷的問題 。

我們發現,對抗 FOMO 最好的解藥,或許不是學得更多、更快,而是學得更「自私」一點。

與其被動消費無窮無盡的新工具,不如主動去創造一個那怕很小,但完全屬於自己的東西

在這個過程中,你才能真正理解技術的邊界,建立自己的判斷體系,並從被 AI 消耗的疲憊感中,重新找回創造的樂趣 。

我們希望將這篇文章分享給你,它沒有教你任何新的 AI 技巧,反而給在追趕 AI 更新的人潑了一盆冷水,我們試圖探討一種更可持續、也更人性的與 AI 共存的方式

願你找到自己的節奏,重新變回 AI 的「主人」。

以下是 APPSO 的編譯,在不改變原意的前提下進行了編輯:

被忽略的 AI 疲憊

上個季度,我提交的程式碼量創下了職業生涯的新高。

與此同時,我也感到前所未有的被掏空。

這兩件事,絕非巧合。

我不是那種在周末隨便玩玩 AI 的票友。我以此為生——建構 AI Agent(智能體)基礎設施,是 OpenFGA 的核心維護者,親手打造了 agentic-authz 和 Distill 這樣的硬核工具。我深潛其中,為其他工程師製造著「讓 AI 在生產環境跑起來」的鏟子。

然而,我碰壁了。

這種精疲力竭,是任何工具最佳化或工作流調整都無法治癒的。

如果你也是一名每天高強度使用 AI 的工程師——用它做設計評審、生成程式碼、Debug、寫文件——然後發現自己比 AI 出現之前更累了,那麼這篇文章就是為你寫的。

你沒瘋,你不弱,你只是正在經歷一種被整個行業激進地假裝不存在的真實痛楚。如果像我這樣全職建構 Agent 基礎設施的人都會在 AI 面前燃盡,那它可能發生在任何人身上。

我想聊聊那個「不加濾鏡」的版本。不是推特上那些「AI 太神了,看我絲滑工作流」的凡爾賽,而是那個真實的版本:晚上 11 點,你盯著螢幕,被一堆 AI 生成的程式碼包圍,明明是來幫你省時間的工具,卻吞噬了你的一整天。

沒人警告過的「效率悖論」

有個事兒讓我腦殼疼了好一陣:AI 確實讓單個任務變快了。這不是謊言。
以前耗時 3 小時的活兒,現在 45 分鐘搞定。起草設計文件、搭建新服務腳手架、寫測試用例、研究陌生 API,統統加速。

但我的日子卻變得更難了。不是更容易,是更難。

原因說穿了很簡單,但我花了好幾個月才回過味來:當每個任務耗時變短,你並不會「少做點任務」,你會做「更多工」。

你的產能看似擴容了,於是工作量便順勢填滿,甚至溢出。經理看你交付快了,預期自然水漲船高;你自己看自己快了,自我要求也跟著加碼。基準線,被悄悄抬高了。

在 AI 之前,我可能花一整天死磕一個設計難題。我會畫草圖、在淋浴時思考、散步,然後帶回清晰的方案。節奏雖慢,但認知負荷是可控的。一個問題,一天時間,深度聚焦。

現在呢?我一天可能要碰六個不同的問題。因為 AI 告訴我,每個問題「只需要一小時」。
但人類大腦在六個問題之間來回切換的上下文成本,是極其昂貴的。AI 不會因為切換任務而疲勞,但你會。

這就是悖論所在:AI 降低了「生產」的成本,卻指數級增加了「協調、審查和決策」的成本。而這些成本,全部由人類買單。

被迫上崗的「流水線質檢員」

以前,工程師的工作是:思考問題 -> 寫程式碼 -> 測試 -> 發佈。我是創作者,是 Maker。這正是我們當初入行的初衷——為了創造。

AI 之後,我的工作逐漸變成了:寫提示詞 -> 等待 -> 閱讀輸出 -> 評估對錯 -> 檢查安全性 -> 判斷是否符合架構 -> 修補不對的地方 -> 重新提示 -> 重複。

我變成了一個審稿人,一個法官,一個在永不停歇的流水線上疲於奔命的質檢員

這在心理學上是完全不同的工種。創造能帶來「心流」,而審查只會帶來「決策疲勞」

我第一次意識到這點,是在用 AI 狂寫一個微服務的那周。到了周三,我發現自己連最簡單的決定都做不出了。這個函數該叫啥?無所謂。配置放那?隨便吧。我的腦子滿了。不是因為寫程式碼滿的,是因為「評判」程式碼滿的。成百上千個微小的判斷,全天候轟炸。

更殘酷的諷刺在於:AI 生成的程式碼比人類寫的更需要仔細審查。

同事寫的程式碼,我懂他的路數、強項和盲區,我可以略讀信任的部分,重點看我不放心的。但面對 AI,每一行都是嫌疑人。程式碼看起來自信滿滿,能編譯,甚至能跑通測試,但它可能在某個隱秘的角落埋雷,只在凌晨 3 點生產環境負載拉滿時才爆炸。

所以你必須逐行閱讀。去讀那些你沒寫過、由一個不懂你程式碼庫歷史和團隊習慣的系統生成的程式碼,這本身就是一種精神酷刑。

這也是為什麼我認為 Agent 的安全和授權如此重要。如果我們沒法在大規模下審查 AI 產出的每一行程式碼——事實上我們確實做不到——那我們就必須從源頭上限制 Agent 的權限。最小權限原則、範圍受限的 Token、審計日誌。越少擔心「AI 幹了什麼蠢事」,留給真正重要工作的認知預算就越多。這不僅是安全問題,更是人類的可持續性問題。

消失的「確定性契約」

工程師是被「確定性」喂大的。輸入 A,得到 B。這是契約,是偵錯的基礎,是我們理解系統的基石。

AI 撕毀了這份契約。

周一運行完美的提示詞,生成了乾淨漂亮的 API 程式碼。周二用同樣的提示詞跑類似的任務,輸出結構變了,錯誤處理邏輯換了,還引入了我沒要求的依賴。

為什麼?沒理由。或者說,沒有我可以理解的理由。沒有堆疊跟蹤告訴我「模型今天決定換個口味」,沒有日誌顯示「溫度採樣選了路徑 B」。它就是……變了。

對於職業生涯建立在「如果壞了,我就能找出原因」之上的工程師來說,這種感覺極其不安。不是那種劇烈的恐慌,而是一種緩慢的、研磨般的背景焦慮。你永遠無法完全信任輸出,永遠無法完全放鬆。每一次互動都需要保持警惕。

這種挫敗感最終逼我做出了 Distill——一個針對 LLM 的確定性上下文去重工具。沒有 LLM 呼叫,沒有嵌入,沒有機率玄學。純演算法,12 毫秒搞定。

我想在 AI 流水線裡至少保留一塊我可以推理、偵錯和信任的淨土。如果模型的輸出註定是薛定諤的貓,那我至少要保證輸入是乾淨可控的。

我見過應對得最好的工程師,都是那些與此「和解」的人。他們把 AI 輸出當成一個聰明但不靠譜的實習生交來的初稿。

他們預期要重寫 30%,他們為此預留了時間。因為從未指望它完全正確,所以當它出錯時,他們不會炸毛。他們指望的是「有用」,而非「正確」。這中間的區別大了去了。

被 FOMO 追趕的倉鼠輪

深吸一口氣,回頭看看這幾個月發生了什麼:

Claude Code 發佈子智能體,然後是 Agent SDK;OpenAI 推出 Codex CLI;Google 甩出 Gemini CLI;GitHub 搞了 MCP 登錄檔;收購案每周都在發生;各種 Agent 框架像雨後春筍:CrewAI, AutoGen, LangGraph, MetaGPT……當你還在研究這個,那個已經過時了。

就連 LinkedIn 上的「野生導師」都在恐嚇你:「2026 年還不用子智能體編排,你就被淘汰了!」

這不是一年的變化,這是幾個月。

我曾狠狠掉進這個坑裡。周末用來評測新工具,看每一個更新日誌,看每一個演示。因為恐懼落後,我強迫自己站在前沿。

結果呢?周六下午折騰一套新 AI 編碼工具,周日剛跑通工作流,周三就有人發帖說另一個工具「完爆這個」。焦慮感瞬間襲來。下個周末,我又在折騰新東西。這就好像一隻倉鼠,從一個輪子跳到另一個輪子,每次遷移都耗費一個周末,換來的可能是 5% 無法感知的效率提升。

最可怕的是「知識折舊」。

2025 年初,我花兩周精心打磨了一套複雜的提示工程工作流。鏈式思維、少樣本示例,那是相當完美。三個月後,模型更新了,最佳實踐變了,我那些複雜的範本跑出來的結果甚至不如一句簡單的大白話。那兩周的時間,不是投資,是浪費。

這就是為什麼我現在改變了策略:別追工具,追基礎設施

工具來來去去,但問題永存。上下文效率、授權、審計、執行階段安全——無論這個月流行那個框架,這些底層問題都在。所以我建立 agentic-authz 是基於 OpenFGA,而不是繫結在某個特定的 Agent 框架上。建立在那些不會輕易變質的層面上。

「再試一次」的陷阱

這個陷阱極其陰險。

第一次輸出 70% 正確。你最佳化提示詞。

第二次 75% 正確,但把第一次對的地方改錯了。

第三次 80% 正確,但結構全亂了。

第四次……如果你一開始就自己寫,20 分鐘早就搞定了,現在你已經耗了 45 分鐘。

我稱之為「提示詞螺旋」。這就像給犛牛剃毛。你本以此為目標,半小時後卻在偵錯提示詞而不是偵錯程式碼。你在最佳化對語言模型的指令,而不是解決實際問題。

這種螺旋很危險,因為它讓你「感覺」很高效。你在迭代,你在逼近真相。但邊際收益遞減得飛快,你忘了最初的目標只是「發佈功能」,而不是「讓 AI 產出完美程式碼」。

現在我有一條鐵律:事不過三

如果三次提示還得不到 70% 可用的結果,我就自己寫。這條規則幫我省下的時間,比任何提示詞技巧都多。

完美主義者的地獄

工程師通常有潔癖。我們要乾淨的程式碼,要全綠的測試。這讓我們擅長建構可靠的軟體。

但 AI 的輸出永遠是「湊合」。70-80% 的完成度。變數名有點怪,錯誤處理不完整,邊緣情況被忽略。它能跑,但它「不對味」。

這對完美主義者來說簡直是酷刑。因為「差點意思」比「完全錯誤」更難受。完全錯誤你可以直接重寫;差點意思你就得花一小時去微調。修補別人的爛程式碼(尤其是這種沒品位、沒上下文的機器程式碼)是極其令人沮喪的。

最受折磨的往往是最好的工程師。 那些標準最高、眼光最毒的人。

而 AI 時代獎勵的是另一種技能:能夠迅速從不完美的輸出中提取價值,而不對「完美」產生情感執念的能力

思考能力的肌肉萎縮

這是最讓我害怕的一點。

某次設計評審,有人讓我在白板上推導一個並行問題。沒電腦,沒 AI,就我和一支筆。

我卡殼了。

不是我不懂概念,而是那塊肌肉太久沒練了。我太習慣把初稿外包給 AI,導致自己「從零思考」的能力退化了。

就像 GPS 毀了我們的認路能力一樣,如果總是先問 AI,你就無法建立那些只有通過「死磕」才能形成神經回路。掙扎是學習的必經之路,困惑是理解的前奏。跳過這些,你得到的是更快的產出,和更淺薄的理解。

現在,我強迫自己每天第一個小時完全不用 AI。紙上思考,手畫架構。這感覺很低效,確實低效。但這能保持思維敏銳,而這種敏銳度在我隨後使用 AI 時是無價的——因為只有大腦熱身過,我才能更好地審判 AI 的輸出。

比較陷阱與倖存者偏差

社交媒體上滿是 AI 大神。「我用 AI 2 小時做完了整個 App!」

你看看自己:失敗的提示詞、浪費的時間、重寫的程式碼。你會想:我有毛病?

你沒毛病。那些帖子是「集錦」。沒人會發帖說:「我花了 3 小時想讓 Claude 理解我的資料庫架構,最後放棄了自己手擼了 SQL。」沒人會發帖說:「AI 生成的程式碼吞了一個報錯,導致生產事故。」沒人會說:「我累了。」

如果一個資訊流讓你感到落後而不是知情,那就取關它。 去關注那些真正在建設、在發佈產品的人,而不是只會做 Demo 的人。

真正的技能是「知道何時停手」

在這個時代,最重要的技能不是提示詞工程,不是選模型,也不是工作流。

是「止損」的能力。

知道何時 AI 的輸出已經夠好了;知道何時該自己接手;知道何時合上筆記本;知道何時微小的改進不值得巨大的認知成本。

我們給系統設計熔斷機制、背壓機制,我們也應該給自己設計一套。

AI 是我用過最強大的工具,也是最耗能的。這不矛盾。在這個時代能活得好的工程師,不是用 AI 最多的人,而是用得最「明智」的人

如果你累了,不是因為你做錯了什麼,實際這真的很難。

工具是新的,模式還在成型,行業在假裝「更多產出 = 更多價值」。

但這不成立。可持續的產出,才是價值。

保護好你的大腦。那是你唯一的資產,沒有任何 AI 能替代它。 (APPSO)