你以為在用AI,其實在伺候AI?殘酷資料揭穿打工人幻覺

AI能力狂飆,人卻越來越焦慮。模型能力每隔幾個月翻一番,但人們不是怕它不夠聰明,而是怕它聰明得不受控。當下用AI,就像帶了一群神通廣大卻不服管的徒弟,沒有分工制衡,產出全憑運氣!這背後,是一個被所有人忽視的架構性缺陷。有人決定從根本上解決它。

一個讓所有人不安的反常識,正在悄悄發生。

你有沒有過這種經歷——

讓AI寫個指令碼,它洋洋灑灑給你100行程式碼,語氣篤定:「已完成。」

你跑起來,報錯。

貼回去,它說「抱歉,修復如下」。

再跑,換了個錯。

第五次,你開始懷疑:

我到底是在用工具,還是在伺候工具?

微軟2025年的資料,說出了你不敢承認的事:

知識工作者每周平均花4.3小時——不是用AI,是在查AI有沒有騙你。

MIT研究揭示了一個更令人不安的事實:AI模型在生成錯誤內容時,使用自信語氣的機率比生成正確內容時高出34%。

它越錯,聽起來越確定。

你正在變成提示詞餵養員

過去這一年,你有沒有意識到一件事:

不是AI變成了人,而是人變成了AI的工具——餵資料、寫提示詞、驗輸出、再餵資料。循環往復。

這不是AI解放了你。這是你在伺候AI。

今天多數人用AI,像什麼?

像讓一個「什麼都做」的孫悟空,既去找經書、又做筆記、又寫匯報、還替你做判斷。它本事大,但你看不見過程;它真出錯時,你也不知道錯在路上、錯在理解、還是錯在最後那張嘴。

所以現在最常見的局面,不是「AI幫你幹活」,而是「AI先生成,你再返工」。一旦發現不對,只能整段重來。

500年前,人類已經解決過這個問題

文藝復興時期,一幅偉大畫作的誕生需要整個工坊。

大師負責構思和最終審定。研磨顏料的學徒、畫背景的助手、負責人物面部的畫師——每個人各司其職,每道工序清晰可見。

這不是效率低下,這是質量的保證機制。

今天的AI,走了一條截然相反的路:我們把所有任務——檢索、分析、寫作、判斷——全部塞給同一個模型,在同一個對話方塊裡,一次性完成。

輸出是融合的。推理是隱藏的。錯誤是混合的。當結果不對時,你不知道那一步出了問題,只能重新提問,重新等待,重新希望。

三個真實場景,三面鏡子

場景一:研究者 vs 幾百篇讀不完的論文

他試過最新的Deep Research工具。結果不錯,但有一個致命問題:自己沒有參與其中。

AI替你把文獻讀完了,給你一個總結。但那個總結是按它的理解組織的,不是按你的研究框架組織的。想調整方向,只能重新提問,重新等半小時,重新得到一個你依然無法完全信任的總結。

真正的文獻調研不是資訊檢索,是認知建構。需要的不是答案,是能夠跟隨你的思維方式生長的過程。

於是他搭了一個「文獻研究員」專家,讓它主動提問、樹狀展開假設,每條路徑獨立推進、獨立放棄。研究方向不對?只剪掉那一支,其餘繼續生長。每個結論可以追溯到具體文章,每篇文章可以追溯到具體檢索邏輯。

「我希望我讀博的時候有這個。」

場景二:父親,想給孩子講一個只屬於她的故事

他的孩子喜歡獨角獸,喜歡冒險,已經把家裡繪本聽了不知道多少遍。

作為父親,他想做一本定製繪本——以孩子為主角,用她能聽懂的語言,講一個只屬於她的故事。

問題是:他不是作家,也不是畫師。

按普通方式用AI,他也能拼出來:先寫故事,再改提示詞,再調畫風。但很快就發現,每一頁都要重新解釋孩子的年齡、喜好、主角設定;人物形象容易變化,故事節奏容易跑偏,前後頁常常不像同一本書。

他沒有繼續這樣做,而是搭了一支可以復用的小團隊:故事策劃專家、畫面描述專家、風格統一專家。這個團隊會記住確認過的角色設定和表達風格,下次做新故事,不需要從頭解釋一遍。

(以下為部分頁面摘錄)

故事裡的情節——獨角獸一家沒吃飯要掙錢、要住更大的房子、拉著大提琴去夏威夷——不是AI編的,也不是父親設計的。這是孩子某天夜裡做的一個夢,第二天早上,她原原本本地講給媽媽聽。

專家團隊做的,只有一件事:把這些只有孩子才夢得出來的念頭,變成一頁一頁可以重讀的書。

那個晚上,他沒有跟孩子解釋什麼是AI,什麼是提示詞。他只是陪著她,聽她指著書頁上的小女孩說——「這個是我!」

他覺得,值了。

場景三:從研究者到創業者

成為創業者,最具挑戰的不是技術決策,是一個人要扮演所有角色。

公司只有幾個人,但每天要處理的事一件都不少:新員工入職、競品動態、使用者反饋、程式碼審查、決策依據……每件事單獨看都不複雜,但每件事都可能在最忙的時候掉鏈子。

他給每個高頻任務配了專家:情報專家、決策專家、工程專家、使用者專家。

第一版上線,發現工程專家的一個配置沒對齊,影響了程式碼審查精準率。

修復時間:一分鐘。只改了工程專家,其餘三個繼續跑,完全不受影響。

「以前改一個流程,要把所有人重新拉進來開會。現在改一個專家,其他人不知道,也不需要知道。」

兩個「不按劇本走」的使用者

一位畜牧業主找到了他們。他管理著一個中型養殖場,困擾於如何根據動物體重、天氣變化和市場價格,動態調整每天的飼餵策略。

他試過Excel,試過各種AI工具。AI能給答案,但給不瞭解釋。他是個有三十年經驗的農場主,他不需要答案,他需要的是能讓他看懂、能讓他質疑的推理過程。

「這是我第一次覺得AI在跟我說話,而不是在跟自己說話。」

不久之後,一家製藥公司的研究團隊也找來了。他們不需要通用AI,他們需要一個真正懂自己化合物庫、懂自己內部資料的領域專家。

從養殖場到實驗室——這個問題,比他們以為的更普遍。

技術核心 為什麼是「團隊」,不是「助手」

這裡有一個合理的質疑:把一個任務拆成幾個提示詞,和所謂的「AI專家團隊」,到底有什麼本質區別?

區別在三個地方,而且每一個都很重要。

① 真實的技能分離,不是角色扮演

每個專家有不同的工具權限和知識庫。研究員可以訪問學術資料庫,分析師可以呼叫計算引擎,寫作者專注語言輸出不做檢索。這不是在同一個模型上貼不同的名字標籤,這是功能層面的真實分工。

② Embedded Context——越用越懂你

每個專家維護自己的持久記憶。你的偏好、你的標準、你糾正過的錯誤、你反覆強調的原則——專家記住,下次自動執行。你不需要在每次對話開始時重新解釋自己在做什麼。你的團隊,已經知道了。

而不是每次都像在和一個失憶的實習生重新開會。

③ AI人才市場——最好的專家,由領域從業者來造

最好的「智慧財產權訴訟研究員」專家,應該由一個做了二十年IP訴訟的律師來造。最好的「臨床試驗資料分析師」,應該由在醫院跑了十年資料的研究員來造。

這些專家,將來可以在市場上流通——由領域從業者創造,在同行之間共享,隨著使用不斷進化。

這是AI的App Store時刻。只不過上架的不是軟體,是專家智能。

這是一個分水嶺

2025-2026年,AI Agent成了整個行業最熱的詞。

但冷靜看一下市面上的產品,第一波浪潮面向的幾乎都是開發者——你需要懂API,懂配置檔案,懂如何偵錯複雜的工作流。

普通使用者拿到這些工具,依然是等待者,依然是驗證者,依然是提示詞餵養員。

當AI的能力以指數速度增長,決定使用者體驗質量的,不再是模型的參數規模,而是人在這個系統裡扮演的角色。

旁觀者,還是管理者?等待者,還是決策者?

這不是技術問題,這是設計選擇。

黑盒模式下,你是提示詞餵養員;團隊模式下,你是管理者。區別不在模型大不大,而在你能不能真正管得住它。

也許真正值得試的,不只是一個更強的AI,而是一種新的協作方式。

如果是你,你會用AI專家團隊做的第一件事是什麼? (新智元)