四大諮詢AI翻車照妖鏡:誰在濫用智能,誰在製造幻覺?

01 AI闖禍的第一天

誰能想到——一家四大會計師事務所,居然也會因為AI“瞎編”而被迫退款。

這個10月,德勤(Deloitte Australia)因提交給澳大利亞聯邦政府的一份報告出現嚴重錯誤,被曝光部分內容由AI生成。政府確認,報告中引用了虛構的法院判決、並不存在的學者論文、甚至捏造的書籍標題。

最終,德勤不得不部分退還這份價值 44萬澳元 的合同款項。

這起事件迅速成為輿論焦點,不僅因為它發生在“AI最懂的公司”身上,更因為它揭開了一個現實:

當企業在AI浪潮中
一頭紮進自動化與智能化的懷抱時,
也正在被它悄悄吞噬。

這場鬧劇的根源,在於AI的“幻覺”(hallucination)機制

簡單來說,當AI模型在知識不足或語義模糊時,它會想當然地補齊缺失的資訊——並且往往語氣篤定、自信滿滿。

這是一種深度語言模型的“認知幻覺”:

它並非故意造假,而是在不確定時,選擇用“貌似合理”的句子來取悅使用者

AI的底層邏輯並不懂事實,只懂 “機率” 。它不是在思考 “真不真” ,而是在計算 “像不像” 。

AI不會說 “我不知道” ,它更傾向於 “給你一個看起來像知道的答案” 。

問題是,當這種“看似可靠”的輸出被用於政府報告、商業分析、甚至政策諮詢時,錯誤便具備了真實的後果。

02 德勤的尷尬:AI幫忙、人工缺席

德勤的案例並不是AI的錯,而是人類過度信任AI的錯。

根據多家澳媒報導,德勤確實使用了Azure OpenAI GPT-4o 的企業版工具鏈,用於撰寫報告中的部分章節和腳註整理。但關鍵在於——報告出廠前,缺乏人工審校與事實核對。

換句話說:AI只是寫手,卻沒有編輯。

結果,“半自動化生產”的報告中出現了各種匪夷所思的錯誤:

  • 引用並不存在的研究論文;
  • 學者名字與期刊刊號全部錯誤;
  • 法院判決的引用內容純屬虛構;
  • 腳註裡出現了AI編造的法律條款。

一位雪梨大學的學者憤怒地指出:

“這份報告中引用的文章根本不存在。作為研究者,我們的名字被AI劫持。”

而德勤的回應頗為“官式”:

“報告內容的實質是正確的,只是在最終出版時,部分腳註與標題未完全匹配相應來源。”

這話翻譯成人話就是:報告大方向沒錯,細節出錯怪AI。

如今的澳大利亞、甚至全球企業界,都對AI抱有近乎宗教般的信仰。AI是生產力革命的象徵,是壓縮成本的魔法,是 “少人多做” 的萬能鑰匙。從德勤到安永,從麥肯錫到Google,幾乎所有機構都在宣稱——“AI可以讓我們更快、更準、更強”。

然而,AI真正加速的,也許是錯誤的傳播速度。

如果說AI是一台加速引擎,那麼“人類的懶惰”就是其中的汽油。在“生成快、發佈快” 的誘惑下,很多企業忽略了最基礎的 “驗證機制” 

德勤的報告事故,正是這種盲目提速的縮影。

03 “幻覺”的職場化:我們也在被AI訓練

德勤事件不僅僅是一場諮詢業的醜聞,它其實折射出整個白領階層的集體幻覺。

越來越多的從業者正在依賴AI生成報告、總結會議、撰寫文案。人們感嘆AI的高效,卻忽略了自己在 “退化” 。AI的每一次輔助,都在重新塑造職場邏輯:

  • 原本的知識積累,變成了“提示詞技巧”;
  • 原本的判斷力,被演算法的信心取代;
  • 原本的學習路徑,被“直接生成”取代。

我們在教AI做人,而AI也在無聲地重新教育人類。

它讓我們更快,卻讓我們更淺。

它讓我們更忙,卻讓我們更盲。

德勤的幻覺,不只是AI的幻覺,也是人類對AI的幻覺。

德勤的錯誤之所以被發現,是因為它出現在政府報告裡。但在無數企業內部報告、投標檔案、培訓資料中——同樣的幻覺正大規模發生。

這類幻覺的危險不止是“資料錯誤” ,更包括:

  1. 信任崩塌: 當客戶發現報告由AI拼湊,人類專業判斷就被質疑;
  2. 風險: AI生成的內容可能侵犯版權、洩露資料或誤導公眾;
  3. 責任模糊: 一旦AI輸出錯誤,責任歸屬模糊——是作者?是稽核人?還是演算法?

這讓傳統的“職業信譽”概念面臨挑戰。在過去,錯誤意味著“人的疏忽”;在現在,錯誤可能意味著“機器的幻覺”。

但機器不承擔後果,承擔後果的依然是人。

有些人會把這次事件看作“AI取代白領工作”的又一例證——機器正在接管人類腦力勞動。然而,這種解讀過於簡單。數字革命的關鍵在於——人們能通過幾個點選和鍵盤操作迅速獲得資訊。任何知識密集型機構(如諮詢公司)若不利用AI來提高檢索效率,都將落伍。

但AI和任何工具一樣,取決於使用者。

木匠的準則是“量兩次、再鋸一次”;在AI世界裡同樣適用。

德勤自己也曾強調“讓人類留在AI環節中”(keep a human in the loop),卻在此事上忘了遵守自己的原則。如果他們安排員工認真核對每個腳註、驗證每個來源——這項枯燥卻最關鍵的智力工作——或許就能避免這場尷尬。

04 制度的缺位:AI需要“交通規則”

AI不是敵人,但AI時代缺乏規則,才是最大的風險。Elizabeth Knight 在評論中寫道:“AI的使用需要一套正式的制衡機制。恐怕我們要經歷更多幻覺,社會才會學會如何負責任地使用它。”

確實,目前全球範圍內關於AI治理的框架仍處於試探階段。歐洲有《AI法案》草案,美國有NIST的AI風險標準,中國也在起草《生成式AI管理辦法》。

但對於企業內部的AI使用,尤其是諮詢、審計、政策顧問等領域,幾乎沒有一套清晰標準:

  • AI生成的內容是否需要強制標註?
  • 那些報告可使用AI輔助?
  • 人類審校比例應是多少?
  • 資料溯源如何記錄?

德勤事件表明,如果這些規則繼續缺位,AI的“幻覺成本”將由整個社會買單。

德勤的尷尬,其實是所有知識工作者的鏡子。

當AI成為主流,我們需要重新定義“專業”與“責任”:

  • 專業不再是資訊多,而是判斷准;
  • 效率不再是速度快,而是邏輯穩;
  • 責任不再是執行命令,而是理解結果。

AI讓人類更強,但也讓懶惰變得更危險。德勤的退款,買來的不是面子,而是一次全行業的反思。

AI不是救世主,它只是鏡子。照出了我們的野心,也照出了我們的短視。

AI並不會取代人類,但會取代那些不再思考的人類。

AI能寫文案,卻不會理解語氣背後的文化;

能生成資料,卻不懂數字背後的政治;

能畫出完美的圖表,卻無法洞察圖表之外的真相。

AI是加速器,而不是指南針。

如果我們將方向盤交給它,墜毀只是時間問題。

未來最有價值的,不是“用AI最快的人”,

而是“懂得何時不該用AI的人”。

是仍願意花時間去驗證真相的人。 (澳洲財經見聞)