誰能想到——一家四大會計師事務所,居然也會因為AI“瞎編”而被迫退款。
這個10月,德勤(Deloitte Australia)因提交給澳大利亞聯邦政府的一份報告出現嚴重錯誤,被曝光部分內容由AI生成。政府確認,報告中引用了虛構的法院判決、並不存在的學者論文、甚至捏造的書籍標題。
最終,德勤不得不部分退還這份價值 44萬澳元 的合同款項。
這起事件迅速成為輿論焦點,不僅因為它發生在“AI最懂的公司”身上,更因為它揭開了一個現實:
當企業在AI浪潮中
一頭紮進自動化與智能化的懷抱時,
也正在被它悄悄吞噬。
這場鬧劇的根源,在於AI的“幻覺”(hallucination)機制。
簡單來說,當AI模型在知識不足或語義模糊時,它會想當然地補齊缺失的資訊——並且往往語氣篤定、自信滿滿。
這是一種深度語言模型的“認知幻覺”:
它並非故意造假,而是在不確定時,選擇用“貌似合理”的句子來取悅使用者。
AI的底層邏輯並不懂事實,只懂 “機率” 。它不是在思考 “真不真” ,而是在計算 “像不像” 。
AI不會說 “我不知道” ,它更傾向於 “給你一個看起來像知道的答案” 。
問題是,當這種“看似可靠”的輸出被用於政府報告、商業分析、甚至政策諮詢時,錯誤便具備了真實的後果。
德勤的案例並不是AI的錯,而是人類過度信任AI的錯。
根據多家澳媒報導,德勤確實使用了Azure OpenAI GPT-4o 的企業版工具鏈,用於撰寫報告中的部分章節和腳註整理。但關鍵在於——報告出廠前,缺乏人工審校與事實核對。
換句話說:AI只是寫手,卻沒有編輯。
結果,“半自動化生產”的報告中出現了各種匪夷所思的錯誤:
一位雪梨大學的學者憤怒地指出:
“這份報告中引用的文章根本不存在。作為研究者,我們的名字被AI劫持。”
而德勤的回應頗為“官式”:
“報告內容的實質是正確的,只是在最終出版時,部分腳註與標題未完全匹配相應來源。”
這話翻譯成人話就是:報告大方向沒錯,細節出錯怪AI。
如今的澳大利亞、甚至全球企業界,都對AI抱有近乎宗教般的信仰。AI是生產力革命的象徵,是壓縮成本的魔法,是 “少人多做” 的萬能鑰匙。從德勤到安永,從麥肯錫到Google,幾乎所有機構都在宣稱——“AI可以讓我們更快、更準、更強”。
然而,AI真正加速的,也許是錯誤的傳播速度。
如果說AI是一台加速引擎,那麼“人類的懶惰”就是其中的汽油。在“生成快、發佈快” 的誘惑下,很多企業忽略了最基礎的 “驗證機制” 。
德勤的報告事故,正是這種盲目提速的縮影。
德勤事件不僅僅是一場諮詢業的醜聞,它其實折射出整個白領階層的集體幻覺。
越來越多的從業者正在依賴AI生成報告、總結會議、撰寫文案。人們感嘆AI的高效,卻忽略了自己在 “退化” 。AI的每一次輔助,都在重新塑造職場邏輯:
我們在教AI做人,而AI也在無聲地重新教育人類。
它讓我們更快,卻讓我們更淺。
它讓我們更忙,卻讓我們更盲。
德勤的幻覺,不只是AI的幻覺,也是人類對AI的幻覺。
德勤的錯誤之所以被發現,是因為它出現在政府報告裡。但在無數企業內部報告、投標檔案、培訓資料中——同樣的幻覺正大規模發生。
這類幻覺的危險不止是“資料錯誤” ,更包括:
這讓傳統的“職業信譽”概念面臨挑戰。在過去,錯誤意味著“人的疏忽”;在現在,錯誤可能意味著“機器的幻覺”。
但機器不承擔後果,承擔後果的依然是人。
有些人會把這次事件看作“AI取代白領工作”的又一例證——機器正在接管人類腦力勞動。然而,這種解讀過於簡單。數字革命的關鍵在於——人們能通過幾個點選和鍵盤操作迅速獲得資訊。任何知識密集型機構(如諮詢公司)若不利用AI來提高檢索效率,都將落伍。
但AI和任何工具一樣,取決於使用者。
木匠的準則是“量兩次、再鋸一次”;在AI世界裡同樣適用。
德勤自己也曾強調“讓人類留在AI環節中”(keep a human in the loop),卻在此事上忘了遵守自己的原則。如果他們安排員工認真核對每個腳註、驗證每個來源——這項枯燥卻最關鍵的智力工作——或許就能避免這場尷尬。
AI不是敵人,但AI時代缺乏規則,才是最大的風險。Elizabeth Knight 在評論中寫道:“AI的使用需要一套正式的制衡機制。恐怕我們要經歷更多幻覺,社會才會學會如何負責任地使用它。”
確實,目前全球範圍內關於AI治理的框架仍處於試探階段。歐洲有《AI法案》草案,美國有NIST的AI風險標準,中國也在起草《生成式AI管理辦法》。
但對於企業內部的AI使用,尤其是諮詢、審計、政策顧問等領域,幾乎沒有一套清晰標準:
德勤事件表明,如果這些規則繼續缺位,AI的“幻覺成本”將由整個社會買單。
德勤的尷尬,其實是所有知識工作者的鏡子。
當AI成為主流,我們需要重新定義“專業”與“責任”:
AI讓人類更強,但也讓懶惰變得更危險。德勤的退款,買來的不是面子,而是一次全行業的反思。
AI不是救世主,它只是鏡子。照出了我們的野心,也照出了我們的短視。
AI並不會取代人類,但會取代那些不再思考的人類。
AI能寫文案,卻不會理解語氣背後的文化;
能生成資料,卻不懂數字背後的政治;
能畫出完美的圖表,卻無法洞察圖表之外的真相。
AI是加速器,而不是指南針。
如果我們將方向盤交給它,墜毀只是時間問題。
未來最有價值的,不是“用AI最快的人”,
而是“懂得何時不該用AI的人”。
是仍願意花時間去驗證真相的人。 (澳洲財經見聞)