#會計師事務所
四大諮詢AI翻車照妖鏡:誰在濫用智能,誰在製造幻覺?
01 AI闖禍的第一天誰能想到——一家四大會計師事務所,居然也會因為AI“瞎編”而被迫退款。這個10月,德勤(Deloitte Australia)因提交給澳大利亞聯邦政府的一份報告出現嚴重錯誤,被曝光部分內容由AI生成。政府確認,報告中引用了虛構的法院判決、並不存在的學者論文、甚至捏造的書籍標題。最終,德勤不得不部分退還這份價值 44萬澳元 的合同款項。這起事件迅速成為輿論焦點,不僅因為它發生在“AI最懂的公司”身上,更因為它揭開了一個現實:當企業在AI浪潮中一頭紮進自動化與智能化的懷抱時,也正在被它悄悄吞噬。這場鬧劇的根源,在於AI的“幻覺”(hallucination)機制。簡單來說,當AI模型在知識不足或語義模糊時,它會想當然地補齊缺失的資訊——並且往往語氣篤定、自信滿滿。這是一種深度語言模型的“認知幻覺”:它並非故意造假,而是在不確定時,選擇用“貌似合理”的句子來取悅使用者。AI的底層邏輯並不懂事實,只懂 “機率” 。它不是在思考 “真不真” ,而是在計算 “像不像” 。AI不會說 “我不知道” ,它更傾向於 “給你一個看起來像知道的答案” 。問題是,當這種“看似可靠”的輸出被用於政府報告、商業分析、甚至政策諮詢時,錯誤便具備了真實的後果。02 德勤的尷尬:AI幫忙、人工缺席德勤的案例並不是AI的錯,而是人類過度信任AI的錯。根據多家澳媒報導,德勤確實使用了Azure OpenAI GPT-4o 的企業版工具鏈,用於撰寫報告中的部分章節和腳註整理。但關鍵在於——報告出廠前,缺乏人工審校與事實核對。換句話說:AI只是寫手,卻沒有編輯。結果,“半自動化生產”的報告中出現了各種匪夷所思的錯誤:引用並不存在的研究論文;學者名字與期刊刊號全部錯誤;法院判決的引用內容純屬虛構;腳註裡出現了AI編造的法律條款。一位雪梨大學的學者憤怒地指出:“這份報告中引用的文章根本不存在。作為研究者,我們的名字被AI劫持。”而德勤的回應頗為“官式”:“報告內容的實質是正確的,只是在最終出版時,部分腳註與標題未完全匹配相應來源。”這話翻譯成人話就是:報告大方向沒錯,細節出錯怪AI。如今的澳大利亞、甚至全球企業界,都對AI抱有近乎宗教般的信仰。AI是生產力革命的象徵,是壓縮成本的魔法,是 “少人多做” 的萬能鑰匙。從德勤到安永,從麥肯錫到Google,幾乎所有機構都在宣稱——“AI可以讓我們更快、更準、更強”。然而,AI真正加速的,也許是錯誤的傳播速度。如果說AI是一台加速引擎,那麼“人類的懶惰”就是其中的汽油。在“生成快、發佈快” 的誘惑下,很多企業忽略了最基礎的 “驗證機制” 。德勤的報告事故,正是這種盲目提速的縮影。03 “幻覺”的職場化:我們也在被AI訓練德勤事件不僅僅是一場諮詢業的醜聞,它其實折射出整個白領階層的集體幻覺。越來越多的從業者正在依賴AI生成報告、總結會議、撰寫文案。人們感嘆AI的高效,卻忽略了自己在 “退化” 。AI的每一次輔助,都在重新塑造職場邏輯:原本的知識積累,變成了“提示詞技巧”;原本的判斷力,被演算法的信心取代;原本的學習路徑,被“直接生成”取代。我們在教AI做人,而AI也在無聲地重新教育人類。它讓我們更快,卻讓我們更淺。它讓我們更忙,卻讓我們更盲。德勤的幻覺,不只是AI的幻覺,也是人類對AI的幻覺。德勤的錯誤之所以被發現,是因為它出現在政府報告裡。但在無數企業內部報告、投標檔案、培訓資料中——同樣的幻覺正大規模發生。這類幻覺的危險不止是“資料錯誤” ,更包括:信任崩塌: 當客戶發現報告由AI拼湊,人類專業判斷就被質疑;風險: AI生成的內容可能侵犯版權、洩露資料或誤導公眾;責任模糊: 一旦AI輸出錯誤,責任歸屬模糊——是作者?是稽核人?還是演算法?這讓傳統的“職業信譽”概念面臨挑戰。在過去,錯誤意味著“人的疏忽”;在現在,錯誤可能意味著“機器的幻覺”。但機器不承擔後果,承擔後果的依然是人。有些人會把這次事件看作“AI取代白領工作”的又一例證——機器正在接管人類腦力勞動。然而,這種解讀過於簡單。數字革命的關鍵在於——人們能通過幾個點選和鍵盤操作迅速獲得資訊。任何知識密集型機構(如諮詢公司)若不利用AI來提高檢索效率,都將落伍。但AI和任何工具一樣,取決於使用者。木匠的準則是“量兩次、再鋸一次”;在AI世界裡同樣適用。德勤自己也曾強調“讓人類留在AI環節中”(keep a human in the loop),卻在此事上忘了遵守自己的原則。如果他們安排員工認真核對每個腳註、驗證每個來源——這項枯燥卻最關鍵的智力工作——或許就能避免這場尷尬。04 制度的缺位:AI需要“交通規則”AI不是敵人,但AI時代缺乏規則,才是最大的風險。Elizabeth Knight 在評論中寫道:“AI的使用需要一套正式的制衡機制。恐怕我們要經歷更多幻覺,社會才會學會如何負責任地使用它。”確實,目前全球範圍內關於AI治理的框架仍處於試探階段。歐洲有《AI法案》草案,美國有NIST的AI風險標準,中國也在起草《生成式AI管理辦法》。但對於企業內部的AI使用,尤其是諮詢、審計、政策顧問等領域,幾乎沒有一套清晰標準:AI生成的內容是否需要強制標註?那些報告可使用AI輔助?人類審校比例應是多少?資料溯源如何記錄?德勤事件表明,如果這些規則繼續缺位,AI的“幻覺成本”將由整個社會買單。德勤的尷尬,其實是所有知識工作者的鏡子。當AI成為主流,我們需要重新定義“專業”與“責任”:專業不再是資訊多,而是判斷准;效率不再是速度快,而是邏輯穩;責任不再是執行命令,而是理解結果。AI讓人類更強,但也讓懶惰變得更危險。德勤的退款,買來的不是面子,而是一次全行業的反思。AI不是救世主,它只是鏡子。照出了我們的野心,也照出了我們的短視。AI並不會取代人類,但會取代那些不再思考的人類。AI能寫文案,卻不會理解語氣背後的文化;能生成資料,卻不懂數字背後的政治;能畫出完美的圖表,卻無法洞察圖表之外的真相。AI是加速器,而不是指南針。如果我們將方向盤交給它,墜毀只是時間問題。未來最有價值的,不是“用AI最快的人”,而是“懂得何時不該用AI的人”。是仍願意花時間去驗證真相的人。 (澳洲財經見聞)
四大,撐不住了…
一個讓留學生心頭一緊的消息:普華永道PwC宣佈到2028年美國辦公室初級崗位數量將減少近三分之一曾經一介頂流的四大如今也要撐不住了嗎......cr.Business Insider四大,真撐不住了?從上個月開始,各大官方外媒就頻頻傳出PwC招募放緩的消息。8月,PwC美國宣佈,未來三年的校招崗位將減少30%,尤其是審計和稅務兩個部門。根據內部PPT,PwC在2025財年招收了3,242名稅務初級助理,但到了2028財年,這個數字預計會縮減到2197,跌幅高達32%。審計部門砍的人更多,今年招了1676人,而到2028年將少減少661個名額,近40%。不知道銀幕前有多少剛好是2028年畢業準備「直奔四大」的留學生,在這裡先心疼你一秒鐘......PwC英國地區CEO給出的解釋口徑是:技術變革、AI接管部分基礎工作,再加上員工流動率降低,讓公司「沒必要再大量吸納新人」。更令人心寒的是,四大不只PwC一家在縮減校招名額,其他幾家的「收口」趨勢也日益顯現。今年2月,EY剛因為重組裁去技術諮詢部門的100名員工。隨即全球首席執行官Janet Truncale在6月的米爾肯研究所年會上表示,EY不會因AI而裁員,但可以“用更少的人做更多的事”,稱:我認為我們可以用今天的員工隊伍實現規模翻倍。「不會裁員」的說辭真假暫且不論,但「不再擴招」這一點顯然是真的。全球頂尖的四大,光環也慢慢褪去。根據今年財報統計的資料,四家利潤均有不同程度的下滑,曾經一度穩居老大位置的PwC,利潤更是下降超過25%,對於這樣以人力成本為主的公司來說,不可謂不是一個重創。四大停招縮招的原因,其實都有共通之處,總結下來主要有這麼幾點👇1)AI正在接管新人飯碗過去習慣了大規模「金字塔式」招人的四大,如今正主動收縮基層崗位,把更多原本初級基礎職能交給AI完成。PwC人工智慧保證負責人Jenn Kosar表示:AI將會被更廣泛地運用於工作中,使員工能夠專注於“更高級、更有價值的工作”,這也提高了對於新員工的要求,入職三年要達到管理層等級水平,縮招的同時也意味著四大的進入門檻更高了。2)員工自然流失率過低由於疫情期間的過度擴招導致的勞動力過剩,再加上近幾年經濟下行,招聘市場大環境普遍低迷,自願離職的員工少之又少,那隻能相應進行裁員和停招了。3)大型項目需求低迷經濟放緩以及由此導致的投資、招募和交易減少是PwC今年畢業生招生人數下降的最大因素。隨著今年上半年政府效率部DOGE大規模取消與諮詢公司合同,受影響最大的Deloitte,Deloitte 2024財年的收入為672億美元,其中約10%來自政府合同,被終止了超過11.6億美元價值的合同。4)加速中心AC外包AC也就是我們常說的離岸外包中心,PwC高層在訪談中提到,目前離岸外包中心把大量低成本崗位轉移到印度,菲律賓和阿根廷等勞動力成本較低的地方,這也減少了各地核心團隊對人力的需求。有人戲稱,四大情況再持續這樣下滑,2nd Tier事務所都要崛起了,“Big Four”變“Next Four”。cr.xhs