技術發展終將適應社會,期間技術難免放大社會中最薄弱、最偏見、最自私自利的環節。減少人機惡性對抗,關鍵在於審視背後資源分配和權力的公正性。今年7月,《紐約時報》一篇題為“歡迎來到你的工作面試,你的面試官是人工智慧(AI)”的報導描述了多位求職者與“無面孔的聲音和虛擬形象”的面試官對話的經歷——這些由“自主性AI”(agentic A.I.)驅動的面試官,能夠即時生成對話並根據求職者的回答進行追問(注1)。文中,一位22歲的畢業生說,整個過程感覺非常“去人性化”(dehumanizing);另一位57歲的求職者與AI面試近一小時後,就再也沒有收到任何反饋,她感到自己被“利用”了,甚至懷疑:這家公司是在用我訓練AI嗎?這份工作真的存在嗎?其實,早在2020年,中國內地就有類似報導,講述面試者如何應對AI面試官,比如在言語和妝容上投其所好(注2)。近年來,當企業和高校紛紛探索人機(AI)協同時,人與AI的“對抗”也在升級。今年7月,《日經新聞》揭露了一種新的欺騙方式:來自14所全球頂級大學的研究者在預印本論文中用白色字型或極小字號隱藏AI提示詞,讓AI審稿人“只給正面評價(注3)。說來諷刺,當人們處心積慮用AI把自己的表現或論文“變美”,也有人把圖“修丑”。今年9月,《21世紀經濟報導》曝光消費者使用AI工具在數秒內生成“發霉筷子”、“破裂水杯”等假圖,向電商平台申請“僅退款“實施欺詐,商家客服難以辨別真假,成功率高達75%(注4)。上周,英國《金融時報》報導,造假者通過AI生成帶有模擬商標、地址、明細的假髮票——甚至模擬不完美的細節如摺痕和咖啡漬——進行欺詐(注5)。電腦領域稱這類行為為“對抗性攻擊”(adversarial attack),指通過向AI模型輸入經過惡意操縱的資料,迫使模型做出錯誤預測。當AI系統在人類社會落地,這種人為對抗遠非技術故障。以AI面試為例,傳播學中的期望違背理論(Expectancy Violations Theory)指出,當溝通期望被打破時,人會產生負面感受,進而適應或抵抗。AI面試官違背了求職者對“人際互動”、接受“全面公平評估”的期待——它雖然可以對話,但缺乏真實情感,也難以捕捉全部細微的溝通訊息。在人企權力不對等的背景下,企業的做法會被解讀為“你還不配得到我司人類的評估”。求職者可能在社交媒體上抱怨企業,也可能在未來對類似系統進行欺騙,惡性循環。一旦使用者優先考慮的不再是真誠溝通而是如何攻擊系統時,這個系統的社會意義上就已經失敗了。那麼,人類的溝通在什麼時候可以、什麼時候不應該轉化為電腦和資料工程問題?要回答這個問題,不妨思考一個古老的“是不可殺錯、還是不可放過”的倫理悖論。一方面, 我們可以嚴格限制AI,假定人性本惡、AI引發濫用。但這種“寧可錯殺”的邏輯會阻止技術的合理應用(如氣候建模、藥物發現、消費者洞察等)。另一方面,有未來主義和社會達爾文主義片面混合後的觀點竟然認為,AI成就的“完美犯罪”突破了人類智商和能力的極限,這是技術的勝利,而且“善與惡”的劃分或許也是錯誤的、過時的。這種立場看似進步,實際上是在犧牲那些資訊不對稱、權力較弱的群體,且持這種觀點的人因對人文社會的無知、也不屑於探索,就把他們不負責任地標籤為“應該被技術淘汰的舊制度的維護者”。這種辯論本質上是資源稀缺時,人們對“過程公平還是結果公平”幾個世紀以來的思考、爭辯與實踐。任何博弈邏輯的出現都是條件制約的結果和妥協。草原上的弱肉強食是自然選擇的結果;寄居蟹和海葵之間的共生是協同進化的產物;尊老愛幼代表人類尊嚴和關係責任,而日本傳說中,貧困村莊的老人到了70歲就要前往荒地,放棄自己讓年輕人活下去(如電影《楢山節考》所描繪的)。博弈勝負的邏輯紮根於具體的生態、歷史、文化、和經濟條件之中。但任何情況下,分配不應該超越正義:不應有個體受到傷害、不欺騙、過程透明、權力高位應能問責。人機對抗也遵循同樣的邏輯:不是人性變惡,而是評價系統、權力結構、資源競爭的制約。正如“內卷”一詞的描述:參與者主動選擇局部最優解,但其投入毫無意義、徒增消耗。然而,重大創新多誕生於容許探索的環境,而非將一切活動工具化為競爭籌碼的社會。AlphaGo誕生於對未知的好奇,是增量遊戲;但它也許很難誕生在特長是為了考試加分、讓簡歷更引人注目的環境裡。譴責對抗的同時,也應該拷問他們所處的社會:對風險、失敗和探索的容忍度有多少?用大白話說,你是否可以理直氣壯做一個平凡但快樂的普通人,不求大富大貴,但自食其力、自在自為?改進的方向因此變得清晰。輝達CEO黃仁勳最近指出,AI時代對電工、水管工、木匠的需求會大幅增加(因為資料中心需要這些物理世界的工作);同時建議大家“找到一門願意用一生去完善的技藝”。這指向未來的職場能力:親身經驗、情境判斷、無法批次生產、注重人際交流。新聞業一句老話異曲同工:好新聞不是寫出來的,是“跑”出來的——走訪、調查、叩門、抗壓、變通,卻又孜孜不倦。對於部署AI面試的企業,關鍵環節更應保留人的觀察和判斷:AI當然可以做初篩、資料整理,但晉陞、錄用、資源分配等重要決定,應由人類做最終判斷,且要能夠向受評估者解釋原因。評價維度上,許多對抗行為因為指標過於單一、且缺乏交叉驗證而產生。企業應該清晰地告訴求職者評估標準是什麼、為什麼AI被使用、那一部分資料會被使用、人工干預和稽核的機制是什麼。如今,在企業降本增效成為慣例的大背景下,這當然不是一朝一夕可以實現,但無疑可以稍稍改善人際對抗的死局。技術發展終將適應這個社會,在此過程中,技術難免放大社會中最薄弱、最偏見、最自私自利的環節。減少人機惡性對抗,關鍵在於審視背後資源分配和權力的公正性。每個人不妨保留一點不合時宜的質疑,或許也是將對抗轉化為合作、善用AI的起點。註:1. 紐約時報:https://www.nytimes.com/2025/07/07/technology/ai-job-interviews.html2. 騰訊新聞穀雨工作室:https://mp.weixin.qq.com/s/UHsDjhOutHmBzEXio2_yzQ3. Nikkei Asia: https://asia.nikkei.com/business/technology/artificial-intelligence/positive-review-only-researchers-hide-ai-prompts-in-papers4. 21世紀經濟報導:https://www.21jingji.com/article/20250901/herald/6742aa83f02805679ffde76e34d40690.html5. FT中文網:https://ftchinese.com/interactive/237363 (FT中文網)