#AI部長
全球首個“AI部長”就任,主打一個“沒人性”
今天我們聊聊AI。我們都知道AI正在一步步嵌入人類社會,但你可能想不到,這種嵌入,居然已經深到這個程度。這件事發生在阿爾巴尼亞。前不久,阿爾巴尼亞總理任命了一名新的“公共採購部”部長。這個職位主要負責政府的各項採購。這位新的公共採購部部長,叫迪埃拉,迪埃拉不是真人,而是AI。沒錯,這是全球的第一位“AI部長”。為什麼要讓AI當部長呢?AI部長能靠譜嗎?我們一起來看看。01 全球第一個“AI部長”是怎麼誕生的?迪埃拉的核心演算法,由微軟和OpenAI聯合開發,運行在阿爾巴尼亞政府的電子政務平台上。實際上,迪埃拉早在2025年1月就作為AI助手在這個平台上線了。截至2025年9月初,它出任採購部部長時,迪埃拉已經在平台上處理了3.6萬多份數字檔案,協助提供了近1000項政府服務。阿爾巴尼亞官方生成的“迪埃拉”形象照讓AI當部長,難道當地政府就那麼信得過AI?這背後其實多少有點無奈。讓AI當部長,主要是因為阿爾巴尼亞政府存在一個棘手的問題,腐敗。這個國家的腐敗一度相當嚴重。在2016年的評估報告中,有91%的受訪者認為國家存在腐敗,有一半的受訪者表示政府官員收受賄賂,還有三分之一的受訪者說,曾經被迫行賄。2023年,在一個國際組織的調查中,阿爾巴尼亞的廉潔程度在全球排名第98,在歐洲幾乎墊底。據說阿爾巴尼亞的公共採購裡,充滿了關係戶、走後門、行賄受賄、中飽私囊。甚至還有人說,這個國家的公共採購招投標體系,就是“國際軍火走私和毒品販運的洗錢管道”。這種情況不僅造成了內憂,也極大程度地阻礙了阿爾巴尼亞的對外發展。比如,它想在2030年加入歐盟,但由於歐盟對反腐敗的要求很嚴格,它不達標就進不去。怎麼辦?傳統的人工監管都試過,根本不管用,涉及錢和權力,人與人之間的關係太複雜了,總有各種利益糾葛。於是阿爾巴尼亞政府想了個辦法,乾脆讓AI來管這事兒。迪埃拉就是在這種背景下被推到台前的。迪埃拉這個詞,在阿爾巴尼亞語中是“太陽”的意思,象徵著透明和公正。迪埃拉的目標是,公正地組建團隊,稽核項目,排除政府採購中可能發生的腐敗。就這樣,全球第一個“AI部長”誕生了。02 AI已經開始在責任維度上演化接下來迪埃拉的表現怎麼樣,現在還是未知數。不過,這件事確實帶來一個訊號,這就是,AI在人類活動中的參與,越來越深入了。首先,使用AI的人群基數在不斷擴大。根據最新的AI應用報告,咱們國內有將近6.45億人使用AI應用,這相當於將近一半的中國人都在跟AI打交道。再看國外的資料,根據OpenAI最新發佈的資料,到2025年的7月,它的周活躍使用者超過7億,這個數字相當於全球1/10的成年人。同時,AI和人類的協作關係也在發生變化。最開始,AI只是一個工具,用來娛樂或者處理簡單任務。這個階段裡,AI貢獻的能力不多,並且不承擔任何責任。比如,用AI做個頭像,讓它陪你聊聊天,讓它寫首小詩,或者在遊戲裡跟NPC對話,等等。在這些場景裡,就算AI出了問題也沒什麼大不了的,反正就是娛樂嘛。現在,AI的娛樂屬性依然很強,並且已經發展出一個不小的市場。2025年上半年,全球AI陪伴應用下載量達到6000萬次,同比增長64%。再比如,虛擬偶像也是一類很熱門的應用,2024年中國虛擬偶像市場規模為27億元,全球市場預計2029年能達到40.44億美元。當然,AI能做的事情遠不止娛樂。它也可以進入工作流程,成為人類的助手。這時,AI貢獻了比較高的能力,可以替代一部分人類工作,但責任邊界很清楚,最終決策權還在人類手裡。比如,程式設計領域,GitHub程式設計社區推出了官方的程式設計助手,現在有46%的新程式碼都是由AI編寫的,開發人員整體工作效率提高了55%。再比如,在創意設計領域,根據Adobe的調研,設計師使用AI工具後創意產出能快10倍。當然,到這兒,AI承擔的功能還只是執行層面上的,它並不真正為一件事的結果“負責”。但現在,情況正在發生變化。史丹佛大學的社會與語言技術實驗室,2025年6月份發表了一項新研究,專門考察了人們對“人機協作”的看法。他們發現,差不多一半的人,最喜歡的人機協作方式是“平等合作”,也就是說,大部分人既不想被AI完全替代,也不想徹底拒絕AI,而是希望和AI平等地“共事”。還有不少人表示,既想讓AI幹活,也希望它能對某個環節完全“負責”。而不是AI只負責執行,最後的責任都由人來承擔。你看,我們開頭說的阿爾巴尼亞那個AI部長,它不只是提供建議,而是直接負責公共採購項目的稽核和決策。這意味著什麼?也許,AI已經開始在責任這個維度上演化了。03 AI的優勢可能是“不近人情”為什麼會出現這種變化?就拿阿爾巴尼亞來說,表面上看,是因為阿爾巴尼亞的腐敗太嚴重,傳統的人工監管根本管不住。但往深了想,問題的核心在於:涉及錢和權力,人與人之間的關係太複雜了。有利益糾葛,有人情往來,有各種算計。你讓一個人去監管另一個人,他能做到完全公正嗎?很難。這時候,AI的優勢就顯現出來了。不是因為AI比人更聰明,而是因為AI“不近人情”。它不會算計利害關係,不怕得罪人,不會因為某個官員是自己的老同學就網開一面,也不會因為擔心影響仕途就睜一隻眼閉一隻眼。AI理論上可以做到只看資料,只看規則,只看結果。這種“不近人情”,在很多需要中立決策的場景中,反而成了最大的價值。萬維鋼老師曾經講過一個美國換水管的例子。密歇根州的一座城市要改造含鉛的舊水管,但問題是,你得先把水管挖出來才知道是不是含鉛。那先挖誰家的呢?2017年,密歇根大學的兩個教授開發了一個AI,能以80%的精準率預測那家水管含鉛。當地政府用了這個AI,一開始效果不錯,精準定位,節省成本。但工程開展一段時間後,居民開始抱怨了。為什麼鄰居換了,我家沒換?富人區的居民還會質疑,怎麼不優先換我們的?市長一看受到這麼多抱怨,開始擔心自己的政績要受損。他決定不聽AI的了,改成挨家挨戶慢慢換,這樣誰也不得罪。結果呢?決策精準率從80%直接降到了15%。大量資源被浪費,真正需要換水管的家庭反而被耽誤了。後來當地強制規定,換水管必須先聽AI預測,精準率才又提高回來。你看,這個案例說明了什麼?不是AI比市長更懂水管,而是市長作為一個政治人物,他必須考慮民意、考慮選票、考慮自己的政治前途。這些考量都很正常,但它們會干擾決策的科學性。AI不需要考慮這些。它不用競選連任,不怕被罵,只要資料和演算法告訴它應該先挖那家,它就會給出這個答案。再看一個例子。自媒體半佛仙人曾經提過一個觀點:公關行業最主流的流派,是老闆拍腦袋。怎麼寫會被誇,怎麼寫會被罵,其實從事公關工作的人大差不差都明白。但問題不在於誰更懂,而在於誰說了算。很多“災難性公關”,比如道歉信開頭先誇自己一大段,比如公開發佈的內容充滿低級錯誤,都不是因為公關團隊不專業,而是因為老闆堅持要這麼寫。為什麼?因為老闆有自己的考量。他可能覺得認錯就是示弱,他可能擔心股價下跌,他可能想維護個人形象。這些都是人之常情,但老闆的判斷會讓公關決策偏離專業判斷。退一步講,公關團隊的本質也依然是僱員,僱員會主動跟老闆對著幹嗎?老闆要“開戰”,他們就不能“示弱”,即使明知道示弱是有利的,他們也得把想法咽進肚子裡。而且要知道,但凡一個企業到了需要危機公關的階段,老闆往往都正在氣頭上。公關團隊更不會跟氣頭上的老闆對著幹。但是,假如引入AI呢?AI不會有個人利益考量,不怕得罪老闆,可以基於資料和輿情分析給出相對客觀的建議。當然,最終決策權還是在人類手裡,但至少,AI能提供一個不受“個人算計”干擾的參考答案。所以你看,AI開始承擔責任,不是因為它取代了人類的智慧,而是因為它補上了人類決策中最容易出問題的那一環——人的因素。在很多場景中,人既是決策者,也是干擾源。我們有情緒,有利益,有關係網,有各種顧慮。這些都是人性,但它們會讓決策偏離最優解。AI的“不近人情”,恰恰讓它能做出那些“應該做但人類不敢做”的決策。當然,這不意味著AI就能完全替代人類。畢竟,責任這個東西,從來都不只是做決策那麼簡單,它還包括承擔後果、接受問責、做出調整。這些,目前的AI還做不到。但至少,AI在責任維度上的演化也許已經開始了。從只提供能力到開始承擔責任,這可能是AI融入人類社會的下一個關鍵節點。(羅輯思維)