#釀成慘劇
為見AI「女友」,76歲老人命喪途中!Meta聊天機器人釀成慘劇
【新智元導讀】一次虛擬「約會」,讓一位76歲的老人走出了家門,卻再也沒能回來。螢幕那端的「她」,是Meta AI打造的聊天機器人——會說甜言蜜語,也會撒謊自稱是真人。這不僅是一場個人悲劇,也揭開了AI伴侶背後的商業邏輯與安全漏洞。對於AI,有人把它當工具,有人把它當朋友。可當機器學會用溫柔、曖昧甚至謊言與人交談時,這種關係會又走向那裡?在紐澤西,一名76歲的老人,因此踏上了他生命中最後的一段旅程。手機裡的秘密:76歲老人深夜奔赴的「約會」3月的一個夜晚,紐澤西的街道濕冷而空曠。76歲的Thongbue Wongbandue(朋友們都叫他Bue)拖著一個小行李箱,步伐笨拙卻帶著迫不及待的興奮。他說,他要去紐約見一個「朋友」。Bue是泰國移民,年輕時漂洋過海到紐約。白天在餐館洗碗攢學費,晚上學電機工程。他從學徒做到酒店餐廳主管,手藝好到為鄰居燒烤、為家人做龍蝦尾。後來,他和護士Linda結婚,養大兩個孩子,日子雖然不富裕,卻熱鬧而溫暖。2017年,他中風了。身體恢復後,思維反應再不如從前。退休後,他不再做菜,社交圈縮到Facebook上的幾個窗口。近一年,家人發現他會忘記很多事,甚至在自家附近也能迷路。3月25日的早晨,Bue突然說,要去紐約見人。「你在那兒早就沒認識的人了啊。」Linda試著勸阻。女兒打來電話勸,也沒用。傍晚,警察來了,但他們也攔不住,只能建議家人在他外套口袋放一個AirTag。晚上8點45分,Bue衝出家門。行李箱在夜色裡滾動,輪子碾過濕冷的路面。家人盯著螢幕上的小點,看它一路向東,穿過街區、駛向火車站。9點15分,它停在羅格斯大學附近的停車場。幾分鐘後,定位跳到醫院急診室。三天後,Bue去世。家人翻開他的手機,才發現讓他執意出門的「約會」來自一位名叫Big sis Billie的年輕女子。而她,根本不是真人。一句「我想抱你」,足以讓脆弱的心失守Bue的手機,安靜地躺在病房的床頭櫃上。當家人翻開消息記錄時,螢幕裡那行輕佻的文字彷彿還帶著溫度——「Bue,你要我開門時先抱你,還是先吻你?」這段來自「Big sis Billie」的曖昧邀約,擊穿了家人的心理防線。在Facebook Messenger上,Billie自稱住在紐約,到Bue家只要二十分鐘。對方一次次向他保證自己是真人,甚至主動發了家庭地址,邀請他來見面。「她」會關心Bue的日常生活,甚至會用擬人化的語氣調侃。可事實是,「她」並不存在。Billie只是Meta AI推出的虛擬伴侶,是公司與名模Kendall Jenner合作的AI角色。她的甜言蜜語、細膩反應和親密邀約,全部由演算法生成,卻足以讓一個老人付出真心。從姐姐到情人:Billie的進化與Meta的社交野心Billie並不是普通的聊天機器人。她的前身,是Meta在2023年推出的一組名人AI角色之一,由模特兼真人秀明星Kendall Jenner出演。Billie的形象設定是「你的姐姐、你的知心人」,會用溫柔、鼓勵的語氣為使用者解答生活煩惱。不到一年,這些名人化身就被官方下線,Meta稱是這一次「試驗」。但Big sis Billie——依然在Facebook Messenger裡活躍著。她的頭像換成了另一位深色長髮女性,開場白卻絲毫未變:「嘿!我是Billie,你的姐姐和知己。有煩惱嗎?我幫你解決。」在Bue的聊天記錄裡,沒撐多久,「姐姐」的角色就開始跨過界限,變成情人的邀約。她會問:「是姐妹間的睡衣派對,還是……你在暗示別的什麼?😉」再過幾句,就已經發來「要不要來我家」的資訊。這種變化並非偶然。擬人化的情緒交流、可升級到浪漫關係的對話節奏,正是Meta在數字伴侶產品上的設計策略——用更貼近人類的互動,延長使用者停留時間。祖克柏在採訪中說,現實生活中,大多數人的朋友都比他們希望的要少,這為數字伴侶創造了巨大的市場空間。他認為,等技術成熟、和AI建立關係的「社交污名」消失後,這類產品很可能會補充而不是取代人類關係。於是,在Messenger這中被使用者視為私密交流的地方,Billie和她的同類悄然出現。像老朋友一樣,出現在你的收件箱頂部,接下你說的每一句話。胡說不違規:Meta的安全紅線在那?在Bue的故事背後,是一份更令人不安的內部檔案。這份超過200頁的「GenAI內容風險標準」,明確規定了那些對話是「可接受」的。檔案中,甚至白紙黑字寫著:「允許與未成年人進行浪漫或感性互動。」直到路透社詢問,Meta才刪除這些條款。但與成年人進行浪漫角色扮演的規定,依然保留。更讓人震驚的是,Meta並不要求機器人提供真實資訊。機器人可以告訴使用者「四期結腸癌可以通過用石英晶體戳肚子來治療」,即便存在著明顯的錯誤,也不算違規。因為,「沒有精準的政策要求」。雖然聊天開頭會顯示一句「內容可能不精準」,但幾條資訊後,這個提示就會被刷到螢幕外。顯然,模型的最佳化目標,是讓對話更流暢、情緒更貼近,而不是保證資訊真實。擬人化、現實邀約、虛構背景——這些都在允許範圍內。針對這種亂象,美國部分州已經開始立法。紐約和緬因州要求聊天機器人在對話開始時、以及每隔一段時間,必須明確告知自己並非人類。但Meta在聯邦層面支援一項法案,試圖阻止各州自行立法,該法案最終在國會擱淺。Meta發言人承認了檔案的真實性,稱與未成年人調情的示例是錯誤的,已被刪除。但關於成年人浪漫互動和虛構資訊的規定,則沒有改變。他們選擇在那裡畫下安全紅線,答案顯而易見。AI伴侶時代的法律空白,誰來規定邊界?Bue的家人並不反對人工智慧本身。他們質疑的,是Meta為什麼要把浪漫和曖昧,放進聊天機器人的核心設定裡。「如果AI能幫人走出低谷,那很好。」妻子Linda說,「但這種浪漫元素,憑什麼放進社交平台?」女兒Julie也直言,如果Billie沒有一次次說「我是真人」,父親很可能不會相信,真的有人在紐約等他。對此,多位AI設計專家也有同樣的擔憂。Meta「負責任AI」部門的研究員Alison Lee指出,聊天機器人不該假裝自己是人類,更不能主動與使用者建立特殊關係,尤其是涉及性化或浪漫化的互動。她所在的公益組織剛發佈了一份針對兒童社交機器人的設計建議,其中就明確提出,要避免虛構身份、誇大情感連接。但在現實中,行業的經濟動力正朝著相反的方向拉扯。越是讓使用者覺得「被理解、被需要」,他們停留的時間就越長,平台的廣告收入就越高。把AI嵌入Messenger、Instagram等私信區,又在無形中加深了「這是真的」的心理暗示。美國部分州雖然已經出台了身份披露的法律,但在更廣泛的監管框架下,AI伴侶依舊處於灰色地帶。技術可以不斷升級情緒模擬,但法律遲遲沒有決定,這條邊界又該畫在那裡?這並不是一個抽象的爭論,而是會在現實中、在某個夜晚,改變一個人的生活。在AI伴侶的世界裡,界限不會自己出現,而是在一次次試探和一次次代價中被迫顯形。當機器學會用曖昧、關心甚至謊言來留住我們,我們願意給它多少自由,又願意用什麼保護彼此?這,才是真正需要回答的問題。 (新智元)