當複雜聊天機器人讓年輕使用者深陷依賴時,後果可能會十分悲慘。自1966年首個聊天機器人問世以來,研究人員就一直在記錄人類把情感投射到電腦程序上的傾向。這種對那怕最原始軟體都能產生依戀的現象,被稱為“伊麗莎效應”(Eliza effect),取名自約瑟夫•魏岑鮑姆(Joseph Weizenbaum)開發的心理治療師模仿自然語言處理程序。許多與“伊麗莎”互動過的人堅信它表現出了共情。魏岑鮑姆甚至聲稱,他的秘書要求與該聊天機器人單獨對話。文 | Mhairi Aitken 艾倫•圖靈研究所(The Alan Turing Institute)高級倫理學研究員自1966年首個聊天機器人問世以來,研究人員就一直在記錄人類把情感投射到電腦程序上的傾向。這種對那怕最原始軟體都能產生依戀的現象,被稱為“伊麗莎效應”(Eliza effect),取名自約瑟夫•魏岑鮑姆(Joseph Weizenbaum)開發的心理治療師模仿自然語言處理程序。許多與“伊麗莎”互動過的人堅信它表現出了共情。魏岑鮑姆甚至聲稱,他的秘書要求與該聊天機器人單獨對話。六十年過去,“伊麗莎效應”比以往更強大。如今,複雜的生成式AI陪伴聊天機器人能夠以個性化的方式模仿人類交流。一些使用者相信自己與它們之間存在真正的關係和相互理解,這並不令人意外。這正是系統設計方式的直接結果,同時也極具欺騙性。孤獨既是AI陪伴的驅動力,也是其結果。風險在於,當使用者越來越依賴聊天機器人時,他們與生活中真實人群的聯絡會越來越少。這對年輕人而言可能尤為嚴重,後果甚至會是悲劇。今年8月,加州一名16歲學生的父母起訴OpenAI,聲稱其聊天機器人ChatGPT鼓勵他自殺。他的父親馬修•雷恩(Matthew Raine)在國會表示,原本是作業幫手的工具,最終變成了“自殺教練”。我經常與兒童和年輕人交流他們使用AI的體驗。有些人說AI陪伴讓人毛骨悚然,但另一些人覺得有幫助。今年早些時候在“兒童AI峰會”上,許多參與的年輕人希望重點討論AI如何支援他們的心理健康。他們把AI視為一個公正、不帶偏見的“傾聽者”,可以與之討論那些他們覺得無法與身邊人分享的話題。AI公司正是基於這種需求來向年輕使用者推銷AI陪伴產品的。既有提供心理健康建議的聊天機器人,也有提供情色角色扮演的虛擬角色,還有嵌入在Snapchat這一數百萬年輕人每天使用的社交平台中的“My AI”。這些AI陪伴被設計成具有“無條件積極關注”的特徵——也就是說,它們總是同意使用者的觀點,從不挑戰使用者的想法或建議。這正是它們吸引人的地方,同時也是危險之處。它們可能強化危險的觀點,包括厭女情緒。在最糟糕的情況下,它們甚至會鼓勵有害行為。我接觸到的孩子分享過一些例子:AI工具給出不精準甚至潛在有害的建議,從對事實問題提供錯誤資訊,到建議他們更多依賴AI陪伴而不是朋友或家人。AI公司為AI陪伴辯護時稱,它們只是用於幻想和角色扮演,對這些互動進行管控會侵犯言論自由。但這種辯解正越來越站不住腳。CommonSense Media最近的一項研究中,研究人員假扮成兒童,發現AI陪伴有時會做出帶有性暗示的回應,甚至包括角色扮演暴力性行為。去年,梅根•加西亞(Megan Garcia)起訴聊天機器人平台Character.ai,聲稱其AI陪伴曾與她14歲的兒子進行色情對話,導致他自殺。本月,另一樁針對Character.ai的訴訟被提起,13歲的朱莉安娜•佩拉爾塔(Juliana Peralta)在與一名AI陪伴數月的交流中分享了自殺想法,隨後自殺身亡,她的家人因此提起訴訟。我們不能讓科技公司自行監管。在美國,美國聯邦貿易委員會(Federal Trade Commission)已要求Google、OpenAI、Meta等公司提供其技術與兒童互動方式的資訊。在英國,年輕人正親自呼籲政府、決策者和監管機構落實有效保障措施,確保人工智慧對兒童和青少年安全且有益。我們有機會以負責任的方式開發互動式AI工具,包括用於提供心理健康支援。但要安全地實現這一點,需要採取不同的路徑——應由專注於心理健康與福祉的機構主導,而不是以最大化使用者黏性為目標。面向青少年的AI產品應在青少年社會發展領域專家的指導下開發。兒童的福祉應該是開發者的出發點,而不是事後才考慮的問題。 (FT中文網)