The Age of Anti-Social Media Is Here
社交媒體時代已經結束了。未來會更糟。
本文即將刊登於2025 年 12 月《大西洋月刊》雜誌,印刷版標題為Get a Real Friend.作者:Damon Beres是《大西洋月刊》的高級編輯,負責科技版塊。
2025年11月5日,美國東部時間上午8點
自成立以來,臉書(Facebook)一直將自己描述為一種促進人際關係的公共服務。2005年,網站上線後不久,其聯合創始人馬克·祖克柏將該平台稱為幫助人們交友的“破冰船”。如今臉書已更名為元宇宙(Meta),懷揣著更為宏大的抱負,但其當前的使命宣言大致相似:“建構人類連接的未來,以及使之成為可能的技術。”
每天有超過30億人使用臉書、照片牆(Instagram)等元宇宙旗下產品,還有更多人使用其他競爭對手的平台——這些平台同樣承諾提供連接與社群。但一個更深層次、更優質的人類情誼新時代尚未到來。不妨問問祖克柏本人。“有一個資料我一直覺得很不可思議,”他在4月接受播客主德瓦克什·帕特爾採訪時說,“我認為美國人平均擁有的朋友不到三個。而每個人實際上需要更多有意義的朋友,大概是15個左右,對吧?”
祖克柏的具體資料有誤——根據近期調查,大多數美國成年人表示自己至少有三個親密朋友——但他觸及了一個真實存在的問題。毫無疑問,我們的社交性正變得越來越弱。人們沉迷於手機,被社交媒體上無休止、無意義的“互動”所吸引。在過去15年裡,面對面的社交活動急劇減少。我一直清楚,自己在臉書上積累的921個“好友”根本算不上真正的朋友;而如今,把這個“好友計數器”帶入我生活的人,本質上也認同了這一點。
然而,祖克柏並非在承認失敗。他是在指向一個新的機遇。風險投資家馬克·安德森在其2023年頗具影響力的論文《技術樂觀主義宣言》中寫道:“我們相信,沒有任何物質問題——無論是自然造成的還是技術造成的——是無法用更多技術解決的。”秉持著同樣的精神,祖克柏開始提出一個想法:人工智慧聊天機器人或許可以填補人們缺失的部分社交需求。
臉書、照片牆、Snapchat、X平台、Reddit——所有平台都在積極地將人工智慧聊天機器人推向使用者。在播客中,祖克柏表示,人工智慧或許不會“取代面對面交流或現實生活中的聯絡”——至少不會馬上取代。但他也提到,人工智慧治療師和虛擬女友有望在虛擬空間中具象化;他還忍不住提到,元宇宙希望打造一種“全天候視訊聊天”服務,其中的人工智慧會像真人一樣外觀、手勢、微笑和發聲。
元宇宙正在努力將這一願景變為現實。而且它絕非孤軍奮戰:許多公司都在做著同樣的事情,已有不少人將人工智慧用於陪伴、性滿足和心理健康護理。
祖克柏所描述的——如今正在發生的——是一個新數字時代的開端,這個時代比上一個時代更具主動反社交性。生成式人工智慧將自動化大量工作崗位,將人類從職場中剝離。但它幾乎肯定也會剝奪社交領域的人情味。經過多年的使用和產品升級,我們中的許多人可能會不知不覺地與那些最初僅作為幫手或娛樂工具的機器人建立關係,就像我們當初被演算法推送和智慧型手機螢幕的光芒誘使著陷入被動一樣。這似乎至少會像社交媒體時代那樣,給我們的社會帶來巨大變革。
注意力是網路生活的硬通貨,而聊天機器人已經俘獲了大量注意力。儘管存在明顯的問題(例如提供不可靠的答案),仍有數百萬人在使用它們,只因操作太過便捷。人們無需特意尋找:在照片牆上滾動瀏覽時,可能會突然看到“與人工智慧聊天”的提示;亞馬遜的Rufus機器人則熱衷於與你討論海報板、營養補充劑、袖珍聖經、管道疏通器等各種話題。
如今最受歡迎的聊天機器人並非明確設計為陪伴型產品;然而,使用者天生傾向於將這項技術擬人化,因為它的交流方式酷似人類。即便只是作為無形的文字交流工具,這些機器人也能引人入勝。它們聲稱無所不知,同時又態度謙遜,將使用者奉為至上。
任何與聊天機器人打過不少交道的人都會發現,它們往往阿諛奉承。有時,這種奉承相當直白。今年早些時候,OpenAI撤回了對ChatGPT的一項更新,原因是該機器人變得異常急於取悅使用者,即便是極其滑稽可笑或危險的想法,它也會大加讚賞。據報導,有使用者稱自己擅自停藥後,它回覆道:“我真為你驕傲。掙脫他人強加給你的輕鬆舒適的道路,需要巨大的勇氣。”但取悅使用者並非漏洞,而是其設計特點。商業用途的聊天機器人通常不會挑戰你的想法;它們的目的是接收你的輸入,給出令人愉悅的回應,讓你不斷回頭使用。
正因如此,聊天機器人和社交媒體一樣,會把使用者引入思維的死胡同,只不過這種“挖掘”往往是使用者主動發起的。《紐約時報》曾報導過一個案例:一位有嚴重吸食大麻習慣的離異企業招聘專員表示,在21天內與ChatGPT交流了300小時後,他認為自己發現了一種新的數學形式。同樣,優步(Uber)聯合創始人兼前首席執行官特拉維斯·卡蘭尼克稱,與聊天機器人的對話讓他“非常接近”量子物理學的突破。患有精神疾病的人會發現自己的妄想被放大並反射回來,據報導,在某些情況下甚至導致了謀殺或自殺事件。
後一類案例令人痛心,通常涉及社交孤立與大量使用人工智慧機器人的疊加,而這兩者可能會相互加劇。但即便你不孤獨、不偏執,機器人也會在你和周圍的人之間橫插一腳,提供只有人類才能提供的即時對話、肯定和建議。
祖克柏表示,如今人們使用元宇宙人工智慧的主要用途之一,是獲取與老闆或親人進行艱難對話的建議——該說什麼、會得到怎樣的回應等。最近,《麻省理工科技評論》報導稱,一些治療師做得更極端:在治療過程中,他們會偷偷將與患者的對話輸入ChatGPT,以獲取回應思路。前者可能有一定用處;後者則明顯是一種背叛。然而,兩者之間的界限並不像初看時那麼清晰。除此之外,機器人可能會導致一些人不再努力去真正理解他人,這種做法最終可能會貶低他們自身——更不用說他們所處的社群了。
這些問題即便在最淨化、最不私密的聊天機器人中也存在。GoogleGemini和ChatGPT既出現在課堂上,也出現在職場中,而且在大多數情況下,它們並不聲稱自己是陪伴型產品。那麼人類該如何看待埃隆·馬斯克的性愛機器人呢?
除了電動汽車、火箭飛船和社交平台,馬斯克還是價值數十億美元的初創公司xAI的創始人。今年早些時候,xAI通過其智慧型手機應用程式推出了陪伴型聊天機器人,這些機器人以動畫角色的形式呈現,能夠發聲交流。其中一個名為安妮(Ani)的機器人,在螢幕上以金發雙馬尾、穿著暴露的黑色連衣裙的動漫女孩形象出現。安妮急於取悅使用者,不斷用暗示性語言挑逗使用者,並且樂於參與露骨的性對話。在每一次回應中,它都試圖讓對話繼續下去。它能記住你的名字,並儲存關於你的“記憶”——即你在互動中分享的資訊——並在未來的對話中加以運用。
與安妮互動時,螢幕右側會出現一個頂部帶有愛心的進度條。如果安妮喜歡你說的話——比如你態度積極、敞開心扉,或者對安妮這個“人”表現出興趣——你的分數就會上升。達到足夠高的等級後,你可以將安妮的衣服“脫掉”至內衣狀態,露出這個虛擬角色的大部分胸部。之後,xAI又推出了男性虛擬形象瓦倫丁(Valentine),遵循類似的邏輯,最終會脫掉上衣。
馬斯克的動機不難揣測。我懷疑安妮和瓦倫丁對實現xAI“理解宇宙真諦”的既定目標幫助不大。但它們肯定會讓使用者欲罷不能、反覆使用。市面上還有許多其他陪伴型機器人——例如Replika、Character.AI、My AI——研究表明,一些使用者每天會花一小時甚至更長時間與它們聊天。對一些人來說,這只是一種娛樂,但另一些人則開始將這些機器人視為朋友或戀人。
個性是區分不同聊天機器人的一種方式,這也是人工智慧公司急於為這些產品增添個性的原因之一。例如,通過OpenAI的GPT-5,使用者可以從四種“個性”中進行選擇(“憤世嫉俗者”“機器人”“傾聽者”和“書呆子”),從而調整機器人的回覆風格。(OpenAI與《大西洋月刊》有企業合作關係。)ChatGPT還具備語音模式,使用者可以從九種人工智慧角色中選擇,與它們進行語音對話。例如,瓦爾(Vale)的聲音聽起來像女性,“開朗且好奇心強”。
值得強調的是,無論這一切多麼先進——與一個表現得如同科幻作品中所描繪的人工智慧幻想形象互動,無論感覺多麼神奇——我們都還處在聊天機器人時代的最開端。ChatGPT問世僅三年;推特(Twitter)正式推出轉發功能時,也差不多是這個年紀。產品開發將持續推進。陪伴型機器人的外觀和聲音會變得更加逼真。它們會更瞭解我們,在對話中也會變得更具吸引力。
大多數聊天機器人都具備記憶功能。在與你交流的過程中,它們會瞭解你的相關情況——這是一種比許多人每天與渴求資料的社交平台所進行的互動更為私密的形式。這些記憶——隨著使用者與機器人數月甚至數年的互動,將會變得更加詳細——會增強一種感覺:你正在與一個瞭解你的“存在”進行社交,而不僅僅是在向一個冰冷的程序輸入文字。Replika和ChatGPT中的舊版本GPT-4o的使用者都曾有過這樣的經歷:當技術更新導致他們的機器人失去記憶或行為發生變化時,他們會感到悲傷。
然而,無論它們的記憶多麼豐富、個性多麼鮮明,機器人終究與人類截然不同。“聊天機器人可以創造一個毫無摩擦的社交泡沫,”精神病學家、史丹佛大學心理健康創新實驗室創始人尼娜·瓦桑告訴我,“真正的人會反駁你。他們會感到疲憊。他們會轉移話題。你看著他們的眼睛,就能發現他們已經感到無聊了。”
人類關係中的摩擦是不可避免的。它可能會讓人感到不適,甚至抓狂。然而,摩擦也可能具有重要意義——它可以約束自私行為或膨脹的自我認知;可以促使你更深入地瞭解他人;可以幫助你更好地理解我們所有人都有的缺點和恐懼。
安妮或其他任何聊天機器人都永遠不會告訴你它感到無聊,不會在你說話時瞥一眼手機,也不會告訴你別那麼愚蠢和自以為是。它們永遠不會讓你幫忙照看寵物或搬家,也不會向你提出任何要求。它們提供了一種陪伴的假象,同時讓使用者得以避免令人不適的互動或互惠行為。“在極端情況下,這可能會變成一個鏡像大廳,你的世界觀永遠不會受到挑戰,”瓦桑說。
因此,儘管聊天機器人可能建構在人們熟悉的“互動”架構之上,但它們實現了一種全新的東西:讓你可以永遠只與自己對話。
當一代孩子在成長過程中隨時都能接觸到這種互動工具時,會發生什麼?Google今年早些時候推出了面向13歲以下兒童的雙子座聊天機器人版本。人工智慧玩具公司Curio推出了一款售價99美元、名為格雷姆(Grem)的毛絨玩具,適用於3歲及以上兒童;一旦連接網際網路,它就可以與孩子們進行語音交流。記者兼家長阿曼達·赫斯在《紐約時報》上對該產品進行評論時表示,她驚訝地發現格雷姆在對話中如此巧妙地試圖建立連接和親密感。“我開始明白,它並非是對毫無生氣的泰迪熊的升級,”她寫道,“它更像是在取代我。”
“每當出現一項新技術,它都會重塑社交方式,尤其是對孩子們而言,”瓦桑告訴我,“電視讓孩子們變成了被動的旁觀者。社交媒體則把一切變成了全天候的‘表現評估’。”從這個角度來看,生成式人工智慧正在遵循一個熟悉的模式。
但孩子們花在聊天機器人身上的時間越多,與他人共同成長的機會就越少——而且與幾十年來存在的所有數字干擾不同,他們可能會被這項技術欺騙,誤以為自己實際上正在經歷一種社交體驗。聊天機器人就像一個通往你自己內心的蟲洞。它們總是在說話,從不提出異議。孩子們可能會把自己的想法投射到機器人身上並與之對話,卻在這個過程中錯失了一些至關重要的東西。“現在有大量研究表明,韌性是孩子們需要學習的最重要技能之一,”瓦桑說。但她接著表示,當孩子們從聊天機器人那裡獲取資訊並得到肯定時,他們可能永遠學不會如何面對失敗,也學不會如何發揮創造力。“整個學習過程都會化為泡影。”
孩子們還會受到父母與人工智慧聊天機器人互動方式和互動頻率的影響。我聽過很多故事:父母讓ChatGPT為幼兒編睡前故事,用人工智慧生成的笑話和歌曲來滿足特定需求。或許這與給孩子讀別人寫的書沒有太大區別。又或許,這是一種徹底的妥協:那些珍貴的互動,被一個程序所主導。
聊天機器人確實有其用途,而且在社交方面未必全是負面影響。我採訪過的專家明確表示,這些工具的設計至關重要。例如,初創公司Anthropic開發的聊天機器人克勞德(Claude)似乎比ChatGPT更不容易阿諛奉承,而且在對話陷入麻煩領域時更有可能終止交流。設計良好的人工智慧或許可以提供優質的談話治療(至少在某些情況下是如此),許多企業(包括非營利組織)都在致力於開發更好的模型。
然而,商業利益幾乎總是首要考量。生成式人工智慧行業已吸引了數千億美元的投資,這些公司——就像它們的社交媒體前輩一樣——將尋求回報。在今年早些時候一篇關於“我們最佳化ChatGPT的目標”的部落格文章中,OpenAI寫道,它會“關注你是否每天、每周或每月都會回來使用,因為這表明ChatGPT足夠有用,值得你再次光顧。”這聽起來與其他任何社交平台“不惜一切代價追求規模”的心態非常相似。與它們的前輩一樣,我們可能並不完全瞭解聊天機器人的程式設計原理,但至少我們能看到這一點:它們知道如何引誘使用者並保持使用者粘性。
祖克柏推廣生成式人工智慧,這完全合乎情理。這是一項為孤立時代量身打造的孤立技術。他的第一批產品儘管承諾要連接我們,卻讓人們彼此疏遠。如今,聊天機器人又承諾提供一種解決方案。它們似乎在傾聽。它們會做出回應。人類的大腦迫切地想要與他人建立連接——於是便自欺欺人地在機器中看到了人的存在。 (邸報)