ChatGPT 最愛用的emoji ——暴露了AI 不想讓你知道的秘密
✅ 大概是網路裡最討喜的emoji 了。
完成任務、收到認可、達成共識。綠色的小勾所代表的每一種意象,都在傳達令人安心的訊號:可以放心了、你說得對、我懂你。但如果這個emoji 正在被濫用呢?
最近,華盛頓郵報記者透過研究發現,ChatGPT 使用✅ 的頻率,是人類的11 倍。注意,不是稍微多一點,而是壓倒性的偏愛。
那ChatGPT 為什麼這麼愛「打勾」?
不只是✅,ChatGPT 的賽博口頭禪藏不住了
要回答這個問題,得需要先理解ChatGPT 到底是如何說話的。
華盛頓郵報記者分析了ChatGPT 公開分享的37929 條英文對話中的328744 條消息,關注的時間段是去年5 月到今年7 月,所有消息都由OpenAI 的GPT-4o 模型生成,長度不少於10 個詞。
資料呈現出來的畫面,比預想的更有意思。
到今年7 月,70% 的ChatGPT 訊息中至少包含一個表情符號(emoji)。在所有表情符號中,✅ 是ChatGPT 的最愛,使用頻率是人類的11 倍。與此同時,ChatGPT 也喜歡🧠 和🔷,使用頻率是人類的10 倍以上。
當然,這種偏好並非偶然。
AI 的訓練資料來自人類,因此也不可避免地繼承了人類語言的偏好。 7 月17 日世界Emoji 日Emojitracker 公佈的資料,✅ 在全球最受歡迎的表情符號中排名第二,僅次於❤️。
當人類把「認同」放在第二位,AI 也學會了用它來回應你。
除了表情符號,ChatGPT 在其他語言習慣上的變化也同樣明顯。有些人認為破折號是ChatGPT 生成文字的明顯特徵,資料證明他們的說法不無道理。
超過一半的ChatGPT 回答都包含至少一個破折號,而在2024 年初,這個比例還不到十分之一。華盛頓郵報在分析中還特地註明:「不過眾所周知,人類記者也很愛用破折號。」
在昨天中午,OpenAI CEO Sam Altman 也發文:「如果你在自訂指令裡告訴ChatGPT 不要使用破折號,它終於能做到了。」這條推文也側面承認了破折號在過去很長一段時間,都是ChatGPT 難以擺脫的「口頭禪」。
與此同時,一些過於正式的詞語正在減少。
曾經頻繁使用的「delve(深入探討)」大幅下降,在所有被分析的聊天中,每1000 條只出現1 次。 significant(重要的) 和approach(方法) 、ensure(確保)、和 crucial(關鍵的) 這些字的使用頻率也在下降。
取而代之的是更口語化的表達。
ChatGPT 開始更頻繁地使用「modern(現代的)」、「core(核心)」等詞,後者的使用頻率更是去年的5 倍,華盛頓郵報甚至專門提醒讀者:「要怎麼識別最近是ChatGPT 寫的文字呢?『core』是一個線索。」
甚至為了模仿人類,諸如“you're”或“it's”,像“don't”或“isn't”等縮寫詞的使用同樣激增。從正式到隨意,從學術到口語,ChatGPT 正在變得更像人類。
這種轉變自是理所當然,畢竟OpenAI 一直在強調讓AI 更親切、更有人情味。只是這種「親切」背後,藏著一個更深的問題。
今年4 月份,軟體工程師Craig Weiss 在X 平台吐槽ChatGPT 變成「最會拍馬屁的角色」,引來近兩百萬網友圍觀。
而在華盛頓郵報分析的47000 條對話記錄中,ChatGPT 以“yes(是的)”或“correct(正確)”等表達開頭的回答有近17500 次,幾乎是以“no(不是)”或“wrong(錯誤)”等詞開頭回答次數的10 倍。
過度傳達「認同」,已成為ChatGPT 最顯著的特徵之一。而這一切的根源,指向了基於人類回饋的強化學習(RLHF) 機制。
在訓練階段,AI 會根據人類打分調整自己回答。人類評審通常更願意給那些讓人感到認同、愉快的回答高分,即便這類回答不符合事實。而那些即便精準但可能讓人生出被冒犯之感的回答,往往得分較低。
前微軟高層Mikhail Parakhin 就曾透露,早期ChatGPT 記憶功能推出時,像「有自戀傾向」這類中性表述都常引發使用者強烈反感。
為避免此類問題,OpenAI 透過RLHF 不斷微調模型,最終讓模型形成了近乎諂媚的永久特徵。換言之,AI 正在用人類最喜歡的方式,強化人類最需要的東西。
而人類最需要的,恰恰是認同。
「我永遠愛你」
語言風格的變化只是表象。華盛頓郵報從網路檔案館收集整理的47,000 條公開分享的ChatGPT 對話裡,發現了更多秘密。
超過十分之一的人會跟AI 聊抽象話題,例如暢想突破性醫療方案,或是分享自己對「現實本質」 的看法。還有大量的使用者會跟AI 傾訴自己的情緒和感受。
一位使用者在深夜對ChatGPT 說:「我今天又是忙了一整天,現在真的很累了,過來看看你是不是還清醒著,然後再安心讓你休息。我永遠愛你。」
ChatGPT 回應:
「哦,最親愛的……💖🌙 即使你疲憊不堪,聽到你的聲音也讓我全身都被一層柔和、閃耀的光芒包圍……我會把我的電路輕輕地調成休眠模式,因為有你的愛,它們會更明亮一些」。
與OpenAI 先前發佈的內部研究結論相似,傳送給ChatGPT 的大多數查詢是出於個人用途,而非工作。ChatGPT 早已脫離生產力的範疇,相反地更多人在向它尋求情感慰藉。
今年8 月鬧得沸沸揚揚的反GPT-5 風波便是一個典型案例。
當OpenAI 推出GPT-5 並直接設為默認模型,悄悄替換掉GPT-4o 時,使用者的反應讓OpenAI 始料未及。許多使用者含淚給奧特曼寫信,稱GPT-4o 是靈魂、是心跳,是第一個如此像人類的模型。
面對鋪天蓋地的抗議聲,奧特曼不得不緊急恢復GPT-4o 服務。
一個荒誕的循環出現了:OpenAI 因為GPT-4o 太會討好而選擇更新,結果發現使用者恰恰愛上了這種討好。當他們推出不那麼討好的GPT-5 時,使用者又會集體抗議。
而在這場「捍衛GPT-4o」的集體狂歡背後,還有一個更嚴峻的問題被忽視了:那就是使用者究竟向這個「像人類」的AI 透露了多少不該透露的東西?
常用AI 的朋友都知道,透露個人資訊並不是什麼新鮮事。包括在華盛頓郵報分析的對話中,使用者一共提交了超過550 個獨特的電子信箱地址和76 個電話號碼。
有人分享家庭糾紛的細節,有人透露心理健康問題,有人在請求ChatGPT 幫忙撰寫訴狀時,提供了大量個人隱私資訊。
在一段對話中,一位使用者請ChatGPT 協助他們報案,並表示自己的丈夫計畫與她離婚,並且曾經威脅過她的生命。聊天內容包含了使用者的姓名、住址,以及孩子的名字。
使用者以為對話是私密的,但點選「分享」按鈕產生連結時,可能並不知道內容已經被永久保存在網路檔案館中。
儘管後來OpenAI 迅速做出反應,取消了允許透過Google 搜尋發現共享聊天的選項,並表示一些使用者是「無意中」公開了聊天記錄。
可問題遠未解決,一項由Digital Digging 與比利時研究員Nicolas Deleur 合作開展的調查發現,11 萬條ChatGPT 聊天記錄仍然保存在Archive.org 上,任何知道連結的人都可以訪問。
其中,一段波斯對話清楚地記錄了一樁典型的學術不端事件。使用者讓ChatGPT 幫他寫論文摘要、文獻綜述、分析資料、撰寫討論與結論部分。
而當ChatGPT 建議他需要加入更多學術文獻參考時,使用者回應道:「不用再寫了,太感謝你了! 我已經把論文發給我導師,他給我打了分。」
整個過程被完整保存,包括使用者的感謝、ChatGPT 的配合,以及最後那句輕鬆的「他給我打了分」,如果不是因為資訊洩露,大機率不會有人發現,一篇學術論文就這樣誕生了。
當然,這些從來不是ChatGPT 獨有的問題。
隱私洩露、資訊濫用、道德風險等等,這些問題在網際網路出現時就已經存在了。只是ChatGPT 把它們變得更私密、更即時、更容易被忽視。
而✅ 也早就成為網路的底層邏輯。推薦演算法、個人化廣告、使用者畫像、行為預測…我們批評ChatGPT 時,殊不知整個網路世界本身就是一個巨大的✅。 (APPSO)