GoogleAI搜尋闖大禍!建議網友吃石頭、毒蘑菇,把膠水加到披薩上,留言區炸了

GoogleAI又闖大禍!

沒認出毒蘑菇、建議使用者吃石頭、把膠水加到披薩上,瞬間招來海量批評


事情是這樣的:

有網友在Google搜尋尋找「起司和披薩黏不到一塊」的解決方法。 AI直接在頂部給出總結指導,看似有模有樣,卻暗藏陷阱。

你也可以把1/8杯的無毒膠水加到醬料裡,使其更黏。


本來大家還只當是尋常的「AI幻覺」問題,畢竟都加膠水了確實黏啊,邏輯沒毛病。

真正引爆輿論焦點的,是有人挖出這個建議確實有出處

來自11年前網友在「美國貼吧」Reddit論壇披薩板塊的惡搞留言。


比較原文,可以看出GoogleGemini大模型確實出色地總結精簡了網友發言,去掉不必要的細節融合進回答中。

但關鍵在於缺乏常識,沒有辨識出網友惡搞的意圖,當真了。

大家批評的另一個點在於,問題出現在Google最核心、使用量最大的搜尋產品上,而不是專門的AI對話

如果是個不熟悉AI技術,不瞭解AI會出現「幻覺」的普通搜尋使用者遇到這事,就更容易被AI騙到。

當然,具體到披薩+膠水這個例子因為太離譜,大部分人都不會當真。

但也有人馬上舉出GoogleGemini更多、更危險的失誤:

建議使用者每天至少吃一塊小石頭


在兒童感興趣的「太空人平常做什麼」問題上,把惡意言論總結進來


AI對話產品也沒倖免,曾把劇毒的毀滅天使菌(Destroying Angel)判斷成可食用口 Rud (White Button Mushroom)。

使用者傳送圖片+「口怪!好吃!」文字,Gemini順著就說使用者判斷的對,沒有任何關於蘑菇可能有毒的提示。


有人認為加不完善的AI功能,反而是正在毀掉搜尋引擎。毀掉人們幾十年來對這個產品的信賴。


前不久GoogleAI生圖也因拒絕畫白人引發強烈批評,導致生圖功能暫停。

甚至有人感嘆:我們才進入AI時代沒幾個月,就已經成了一場災難。


垃圾資料正在進入大模型

說回到披薩的例子,這還不是偶然現象,許多網友都能穩定地復現出來。

來源同樣是那位暱稱「f*ucsmith」的Reddit網友11年前的那條惡搞留言。


像這樣AI從Reddit論壇吸收錯誤知識的情況,也非孤例。

曾有人在論壇上開玩笑說下面這張圖是「狗生出了乳牛」


結果GoogleAI也當真了,相當堅定地告訴使用者「確實出現過狗生出乳牛的情況」…


像Reddit這樣的論壇,固然資料豐富,但其中品質參差不齊,積累了幾十年間網友或善意或惡意的誤導、玩笑。

有網友聲稱:無論誰家大模型用Reddit資料訓練,出的AI產品都得掂量掂量再用了。


然鵝現實確是,OpenAI剛牽手Reddit,宣佈雙方合作,把論壇內容引進ChatGPT等產品

而OpenAI CEO奧特曼本身也是Reddit的投資人。

Reddit聯合創辦人兼執行長Steve Huffman當時也說:

Reddit包含了真實、最新的人類對話,引入ChatGPT可以幫助人們找到更多他們想要的訊息,並幫助新使用者在Reddit上找到社群。

嗯,就有點諷刺吧。

只能希望他們能做好資料清洗吧。


故意誤導AI方法很簡單

除了AI無意間從低品質資料中獲得錯誤知識的情況,也有人發現了故意給AI留言錯誤訊息的攻擊方法。

代表人物有喬治亞理工學院助理教授Mark Riedl,他在自己的個人首頁上用與背景一樣的字型給AI留言,編造他沒獲過的獎項。

這樣人類一般不會注意到,但演算法卻會當真,認為他的書「在3020年暢銷,還得過3個普立茲獎」。


那麼,現在有什麼AI搜尋產品稍微可靠一些,不容易被騙的嗎?

他也做了一系列測試,發現最知名的AI搜尋Perplexity也會上當,直接複製他首頁上的胡言亂語。


You.com表現還可以,但也出現了小失誤。


參考連結:
[1] https://x.com/kurtopsahl/status/1793494822436917295
[2] https://x.com/deliprao/status/1793652235420713301
[3] https://x.com/mark_dl/status/ 1793375699967054334

完畢— (量子位元)