與ChatGPT 和其他人工智能聊天機器人聊足夠長時間,就能發現它們很快就會說謊話。
這種現像被描述為幻覺、虛構或純粹是胡編亂造,現在已成為每家企業、機構和高中生試圖讓生成式人工智能係統編寫文檔和完成工作時會遇到的問題。從心理治療到研究和撰寫法律摘要,有些人將其用於可能產生嚴重後果的任務。
聊天機器人Claude 2的製造商Anthropic的聯合創始人兼總裁丹妮拉·阿莫代伊(Daniela Amodei)說:“我認為,如今沒有一種模型不會產生幻覺。”阿莫代伊表示:
“實際上,它們的設計初衷只是用來預測下一個單詞。因此,模型在某些情況下會出現失誤。” Anthropic、
ChatGPT 製造商OpenAI 和其他被稱為大型語言模型的人工智能係統的主要開發商表示,他們正在努力使這些模型變得更準確。
至於這需要多長時間,以及它們是否能做到準確無誤地提供醫療建議,還有待觀察。
語言學教授、華盛頓大學(University of Washington)計算語言學實驗室主任艾米麗·本德(Emily Bender)說:"這是無法解決的,是技術與擬議用例不匹配的通病。”生成式
人工智能技術的可靠性至關重要。麥肯錫全球研究院(McKinsey Global Institute)預計,這將為全球經濟帶來相當於2.6萬億至4.4萬億美元的收入。聊天機器人引爆一波熱潮,可以生成新圖像、視頻、音樂和計算機代碼等的技術也掀起了熱潮。幾乎所有的工具都包含一些語言組件。
谷歌(Google)已經在向新聞機構推銷一款新聞寫作人工智能產品。對新聞機構來說,準確性至關重要。作為與OpenAI合作的一部分,美聯社(The Associated Press)也在探索使用這項技術,而OpenAI正在付費使用美聯社的部分存檔文本來改進其人工智能係統。
計算機科學家加內甚·巴格勒(Ganesh Bagler)與印度的酒店管理機構合作,多年來一直致力於讓人工智能系統(包括ChatGPT 的前身)發明南亞菜餚的食譜,比如新式印度比爾亞尼菜(以米飯為主)。一種“令人產生幻覺”的配料就可能決定菜餚美味與否。
今年6 月,OpenAI 首席執行官山姆·奧特曼訪問印度時,一位德里英德拉普拉斯塔信息技術研究所(Indraprastha Institute of Information Technology Delhi)的教授提出了一些尖銳的問題。
“我想ChatGPT產生幻覺仍然是可以接受的,但當食譜出現幻覺時,問題就嚴重了。”巴格勒在這位美國科技高管的全球之行新德里站上,在擁擠的校園禮堂里站起來對奧特曼說道。
“你怎麼看待這個問題?”巴格勒最後問道。
即使沒有做出明確的承諾,奧特曼也表達了樂觀的態度。
奧特曼說:“我相信,用一年半到兩年的時間,我們團隊就能基本解決幻覺的問題。大致如此。到那時,我們就無需討論這一問題了。創意和完全準確之間存在微妙的平衡,模型需要學習在特定時間,你需要的是哪一種類型的答案。”
但對於一些研究這項技術的專家來說,比如華盛頓大學的語言學家本德,這些改進還遠遠不夠。
本德將語言模型描述為根據訓練語料,“對不同詞形字符串的可能性進行建模”的系統。
拼寫檢查器就是通過這樣的語言模型來檢查你是否打錯字了。本德說,這樣的語言模型還能助力自動翻譯和轉錄服務,"使輸出結果看起來更像目標語言中的典型文本"。許多人在編寫短信或電子郵件使用"自動補全"功能時,都依賴這項技術的某個版本。
最新一批聊天機器人,如ChatGPT、Claude 2或谷歌的Bard,試圖通過生成全新的文本段落來將這一技術提高到新水平,但本德表示,它們仍然只是重複選擇字符串中最合理的下一個單詞。
當用於生成文本時,語言模型“被設計為編造內容。這就是語言模型完成的所有任務。”本德說。他們擅長模仿各種寫作形式,比如法律合同、電視劇本或十四行詩。
本德說:“但由於它們只會編造內容,所以當它們編造出來的文本恰好被解讀為內容正確(我們認為準確無誤)時,那隻是偶然。即使通過微調,使其在大多數情況下都是正確的,它們仍然會出現失誤——而且很可能出現的情況是,閱讀文本的人很難注意到這類錯誤,因為這類錯誤更隱蔽。” Jasper AI公司總裁謝恩·奧利克(Shane Orlick)說,對於那些向Jasper AI 尋求幫助撰寫宣傳文案的營銷公司來說,這些錯誤並不是什麼大問題。
奧利克說:"幻覺實際上是一種額外的獎勵。經常有客戶告訴我們Jasper是如何提出創意的——Jasper是如何創作出他們想不到的故事或是從他們都想不到的角度切入的。”
這家總部位於德克薩斯州的初創公司與OpenAI、Anthropic、谷歌或臉書(Facebook)母公司Meta等合作夥伴合作,為客戶提供各種人工智能語言模型,以滿足他們的需求。奧利克說,該公司可能為關注準確性的客戶提供Anthropic的模型,而為關注其專有源數據安全性的客戶提供不同的模型。
奧利克說,他知道幻覺不會輕易被修復。他寄希望於像谷歌這樣的公司投入大量精力和資源來解決這一問題,他表示谷歌的搜索引擎必須有"高標準的事實性內容"。
“我認為他們不得不解決這一問題。”奧利克說。“他們必須解決這一問題。我不知道它是否會變得完美,但隨著時間的推移,它可能會日臻完善。”包括微軟(Microsoft)聯合創始人比爾·蓋茨(Bill Gates)在內的科技樂觀主義者一直在預測樂觀的前景。
蓋茨在7月份的一篇博客文章中詳細闡述了他對人工智能社會風險的看法,他說:“隨著時間的推移,我很樂觀地認為,人工智能模型能夠學會區分事實和虛構。”
他引用了OpenAI 2022年的一篇論文,論證“在這方面大有可為”。
但即使是奧特曼,當他推銷產品的各種用途時,也不指望模型在為自己尋找信息時是可信的。
“我可能是世界上最不相信ChatGPT給出的答案的人了。”奧特曼在巴格勒所在的大學裡對聽眾說,引來一片笑聲。(財富中文網)