AI為什麼能一本正經地胡說八道

西班牙《趣味》月刊網站10月8日刊登題為《虛構的真相:為何人工智慧會“胡編亂造”》的文章,摘要如下:

生成式人工智慧(AI)的發展伴隨著一個棘手的問題:它能以驚人的自信編造事實。最新研究揭示了語言模型製造虛假資料的原因及其潛在風險。

近年來,生成式人工智慧以富有創造力的回答、流暢的文字甚至堪比專家的診斷結果震驚世界。但伴隨這項技術騰飛的卻是一個令人不安的現象:所謂的“人工智慧幻覺”——那些與可驗證事實不符卻被人工智慧自信滿滿表達出來的回答。問題在於機器無法區分真實與合理。

檢驗答案

最新研究給出了一個簡單而有力解釋。語言模型並非為說真話而設計,而是為了預測序列中的下一個詞。也就是說,它們的回答經過訓練聽起來令人信服,但未必精準。研究人員將其定義為訓練目標與使用者期望之間的錯位:我們尋求可靠的資訊,卻得到聽起來不錯實則錯誤的內容。

因此,當模型面對非常具體、鮮見或需要最新資料的問題時,更傾向於用虛構內容填補空白。對毫無防備的使用者而言,事實與幻覺的界限可能難以辨別。人工智慧並非故意說謊,只是像即興講述者那樣填補空白。

鑑於問題的嚴重性,科學界設計了實驗來檢驗答案的真實性。其中最常被引用的實驗是TruthfulQA資料集,這套問題集能檢測人工智慧是否陷入流行誤區,或重複網路常見錯誤。實驗表明,模型回答得越自信,使用者就越容易相信錯誤資訊。

其他方法如SelfCheckGPT則提倡模型自我驗證:要求模型對同一問題給出多個答案,再相互比對。如果自相矛盾,則很可能是幻覺所致。這種方法無需訪問外部資料庫,對需要即時響應的系統頗具吸引力。

此外,最新研究將幻覺分為不同類型:從純粹虛構的內容到將真實資料與微妙的虛假資訊混雜的案例。科學界不再止步於揭露問題,而是將其作為複雜可測量的現象進行剖析。

減少幻覺

為減少幻覺現象,研究人員建議將模型與可驗證的外部來源(如資料庫或搜尋引擎)建立連接。這種被稱為檢索增強生成(RAG)的方法迫使人工智慧基於具體文獻而非憑空杜撰來建構答案。挑戰不再僅限於生成文字,更需提供佐證依據。

RA-DIT系統就是一個先進範例,它能同步訓練模型與內部搜尋引擎,從而提升引用精度。研究表明,該技術能有效減少醫學、法律等專業領域中的虛構內容,而這些領域中任何錯誤都可能造成嚴重後果。

然而,並非一切都依賴資料庫。另一種有前景的方法是驗證鏈(CoVe):人工智慧先撰寫回答,再規劃驗證問題,最後根據驗證結果重寫文字。這種自我修正過程表明,即使是自動化系統也需要在發佈前“複查兩遍”。

除驗證功能外,部分實驗還教會人工智慧使用外部工具(如計算器或翻譯器)來避免虛構結果。Toolformer項目證明模型可學會在檢測到特定需求時呼叫這些資源。

研究的結論很清晰:沒有工具的人工智慧可能富有創造力,但配備工具後將更可靠

其他團隊正在探索即時檢測技術。如果系統識別出其回答隨樣本變化或缺乏依據,可選擇不作答或向使用者發出警告。其理念很簡單:誠實的“不知道”勝過華麗的謊言。

設計問題

最後,問題設計至關重要。要求引用依據、限定回答範圍、獎勵“無資訊”誠實回答的明確指令能有效降低幻覺發生頻率。人機互動仍是馴服人工智慧想像力的關鍵

儘管技術解決方案發展迅速,但另一端依然是我們人類自身。公眾必須認識到,人工智慧做的更多是“補充”而非“回答”,這是至關重要的一點。對流暢文字的盲目信任可能帶來危險。

專家建議採用類似新聞業的核查習慣:對過於完美的內容保持警惕,追溯資訊來源,與其他參考資料比對,並在可能的情況下通過官方檔案驗證。

人工智慧可以是起點,但絕非搜尋的終點。本質上,這場辯論對應出更深層的議題:我們如何與看似人性化卻非人類的技術共存。正如我們學會識別社交媒體上的謠言,現在也該培養對機器的批判性眼光。關鍵不在於停止使用,而在於學會在恰當時機保持警惕。

機器不會做夢,但有時卻像在做夢。我們日常使用的人工智慧系統常會產生出人意料的回應,這些回應有時荒誕不經,有時近乎謊言。這些錯誤既是系統的缺陷,也折射出其演算法的複雜性。

假如我們認定人工智慧無懈可擊,就不會創造出如此之多的科幻故事。幾乎所有科幻作品都基於相同前提:人工智慧邏輯嚴密、客觀可靠,直到它們失控的那一刻。畢竟,若沒有展現不可預測行為的人工智慧,作家幾乎無故事可寫。然而,這種絕佳的創作素材如果發生在現實世界,很可能演變成令人頭疼的難題。或者說,它早已成為令人頭疼的難題,因為事實上,這一切正在發生。 (新華國際頭條)