美國律師錯信ChatGPT引用假案例 OpenAI推新訓練法望解決人工智慧幻覺

美國一名律師因使用了ChatGPT及其提供的假案例寫訴狀而面臨懲處,成為人工智能捏造事實的受害者,事件引起公眾關注。日前ChatGPT的開發商OpenAI便發表論文,表示將以新方法訓練模型以解決問題。

律師以ChatGPT寫訴狀引用判例竟全為捏造

ChatGPT揭起人工智能熱潮後,關於AI會否毀滅人類的討論便不絕於耳,其中一大原因便是它有強大功能之余,卻也會捏造事實,制造所謂的“人工智慧幻覺”(hallucinations)。

Steven Schwartz是紐約一名執業超過 30 年的律師,他早前協助原告Roberto Mata起訴哥倫比亞航空,指原告人在 2019年乘搭航班時因空服員疏失而被推車撞傷,然而Steven Schwartz提交的訴狀中所引用的6項判例竟然被發現全為捏造。

Steven Schwartz後來承認他利用ChatGPT來寫訴狀,並表示這是他執業生涯首次以ChatGPT 作為法律研究來源,因此不知道有關內容可能是假的,而且“非常後悔使用生成式人工智慧來補充此處進行的法律研究,未來將不會在沒有絕對驗證其真實性的情況下這樣做。”

事實上,Steven Schwartz雖然未有嚴謹地查證案例,卻有再三向ChatGPT提問是否真確,而ChatGPT不僅言之鑿鑿,更提供了“審理案件編號”。 Steven Schwartz因事件下個月需出席聽證會接受審判。

聊天機器人捏造事實問題已引起憂慮

是次專業人士受害反映了“人工智慧幻覺”的問題迫在眉睫。日前OpenAI終於發表論文,提出了一種名為“抑制式學習”(inhibition learning)的新訓練方法,來減少模型邏輯錯誤及避免編造謊言。

具體而言,該方法是在訓練 AI 模型期間加以監督,當AI在每個步驟皆推理正確時才給予獎勵,改變以往推理出正確結論便發放獎勵的做法。

聊天機器人捏造事實的問題早已引起廣泛憂慮,包括OpenAI 執行長 Sam Altman近日也指出ChatGPT可能影響來屆美國選舉,多個學府的研究員正尋求解決方法,包括麻省理工學院(MIT)提議讓多個機器人相互辯論,來取得更符合事實的答案;劍橋研究人員則是提出讓機器人多次回答相同問題,看答案是否一致,但問題仍未完全解決。

原文:美国律师错信ChatGPT引用假案例 OpenAI推新训练法望解决人工智慧幻觉