
人工智慧(AI)聊天機器人近年來已成為日常生活中的便利工具,然而,它們偶爾會出現「幻覺」(hallucinations)現象,也就是自信滿滿地給出錯誤資訊,讓使用者感到困惑。針對這個問題,開發 ChatGPT 的 OpenAI 最近發表研究報告,指出 AI 產生幻覺並非是技術上的根本缺陷,而是當前的訓練和評估方式,鼓勵 AI 在不確定時「猜答案」,而非坦承「我不知道」。
AI 幻覺是什麼?
AI 幻覺指的是 AI 模型產生「聽起來合理,但實際上是錯的」的資訊。OpenAI 舉例,當他們向聊天機器人詢問一位研究員的博士論文題目和生日時,模型都給出了多個答案,但全部都是錯的。這顯示,即使是看似簡單的提問,AI 模型仍可能因為資訊不足而產生錯誤的回答。
「考試文化」讓 AI 養成亂猜習慣
OpenAI 的研究解釋,這種現象與 AI 的訓練方式息息相關。目前主流的評估方式,就像一場多選題考試:如果模型猜對了,就能得分;如果選擇「我不知道」,則分數為零。為了在評分榜上取得高分,AI 模型被鼓勵去猜測答案,因為即使猜錯,也總比完全不回答來得好。
舉例來說,當 AI 不知道某人的生日時,如果它隨機猜一個日期,有機會猜對。但如果它回答「我不知道」,則注定得不到任何分數。長久下來,這種機制導致模型學會了「寧可亂猜,也不要說不知道」的行為模式,進而增加了幻覺發生的機率。
改變評分方式,才能從根本解決
OpenAI 認為,解決 AI 幻覺問題的關鍵,在於改變現行的評分機制。他們建議,應該設計一種新的評估方式,對於 AI 坦承不確定或無法回答的狀況給予部分分數,同時嚴格懲罰那些自信卻錯誤的回答。
雖然市面上已有部分評估方法考慮了「不確定性」,但 OpenAI 強調,這還不夠。只要大多數的評分榜單仍舊只看重「準確度」,開發者就會持續訓練出偏好猜測的 AI 模型。因此,他們呼籲整個 AI 產業重新思考評分標準,才能從根本上解決幻覺問題。
幻覺是訓練過程的必然產物
OpenAI 也解釋了幻覺的技術成因。AI 模型在訓練初期,是透過「預測下一個字」的方式來學習。然而,這種方式並未針對「正確」或「錯誤」的資訊進行標記。這就像是訓練一個圖像辨識模型,只提供數百萬張貓和狗的照片,卻沒有提供「這張是貓,這張是狗」的明確標籤。
對於一些有固定模式的資訊(如拼寫或標點符號),AI 模型能輕鬆學會。但對於不規則、隨機的低頻率資訊(如某個人的生日),模型很難單純從模式中學習,這就容易導致幻覺的產生。
結論:幻覺是可解決的挑戰
OpenAI 的研究打破了幾個關於 AI 幻覺的常見迷思:
- 迷思一:提高準確度就能消除幻覺。 事實: 在現實世界中,有些問題本身就沒有答案,因此準確度永遠不可能達到百分之百。
- 迷思二:幻覺是無法避免的。 事實: AI 可以透過選擇「不回答」來避免產生幻覺。
- 迷思三:只有大型模型才能避免幻覺。 事實: 小型模型反而更容易「知道自己的極限」,坦承無法回答某些複雜問題。
- 迷思四:幻覺是現代 AI 模型的神秘故障。 事實: OpenAI 已經理解產生幻覺的統計機制,以及為何目前的評估方式會獎勵這種行為。
OpenAI 表示,他們最新的模型已經顯著降低了幻覺率,並將持續努力減少 AI 產生自信卻錯誤的資訊,讓 AI 系統更加可靠。
文章來源:OpenAI
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!