GPT總愛「一本正經的胡說八道」怎麼辦?OpenAI 稱找到解決AI「幻覺」方法

GPT總愛「一本正經的胡說八道」怎麼辦?OpenAI 稱找到解決AI「幻覺」方法

ChatGPT 開發商 OpenAI 週三發佈了一份研究論文,闡述了如何解決人工智慧 (AI)「幻覺」的新方法。AI 幻覺指的是聊天機器人用編造的資訊進行回應。

ChatGPT 或Google Bard 這樣的聊天機器人會完全捏造資訊,表現得好像他們在滔滔不絕地講事實,這就是所謂的「AI 幻覺」。舉個例子:在Google 2 月份為巴德拍攝的宣傳影片中,這個聊天機器人對詹姆斯・韋伯太空望遠鏡做出了不真實的陳述。

OpenAI 研究人員在報告中稱:「即使是最先進的模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。這些幻覺在需要多步驟推理的領域尤其是個問題,因為一個邏輯錯誤就足以破壞一個更大的解決方案。」

為了對抗 AI 幻覺,OpenAI 找到了一種潛在新策略:訓練 AI 模型在推理出答案的每個正確步驟上給予自我獎勵,而不僅僅是等到推理出正確的最終結論時才給予獎勵。

研究人員表示,這種方法被稱為“過程監督”,與之相反的是“結果監督”,這可能會訓練出更好的可解釋 AI,因為這種策略鼓勵模型按照更類似人類的“思考”方式進行推理。

「檢測和減輕一個模型的邏輯錯誤或幻覺,是建構一致性通用人工智慧 (AI) 的關鍵步驟。」OpenAI 數學論文生成器 (mathgen) 研究員卡爾・科布 (Karl Cobbe) 在接受採訪時表示。他指出,儘管 OpenAI 並非發明了過程監督方法,但該公司正在推動其發展。「這項研究的動機是解決幻覺問題,以使模型在解決具有挑戰性的推理問題方面能力更強。」

科布說,OpenAI 已經發佈了一個附帶的資料集,其中包含 80 萬個人類標註,它們用於訓練研究論文中提到的模型。

新聞來源:https://www.cnbc.com

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則