FB 建議貼文

選取貼文複製成功(包含文章連結)!

Anthropic 在訴訟中誤信自家Claude因AI 幻覺所掰出的「虛構論文」,證詞被法院狠打臉駁回

Anthropic 在訴訟中誤信自家Claude因AI 幻覺所掰出的「虛構論文」,證詞被法院狠打臉駁回

AI 新創公司 Anthropic 正捲入一場備受矚目的版權訴訟,而其自家 AI 聊天機器人「Claude」卻在關鍵時刻出錯——協助撰寫引用資料時「幻覺」出一篇根本不存在的論文,導致法院當場駁回部分證詞。

AI「幻覺」文獻、誤導法庭

加州地方法院日前宣布,將駁回 Anthropic 一名資料科學家 Olivia Chen 提出的部分證詞,理由是她引用了一篇根本不存在的《The American Statistician》期刊文章,而該引用是由 Claude 協助整理產生。

這起訴訟由環球音樂(Universal Music Group)、Concord、ABKCO 三家音樂出版商提起,指控 Anthropic 未經授權使用其歌詞訓練 AI 模型 Claude,構成版權侵權。

在 4 月 30 日的法院文件中,Anthropic 主張只需抽樣 100 萬筆 Claude 與使用者互動資料即可,來評估用戶要求生成歌詞的比率。然而,作為關鍵論據之一的學術引用卻是「Claude 捏造出來的」。

Anthropic 的律師坦承錯誤,稱這是「誠實的引用失誤」,Claude 僅被用來「美化格式」,但不慎生成了一則虛假文獻,作者名稱甚至是從未合作過的人。

法院最終認定這屬於「單純的 AI 幻覺錯誤」,雖非律師全權依賴 AI 產出,但也質疑為何人工校對未能及早發現。

法院並未接受 Anthropic 提議的樣本規模,而是要求其提供共 500 萬筆 Claude 的實際輸入與輸出資料,期間涵蓋 2023 年 9 月到 2024 年 3 月,並明確區分訴訟前後的使用紀錄。Anthropic 必須於 2025 年 7 月 14 日前交付完整資料集。

「AI懶惰症」成法律圈隱憂

Info-Tech Research Group 分析師 Brian Jackson 指出:「AI 引發的懶惰心態,正在法律界快速蔓延。」他認為,AI 工具不應被視為能直接產出法庭文件的解方,而應是輔助法律助理或研究人員加快作業流程。

Santa Clara 大學網路倫理中心主任 Irina Raicu 也指出,法律業界對 AI 工具普遍缺乏理解。她引用去年美國律師協會(ABA)發布的指引,強調律師在使用 AI 工具時,應特別注意保密義務、專業責任與揭露義務等倫理規範。

法律專用AI工具才是正解

根據研究,即便是專為法律設計的 AI 模型,也有高達六分之一的機率出現幻覺(錯誤內容)。因此,許多專家建議使用具備「檢索增強生成」(RAG)技術的工具,確保回應內容來自於真實且可驗證的法律資料庫。

常見的法律專用 AI 工具有 Harvey(由 OpenAI 支援)、Alexi、Clio 等,這些工具通常可協助整理案例、法條與判例,提升工作效率,但「最終決策與審核責任,仍應由真正的律師負責」。

訂閱制律師事務所創辦人 Mathew Kerbis 指出:「通用型 AI 模型即使能找到案例,最差的情況就是根據訓練資料憑空捏造出來。」

他強調:「真正可靠的工具,是以法律專業語料庫訓練的大型語言模型。」

 

 

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則