
AI 新創公司 Anthropic 正捲入一場備受矚目的版權訴訟,而其自家 AI 聊天機器人「Claude」卻在關鍵時刻出錯——協助撰寫引用資料時「幻覺」出一篇根本不存在的論文,導致法院當場駁回部分證詞。
AI「幻覺」文獻、誤導法庭
加州地方法院日前宣布,將駁回 Anthropic 一名資料科學家 Olivia Chen 提出的部分證詞,理由是她引用了一篇根本不存在的《The American Statistician》期刊文章,而該引用是由 Claude 協助整理產生。
這起訴訟由環球音樂(Universal Music Group)、Concord、ABKCO 三家音樂出版商提起,指控 Anthropic 未經授權使用其歌詞訓練 AI 模型 Claude,構成版權侵權。
在 4 月 30 日的法院文件中,Anthropic 主張只需抽樣 100 萬筆 Claude 與使用者互動資料即可,來評估用戶要求生成歌詞的比率。然而,作為關鍵論據之一的學術引用卻是「Claude 捏造出來的」。
Anthropic 的律師坦承錯誤,稱這是「誠實的引用失誤」,Claude 僅被用來「美化格式」,但不慎生成了一則虛假文獻,作者名稱甚至是從未合作過的人。
法院最終認定這屬於「單純的 AI 幻覺錯誤」,雖非律師全權依賴 AI 產出,但也質疑為何人工校對未能及早發現。
法院並未接受 Anthropic 提議的樣本規模,而是要求其提供共 500 萬筆 Claude 的實際輸入與輸出資料,期間涵蓋 2023 年 9 月到 2024 年 3 月,並明確區分訴訟前後的使用紀錄。Anthropic 必須於 2025 年 7 月 14 日前交付完整資料集。
「AI懶惰症」成法律圈隱憂
Info-Tech Research Group 分析師 Brian Jackson 指出:「AI 引發的懶惰心態,正在法律界快速蔓延。」他認為,AI 工具不應被視為能直接產出法庭文件的解方,而應是輔助法律助理或研究人員加快作業流程。
Santa Clara 大學網路倫理中心主任 Irina Raicu 也指出,法律業界對 AI 工具普遍缺乏理解。她引用去年美國律師協會(ABA)發布的指引,強調律師在使用 AI 工具時,應特別注意保密義務、專業責任與揭露義務等倫理規範。
法律專用AI工具才是正解
根據研究,即便是專為法律設計的 AI 模型,也有高達六分之一的機率出現幻覺(錯誤內容)。因此,許多專家建議使用具備「檢索增強生成」(RAG)技術的工具,確保回應內容來自於真實且可驗證的法律資料庫。
常見的法律專用 AI 工具有 Harvey(由 OpenAI 支援)、Alexi、Clio 等,這些工具通常可協助整理案例、法條與判例,提升工作效率,但「最終決策與審核責任,仍應由真正的律師負責」。
訂閱制律師事務所創辦人 Mathew Kerbis 指出:「通用型 AI 模型即使能找到案例,最差的情況就是根據訓練資料憑空捏造出來。」
他強調:「真正可靠的工具,是以法律專業語料庫訓練的大型語言模型。」
- 新聞來源:computerworld
- 延伸閱讀:美國法官酸Meta AI使用受版權保護的內容來無限生成競爭性作品「我不懂這怎麼會算合理使用?」
- 延伸閱讀:告別版權爭議!哈佛免費釋出百萬級公共領域AI訓練數據集,小型企業與研究者也能輕鬆訓練AI模型!
- 延伸閱讀:Ambient Diffusion文生圖模型:只用被破壞的圖片來訓練AI,藝術家也無法告你侵犯版權
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!