AI 工具雖然方便,但如果你把它當成唯一的資料保險箱,後果可能不堪設想。
最近德國一位植物科學教授,只因為關閉了一個關於資料授權的設定,導致他在 ChatGPT 上累積兩年的所有研究資料瞬間蒸發。這起事件不僅讓他崩潰,也再次為學術界過度依賴 AI 工具敲響了警鐘。
根據《Nature》期刊的專欄內容,科隆大學植物科學教授 Marcel Bucher 分享了這段慘痛經歷。為了測試是否能在「不將個人資料提供給 OpenAI 訓練模型」的情況下繼續使用服務,他動手關閉了帳號中關於資料授權(Data Licensing)的相關設定。
沒想到這一步操作,竟成了災難的開始。他過去兩年來在 ChatGPT 上建立的所有對話紀錄,包含科研經費申請書、論文修改草稿、課程講義,甚至是考試題目,全部在瞬間消失得無影無蹤。Bucher 憤怒地表示,系統完全沒有給予任何預警提示,事後也沒有復原選項,只留給他一片空白的頁面。

這篇專欄刊出後,立刻在網路上引發兩極討論。許多網友不可置信地質疑:「身為做研究的教授,怎麼可能兩年來都沒有做本機備份(Local Backup)?」甚至有激進言論認為他做學術研究時過度依賴 AI,不適任教職。
不過,也有同行對他表示同情。海德堡大學教學協調員 Roland Groms 就在社群平台上聲援,認為雖然 Bucher 的工作流程漏洞百出,犯了低級錯誤,但他願意公開這段「愚蠢經歷」來警示世人,這份勇氣值得肯定。畢竟許多人自認能避開陷阱,但往往一個疏忽就會釀成大禍。
Bucher 坦言,雖然他知道 AI 內容可能有錯(幻覺),但他錯在過度信任平台的穩定性與連續性,將其視為可靠的貼身助手。
這起事件也帶出了學術界與生成式 AI 之間更深層的矛盾。根據《大西洋月刊》報導,目前大量來源不明、由 AI 拼湊的劣質稿件正湧入各大科學期刊,導致同儕審查(Peer Review)機制面臨崩潰。更諷刺的是,甚至出現了「AI 寫爛論文,再交給 AI 模型進行審查」的荒謬循環,嚴重污染了學術文獻的可信度。
針對教授的指控,OpenAI 在回應媒體時態度相當強硬。官方聲明指出,聊天紀錄一旦刪除就「無法復原」,並反駁教授說法,強調系統在使用者執行永久刪除動作前,都會跳出確認視窗提醒。OpenAI 最後也給出建議:「使用者在處理專業工作時,應該自行做好資料備份。」
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!