FB 建議貼文

選取貼文複製成功(包含文章連結)!

教授分享血淚教訓:關閉 ChatGPT 這個設定,兩年資料瞬間蒸發

教授分享血淚教訓:關閉 ChatGPT 這個設定,兩年資料瞬間蒸發

AI 工具雖然方便,但如果你把它當成唯一的資料保險箱,後果可能不堪設想。

最近德國一位植物科學教授,只因為關閉了一個關於資料授權的設定,導致他在 ChatGPT 上累積兩年的所有研究資料瞬間蒸發。這起事件不僅讓他崩潰,也再次為學術界過度依賴 AI 工具敲響了警鐘。

根據《Nature》期刊的專欄內容,科隆大學植物科學教授 Marcel Bucher 分享了這段慘痛經歷。為了測試是否能在「不將個人資料提供給 OpenAI 訓練模型」的情況下繼續使用服務,他動手關閉了帳號中關於資料授權(Data Licensing)的相關設定。

沒想到這一步操作,竟成了災難的開始。他過去兩年來在 ChatGPT 上建立的所有對話紀錄,包含科研經費申請書、論文修改草稿、課程講義,甚至是考試題目,全部在瞬間消失得無影無蹤。Bucher 憤怒地表示,系統完全沒有給予任何預警提示,事後也沒有復原選項,只留給他一片空白的頁面。

以中文版本來說,他應該是關閉了在資料控管中,為所有人改善模型的這個設定。

這篇專欄刊出後,立刻在網路上引發兩極討論。許多網友不可置信地質疑:「身為做研究的教授,怎麼可能兩年來都沒有做本機備份(Local Backup)?」甚至有激進言論認為他做學術研究時過度依賴 AI,不適任教職。

不過,也有同行對他表示同情。海德堡大學教學協調員 Roland Groms 就在社群平台上聲援,認為雖然 Bucher 的工作流程漏洞百出,犯了低級錯誤,但他願意公開這段「愚蠢經歷」來警示世人,這份勇氣值得肯定。畢竟許多人自認能避開陷阱,但往往一個疏忽就會釀成大禍。

Bucher 坦言,雖然他知道 AI 內容可能有錯(幻覺),但他錯在過度信任平台的穩定性與連續性,將其視為可靠的貼身助手。

這起事件也帶出了學術界與生成式 AI 之間更深層的矛盾。根據《大西洋月刊》報導,目前大量來源不明、由 AI 拼湊的劣質稿件正湧入各大科學期刊,導致同儕審查(Peer Review)機制面臨崩潰。更諷刺的是,甚至出現了「AI 寫爛論文,再交給 AI 模型進行審查」的荒謬循環,嚴重污染了學術文獻的可信度。

針對教授的指控,OpenAI 在回應媒體時態度相當強硬。官方聲明指出,聊天紀錄一旦刪除就「無法復原」,並反駁教授說法,強調系統在使用者執行永久刪除動作前,都會跳出確認視窗提醒。OpenAI 最後也給出建議:「使用者在處理專業工作時,應該自行做好資料備份。」

 

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則