
隨著 ChatGPT 等大型語言模型的普及,AI 協助撰寫科研論文的情況日益增加,但也伴隨大量品質低劣、甚至帶有「論文工廠」痕跡的內容湧入。近期,多個全球知名的非營利預印本平台,包括 arXiv、PsyArXiv、bioRxiv 與 medRxiv,紛紛收緊審查標準,以防止 AI 偽造論文污染學術環境。
虛假論文與假參考文獻成新問題
各平台的科學顧問委員會指出,部分投稿明顯違反平台使用條款,甚至出現虛假參考文獻、內容公式化等特徵。這些稿件不僅影響學術品質,也消耗了大量審稿資源,拖慢正常論文的上線進度。
根據數據,arXiv 約有 2% 的投稿因 AI 或論文工廠問題遭拒;由 openRxiv 運營的 bioRxiv 與 medRxiv,每天合計拒收超過 10 篇疑似 AI 生成的稿件。尤其自 2022 年底 ChatGPT 等工具面世後,AI 生成內容的比例顯著上升,部分平台在近三個月內甚至形容已進入「危機狀態」。
研究數據揭露 AI 摻入比例驚人
《自然-人類行為》(Nature Human Behaviour)期刊的一項研究顯示,2024 年 arXiv 計算機科學類摘要中,有 22% 可能由 AI 生成;在生物醫學類期刊摘要中,比例也達 14%。
雖然部分研究者確實善用 AI 協助語言潤飾,尤其是非英語母語的學者,但平台強調,無論是否使用 AI,作者都必須對內容的真實性與準確性負全責。
開放共享與學術誠信的拉鋸
預印本平台的最大優勢是快速傳播,但同時也放大了問題論文的風險——一旦被搜索引擎收錄,可能在缺乏審查的情況下誤導大眾,甚至被媒體錯誤引用。如何在保持開放性與確保學術誠信之間取得平衡,已成為這些平台面臨的核心挑戰。
平台管理方正考慮引入更嚴格的 AI 內容標註制度,並提升檢測工具準確度,以便在不影響正常研究交流的情況下,過濾掉高風險稿件。
- 延伸閱讀:中國大學用系統偵測論文是否AI寫的,大學生掀起「降智寫作」花錢改壞自己的論文只求畢業
- 延伸閱讀:學術界曝光多篇研究論文內藏提示詞,要求AI審稿系統只給好評
- 延伸閱讀:Anthropic 在訴訟中誤信自家Claude因AI 幻覺所掰出的「虛構論文」,證詞被法院狠打臉駁回
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!