FB 建議貼文

選取貼文複製成功(包含文章連結)!

敵人的敵人就是朋友,OpenAI、Google、Anthropic 聯手對抗中國 AI 企業的「敵對性蒸餾攻擊」

敵人的敵人就是朋友,OpenAI、Google、Anthropic 聯手對抗中國 AI 企業的「敵對性蒸餾攻擊」

長期在商業上互相競爭的 OpenAI、Google 與 Anthropic,近期罕見地跨越企業藩籬,攜手應對來自中國 AI 企業的「敵對性蒸餾攻擊」。根據 Bloomberg 的報導,三家公司正透過共同成立的業界非營利組織 Frontier Model Forum (前沿模型論壇)交換情資,強化對違反服務條款之蒸餾行為的偵測能力。

所謂「蒸餾」(distillation),是 AI 業界普遍使用的一種模型訓練技術。大型且能力強的「教師模型」可以被用來訓練體積更小、成本更低的「學生模型」,讓後者學會模仿前者的行為方式。 這項技術本身並無問題,AI 公司也常用來將自家旗艦模型精簡化,推出更平價的版本供用戶使用。然而,在未經授權的情況下大規模擷取他人模型的輸出結果用於訓練,便違反了各平台的服務條款,也就是所謂的「敵對性蒸餾攻擊」。

這個問題最早因 DeepSeek 而受到廣泛關注。2025 年 DeepSeek 發布 R1 推論模型後,Microsoft 與 OpenAI 隨即展開調查,研究這家中國新創公司是否曾不當地大量擷取美國廠商模型的資料來開發 R1。此後,三家美國 AI 巨頭各自公開指控中國企業的類似行為,情況持續升溫。

Anthropic 的指控尤為具體。該公司指出,DeepSeek、Moonshot AI 與 MiniMax 三家中國企業透過約 2.4 萬個偽造帳號,向 Claude 發出超過 1,600 萬次精心設計的提示,大量蒐集模型回應以訓練其自有模型。由於 Anthropic 的服務在中國並不開放,這些企業據稱是透過商業代理服務繞過限制,建立起龐大的帳號網絡來取得存取權限。 

Anthropic 表示,非法蒸餾的模型可能缺乏原廠內建的安全防護機制,若被用於網路犯罪或生化武器研究,將構成國家安全威脅。此外,威權政府也可能藉此部署 AI 進行網路攻擊、虛假訊息散播或大規模監控行動。

三家公司目前正透過 Frontier Model Forum 共享情報,這個業界非營利組織由 OpenAI、Google、Anthropic 與 Microsoft 於 2023 年共同創立,目前的合作重點在於強化對敵對性蒸餾行為的偵測。Frontier Model Forum 也於今年 2 月發布了一份說明文件,詳細記錄各種攻擊手法,目標是在業界建立責任使用的共同規範,並協助開發更有效的防護措施。

然而,這項合作在技術上仍有其限制。儘管威脅嚴峻,三家公司之間的情報共享目前仍受到限制,尚未形成全面性的聯合防禦體系。此外,也有研究者指出,蒸餾的合法使用與敵對性利用之間的界線本來就模糊,部分批評者亦注意到,Anthropic 自身同樣使用蒸餾技術來訓練旗下模型,這讓外界對指控背後的動機不免存有疑慮。

川普政府方面也已表態支持將此類合作正式化,其 AI 行動計畫中包含建立情報共享與分析中心的提案,部分目的正是為了應對敵對性蒸餾的威脅。

資料來源:https://www.bloomberg.com/news/articles/2026-04-06/openai-anthropic-google-unite-to-combat-model-copying-in-china

小治
作者

《PC Home 電腦家庭》雜誌及 T 客邦網站編輯。負責遊戲類型新聞及評析、軟體應用教學及企劃撰寫、電腦相關周邊硬體測試,以及打雜…

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則