
早在 2025 年 5 月,AI 模型平台 Civitai 就因平台上充斥大量可生成無同意人物(特別是女性名人)色情影像的模型,遭到信用卡公司與第三方支付業者施壓,宣布全面封禁此類模型。當時這項決策被視為打擊 AI 色情濫用、保護個人肖像權的重要轉捩點。
然而,根據外媒《404 Media》最新報導指出,被 Civitai 下架的數千個「非同意人物生成模型」並未就此消失,而是被使用者偷偷轉移至知名 AI 平台 Hugging Face,並透過改名、外部連結等方式隱蔽再上架,目前至少超過 5,000 個類似模型持續在該平台流通。
Discord 網友搶救搬運,Civitai 用戶另覓落腳處
這批模型的重現,源自於 Civitai 禁令生效當時的反彈潮。部分用戶透過 Discord 社群發起「資料保存行動」,集體下載即將被封禁的模型資料,並商議遷移策略。根據報導,這些模型如今出現在 Hugging Face 上,但名稱大多被改為模糊化標示,例如「Test model」或「LORA」等,乍看難以辨認用途。
研究者進一步指出,用戶需透過特定外部網站(非 Hugging Face 內部搜尋功能)才找得到這些模型,且網站提供完整對照表、原始下載網址與雜湊值(SHA256 hash),顯示此為一場有計劃、系統化的內容再上架行動。
模型本身構成灰色地帶,平台面臨道德與法規兩難
Hugging Face 作為開源 AI 平台,鼓勵開發者與研究社群共享模型,然而其官方規範亦明訂不得上傳「騷擾、霸凌、或未經同意的色情內容」。問題在於,這類生成模型通常不會直接輸出敏感圖像,只有在用戶特定輸入指令時才可能產生爭議結果,導致平台在執行審查時陷入灰色地帶。
雖然 Hugging Face 官方尚未對此報導做出回應,但其道德與社會影響部門曾強調:「AI 應建立在同意(Consentful)的原則上。」《404 Media》則直指,這種未經本人授權而建立肖像生成模型的行為,已明顯違背平台核心倫理。
受害者多為女性名人與網紅,業界呼籲建置防護規範
根據研究人員分析,被再上架的模型主要針對對象包括知名影視女演員、網路紅人與實況主,且部分模型甚至有公開範例圖、標示推薦使用方式與 tag,引發人權與性別團體關注。
長期關注數位性暴力議題的非營利組織指出,這類「非同意 deepfake」不僅是侵犯肖像權,更可能對當事人造成嚴重心理與名譽傷害。她們呼籲平台應建立更嚴格的 AI 模型來源稽核制度,並設立快速移除與舉報機制,才能真正落實倫理治理。
後續走向:平台應主動管理,使用者責任也須釐清
目前尚不清楚 Hugging Face 是否將展開清查與後續下架行動,不過這起事件已再次突顯:當生成式 AI 的門檻持續降低,內容的「同意權」將成為下一階段倫理與法規的攻防焦點。
在技術持續進化的同時,平台、開發者與用戶三方的責任也將面臨重新釐清與定義。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!