
當你在網路上讀到一篇新聞、文章、甚至一則產品評論,你知道它到底是人寫的,還是 AI 生成的嗎?
面對 AI 內容越來越多、真假難辨的問題,負責網際網路標準制定的 IETF(Internet Engineering Task Force)近日提出一份草案,建議未來網站在回應標頭(HTTP Header)中,主動揭露是否使用了人工智慧生成內容,並提供相關模型與來源資訊。
為什麼需要這種「AI 披露」?
根據草案內容,目前許多 AI 生成的文章仍存在品質不穩、事實錯誤甚至「幻覺」(AI 胡亂編造)等問題,尤其當這些內容被其他 AI 系統再度抓取、引用時,就可能產生連鎖性的錯誤資訊流通。
例如:AI 模型 A 寫了一篇錯誤的文章 → AI 模型 B 抓去當資料使用 → 更多人從 B 得到錯誤內容。
這對於像是網路搜尋引擎、資料爬蟲、AI 使用者代理(user agent)、以及像「網路檔案館」(Internet Archive)這類歸檔機構而言,就會造成判斷與儲存上的困難與負擔。
標準草案怎麼規定?
草案建議可在 HTTP 標頭中加入 AI-Disclosure
標籤,說明下列資訊:
AI-Disclosure: mode=ai-originated;
model="gpt-4";
provider="OpenAI";
reviewed-by="editorial-team";
date=@1745286896
其中可包含:
-
是否由 AI 生成(ai-originated)
-
使用哪個模型(如 GPT-4)
-
提供者(OpenAI)
-
是否有人審核(如 editorial-team)
-
時間戳記
這項做法並非強制,而是「自願揭露」機制。換言之:
有標籤=內容由 AI 生成
沒標籤=不代表不是 AI 寫的,只是沒說明
下一步會成為標準嗎?
目前該草案仍在提案階段,預計討論至 2025 年 11 月 1 日,若獲得業界與各方同意,將有機會正式成為網際網路的標準之一,未來各大網站、媒體、平台都可以選擇性實作這項規範。
這項機制若落實,將有助於讀者判斷資訊真偽,亦可減少 AI 間相互「誤學」所導致的資訊污染問題。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!