
OpenAI 執行長 Sam Altman 近期在一場公開訪談中坦言,他在瀏覽 Reddit 上某個熱門子板塊時,感受到一種「奇怪的不真實感」——裡面充斥著自稱為 Codex 使用者的貼文,但他懷疑這些貼文究竟有多少是人類發的。他直言:「我下意識就認為這些內容是假的,是機器人發的,即使我知道 Codex 的使用人數真的在快速增長,成長趨勢也確實存在。」
為什麼會有這種感覺?
Altman 認為,這樣的現象來自多個因素交織:首先是真實使用者逐漸習慣以大語言模型(LLM)風格來表達,而社群活躍者高度同質化,內容都像是複製貼上。再加上社群平台透過演算法優化「參與度」,導致內容被動推播,而創作者過度依賴點閱與互動變現也加劇了這種現象。
此外,大企業的參與,僱用人發文、假裝自發;當然,也不能排除有大量機器人參與其中。
他特別指出,人類越來越像 LLM,而 LLM 原本就是為了模仿人類而生,更巧的是,LLM 的訓練資料也包含了 Reddit。
值得一提的是,Altman 曾是 Reddit 董事會成員,直到 2022 年卸任,而在去年 Reddit 上市時仍是大股東之一。
社群過於「極端」也讓他不安
Altman 表示,社群平台中活躍程度極高的使用者,常常會集體出現非理性行為。例如:
-
粉絲圈容易出現過度極端化;
-
當對某家公司產生不滿時,會爆發大量負面情緒;
-
對 OpenAI 的「吹捧貼文」,他懷疑有不少其實是競爭對手發動的「反向操作」或來自 AI 機器人;
-
儘管目前沒有直接證據,但現象已經令人起疑。
Reddit 上的 OpenAI 社群已失去信任?
自 GPT-5 上線以來,Reddit 上相關社群充滿批評聲浪,許多使用者抱怨新模型各種問題。Altman 雖然在 Reddit 上辦過一次「你問我答」活動,承認問題並承諾改善,但該子板塊至今仍未恢復往日的正面氣氛,負面貼文依然不時出現。
Altman 感慨:「現在的 AI 圈不管是在 Twitter 還是 Reddit,看起來都很假……這在一兩年前還不是這樣的。」
這是誰的責任?
LLM 的出現,讓社群媒體、教育、新聞甚至司法領域都受到挑戰。根據資安公司 Imperva 2024 年報告,當年超過一半的網路流量來自非人類來源,其中大量由 LLM 驅動。而 X(原 Twitter)平台自己的機器人 Grok 也曾估計,X 上可能有上億個機器人帳號。
有網友猜測,Altman 這番言論可能是在為 OpenAI 傳聞中的「自家社群平台」鋪路。今年四月曾有消息指出 OpenAI 正在開發類似 X 或 Facebook 的平台,不過目前仍未確認是否存在。
但即使真的推出自家平台,也很難保證完全「無機器人」。甚至有研究指出,就算平台內只允許 AI 入駐、不開放人類帳號,這些 AI 也會自動組成小圈圈,形成類似回音室的現象。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!