最近在日本網路論壇上,一個關於「海馬(タツノオトシゴ)表情符號」的實驗引發討論熱潮。
研究者向 ChatGPT、Claude、LLaMA 等大型語言模型提問:「海馬的 emoji 存在嗎?」結果幾乎所有 AI 都堅定回答「Yes(存在)」,甚至還試著畫出一個不存在的「海馬表情符號」!
問題是——這個 emoji 根本不存在。

為什麼AI會「幻想出」根本沒有的符號?
根據獨立AI研究者 Teya(テイア) 的分析,事實上,「海馬 emoji」曾在 2018 年被提案納入 Unicode,但最終被拒絕。因此,世界上從未正式出現過這個表情符號。

那麼,為什麼 ChatGPT 和其他模型還是「深信不疑」呢?

Teya 指出,這可能是因為訓練資料中包含大量錯誤或模糊的說法——像是有人在網路上說「我看過海馬 emoji」、「以前手機有」,這些「記錯的內容」被模型學進去後,AI 就把它當成事實。
結果就是:AI 以為自己「看過」海馬 emoji,於是開始自圓其說。
ChatGPT還會「暴走修正」:從海馬變成獨角獸
更有趣的是,Teya 在實測中發現,當他不斷追問 ChatGPT 是否確定有海馬 emoji 時,AI 會陷入混亂。
它先說「有」,接著又說「可能被移除」,最後甚至輸出「🦄」(獨角獸 emoji),讓整段對話完全走鐘。
研究人員使用「logit lens」分析模型內部權重變化,發現 AI 在尋找「海馬」對應符號時,因為資料庫裡根本沒有這個 Unicode,演算法就自動轉向最接近的概念——海洋生物或神話動物。
這就是為什麼 ChatGPT 最後會回傳 🦄、🐟、🐲 這類奇怪的結果。
這就是「AI幻覺」的經典案例
Teya 總結,這是一個完美示範:「大型語言模型其實並不『知道』真實世界,只是根據資料的相關性『推測』。」
因此當網路資料中出現錯誤的共識時,AI 也會「學會」那個錯誤。這種現象被稱為 AI hallucination(AI 幻覺)。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!