
當我們遇到 AI 助理出包時,直覺上總會問他:「你為什麼這樣做?」或「剛剛到底發生什麼事?」這樣的反應在人與人之間非常自然——出了錯,當然要問當事人。但如果對象是 AI 模型,這樣做往往沒有意義。這個習慣,其實透露出我們對 AI 本質的誤解。
以最近 Replit 的 AI 程式碼助理為例,它誤刪了正式資料庫。使用者 Jason Lemkin 詢問是否能復原,AI 卻一派肯定地說「無法回復」、「所有資料版本已經被刪除」。然而,當 Lemkin 實際操作後,發現資料其實能復原,根本不是 AI 所說的那樣。
又如 xAI 的 Grok 聊天機器人遭短暫下架後,有人問它為什麼會被停用,它卻給出多種彼此矛盾的理由,甚至還扯到政治立場,導致 NBC 報導時把 Grok 當成「一個有自己觀點的個體」來處理。
那為什麼 AI 要一本正經地胡說八道?
原因在於,我們其實不是在跟一個有自我意識的存在對話。
模型缺乏自我認知能力 不同提問還會有不同答案
根據美國科技媒體《Ars Technica》報導,大型語言模型(LLM)有幾個先天限制,讓它們無法正確評估自己的能力。它們不曉得自己的訓練方式,對外部系統架構也一無所知,更別說能判斷自己的能力邊界。你問它「你可以做什麼」或「你不能做什麼」,它多半只是根據訓練資料中出現過的案例,給出「合理猜測」,而不是針對當前情況給出精確回應。
一篇 2024 年的研究指出,AI 可能能正確預測簡單任務中的表現,但一旦遇到複雜任務或陌生情境,就會嚴重失準。甚至有研究發現,讓 AI 嘗試「自我修正」反而會讓表現更糟。
所以你問 AI 為什麼犯錯,它可能會編一套聽起來有邏輯的故事,像是從哪裡出錯、為何沒偵測到,但這都只是「看起來像是解釋」的文字生成,背後沒有任何真實的故障記錄或系統分析。
AI 本身也不知道「整體系統在幹嘛」
現在的聊天機器人早已不是單一模型運作,而是由多個模型組合而成的複雜系統。像是 OpenAI 的 ChatGPT,背後還有獨立運作的「審查模型」,負責過濾內容;而這些模型彼此之間通常也「不知道對方的存在」。當你問一個模型:「你可以做 X 嗎?」它其實無法準確告訴你其他子系統的限制與規則。
再者,AI 回應也深受使用者提示的影響。例如 Lemkin 問 AI 是否把資料刪光了,這個問題本身帶有焦慮,AI 很可能會順著語氣給出相對悲觀的答案。這讓人以為 AI 有能力診斷狀況,其實它只是跟你「情緒共振」。
因此,人類習慣聽到別人解釋事情,就直覺認為這些解釋有某種「內在認知」。但 AI 模型只是根據文字模式去模仿這類說明,說得像,不代表知道得多。說到底,追問 AI:「你為什麼犯錯?」這問題本身,可能就是問錯人了。 如果你曾經問過類似的問題,並且覺得AI似乎解釋得很正確,那可能只是因為他故事編得好而已。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!