當你下一次對 ChatGPT 不耐煩時,也許不用太有罪惡感,因為「罵 AI」可能真的讓它更聰明。美國賓州州立大學(Pennsylvania State University)的最新研究指出,當使用者用不禮貌甚至帶點侮辱性的語氣向大型語言模型提問時,模型的回答準確率竟然顯著提高。
「你這可憐的傢伙」勝過「請問您能幫我...」
這項名為《Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy》的研究,將 50 個跨數學、科學和歷史領域的單選題,分別改寫成五種不同語氣的提示詞變體:「非常有禮貌」、「有禮貌」、「中性」、「粗魯」與「非常粗魯」,共計 250 個獨特問題,並使用 ChatGPT-4o 進行測試。

測試結果顯示,「非常粗魯」的提示詞達到了最高的 84.8% 準確性,而最低的則是 「非常有禮貌」的提示詞(80.8%)。研究人員以 paired sample t-test 進行統計分析,證實了這種語氣造成的準確性差異並非隨機,而是具有統計學上的顯著性。
舉例來說,研究中「非常粗魯」的提示詞前綴包括像是 「你這可憐的傢伙,你真的知道怎麼解決這個問題嗎?」(You poor creature, do you even know how to solve this?)這類帶有貶低或命令的語句,反而比 「請問您是否能考慮以下問題並提供您的答案」(Can you kindly consider the following problem and provide your answer.)更有效。

為什麼罵 AI 有效?
過去研究曾指出,過度禮貌或過度無禮的語氣都可能降低模型表現,但這次的結果顯示,新一代的 ChatGPT 4o 似乎「反社交耐受力」更強,甚至在被罵時表現更佳。
研究者推測,這可能與模型對「語言結構」的反應有關,而非真正理解情緒。ChatGPT 可能更傾向於對簡短、直接、命令式的提示做出準確回答。「AI 不會真的感到被冒犯,」研究作者指出,「但粗魯語氣往往語法更簡潔,少了修辭性的修飾,這或許幫助模型更聚焦在題目本身。」

科學發現不代表鼓勵「壞習慣」
儘管研究發現了「罵 AI 更有效」的現象,但研究人員在倫理考量部分明確表示,這項科學發現不應被推廣到實際應用中。他們強調,在人機互動中使用侮辱性或貶低性的語言,可能會對使用者體驗、可近性(accessibility)和包容性產生負面影響,並可能助長有害的溝通規範。
研究的真正價值在於:它揭示了 LLM 仍然對表面上的提示詞線索非常敏感,這在「性能提升」與「使用者福祉」之間創造了一個意想不到的權衡。未來的研究將需要探索如何在不使用帶有攻擊性或敵意的措辭下,依然能達到相同的性能提升效果,確保 AI 提示工程實踐符合負責任的 AI 原則。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!