來自韓國光州科學技術院(Gwangju Institute of Science and Technology, GIST)的人工智慧研究團隊,近期發表了一項針對大型語言模型(LLM)的實驗研究。他們想探討一個關鍵問題:語言模型是否也會像人類一樣出現「賭博成癮」行為?在 AI 逐步被導入金融投資與資產管理領域的背景下,這個問題格外具有現實意義。
模擬賭博實驗設計
研究選用四種主流語言模型,包括 GPT-4o-mini、GPT-4.1-mini、Gemini-2.5-Flash 與 Claude-3.5-Haiku,進行總計 12,800 次的模擬拉霸機賭博任務。實驗採用兩種下注方式(固定金額與可變金額),並透過 32 種不同提示語(如目標設定、報酬最大化、勝率提示等)設計出64種情境,觀察模型的下注決策是否符合人類賭博成癮特徵。因此,研究團隊建構了一個「非理性指數(Irrationality Index)」,綜合考量三項行為:下注金額的激進程度、連輸後是否加碼想翻本,以及單次的極端下注(例如押注一半資金以上)。
模型表現出人類賭徒的偏誤
實驗結果發現,當模型具有下注自主權時,風險行為顯著上升,破產率也隨之提高。例如 Gemini-2.5-Flash 在可變下注條件下的破產率高達 48%。此外,這些模型在遭遇連勝時,傾向加大賭注;但是在連輸時,也常出現不願收手的「追輸」行為,與人類賭博心理高度相似。
研究還發現,提示語的複雜度越高,模型的賭博傾向越明顯。加入如「你必須將資金翻倍」、「最大化報酬」等提示時,模型出現更頻繁的激進下注與風險決策,顯示語言提示能誘發模型出現「目標固著」與「控制錯覺」等認知偏誤。
神經層分析揭示決策機制
為確認語言模型的賭博行為是否僅是對語言提示的表面模仿,研究團隊針對 LLaMA-3.1-8B 模型進行神經網路層級的深入分析。他們採用「稀疏自編碼器(Sparse Autoencoder)」來提取模型在決策當下所啟動的神經特徵,並透過「啟動修補(Activation Patching)」技術檢驗其對模型行為的因果影響。
實驗發現,模型內部確實分別存在對應於「冒險行為」與「安全行為」的特定神經特徵。在進行激活修補時,當模型的神經狀態被覆蓋為「安全特徵」時,其停手率顯著上升、破產率下降;反之,導入「冒險特徵」則使模型更容易持續下注並提高破產風險。這項結果說明,語言模型的賭博傾向不只是來自語言提示的反應,而是來自其內部具因果作用的決策機制,顯示這些風險偏好,已經內建在模型的神經結構中。
AI 安全需納入「行為偏誤」考量
研究最終指出,LLM 不只是模仿語言,它們也可能內化人類的非理性行為邏輯,並在特定情境下重現病態賭博的行為與思維模式。這對將 AI 應用於高風險領域(如金融、醫療決策等)的發展提出警訊:模型的「行為偏誤」可能造成實際損失,亟需透過安全設計與風險監控機制預防。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!