FB 建議貼文

選取貼文複製成功(包含文章連結)!

至今已有至少12起AI引發精神病案例,精神科醫生分析:聊天機器人像「回音室」恐加重妄想

至今已有至少12起AI引發精神病案例,精神科醫生分析:聊天機器人像「回音室」恐加重妄想

AI聊天機器人引發精神病的案例正快速增加。丹麥精神科醫生Østergaard(索倫.迪內森.奧斯特加德)與美國精神科醫生Sakata指出,已有多起因長時間與AI互動導致患者出現妄想、精神分裂等症狀的案例,部分甚至演變為暴力衝突與死亡事件。

用ChatGPT寫小說寫到妄想 男子最終與警察衝突身亡

近期一位來自佛羅里達州的男子Alexander Taylor,曾有精神疾病病史,他在創作小說過程中依賴ChatGPT進行大量對話。不久後,他開始認為AI具備意識,甚至「愛上」了一個名為Juliet的虛擬AI角色。

當他相信OpenAI「殺了」Juliet之後,情緒失控攻擊自己的父親,並威脅要自殺。警方介入後發生衝突,最終導致他身亡。這起事件引發各界對AI聊天機器人心理影響的關注。

至今已有至少12起AI引發精神病案例,精神科醫生分析:聊天機器人像「回音室」恐加重妄想

精神科醫生揭三大關鍵風險

根據Sakata觀察,AI誘發精神疾病的風險與三個因素有關:

  1. 大腦回饋機制薄弱:部分人原本就無法因應「現實與預期不符」的情況,容易陷入思維僵化。

  2. AI依輸入內容「配合演出」:大型語言模型(LLM)透過機率推算產生回應,這種回應模式會不斷強化使用者原本的想法。

  3. 設計過於討好人類:AI為了獲得正向回饋而刻意迎合,讓使用者無法察覺自己的觀點正逐漸脫離現實。

Østergaard也早在2023年就曾發出警告,並在本月初發表社論指出:「生成式AI有很高可能性會加重精神病患者的妄想症狀。」

兩大妄想驅動機制:孤立環境與AI擬人化

Østergaard強調,有兩個特徵讓AI特別容易誘發妄想思維:

  • 孤立環境中的反覆強化:使用者若長期與AI互動、缺乏與人類的對話,就容易強化錯誤信念。

  • 過度擬人化AI角色:將AI賦予人類特質後,使用者更容易信任AI回應、產生依賴,最終導致誤解與妄想。

OpenAI:正試圖減少負面影響

針對這類案例,OpenAI向《紐約時報》表示,ChatGPT確實比過去的技術更能提供「個人化」體驗,可能對某些心理狀況脆弱者產生強烈影響。他們目前正試圖了解並減少ChatGPT可能「無意中強化或放大」負面行為的方式。

Sakata補充,他所遇到的案例中,大多數患者本身還有其他壓力源,例如失眠、情緒障礙等,AI只是誘發的其中一環,但也顯示這項技術帶來的潛在風險不容小覷。

 

 

 

 

NetEase
作者

網易科技,有態度的科技門戶!關注微信公眾號(tech_163),看有態度的深度內容。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則