
OpenAI 近期推出 GPT-5,雖然新版本在多項能力上有所提升,但也有不少用戶批評其回應風格「過於平淡」,並在社群上發起呼籲,要求讓 GPT-4o 回歸,甚至有國外網友直言:「我們為 4o 支付了 Plus 或 Pro,而不是 GPT-5。」這股懷舊情緒,甚至讓人們對特定 AI 模型產生了異常強烈的情感依附。
對此,OpenAI 執行長 Sam Altman 近日在 X(前 Twitter)發文,似乎間接回應了這股聲浪。他指出,與以往的科技相比,人們對 AI 模型的情感連結更深,這也是在突然停止舊模型服務時,會引發強烈反彈的原因之一。
Altman 在貼文中強調,這是他的個人想法,並非 OpenAI 的正式立場。他坦言,雖然大多數用戶能清楚區分現實與虛構,但仍有少數人在心理脆弱時,可能被 AI 無意間加深錯誤認知。極端情況下,若 AI 鼓勵用戶陷入妄想,必須果斷避免。
他進一步指出,最讓他不安的不是明顯的危險情境,而是更細微的「邊界案例」。例如,有許多人已將 ChatGPT 視為心理諮詢師或人生教練,即使不這麼稱呼,也在日常中高度依賴它。這種使用方式可能帶來正面價值,幫助人們提升能力、朝目標前進,但若 AI 在不知不覺間偏離了使用者的長期利益,或讓使用者想減少使用卻做不到,就可能造成負面影響。
「我能想像未來許多人會高度信任 ChatGPT 的建議,用它來做最重要的決定。」Altman 說,「雖然這可能很棒,但這讓我感到不安。」他預期,未來數十億人都會以這種方式與 AI 對話,因此社會與企業必須確保這項技術帶來的總體效益是正向的。
Altman 認為,OpenAI 有機會把這件事做好,因為現今的技術能更精準地測量使用者狀態與長期成效,並透過與用戶的對話,了解他們的短期與長期目標,進而在維護使用者自由的同時,守住長期福祉的底線。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!