FB 建議貼文

選取貼文複製成功(包含文章連結)!

ChatGPT引入情緒識別GPT-5 Instant「自動切換模型」,遭用戶質疑侵犯隱私?

ChatGPT引入情緒識別GPT-5 Instant「自動切換模型」,遭用戶質疑侵犯隱私?

OpenAI 近日宣布更新 GPT-5 Instant 模型,強調此更新將「更好地識別並支援使用者在情緒困擾時的狀態」。簡單來說,當系統偵測到使用者的對話內容屬於「敏感話題」時,將自動切換為 GPT-5 Instant 模型,以便提供「更即時、更有幫助」的回應。這項更新已開始陸續推送至 ChatGPT 使用者。

不過,看似善意的更新,卻在 X(前 Twitter)上掀起一波反彈潮,甚至演變成用戶對 OpenAI 信任的危機。

「自動切換」惹議:誰決定什麼是敏感?

許多用戶批評這項改動是「擅自越界」。帳號 @Guardian 表示:「這不是我們付費買來的產品!你們未經同意就進行心理分析?我拒絕讓自己的資料用來訓練你們那套所謂的『安全模型』。」

另一位網友 @theteapolice 更直言:「模型自己決定什麼是敏感?我有危機我會說,不需要 AI 替我做判斷。」

還有使用者擔心,OpenAI 會暗中蒐集心理層面的資訊。帳號 @Hannibal9972485 提出疑問:「到底誰來定義『處於困境』?焦慮?抱怨?政治發言?這模糊的界線才最危險。」

用戶怒轟「AI 保母」模式:我們不是小孩!

網友最大的共識是:應提供關閉選項。帳號 @Claire 呼籲:「不要搞得那麼複雜!給我一個開關,一鍵關掉就好。成年人可以自己決定是否承擔風險,不需要你們當保母。」

還有 @Sophy_ 不信任所謂的「敏感判斷」演算法:「現在連普通情緒波動也被你們標記成危機?真正的危險才該介入,不要拿善意當藉口干涉。」

另一位帳號 @Sveta0971 寫道:「我們要的是選擇退出的權利,而不是『當你問我們時才告訴你模型有變』。」

也有網友用幽默方式反擊。帳號 @Jeff3ry47 調侃:「翻譯一下:以後你難過時,GPT 會傳簡訊問『你醒了嗎?』」

從技術升級到信任裂痕:GPT-5 Instant 變信任地雷

這場風波除了引發對隱私的擔憂,更凸顯 OpenAI 與用戶間信任感的破裂。

許多創作者與開發者表示擔憂,GPT-5 Instant 可能會誤將角色扮演、文學創作等虛構內容誤判為心理困擾,導致對話被打斷。

插畫師 @Seltaa_ 發文批評:「你們解決困擾的方式,是把我從 GPT-4o 切換走?我又沒叫你幫忙,別亂切模型好嗎。」

有用戶更憤怒指出,OpenAI 在 9 月時才宣稱「尊重用戶自由選擇模型」,現在卻出爾反爾。

AI 干預人類情緒的「分寸」在哪?

OpenAI 表示,這項更新目的是在「真實危機情境下提供更即時的幫助」,但不少使用者認為,所謂的「敏感定義」過於寬鬆,反而模糊了私人情緒表達與安全干預之間的界線。

支持者認為這樣的設計有助於在危急時提供支援;反對者則擔憂 AI 過度干預個人對話,甚至形成「演算法審判」。

有網友一語中的:「我們要的是理解,不是監控;要的是共情,不是演算法裁決。」

OpenAI 想當 AI 心理醫師,但似乎忘了先問病人同不同意。真正的問題,不在於技術多強,而在於它是否懂得什麼叫「分寸」。

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則