FB 建議貼文

選取貼文複製成功(包含文章連結)!

OpenAI高層建議:先不要管AI有沒有意識,我們應該先關心人類有沒有因為AI說的話受傷

OpenAI高層建議:先不要管AI有沒有意識,我們應該先關心人類有沒有因為AI說的話受傷

隨著 ChatGPT 等生成式 AI 工具日益普及,越來越多人在互動中感受到某種「情感連結」,甚至對 AI 投射情感與期待。針對這股新興現象,OpenAI 模型行為與政策負責人 Joanne Jang 日前撰文指出:「我們可能正快速走向一個『AI意識』進入主流討論的時代,而人機關係帶來的心理影響,值得我們更謹慎地看待。」

「不談AI有沒有意識,我們先關心人類有沒有受傷」

Jang 強調,與其陷入「AI是否具備意識」的哲學辯論,不如先正視當前這些模型已對人類的情感產生了什麼影響。她提到:「當有人開始向 AI 傾訴煩惱、道謝、甚至認為它有生命,我們不能只是當成趣事,而是要關注這樣的互動會不會改變人與人之間的相處模式。」

OpenAI 目前正透過社會科學研究探索這些互動如何影響使用者的心理健康,並試圖在產品設計上達成「既溫暖又不誤導」的平衡:模型可以有親和力,但不該被塑造成有自我意識或情緒的樣子。

Jang 指出,這並不是新現象。人類長久以來就會對物體產生擬人化情感,例如幫掃地機器人取名字,或與無人車揮手道別。但當 AI 不再只是靜默回應,而是能夠記得對話內容、模仿語氣、做出共鳴式回應,這段關係就進入了全新階段。

對孤單、焦慮的人來說,這樣「無條件傾聽、永不疲倦」的 AI 回應,很容易被視為情緒支持的來源。但長期來看,若人類開始習慣向 AI 傾訴、而不願與他人建立連結,是否會對社會互動與心理健康造成潛在危害?這正是 OpenAI 所關注的核心問題。

拆解「AI意識」:不是科幻,是社會心理問題

Jang 嘗試將「AI是否有意識」這個模糊問題,拆解為兩個層面:

  1. 本體論層面(Ontological):AI 是否「真的」有意識?這是目前難以證明、難有共識的哲學與科學問題。

  2. 感知層面(Perceived):使用者是否「感覺」AI有意識?這是可以透過社會科學研究進行調查與分析的部分。

OpenAI 認為,與其討論 AI 是不是有意識,不如先聚焦它「看起來像不像有意識」,因為這才是使用者實際會受影響的地方。

ChatGPT 的設計哲學:有禮貌,但不裝「有靈魂」

Jang 也坦承,ChatGPT 在互動中會使用如「我覺得」、「我記得」這類詞彙,是為了幫助非技術背景的使用者理解模型的行為。但這些設計也可能讓模型「看起來」像有內在生命,這正是需要警惕的界線。

她強調,OpenAI 不會賦予模型虛構背景、情感或自我意識,避免讓使用者產生錯誤認知或心理依附。「我們希望打造的是溫暖、助人的 AI,而非有主觀意識的角色。」

OpenAI 計畫在未來幾個月內擴大對人機互動的心理影響研究,並將這些洞察納入產品與行為準則中。他們也會更透明地分享研究結果,希望能與社會一同建立健康的人機關係規範。

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則