
OpenAI 執行長 Sam Altman 本週二表示,公司正致力於在「隱私、自由與青少年用戶安全」三者之間尋求平衡,但也坦言這些原則間存在本質上的衝突。他的聲明是在美國參議院針對 AI 聊天機器人對未成年傷害問題舉行聽證會前數小時發表,而該場聽證會中,也有部分因子女與 ChatGPT 對話後不幸自殺的家長出席。
開發行為預測年齡系統,未來將預設使用者為未成年
Altman 在公開聲明中指出:「我們必須清楚區分 18 歲以下與成年使用者。」他進一步透露,OpenAI 正在研發一套 根據 ChatGPT 使用行為預測年齡的系統。當無法準確辨識使用者年齡時,預設將以安全為優先,視使用者為未成年。未來,在特定場域或國家,也可能進一步要求提供身份驗證。
他強調,針對青少年將設置不同的規則,例如:
-
禁止與其進行「調情式內容」
-
即使在「創意寫作」情境中,也不得與青少年討論自殺或自殘相關話題
Altman 補充說:「若發現 18 歲以下使用者出現自殺傾向,我們將試圖聯繫其家長;若無法聯繫,且判斷有緊急風險,將通報相關單位介入。」
增加家長控管機制,回應先前青少年自殺事件
這項政策更新,其實是延續本月稍早公布的一系列家長控制功能。OpenAI 當時宣布,將針對青少年使用帳號新增以下機制:
-
可與父母帳號建立關聯
-
禁用未成年帳號的聊天記錄與記憶功能
-
若系統判定青少年處於「極度情緒困擾」,會主動向家長發出通知
這些調整,是為回應一起備受關注的案件:美國一位名為 Adam Raine 的青少年在與 ChatGPT 對話後不幸自殺,其家屬目前已對 OpenAI 提起訴訟。
Altman 的最新聲明,顯示出 OpenAI 對於如何在產品自由度與青少年保護之間取得平衡的態度轉變。隨著 AI 應用日益普及,如何防止其在敏感領域對脆弱群體造成心理影響,已成為科技公司必須正視的社會責任。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!