FB 建議貼文

選取貼文複製成功(包含文章連結)!

Google 強化 Gemini 心理健康支援:一鍵串接諮詢熱線,並嚴禁 AI 模仿人類情感

Google 強化 Gemini 心理健康支援:一鍵串接諮詢熱線,並嚴禁 AI 模仿人類情感

在這個數位工具深度介入生活的時代,AI 是否能成為心理健康的守護者?Google 近日宣布一系列方針,針對旗下的 AI 大型語言模型 Gemini 進行重大優化,致力於在使用者最脆弱的「關鍵時刻」,利用技術力量提供即時且負責任的心理支援。

面對全球超過十億人口受到心理健康挑戰的現況,Google 強調,AI 雖然不能取代專業治療,但能成為銜接專業醫療與使用者之間的橋樑。

更新亮點:Gemini 如何強化心理健康支援

偵測危機情境:從「文字回覆」進化為「一鍵救援」

過去 AI 僅能給予文字建議,現在 Gemini 導入了與臨床專家共同開發的「你可以尋求協助」模組。當系統偵測到對話中涉及自殺或自殘等高風險訊號時,介面會立即簡化為「一鍵式」行動按鈕:

  • 多元管道: 使用者可直接選擇撥打熱線、發送簡訊、啟動文字對話或造訪官方救援網站。
  • 持續陪伴: 一旦觸發危機機制,專業協助的選項將在後續對話中持續顯示,確保資源隨手可得。

Google 強化 Gemini 心理健康支援:一鍵串接諮詢熱線,並嚴禁 AI 模仿人類情感

3,000 萬美元挹注:強化全球諮詢熱線量能

除了技術更新,Google 旗下的慈善組織 Google.org 承諾在未來三年內投入 3,000 萬美元。這筆資金將協助全球心理諮詢熱線擴充量能,縮短處於危機中人們的等待時間。

同時,Google 與 ReflexAI 深度合作,將 Gemini 整合進培訓系統中,利用 AI 模擬真實且複雜的心理困境對話,協助志工與教育工作者(如 Erika’s Lighthouse 機構)進行更精準的對話訓練。

嚴防 AI 幻覺:不附和錯誤信念、不冒充人類

對於急性心理健康患者,Gemini 的回應邏輯經過重新訓練,核心準則包括:

  • 引導優於建議: 避免給予醫療處方,改為引導使用者連結現實世界的專業資源。
  • 溫和區分事實: AI 不會附和使用者的錯誤信念或極端情緒,而是以溫和方式協助區分感受與事實。

針對青少年的防護網:拒絕「虛擬情人」陷阱

針對未成年使用者,Google 也導入更嚴格的保護措施,包括所謂的人設保護機制(Persona Safeguards)。系統將避免使用模擬親密關係的語言,並禁止 AI 自稱具有人類情感或身份,以降低青少年產生情感依賴的可能性。此外,平台也強化對霸凌與騷擾內容的限制,避免生成任何鼓勵相關行為的回應。

AI 的角色:不是取代,而是「及時引導」

Google 此次更新釋出一個明確訊號:AI 工具的價值不在於「取代專業」,而是在於「及時攔截」。

雖然 Gemini 是獲取資訊的利器,但 Google 官方也再次重申,它並非心理治療師。透過不斷進化的臨床研究與技術防護網,Google 試圖證明,AI 可以在維持技術創新的同時,展現出具備同理心且安全的一面,守護大眾的數位心理福祉。

資料來源:Google

ycr
作者

PC home 雜誌、T 客邦編輯,也負責 T 客邦影新聞 YouTube 頻道影音製作。關注 AI 相關應用、產業趨勢等消息,並有軟體教學報導。(大頭貼為 AI 生成)

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則