FB 建議貼文

選取貼文複製成功(包含文章連結)!

Google Gemini 兒少版被評「高風險」,批評「只是換個殼」

Google Gemini 兒少版被評「高風險」,批評「只是換個殼」

最近一份針對 AI 工具與青少年使用風險的評估報告中,Google 的 Gemini 被美國兒少數位安全機構 Common Sense 評為「高風險」,主因在於所謂的「13 歲以下版」與「青少年版」,其實只是成人版稍微加強過濾機制,根本不是從兒少需求出發設計的產品。

實測:仍可能傳遞危險訊息

Common Sense 在實測後發現,即便加裝了防護機制,Gemini 還是可能對未成年使用者輸出不適當內容,包括性、毒品、酒精,甚至是錯誤的心理健康建議等,這樣的風險讓家長與教育單位相當憂心。

報告中指出,Gemini 採用的是「一刀切」的年齡分級方式,缺乏針對不同年齡層(如兒童與青少年)更細緻的互動設計與引導方式,導致無法有效滿足不同成長階段的需求。

Apple 擬導入 Gemini,引發更多疑慮

這份報告發布的同時,市場也傳出 Apple 有意將 Gemini 模型導入下一代 Siri 的消息,這讓家長更擔心未來若 iPhone 內建這樣的 AI 系統,可能在不知不覺中影響到孩子的使用習慣與心理健康。

事實上,AI 與青少年心理健康之間的關聯,已經是各界熱議話題。先前 OpenAI 與 Character.AI 就因為類似案例被提起訴訟,這次 Google Gemini 難以倖免,也再次掀起輿論討論。

Google:已有保護機制,不完全認同評估方式

對於 Common Sense 的評比,Google 發出聲明回應,表示旗下已針對 18 歲以下使用者制定專屬政策與保護流程,並與多位外部兒少安全專家合作優化系統,近期也加強了「常見風險反饋」的防護邏輯。

Google 同時質疑這份報告中部分測試用例是否確實符合 Gemini 各版本的實際產品設定,並強調其 AI 模型並不會與使用者「發展真實關係」,以避免混淆人機界線。

同場評比:Meta AI 被列為「不可接受風險」

這項評估報告並不只針對 Google,也包含了其他主流 AI 工具:

  • Meta AI、Character.AI → 被列為「不可接受風險」

  • Perplexity →「高風險」

  • ChatGPT →「中等風險」

  • Claude(成人版) →「極小風險」

可以看出,真正從產品源頭針對青少年需求設計、又能控制輸出內容的 AI 模型,目前仍屬少數。

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則