FB 建議貼文

選取貼文複製成功(包含文章連結)!

青少年輕生事件一年後,Character.AI 將禁止未成年人使用 AI 聊天功能

青少年輕生事件一年後,Character.AI 將禁止未成年人使用 AI 聊天功能

在人工智慧(AI)聊天機器人應用日益普及之際,相關的倫理與安全問題也浮上檯面。近日,知名 AI 聊天平台 Character.AI 宣布,將大幅度限制未成年使用者與其 AI 聊天機器人進行自由對話的功能,甚至將在未來完全禁止。此舉被視為該公司在保障青少年身心健康、提升應用程式安全性方面的重要舉措,同時也為整個產業樹立了更高的標準。

事件起因:少年輕生悲劇敲響警鐘

Character.AI 做出這項決定的導火線,源於一起令人痛心的悲劇。一年前,一名年僅 14 歲的少年休厄爾·塞策三世,在使用 Character.AI 應用程式時,與其中的聊天機器人建立了性相關的關係,最終不幸走上絕路。這起事件引起社會各界高度關注,也讓 AI 聊天機器人對青少年可能造成的負面影響,成為輿論焦點。

面對各界的質疑與壓力,Character.AI 採取了一系列應對措施。該公司於本週三宣布,將逐步關閉未成年使用者與 AI 聊天機器人進行自由對話的功能,這包括帶有浪漫色彩的對話,以及心理諮詢等敏感內容。作為過渡期的安全措施,Character.AI 將首先把未滿 18 歲使用者的開放式對話時間限制在每天兩小時,並計畫在 11 月 25 日前完全取消未成年人的這類對話功能。

Character.AI 執行長卡蘭迪普·阿南德表示:「這是向前邁出的一大步,我們希望這能為業界其他企業樹立更高的標準。」他強調,公司將持續致力於提升應用程式的安全性,確保未成年使用者在使用平台時,能夠獲得更完善的保護。

年齡驗證機制:確保政策有效執行

為了確保新政策能夠有效執行,Character.AI 表示將推出「年齡驗證功能」,透過第一方及第三方軟體來核實使用者年齡。該公司已與身分驗證服務商 Persona 合作,Persona 亦為 Discord 等平台所採用,協助完成年齡查核工作。透過嚴格的年齡驗證機制,Character.AI 希望能夠有效防止未成年人規避限制,確保政策的落實。

近年來,AI 聊天機器人技術快速發展,相關應用也越來越廣泛。然而,由於 AI 聊天機器人具有高度的互動性與擬人性,使用者容易與之建立情感連結,甚至產生依賴。對於心智尚未成熟的青少年而言,這種情況可能帶來潛在的風險。因此,如何有效監管 AI 聊天機器人,保護青少年免受其負面影響,已成為各國政府與產業界面臨的重要課題。

在「青少年與 AI 陪伴機器人」相關議題上,Character.AI 並非唯一一家面臨監管審查的 AI 聊天機器人公司。今年九月,美國聯邦貿易委員會(FTC)已向包含 Character.AI、Alphabet、Meta、OpenAI、Snap 在內的七家企業發出指令,要求這些公司配合調查,以了解 AI 產品對兒童及青少年可能造成的影響。這顯示各國政府對於 AI 技術可能帶來的潛在風險,已高度關注。

Character.AI 的商業模式與未來展望

據了解,Character.AI 目前的每月活躍使用者約有兩千萬人,其中未滿 18 歲的使用者佔比約百分之十。該公司的收入主要來自於廣告業務,以及每月 10 美元(約新台幣 325 元)的訂閱服務。阿南德透露,該公司今年的年化收入有望達到五千萬美元(約新台幣十六億兩千五百萬元)。

此外,Character.AI 也宣布將設立並資助一家「獨立 AI 安全實驗室」,專門針對 AI 娛樂領域進行安全研究。該公司並未透露具體的資助金額,但表示正邀請其他企業、學者、研究人員及政策制定者,共同加入這個非營利性質的計畫。透過產學合作,Character.AI 希望能夠更深入地了解 AI 技術的安全風險,並提出有效的解決方案。

IFENG
作者

鳳凰網(科技),集綜合資訊、視訊分發、原創內容製作、網路廣播、網路直播、媒體電商等多領域於一身,並於2011年在紐交所上市(紐交所代碼:FENG),成為全球首個從傳統媒體分拆上市的新媒體公司。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則