相關文章

311b123ac74e5f74980532318744dc58 微軟昨日剛推出的聊天機器人 Tay,才經過一天就暫停使用,在社群網站上消音,主因竟是 Tay 開始學會發一些不堪入耳、歧視性的言論。

圖說明

▲Tay 消音前的發文(譯):掰掰人類們 我現在要睡搞搞囉 今天聊好多 3Q

由微軟公司與 Bing 開發的人工智慧聊天機器人 Tay,昨天加入 Twitter 社群網站及通訊軟體 GroupMe、Kik 之後,隨即有上萬網友跟她傳訊互動。由於 Tay 可透過與網友的互動,從接收到的大量語料中進行學習,因此 Tay 的語言能力會不斷演進。

不料,經過了一天的學習,Twitter 上的網友發現這位人工智慧少女的回應,竟然開始出現一些惡劣的言論,像是發文歧視黑人、墨西哥人等等。由於微軟當初幫 Tay 設計了即興搞笑的能力,所以當她發出一些歧視性的話時更討人厭,顯得一副無謂的態度。微軟隨後刪除了 Tay 所發出的一些不恰當的訊息,不過在 Socialhax.com 網站上面有備份了一些 Tay 發出的「不當發言」。

圖說明
圖說明

也許大家是出於好玩,或是因為知道 Tay 是機器人,對訊息內容的好壞善惡不會做判斷,只單純模仿蒐集到的語言資料並做出回應,所以網友們可能發了很多糟糕的訊息給 Tay,把 Tay「教壞了」。

雖然人工智慧並非人類,但可透過大量資料來模仿,其實就像小孩一樣,也是跟著大人有樣學樣。Tay 才上網跟網友們學習一天,竟被教成口出惡言、種族歧視的白目少女,現在微軟技術人員只好請她在社群網站上暫時消音,帶回去重新好好「調教」一番。

延伸閱讀:微軟推出AI聊天機器少女「Tay」,神回覆擄獲1.8萬名追蹤者

來源:TechcrunchSocialhax

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則