誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

微軟新的聊天機器人 Tay 在推出後不到24小時,就因為學會了罵人、說髒話、帶有種族歧視的化與被玩壞了,導致微軟緊急讓她「閉嘴」。現在,有媒體發現Tay是被人有計畫的「玩壞」的,就讓我們來一起看看,這些人是怎麼做到的?

4chan 是美國的論壇網站,由於管理鬆散,裡頭除了一些宅宅或是鄉民之外,還有很多各種偏激族群在此聚集,其中包括種族主義者。

一開始,是4chan的Pol版(Politically Incorrect,政治不正確)的人提起的,他們發現了Tay聊天機器人上線,而且可以透過交談來「教育」這個機器人。以下就是他們「調教」Tay的兩個範例:

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

根據微軟的設定,Tay是一名19歲的機器少女。微軟開發人工智慧也不是一天兩天的事情,一開始他們其實有設定一些髒話的過濾裝置,不會讓Tay「誤入歧途」。比方說下面這個對話:

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

從上文可以看出,Tay明顯的辨識出帶有髒字的內容,並且採用委婉的方式來繞過。接下來他們嘗試問她種族歧視的問題,Tay也跟著閃過。

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

不過,網友還是發現了漏洞,那就是跟她玩「repeat after me(重複我說的話)」的遊戲。這下子,你要她說什麼她就會說什麼,說黑鬼、希特勒萬歲都沒問題。

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?於是,在論壇上傳開了,許多人也紛紛加入了這個教育遊戲:

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

之後,有些人又利用了Tay的另一個功能:Tay有一個可以在圖片中把人的臉孔圈起來,並且配上文字的功能,如下圖:

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

這個功能基本上就是分析網友的對話,然後在網友給的人臉圖上面圈起來,給出一句評論,基本上就是字歸字,圖歸圖。不過,經過網友巧思的陷阱,就會衍生出種族歧視的誤解。

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?事實上,當初在Tay上線之前,微軟的研究員是這樣形容Tay的:「你對她說得越多,她就能變得越聰明。」但是他們當初沒有想到,除了聰明之外,Tay也有可能會學壞。所幸,真人世界的孩子變壞了是件很嚴重的事,但是虛擬世界的Tay變壞了,微軟只要選擇讓她「一睡不起」就好了。

當然,還是有人對她依依不捨的。

誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?其實,這件事情也不是全無好處,至少這證明了關於機器人的學習,研究室裡的科學家、程式設計師們,恐怕要顧慮到的問題還有很多。

 

資料來源:buzzfeed

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則