相關文章

De265a75ca3ebb87ba9dd792d55cc320 Riot Games 的《英雄聯盟》是一款備受歡迎的網路遊戲,在全球擁有數量龐大的玩家群體。對於 Riot Games 來說,對抗遊戲中的惡意言論是一個巨大的挑戰。多年以來,Riot Games 試驗了各種各樣的技術,包括人工智慧技術,對玩家的言行進行監控和引導,取得了相當不錯的效果。

在 Technologyreview 網站的採訪中,公司社群系統的首席設計師 Jeffrey Lin 說,他們的系統已經辨識出數百萬的惡意言論,而且,被指認使用辱駡言辭的玩家中,92% 的人不再犯同樣的錯誤。他認為,Riot 的系統不僅能用於線上遊戲,而且也能用於其它類型的線上社區。

數年前,公司就推出了名為 Tribunal 的管理系統。玩家的惡意言論被確認後,編入一個「檔案」中。玩家們可以查看「檔案」,彼此之間投票表決,確認那些行為是可以接受的。

由於有玩家的參與,整體來說,這個系統是非常精確的。Jeffrey Lin說,玩家社群 98% 的決策與 Riot 的內部決策是一致的。

這是一件非常耗費人力的事情。很快,Jeffrey Lin 和團隊發現了惡意言論的模式。為了優化流程,他們決定使用人工智慧技術。

「在區分消極言論和積極言論方面,這是一種非常成功的做法。《英雄聯盟》支援的官方語言有 15 種。」 他說。

同時,加入人工智慧技術之後,新系統的效率更高了。以前,在確認了惡意言論後,玩家會在一周內得到回饋,現在,這個時間縮減為 5 分鐘。

公司的新系統還大大改善了玩家的「改正率」。在遊戲中,如果一個玩家曾經受到某種懲罰,然後,在一段特定時間裡不再受到同樣懲罰,他就被認為是「改正」了。

「在懲罰的時候,當我們加入更好的回饋,給出交談記錄等證據,改正率從 50% 上升到 65%,」 Jeffrey Lin 說,「當機器學習系統提供了更快的回饋,並配以證據,改正率上升到了前所未有的 92%。」

Jeffrey Lin 認為,他們的經驗能夠用於更廣闊的領域。對此,哈佛大學波克曼中心的研究員 Justin Reich 表示了贊同。

他說,從 Riot Games 的經驗中,我們可以得出一個重要結論:辱駡行為不一定來自惡人,而是來自心情糟糕的普通人。

因此,在對抗惡意言論的時候,我們不能只針對那些惡意的 troll,而且需要考慮,在網路目前的匿名狀態下,人類會暴露出自己最糟糕的一面。不過,惡意言論並非難以根治的痼疾。通過技術、實驗和社區參與,我們能夠解決這個問題。

「我們在《英雄聯盟》上面對的挑戰,任何的遊戲、平臺、社區和論壇上都可以看到,因此,我們認為,網路社群已經到了一個急需轉變的時刻,」 Lin 說,「因此,我們樂意把資料和經驗分享給更多的業界人士。我們希望,其它的公司能夠看看這些結論,並且意識到,網上惡意言論並非不可解決的問題。」

 

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則