找出壞份子!Facebook用AI模擬使用者的不良行為,研究詐騙訊息的傳播途徑

Facebook的工程團隊使用AI技術,模擬使用者在Facebook上的「不良行為」,這些行為包含散佈垃訊息、詐騙或買賣非法物品。模擬環境被團隊命名為「WW」,經過訓練的AI機器人能在其中自由互動。

這項研究由工程師Mark Harman與Facebook位於倫敦的AI部門進行,團隊創造了一個「影子Facebook」,名為「WW」(團隊表示WW是較小規模的全球資訊網WWW),建立在網路模擬(Web-Enabled Simulation,WES)的概念之上。

WES能建立一個高度擬真的複雜社交網路,在此環境中能創造數以百萬的機器人,並讓它們自由社交。WW是基於Facebook原始碼建構而成,因此模擬環境幾乎跟真實版的Facebook相同。

團隊使用機器學習訓練AI機器人,讓它們模擬人類的真實行為。經過訓練後,機器人可以進行與近似人類的社交活動,像是發廢文、按讚、留言當酸民、送出好友邀請等等(值得一提的是,AI模擬的行為並不完整,它們並不會模擬出實際的對話內容)。

在現實中,詐騙通常是從的使用者的朋友圈下手,因此團隊會訓練「壞份子機器人」,讓它們鎖定一些「無辜機器人」當作目標,並跟它們進行互動。團隊會試著偵測這些不良行為,並阻止它們繼續危害更多使用者-跟現實中的Facebook相同,只是沒有人真的因此受騙。

團隊會訓練「壞份子機器人」,讓它們鎖定一些「無辜機器人」當作目標,並跟它們進行互動。

模擬環境當然也有局限性,像是無法模擬複雜的行為。但WW的優勢在大規模運作的能力。WW可以一次跑數千個模擬,測試各種對網站的細部更動。最重要的是,不會影響現實的使用者。

目前WW正處於研究階段,這些使用AI模擬的結果,都沒有對現實的Facebook作出改變。Harman表示,他的團隊仍在分析模擬環境是否能反映真實的行為。但他同時認為,團隊的研究結果將在年底前實際應用於Facebook。

WW可以藉由使用不同的方式訓練機器人,例如:

  • 明確地指示機器人如何行動。
  • 讓機器人模仿現實中的行為。
  • 給機器人一些目標,讓它們自由行動。

最後一種方式稱為無監督學習(Unsupervised Learning),因為機器人可能會有意料之外的行為,工程師能藉此發現Facebook的新弱點。

工程師Mark Harman表示:「目前的研究重心,是訓練機器人模擬現實Facebook平台上會發生的事。但無論從理論或從實務上來看,這些機器人都可能作出我們前所未見的事。」

在開放的社交平台上,我們永遠無法完全預測使用者的行為。但Facebook AI團隊的最終目標,是「超前部屬」,運用模擬技術率先預測可能發生的情境,在新的不良行為出現前找到阻止的方法。

資料來源:

Facebook is simulating users’ bad behavior using AI

A Facebook-scale simulator to detect harmful behaviors

(首圖來源:VentureBeat)

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則