2019.08.01 08:30

你接到的老闆電話可能並不是真的,而是 AI 的新詐騙

ADVERTISEMENT

還記得去年在色情行業掀起一陣風暴的 Deepfakes 嗎,透過 AI 神經網路和演員的照片,反覆進行機器學習之後,就能讓 AI 自動辨識和替換掉影片裡某人的臉部資料。

後來 bilibili 也掀起了一陣「萬物皆可徐錦江」的熱潮,比如雷神和海王,乃至很多的經典電影的片段都出現了徐錦江的臉,甚至其中還包括《新白娘子傳奇》裡的白素貞。

這一次花式操作確實秀,也讓更多人瞭解了什麼是 Deepfakes 和 AI 換臉。

現在,「Deepfakes」已經泛指那些被人工智慧改變過的媒體內容,只要是某人沒有做過的事被 AI 做出來都可以認為是 Deepfakes,而且不止是影片,音訊同樣也可以透過 AI 來偽造。

但現在 Deepfakes 正在從過去的色情範圍進一步擴大到了犯罪的世界,現在有一些犯罪分子使用 Deepfakes 來冒充公司的高層進行詐騙,目前他們使用的是 Deepfakes 的音訊而非影片來進行詐騙。

相關的技術其實早已經有所應用,比如網路上那些偽造的 Trump 講話,這一段喬登·皮爾「配音」的歐巴馬演講也堪稱經典案例。

作為一家網路安全公司,賽門鐵克表示已經發生了至少三起對私營企業成功的聲音詐騙,都是將自己偽裝成 CEO 的聲音要求財務進行緊急匯款。

當然,犯罪分子也為此做了很多訓練,用人工智慧偽裝聲音不必多說,他們還透過電話、Youtube 影片和 TED 演講影片來模仿該公司 CEO 說話習慣,在進行數小時的演練和計畫之後才會實施。

這三起詐騙讓每家公司都損失了數百萬美元,但公司的名稱目前並沒有被揭露,BBC 最先報導了這些攻擊事件。

顯然,Deepfakes 對企業的威脅是確實存在的,尤其是在已經有三起成功案例之後。但目前這樣的運用方法仍然只是「小兒科」的簡單手法,真正令人害怕的是這樣技術能用於更大的破壞。比如你想要拉低蘋果公司的股價怎麼辦,只要一份刻意偽造的音訊剪輯,並放出一些類似庫克私人談話等不利訊息,蘋果的股價恐怕很容易就能蒸發數十億美元。

然而目前並沒有非常好的方式去監測這些造假音訊,因為技術的越發成熟,這些 Deepfakes 的音影片製作正在變得越來越容易,同時破綻也越來越少。但絕大多數企業都對此沒有準備。

更糟糕的是,從行業上說,對於 AI 造假的媒體來說,目前來看尚沒有高效的檢測和抵禦解決方案。

技術方面,賽門鐵克表示他們正在開發檢測音訊造假的技術。購買第三方公司服務的話也同樣不便宜,New Knowledge 是一家幫助公司抵禦虛假訊息的公司,但它們的服務費用可能從 5 萬到數百萬美元不等。

而最讓人頭疼的是,當這些 AI 造假的影片被揭穿時,通常損失已經造成了。

  • 本文授權轉載自:ifanr

ADVERTISEMENT