你接到的老闆電話可能並不是真的,而是 AI 的新詐騙

還記得去年在色情行業掀起一陣風暴的 Deepfakes 嗎,透過 AI 神經網路和演員的照片,反覆進行機器學習之後,就能讓 AI 自動辨識和替換掉影片裡某人的臉部資料。

後來 bilibili 也掀起了一陣「萬物皆可徐錦江」的熱潮,比如雷神和海王,乃至很多的經典電影的片段都出現了徐錦江的臉,甚至其中還包括《新白娘子傳奇》裡的白素貞。

你接到的老闆電話可能並不是真的,而是 AI 的新詐騙

這一次花式操作確實秀,也讓更多人瞭解了什麼是 Deepfakes 和 AI 換臉。

現在,「Deepfakes」已經泛指那些被人工智慧改變過的媒體內容,只要是某人沒有做過的事被 AI 做出來都可以認為是 Deepfakes,而且不止是影片,音訊同樣也可以透過 AI 來偽造。

你接到的老闆電話可能並不是真的,而是 AI 的新詐騙

但現在 Deepfakes 正在從過去的色情範圍進一步擴大到了犯罪的世界,現在有一些犯罪分子使用 Deepfakes 來冒充公司的高層進行詐騙,目前他們使用的是 Deepfakes 的音訊而非影片來進行詐騙。

相關的技術其實早已經有所應用,比如網路上那些偽造的 Trump 講話,這一段喬登·皮爾「配音」的歐巴馬演講也堪稱經典案例。

你接到的老闆電話可能並不是真的,而是 AI 的新詐騙

作為一家網路安全公司,賽門鐵克表示已經發生了至少三起對私營企業成功的聲音詐騙,都是將自己偽裝成 CEO 的聲音要求財務進行緊急匯款。

當然,犯罪分子也為此做了很多訓練,用人工智慧偽裝聲音不必多說,他們還透過電話、Youtube 影片和 TED 演講影片來模仿該公司 CEO 說話習慣,在進行數小時的演練和計畫之後才會實施。

你接到的老闆電話可能並不是真的,而是 AI 的新詐騙

這三起詐騙讓每家公司都損失了數百萬美元,但公司的名稱目前並沒有被揭露,BBC 最先報導了這些攻擊事件。

顯然,Deepfakes 對企業的威脅是確實存在的,尤其是在已經有三起成功案例之後。但目前這樣的運用方法仍然只是「小兒科」的簡單手法,真正令人害怕的是這樣技術能用於更大的破壞。比如你想要拉低蘋果公司的股價怎麼辦,只要一份刻意偽造的音訊剪輯,並放出一些類似庫克私人談話等不利訊息,蘋果的股價恐怕很容易就能蒸發數十億美元。

你接到的老闆電話可能並不是真的,而是 AI 的新詐騙

然而目前並沒有非常好的方式去監測這些造假音訊,因為技術的越發成熟,這些 Deepfakes 的音影片製作正在變得越來越容易,同時破綻也越來越少。但絕大多數企業都對此沒有準備。

更糟糕的是,從行業上說,對於 AI 造假的媒體來說,目前來看尚沒有高效的檢測和抵禦解決方案。

技術方面,賽門鐵克表示他們正在開發檢測音訊造假的技術。購買第三方公司服務的話也同樣不便宜,New Knowledge 是一家幫助公司抵禦虛假訊息的公司,但它們的服務費用可能從 5 萬到數百萬美元不等。

而最讓人頭疼的是,當這些 AI 造假的影片被揭穿時,通常損失已經造成了。

  • 本文授權轉載自:ifanr

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則