無人機變殺人武器,專家示警:AI濫用5年內看得到 上個月20日,春節假期的最後一天,一份名為「人工智慧的惡意使用:預測、預防和減輕」(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)報告,在國外媒體傳布開來。

包括牛津、劍橋、史丹佛、耶魯等英美頂尖學府的學者們,以及來自特斯拉(Tesla)執行長 Elon Musk 創辦的 OpenAI、電子前線基金(Electronic Frontier Foundation)、資安公司 Endgame 和美國安全智庫的政策制定者,一共26位 AI 領域專家,聯合發布這份報告。洋洋灑灑近百頁的內容,當中明白闡述,隨著人工智慧的快速發展和使用門檻降低,各種技術可能被有心人士惡意使用,在未來5年內,即會對數位世界、人身安全和政治等領域構成威脅。

無人機變殺人工具,濫用AI後果不堪設想

報告中指出,包括無人機、虛假影音和駭客攻擊,將是有心人士惡意使用人工智慧最普遍的三大途徑。

舉例來說,孤狼式攻擊者只要一台無人機,運用臉部辨識軟體強加訓練後,就可以鎖定特定人物攻擊,把無人機變成殺人工具。而透過機器學習,自動放送的虛假或不雅影音內容,人們很難分辨其真實性,可能被用於政治抹黑,操控公眾輿論。

無人機變殺人武器,專家示警:AI濫用5年內看得到
▲無人機被 AI 訓練後,也可能成為孤狼式攻擊者的殺人工具。
圖片來源:ShutterStock

惡意駭客也可能利用 AlphaGo、各類開源平台上的技術,找出海量數據組成的規則或漏洞,藉此破解密碼,竊取個人機密資料;或是使用 AI 語音合成來模擬目標,移花接木影音和圖片內容等,如日前在網路論壇 Reddit 發生的「換臉」製作假影片事件。

劍橋大學「存在風險研究中心」(Centre for the Study of Existential Risk)專家 Shahar Avin 表示,這些預測並非存在遙遠的未來,而是在未來5年內隨時都有可能發生,該報告進一步示警,隨著 AI 發展成熟,可能被流氓國家、罪犯和恐怖分子利用。

「存在風險研究中心」執行主任 Seán Ó hÉigeartaigh 是這份報告的共同撰寫人之一,他強調,人工智慧將改寫眾多領域的遊戲規則,「我們正身處在一個恐因濫用 AI 而淪陷的世界,這些風險都是真實的,我們必須面對這些問題,盡快做出選擇。」而這份報告就是呼籲全球各政府、機構和相關人士採取行動。

事先設想新技術負面影響,降低AI使用風險

對此,該報告提出四點建議。首先,政策制定者和 AI 專家應共同合作,徹底掌握可能的惡意利用。第二,雖然 AI 帶來很多正面的應用,但它就像一把雙面刃,人工智慧研究員和軟體工程師應預先推敲其被誤用的可能性,在開發階段就設下保護機制。

第三,從歷史經驗中汲取教訓,像是資安、電腦科學等,歸納出新技術帶來的負面影響。第四,積極擴大並拉攏相關產業利益者,以預防和減輕惡意使用 AI 的風險。

報告也提到,AI 正帶來全新的安全漏洞,虛擬與實體皆然,各國政府應盡速制訂相關法律,跟上時代需求。而個別使用者方面,除非已徹底了解 AI 新技術、新產品的風險性,否則不要貿然的傳播或分享。

牛津大學未來人類研究所(Oxford University's Future of Humanity Institute)研究員 Miles Brundage 表示,人工智慧將徹底改寫公民、企業組織和國家所面臨的風險,像是成為駭客犯罪時的訓練工具、介入隱私的管道等,對人類安全帶來顛覆性的影響。但他強調,雖然 AI 潛藏不少負面效應,但考量其帶來的正面助益,發展 AI 仍有其必要性。

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則