AI 研究機構 OpenAI 開發出寫作AI:編寫出來的假新聞足以亂真

AI 研究機構 OpenAI 開發出寫作AI:編寫出來的假新聞足以亂真

據彭博社報導,馬斯克倡導成立的AI研究機構OpenAI週四展示一款軟體,只需要提供軟體一些訊息,它就能寫出逼真的假新聞。

OpenAI公佈了軟體編寫新聞的過程。研究人員為軟體提供如下訊息:「一節裝載受控核材料的火車車廂今天在Cincinnati被盜,下落不明。」以此作為基礎,軟體編寫出由7個段落組成的新聞,軟體還引述政府官員的談話,只不過這些訊息全是假的。

紐約大學電腦科學家山姆‧鮑曼(Sam Bowman)認為:「軟體根據提示產生的文本相當驚人,從品質上講,它所做的事比之前我們看到的複雜很多。」

假新聞引起人們的擔憂,OpenAI對此心知肚明,OpenAI政策主管傑克‧克拉克(Jack Clark)說:「它可以產生連貫但不準確的假訊息,其目的並不是很好。」

正因如此,OpenAI不會披露或者發佈軟體的複雜版本。它只是一個工具,讓政策制定者、記者、作家、藝術家用演算法做實驗,看看能編寫什麼出文本訊息,或者能否做其它事情。

目前假訊息正在蔓延,威脅全球科技產業,而軟體能夠編寫逼真的虛假新聞不是一個好消息。歐洲監管機關已經向科技企業發出警告,如果科技公司不採取強有力措施,防止產品影響選民意願,它們就會採取行動,自2016年美國大選以來,Facebook一直在努力,希望控制假訊息。

克拉克和鮑曼都認為,系統雖然很強大,但其能力沒有強到可以馬上帶來威脅。克拉克說:「這不是一項馬上能投入使用的技術,這是好事。」

OpenAI的工具是為了所謂的「語言建模」任務創造的,它要根據所有之前的單詞預測接下來的文本會是怎樣的,有點類似於我們在手機上寫郵件時自動補充文本訊息。它還可以用來執行翻譯、開放式問答任務。

OpenAI研究人員傑夫‧吳(Jeff Wu)舉例說,我們也許可以用工具幫助作家尋找創意或者產生對話。又例如,也許可以用工具檢查語法錯誤,查看軟體程式碼是否有漏洞。最佳化軟體之後,未來也許還能為企業或者政府決策者提煉總結性文字。

在過去一年裡,研究人員在語言處理方面取得巨大進步。去年11月,Google開發出一個強大的演算法BERT,它可以理解並回答問題。早些時候,艾倫人工智慧研究所也在自然語言方面取得突破,開發出一種名叫Elmo的演算法。

鮑曼認為,BERT和Elmo可以說是過去5年該領域最重大的突破,相比來說,雖然OpenAI演算法也很重要,但是革命性沒有BERT那麼強。

馬斯克是OpenAI的聯合創始人,不過去年他已經退出董事會。

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言

名明
1.  名明 (發表於 2019年2月19日 00:11)
這件事需值得注意:尤其是近年各國(包括中華民國)面臨假訊息不當操弄,以致干擾社會秩序及民主機制問題逐漸增加。如果敵方利用演算法或人工智能技術製造幾可亂真的新聞、圖片及影像(例如deepfake或上述寫作技術),大量製作及散佈惡質假訊息,不僅提高事實查核難度,後果可能不堪設想。

發表回應

謹慎發言,尊重彼此。按此展開留言規則