不少公司說自家的服務是 AI ,但其實背後是真人所假扮的 《衛報》撰文揭秘「假AI」」的興起。人工智慧近年來已經成為熱門關鍵字,走入大眾的眼中,有的科技公司也對外宣稱自己的服務是由人工智慧所驅動的,但實際上它們只是披著AI人工智慧外衣的人工服務。

不少公司說自家的服務是 AI ,但其實背後是真人所假扮的

打造一項由人工智慧驅動的服務並不容易。事實上,一些新創公司發現,讓人類像機器人一樣行動,比讓機器像人類一樣行動要來的更加便宜、更加容易。

「利用人來做事可以讓你跳過很多技術和業務發展方面的挑戰。很明顯,這不能規模化,但它允許你在建立起某種東西時,一開始就跳過極其困難的部分。」ReadMe的首席執行長Gregory Koberger(格雷戈里.柯伯格)說道。他說他遇過很多的「假AI」。

「這實際上是用人類來對AI進行原型設計。」他稱。

《華爾街日報》本周刊文提到了這種做法,文章中,談到那些被Google允許去窺探使用者信箱的數百名第三方應用程式開發者。

在聖荷西公司Edison Software的例子中,人工智慧工程師們瀏覽了數百名使用者(個人身份訊息經過處理)的個人電子郵件,以此來改良「自動回覆」功能。該公司沒有在其隱私政策中提到有人會查看使用者的電子郵件。

《華爾街日報》的文章中所談到的第三方,其實並非是第一人。 2008年,Spinvox公司被指控,利用在國外收發中心的員工,而不使用機器人的模式下,來完成將語音信件轉換為文字訊息的工作。

2016年,Bloomberg彭博新聞社也說過員工每天有12個小時,將自己假裝是X.ai、Clara等行程安排服務的聊天機器人,指出了這種困境。這種工作單調乏味讓人麻木,員工們都說他們期待著被機器人取代的那一天的到來。

2017年,商業費用的管理應用程式Expensify承認,它一直使用人工來處理它對外聲稱部分使用「智慧掃描技術(smartscan technology)」來完成收據轉錄的工作。那些收據的掃描照被發佈到Amazon的Mechanical Turk外包工作平台上,然後由上面的低薪工作者們瀏覽和抄錄那些收據的訊息。 

「我想知道Expensify的SmartScan使用者是否知道輸入他們收據資料的其實是MTurk的外包工作者。」外包工作者、Twitter上的勞工擁經濟護者Rochelle LaPlante (羅謝爾.拉普蘭特)說道,「我在查看某人的Uber收據,上面有他們的全名以及上下車的地址。 」

就連在人工智慧領域投入巨資的Facebook,也依賴人工來為其通訊應用軟體Messenger提供虛擬助手服務。

在一些情況中,人類被用來訓練人工智慧系統並提高它的準確性。一家名為Scale的公司,由一群人類員工提供自動駕駛汽車和其他人工智慧系統的訓練資料。例如,Scale員工將查看攝影機或感應器傳來的訊息,然後在畫面邊框為給汽車、行人和騎自行車的行人貼上標籤。有了足夠多的人工校準,人工智慧將學會識別這些物體。

在其他的情況中,企業會假裝能成功:告訴投資者和使用者它們已經開發出一種可擴展的人工智慧技術,但實際上它們是偷偷地依賴於人類智慧。

心理學家、Woebot(一種用於心理健康諮詢的聊天機器人)的創始人 Alison Darcy(艾莉森.達西)將該做法描述為「巫師般的設計技術」。

她說,這種方法不適用於像Woebot這樣的心理支援服務。 「作為心理學家,我們受到道德準則的約束。不欺騙別人顯然是其中一個倫理原則。」

研究表示,當人們認為自己是在和機器交談而不是與人交談時,他們往往更能敞開心胸,透露更多的訊息,因為尋求心理健康諮詢被人看作是一種見不得人的事。

來自南加州大學的一個團隊用一位名叫艾莉(Ellie)的虛擬心理治療師進行了測試。他們發現,當退伍軍人知道艾莉是一個人工智慧系統而不是有人在背後操縱機器時,他們更容易透露自己的症狀。

另一些人認為,公司應該對其服務的運作方式始終保持透明。

對於企業假稱利用人工智慧提供服務但實際上是由人類提供的做法,Rochelle LaPlante(羅謝爾.拉普蘭特)說,「我不喜歡那樣做。對我來說,那感覺是不誠實的,具有欺騙性的,我可不希望我使用的服務出現這樣的情況。」

「從工作者的角度來看,感覺我們像是被推到了幕後。我不希望自己的勞動力被會對客戶說謊的公司所利用。」

這種道德窘境也讓人聯想到那些假裝是人類的人工智慧系統。最近的一個例子是Google的機器人助手Google Duplex,它可以用「嗯」和「呃」等語氣詞,來進行極其逼真的電話通話,代人完成預約和預訂的事情。

在最初引發極大的爭議之後,Google說它的人工智慧會向電話另一端的人類表明自己的身份。

Alison Darcy說,「在他們的示範的版本中,在低度影響的對話中,感覺有點欺騙性。儘管預訂餐廳座位可能看起來是一種沒什麼大不了的互動,但同樣的技術如果落入壞人手中,操控性可能會大得多。 」

例如,如果你能模擬某位名人或政治家的口音,在電話通話中表現得像是真人一樣,會發生什麼樣的事情呢? 

Alison Darcy(艾莉森.達西)指出,「人工智慧已經讓人產生了很大的恐懼,在缺乏透明度的情況下,它並不能真正幫助人類進行對話。」

資料來源:The rise of 'pseudo-AI': how tech firms quietly use humans to do bots' work

本文授權轉載自網易科技

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則