《紐約時報》揭秘 Facebook 內容清理工作:「累死 AI」都完成不了的任務

《紐約時報》揭秘 Facebook 內容清理工作:「累死 AI」都完成不了的任務

最近一系列的醜聞讓社群網路巨頭Facebook坐在了火山口上。平台是中立的,不能干涉使用者生成內容再也不能成為藉口。但是20億使用者每天產生的內容量要想清理簡直是天方夜譚。哪怕使用了AI加以輔佐,也總會有AI意想不到的情況出現。Cade Metz與Mike Isaac在《紐約時報》的一篇文章報導了Facebook內容清理方面的努力。

 

《紐約時報》揭秘 Facebook 內容清理工作:「累死 AI」都完成不了的任務

有那麼半小時,我們是坐在Facebook總部的一個會議室裡的。周圍都是白板,上面放滿了藍色和紅色記號筆,我們在討論從該社群網路剔除有害內容的技術難度。然後我們調出了一段影片證明這種挑戰是難以對付的:紐西蘭基督城的槍擊案。

今年3月,一名槍手在2個清真寺射殺了51人,而且還在Facebook上進行影片直播。公司用了大概1個小時才把影片從網站清除。不過此時血腥鏡頭已經在社群媒體上傳播開了。

史科洛普夫(Schroepfer)沉默了。他的眼裡好像有東西在閃。

一分鐘後,他試圖保持鎮靜的語氣:「我們現在正致力於此事。這不會是一夜之功。但是我不希望6個月後再來一次這場對話。我們可以做得比這好得多。」

問題是此話當真還是Facebook只是在開玩笑。

過去3年,這個社群網路就一直因為有人在其網站上發佈虛假、誤導和不合適的內容的擴散而受到審查。CEO祖克伯已經使用了一項技術,據他說可以幫助消除有問題的文章:人工智慧。

去年,在國會面前,祖克伯作證說Facebook正在開發基於機器的系統來「辨識特定類別的不良活動」,並且宣佈「在5到10年內,我們將擁有AI工具」來偵測和移除仇恨言論。此後他就不斷在媒體、與華爾街的電話會議及Facebook自己的活動上重複這些話。

史科洛普夫——或者大家都叫他Schrep——就是Facebook的專案負責人。他要帶領團隊開發對數百萬此類文章進行分類和刪除的自動化工具。但是這項任務就像薛西弗斯推石頭上山一樣——是徒勞的,他在最近接受的3次採訪中均承認了這一點。

這是因為每次史科洛普夫和他的超過150名工程專家剛做出標記和清理有害內容的AI解決方案時,AI系統沒見過的新的、可疑文章(因此也就抓不到)又冒頭了。再加上「不良活動」往往是旁觀者的看法,而且不要說機器了,就連人類對它是什麼也意見不一致,這使得這項任務更加困難。

在一次採訪中,史科洛普夫被迫承認光靠AI沒法治好Facebook的病。他說:「我的確認為現在進入了收尾的階段。」但「我並不認為『一切均已解決』,可以收拾東西回家了。」

但是壓力還在。過去的一週,在基督城的影片飽受批評之後,Facebook修改了政策,對串流媒體服務的使用進行了限制。週三在巴黎出席有法國總統馬克宏和紐西蘭總理傑辛達‧阿爾登參與的峰會時,該公司簽署了一份保證書,承諾對其用於辨識暴力內容的工具進行重新檢查。

44歲的史科洛普夫現在處在一個自己永遠都不想坐的位置。多年來,他的工作一直都是幫助Facebook建設和一流的AI實驗室。在這裡,最聰明的頭腦將解決利用機器從照片中選出人臉等技術挑戰。他和祖克伯希望做出一個可以跟Google,這個被廣泛視為AI研究人員實力最雄厚的公司匹敵的AI部門。所以他從紐約大學、倫敦大學以及巴黎第六大學招聘博士。

但慢慢地,他已經變成了威脅和有害內容消除者的角色。現在,他和他招進來的人很多時間都花在利用AI辨識和刪除死亡威脅、自殺影片、錯誤訊息以及徹底謊言上面了。

John Lilly是Moziila前CEO,現在是Greylock Partners的風投家,1990年代中期時曾與史科洛普夫一起讀電腦科學。她說:「我們誰都沒見過這樣的事情。該怎麼解決這些問題沒人任何人可以求助。」

Facebook允許我們跟史科洛普夫交流,因為它想展示一下AI是怎麼捕捉那些討厭的內容的,大概也是因為它對人性化自己的主管感興趣。據很多認識他的人說,這位CTO經常展現他的感受。

Jocelyn Goldfein就跟Schroepfe在Facebook共事過。前者是Zetta Venture Partners的風投家,他作證說:「我見過Schrep在工作中哭過,我不認為說這樣的話是不合時宜。」

但是沒幾個人能預測到史科洛普夫對我們的問題會作何反應。在其中2次採訪中,對於AI可能會是解決方案他開始傳遞的是樂觀的訊息,然後就變得情緒化。他一度說有時候來上班都是一種掙扎。每次談到Facebook所面臨的問題規模以及他所擔負的要改變局面的責任時,他都會哽咽。

談到那些有問題的文章時他說:「永遠都不可能降到0。」

「多麼沉重的負擔,多麼巨大的責任啊。」

2013年12月的一個星期天,Clément Farabet走進了內華達塔霍湖Harrah賭場酒店的這家頂樓套房。在裡面,他受到了史科洛普夫和祖克伯的歡迎。

扎克沒有穿鞋。接下來的30分鐘裡,這位CEO穿著襪子來回踱步,一邊跟紐約大學AI研究人員Farabet交談。祖克伯稱AI是「下一個大事物」,是「Facebook的下一步」。史科洛普夫則坐在沙發上,偶爾插插話來強調某一點。

他們到城裡來是為了招募AI人才。那一年塔霍湖是NIPS(神經訊息系統處理大會)的舉辦地。而NIPS是專業的AI學術會議,每年都會吸引全球的頂級研究人員到來。Facebook管理層已經引進了Yann LeCun,這名紐約大學學者被認為是現代AI運動之父之一,被招進來後他創立了Facebook的AI實驗室。把LeCun看作自己的導師的Farabet也在他們的最後人選當中。

說到祖克伯,Farabet說:「他基本上誰都想要。他知道這一塊的每一位研究人員的名字。」

那段時間是Facebook令人陶醉的日子,然後他們的軌跡和AI工作的使命開始改變了。

當時,從Google到Twitter,矽谷最大型的科技公司都在爭相成為AI的中堅。這種技術已被網路公司摒棄了多年。但在大學,像LeCun這樣的研究人員已經悄悄地培育出名為「神經網路」的AI系統,這種複雜的數學系統可透過分析巨量資料自行學習任務。出乎矽谷許多人的意料,這些晦澀且多少有些神秘的系統終於開始工作了。

史科洛普夫和祖克伯希望把Facebook推入到這場競爭當中,把這一迅速改進的技術視為公司必須抓住的東西。AI可以幫助該社群網路辨識發佈到網站上面的照片和影片中的人臉,史科洛普夫說,而且還可以用來進行更好的定向廣告,組織其新聞流,並進行語言翻譯。AI還可以用來提供像「聊天機器人」這樣的數位電子產品,讓企業跟客戶進行互動。

史科洛普夫說:「我們打算招募全世界最好的人才。我們要建設新型的研究實驗室。」

從2013年開始,史科洛普夫就一直在招募專長神經網路的研究人員,當時該領域的明星酬金都是數百萬甚至上千萬美元(4、5年期)。在2013年的那個星期天,他們並沒有成功招到Farabet,後者後來自己創辦了一家AI初創企業,隨後被Twitter收購了。但史科洛普夫從Google、NYU以及蒙特利爾大學等處挖來了幾十名頂級研究人員。

史科洛普夫還組建了第二個組織,應用機器學習團隊,任務是將Facebook  AI實驗室的技術轉化為現實世界的應用,比如臉部辨識、語言翻譯以及增強現實工具等。

2015年底,部分AI工作開始轉化。催化劑是巴黎恐襲。在那場襲擊中,伊斯蘭激進分子殺死了130人,並導致500人受傷。事後,據匿名人士透露,祖克伯問應用機器學習團隊Facebook可以怎樣去打擊恐怖主義。

作為回應,該團隊利用新的Facebook AI實驗室內部開發的技術來建設一套辨識在該社群網路上宣傳恐怖主義的系統。該工具會對Facebook裡面提到了伊斯蘭國或者基地組織的文章進行分析,然後把那些最有可能違背公司反恐政策的文章標記出來。然後再對文章進行人工審核。

這是Facebook利用AI查貼刪貼的轉折點。

這項工作很快就有了強勁的發展勢頭。2016年11月,川普當選美國總統,大家對Facebook網站成為虛假訊息的溫床開始抵制,因為那些虛假訊息可能影響到投票並且為川普的勝選打下基礎。

儘管該公司已開始否認自己在虛假訊息傳播和選舉中所扮演的角色,但仍開始在2017年初將技術資源轉移到自動辨識廣泛的有害內容上,包括裸露照片和假帳號等。它還設立了幾十個「防垃圾(integrity)」職位,專門來跟網站不同板塊的有害內容奮戰。

到2017年中,有害內容檢測已經成為了應用機器學習團隊工作的重心。史科洛普夫說:「我們的內容理解工作的頭號優先事項顯然是誠信。」

然後,到了2018年3月,紐約時報等報導了英國政治諮詢機構劍橋分析在未經同意的情況下收割來數百萬Facebook使用者的訊息,然後為川普的競選團隊提供投票人的檔案訊息。對該社群網路的怒火開始爆發了。

很快史科洛普夫就被叫過去處理這起事件。2018年4月,他被指定為主管飛到倫敦面對英國的一個議會委員會,去回答對方有關劍橋分析醜聞的質疑。在那裡,他被議會委員會的成員拷問了4個小時。

向全球直播的聽證會期間,工黨Ian Lucas對著面色鐵青的這位主管發問:「史科洛普夫先生,你的老闆是不是誠信的?我仍然不相信你的公司具有誠信。」

Forest Key是虛擬實境初創企業Pixvana的CEO,兩人自從1990年代末一起在一家電影效果技術初創企業共事以來就認識了。他說:「我很難看得下去。這是多麼沉重的負擔啊。這是多麼巨大的責任啊。」

用AI來牽制Facebook的內容問題的挑戰仍在繼續——史科洛普夫的擔子很重。

「勸說工程師不要打退堂鼓」

剛到Facebook的時候,史科洛普夫被看作是問題解決者。

史科洛普夫從小在佛羅里達德爾雷比奇長大,他的父母經營著一個1000瓦的調頻電台,先是放搖滾樂,後來又換成R&B,1993年,史科洛普夫搬到了加州上史丹佛。他在那裡大學和研究所讀的都是電腦科學,跟Lilly和Adam Nash(現為Dropbox的高層)這些技術專家混在一起。

畢業後,史科洛普夫待在矽谷,開始一段痛苦的技術事業。他先是在一家電影效果初創企業嶄露頭角,之後又成立了一家為大規模資料中心開發軟體的公司,那家公司隨後被Sun Microsystems收購。2005年,他加入了Mozilla擔任工程副總裁。這家非營利組織的瀏覽器挑戰了微軟IE瀏覽器的壟斷。當時,沒有什麼技術任務比他們的專案要大。

Mozilla聯合創始人Mike Shaver曾跟史科洛普夫共事過幾年,他說:「瀏覽器是複雜產品,當時的競爭格局很不可思議。甚至在他的職業生涯早期,我對他的處理能力也從來都沒懷疑過。」

2008年,Facebook聯合創始人Dustin Moskovitz從工程負責人的位置退下。史科洛普夫加盟接管了他的角色。當時Facebook服務的使用者約為200萬人,他的工作是保證網站在使用者數暴漲的情況下不間斷運行。這份工作涉及到管理成千上萬的工程師,以及全球數以萬計的電腦伺服器。

史科洛普夫說:「大部分的工作就像是著火的巴士正在從山上滾下來但4個輪子都扁了。問題是怎麼讓它繼續走。」他的的一天很大一部分是「跟工程師談話讓他們冷靜下來,不要衝動想不幹」因為他們整天都在處理問題。

接下來的幾年,他的團隊開發了一系列的新技術來泡那麼大的一個服務(Facebook現在的使用者已經超過20億)。他們推出了新的程式編輯工具幫助公司更快更可靠地把Facebook交付到筆電和手機上。它引入了定製伺服器到資料中心,讓龐大的伺服器電腦網路運營變得流暢。到最後,Facebook顯著減少了服務中斷。

史科洛普夫說:「我已經不記得上一次跟因為擴充問題而筋疲力盡的工程師對話是什麼時候了。」

因為這些努力,史科洛普夫的責任也越來越大。2013年,他被提拔為CTO。他的工作變成了著眼未來,跟蹤公司應該探索的新的技術領域。想知道他的角色有多重要?他的辦公桌就在祖克伯的旁邊,夾在這位CEO與COO Sheryl Sandberg中間。

關於史科洛普夫,祖克伯說:「他是公司很多人如何思考和運營的很好代表。Schrep的超級能力可以跨不同問題領域教導和建設團隊。我還沒跟其他任何能夠像他那樣做到這一點的人共事過。」

所以,毫不奇怪祖克伯會找到史科洛普夫去處理Facebook上所有那些有害內容。

花椰菜 vs. 大麻

最近的一個下午,在一間Facebook的會議室,史科洛普夫從他的筆電電腦裡取出了兩張圖片。一張是花椰菜的圖片,另一張是聚成一團的大麻花蕾。每個人都盯著這些圖片。有的不大敢確定哪個是哪個。

史科洛普夫展示這些圖片是想說明一點。即便是我們當中的一些人分辨都有困難,但現在Facebook的AI系統能夠從成千上萬中圖像中找出模式,進而自行分辨大麻的蓓蕾。一旦AI標記出大麻圖片,其中很多都是附加在Facebook廣告上,利用圖片透該社群網路賣大麻的,公司就會找出來刪掉。

史科洛普夫說:「現在我們可以主動逮住這類東西了。」

問題在於大麻與花椰菜之對決不僅是進展的訊號,也是Facebook遭遇限制的標誌。史科洛普夫的團隊已經開發出公司用於辨識和移除大麻圖片、裸體及恐怖分子相關內容的AI系統。但是那些系統不能把那些圖片全都揪出來,因為總會有預想不到的內容出現,意味著還是會有數百萬裸體、大麻相關以及恐怖分子相關的文章繼續進入到Facebook使用者的視線。

辨識不雅圖片也是AI較為容易的任務之一。建造辨識假新聞或者仇恨言論的系統會更困難。假新聞很容易就能塑造成看似真實的樣子。仇恨言論也有問題,因為機器辨識語言的微妙差別實在是太難了。很多微妙差異會因語言而異,而對話的上下文也會快速地演變,導致機器難以跟上。

AI Foundation是一家探索人工智慧如何與虛假訊息戰鬥的非營利組織。其研究負責人Delip Rao把這一挑戰說成是「一場軍備競賽。」AI是根據之前出現的東西搭建的。但沒有任何東西可學的情況太常見了。行為改變。攻擊者創造出新技術。顯然,這是一場貓捉老鼠的遊戲。

Rao說:「有時候你比那些導致傷害的人領先一步。有時候他們在你的前頭。」

那個下午,史科洛普夫試圖用資料和數字回答我們有關貓捉老鼠遊戲的問題。他說Facebook現在自動移除了該社群網路96%的裸體內容。仇恨言論更棘手一點,他說——公司目前只捕捉到其中的51%(Facebook後來說提高到65%了)

史科洛普夫承認軍備競賽元素的存在。他說,儘管Facebook可自動檢測和移除有問題的直播影片流,但並沒有辨識出3月份紐西蘭的影片,因為這段影片跟過去任何上傳到該社群網路的內容都不一樣。這段影片用的是第一人稱視角,就像電腦遊戲一樣。

在設計辨識圖像暴力的系統時,Facebook一般都要後向拿現有圖像進行處理——那些踢貓的人,狗攻擊人,汽車撞上行人,一個人拿棒球棒揮向另一人等的圖片。但是,他說:「那些跟這個影片均無太多的相似之處。」

那次槍擊影片的新穎性正是它之所以令人如此震驚的原因,史科洛普夫說。「這也是它沒有馬上被標記出來的原因。」,並且補充說自己看了那段影片好幾次,以弄清楚Facebook下次可以如何去辨識出來。

最後他說:「我真希望自己沒看過那些東西。」

 

36Kr
作者

36氪(36Kr.com)累計發表超過10.8萬條包含圖文、音訊、影片在內的優質內容。氪原創內容體系涵蓋新創公司、大公司、投資機構、地方產業與二級市場等內容模組,設置有快訊、深度商業報導

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則