反思 Youtube 演算法:現有內容推薦演算法最終可能刪掉你的人格 先前,一位知名Youtuber洛根‧保羅(Logan Paul),在日本以自殺聞名的森林中偶然發現了一個掛在樹上的死人。一開始剛剛22歲的他顯然被嚇到了,然後他竟然被這一情形逗樂了。「夥計,他的手是紫色的,」他說,然後轉向他的朋友們咯咯地笑。「你從來沒有站到過一個死人旁邊吧?」

保羅的 YouTube 頻道有1600萬名青少年用戶訂閱,24小時後,他在激烈的討伐聲中將影片刪除。在這段時間內,影片獲得了600萬的點擊量,並且在 YouTube 上令人垂涎的熱門影片排行榜上佔據了一席之地。

第二天, YouTube 上就出現無數這個影片的「複製」版。然後你可以點擊影片播放器右側展示的推薦影片縮圖, 這種預設自動播放的機制,是為了引誘我們在 Google 的影片廣播平台上花更多的時間。這個影片在Youtube的演算法機制下,會把你引向何方呢?

答案是一系列關於男人嘲笑洛根‧保羅青少年粉絲的影片,接著是閉路電視監控系統(CCTV)裡孩子們偷東西的鏡頭,幾段是影片之後,是孩子們用奇怪的自制的小玩意兒拔掉牙齒的影片。

最後的一個影片是兩個男孩,大約五六歲, 互相拳打腳踢。

「我要把它傳到 YouTube 上,」一個十幾歲的女孩說,聲音聽起來像是她的姐姐。「轉過身去,狠狠地揍那個小男孩。」他們扭打了幾分鐘,直到一個人把對方的牙齒打掉了。

人工智慧演算法驅動下的推薦系統

世界上有15億的 YouTube 用戶,遠遠超過了擁有電視的家庭數量。他們觀看的影片是由演算法塑造的,這個演算法掃瞄並排列了數十億的影片,來確定用戶「接下來」的20個影片片段,這些影片都與之前的影片有關聯,從統計數據上來看,也極有可能是為了讓人著迷。

Youtube 演算法是 YouTube 增長的最重要的引擎。關於這個演算法如何運作的公開解釋並不多,一篇學術論文概述稱,這個演算法背後的深層神經網絡,分析了大量關於影片的數據和觀看者的數據——YouTube 的工程師將其描述為「現存規模最大和最複雜的工業推薦系統」之一。

最近,它成為了最具爭議性的話題之一。這個算法被發現是在宣揚有關拉斯維加斯大規模槍擊案的陰謀論,並通過推薦來激勵發展一種次文化,這種次文化以兒童為目標,內容令人不安。例如, 利用兒童喜愛的卡通角色散布不安的內容影片。

充滿猥褻和暴力的影片也已經被演算法分發到了專門針對兒童的應用服務 YouTube Kids 上。 一位 YouTube 創作者被禁止從他那些奇怪的影片中獲得廣告收入——這些影片描述了他的孩子接受流感疫苗、去除耳垢和為死去的寵物哭泣。他告訴記者,這一切都是在迎合谷歌的演算法。「這是讓我們突破粉絲圈,並獲得大量觀看的方式,」他說。「我們學會了怎麼利用演算法,並盡一切努力來取悅演算法。」

谷歌對這些爭議做出了「打地鼠」式的回應:擴大人類審查員的數量,刪除記者所發現的那些令人不快的 YouTube 影片,並將創建這些影片的頻道降級。但這些都沒有削弱人們的擔心,即人工智慧給 YouTube 帶來了巨大的負面影響。

如果 YouTube 的推薦演算法真的進化到能夠分發更多的令人不安的內容,那麼這是怎麼發生的呢?

「就像現實一樣,但是歪曲了」

要回答這些問題並不容易。像所有大型科技公司一樣,YouTube 不允許我們看到影響我們生活的演算法。它們是秘密的公式,有專門的工程師被委託來處理這個演算法。擁有人工智慧博士學位的36歲法國程序設計師紀堯姆‧查斯洛特就是其中之一。

在谷歌工作的三年時間裡,他和一個 YouTube 工程師團隊一起工作了幾個月,他們正在研究推薦系統。這段經歷讓他得出結論,YouTube 研究出的演算法的優先級是有危險的。

「YouTube 上的東西看起來就像現實,但這裡面的現實被扭曲了,讓你花更多的時間在網上。」他表示。「推薦演算法似乎並沒有為民主的真實、平衡或健康而優化。」

查斯洛特解釋說,演算法永遠不會保持不變。它不斷地改變它給不同信號的權重:例如,用戶的觀看模式,或者在有人點擊之前影片被觀看的時間長度。

與他一起工作的工程師負責不斷嘗試新的公式,延長人們觀看影片的時間來增加廣告收入。「觀看影片的時間是優先考慮的事,」他回憶道。「其他的一切都被認為是一種干擾。」

2013年,谷歌解僱了查斯洛特,表面上因為效率問題。他堅持認為,自己之所以被解僱,是因為在公司內部與志同道合的工程師合作,提出可以讓人們看到的內容多樣化的變革。

他尤其擔心的是,過分關注向人們分發他們不可抗拒的影片,會扭曲現實,並創造出過濾泡沫,因為演算法只是向人們展示能夠強化他們現有世界觀的內容。他說,他提出的修複方案沒有被採納。

「YouTube 可以有多種方式改變演算法,以抑制虛假新聞,提高人們看到的影片質量和多樣性,」他表示。「我試著從內部改變 YouTube,但沒有任何作用。」

YouTube 表示,在2016年,該公司開始考慮用戶的「滿意度」,例如,通過調查,或者觀察一段影片收到多少「讚」,以「確保人們對他們觀看的內容感到滿意」。YouTube 補充說,在2017年還實施了一些額外的措施,以改善搜索和推薦內容中出現的新聞內容,並阻止推廣含有「煽動性的宗教或至上主義」內容的影片。

但該公司並沒有說2006年收購 YouTube 的谷歌為什麼要等10年才做出這些改變。查斯洛特認為,這種改變主要是表面上的,並沒有從根本上改變演算法中演化出來的一些令人不安的偏見。在2016年夏天,他建立了一個程式來進行調查。

查斯洛特寫這個程式的初衷是為 YouTube 不透明的推薦引擎,來研究他是怎麼運作的。這個程式模擬了一個用戶的行為,他從一段影片開始,然後按照一系列推薦影片進行操作,來追蹤數據。

這個方式就是透過一個單詞找到影片,這個影片就是你的「種子」影片,並記錄下 YouTube 在「下一個」欄目中推薦的幾層影片。它沒有瀏覽歷史記錄,確保被檢測到的影片是 YouTube 的一般性推薦,而不是個性化的推薦。它重複了上千次這個過程,積累了大量關於 YouTube 推薦的數據,從而建立了 YouTube演算法的偏好圖。

在過去的18個月裡,查斯洛特利用這個程式探索了 YouTube 在法國、英國和德國的選舉、全球變暖和大規模槍擊事件中分發的影片的偏見,並在他的網站 Algotransparency.org 上發表了他的研究成果。每項研究都發現了一些不同的東西,但研究表明YouTube的推薦系統放大了那些引起分裂、轟動和陰謀的影片。

當他的程式搜尋「誰是米雪兒‧歐巴馬(Michelle Obama)」的問題找到了一個種子影片後。「下一個」欄目中的推薦影片中,大多數都說她「是個男人」。關於教皇的影片中,有超過80%的影片將這位天主教領袖描述為「邪惡的」或「反基督者」。上傳到 YouTube 上的影片數以百萬計, 以滿足演算法對聲稱地球是平的內容的興趣。「在 YouTube上,小說超越了現實,」查斯洛特說。 

反思 Youtube 演算法:現有內容推薦演算法最終可能刪掉你的人格

他認為,最令人震驚的例子之一是他在2016年總統大選前發現的。正如他在川普(Donald Trump)當選後發表的一篇短文中所指出的,在總統競選期間,YouTube 推薦演算法的影響並不是中性的:它分發的影片主要對特朗普有利,對希拉蕊‧克林頓(Hillary Clinton)不利。

「這很奇怪,」他向我解釋道。「無論你從哪裡開始,無論搜川普還是搜索克林頓,推薦演算法都更有可能將你推向支持特川普的方向。」

因為在三個搖擺州獲得了8萬張選票,川普贏得了大選。在美國有超過1.5億 YouTube 用戶。在查斯洛特的 Youtube 推薦選舉影片資料庫中,這些影片在2016年11月的投票前,總共被觀看了超過30億次。

哪怕在影片中出現一點小小的偏見也是有意義的。「塑造我們所看到內容的演算法會產生很大的影響,尤其是對那些還沒有做出決定的人,」

牛津大學數位倫理實驗室的教授盧西亞諾‧弗洛裡迪(Luciano Floridi)說,他專門研究人工智慧的倫理問題。「溫柔、含蓄、安靜的推動,會讓我們逐漸走向我們原本可能無法做出的選擇。」

 

 

Youtube的回應

「我們非常尊重衛報作為新聞媒體和機構的地位,」YouTube 的發言人表示。「然而,我們強烈反對使用這種方法論、數據,以及他們的研究得出的結論。」

這位發言人補充道:「我們的搜尋和推薦系統反映了人們搜尋的內容、可用的影片數量以及人們在 YouTube 上觀看的影片。這並不是對某一特定候選人的偏見,而是反映了觀眾的興趣。」

這是一個奇怪的回應。YouTube 似乎是在說,它的演算法是對使用它的人的慾望的中立反映——如果我們不喜歡它所做的事情,我們也有責任。YouTube 怎們能將其解讀成「觀眾的興趣」——而不是「人們選擇觀看的影片」是否會受到該公司分發的影響?

如果有選擇,我們可能會本能地點擊一段在日本森林中死去男子的影片,或者是一段假新聞,聲稱比爾克林頓強姦了一名13歲的男孩。但那時的衝動真的反映了我們想要得到的內容嗎?

幾個月前,社會學家圖費克奇對 YouTube 可能對選舉產生的影響發出了警告。他表示,YouTube 的推薦系統很可能已經發現,令人不安和充滿仇恨的內容正在吸引人們的關注。「這有點像學校裡的自助販賣餐廳,發現孩子們已經有蛀牙了,而且還喜歡高脂肪和高鹽的食物。」她說:「所以餐廳依舊提供這樣的食物,當年輕人面前的薯片或糖果被吃掉的時候,就自動裝上。」

然而,一旦這種情況恢復正常, 那麼在某種程度上更加前衛或怪誕的東西就會變得更加新奇和有趣。圖費克奇說,「因此,食物中糖、脂肪和鹽的含量越來越高——這是人類天生渴望的東西——而 YouTube 推薦的影片和自動播放的影片變得越來越怪誕或充滿仇恨。」

但是,這些怪誕的影片是怎麼讓一個候選人受益的呢?這取決於候選人。如果川普的精選不是那麼怪誕的話,就沒有什麼意義了。圖費克奇指出,有研究表明,「錯誤信息」在大選前很大程度上是反克林頓的。她說,「虛假新聞提供者」發現,與支持克林頓的影片相比,假的反克林頓材料在支持川普上的表現要好得多。

她補充道:「擺在我們面前的問題是,促使人們進入充滿了錯誤和謊言的兔子洞的道德規範,僅僅因為它能增加人們在網站上花費的時間——而且確實有效。」

 

 

查斯洛特不僅讓人們注意到隱藏在幕後的一系列反克林頓的陰謀影片。他的研究也做了一些更重要的事情:揭示我們的生活是如何被人工智慧所調節的。

在不到一代人的時間之前,選民們對政客的看法主要是由成千上萬的報紙編輯、記者和電視台高管塑造的。如今,大型技術平台背後隱藏的代碼已經成為新的王者。

原文鏈接:https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則