Facebook內部管理員手冊遭曝光,告訴你哪些言論及圖片會被臉書官方刪除

Facebook內部管理員手冊遭曝光,告訴你哪些言論及圖片會被臉書官方刪除

Facebook擁有數千名管理員,用來管理每天用戶發布的訊息是否違反官方的政策。不過,Facebook對於用戶言論的官方政策究竟是甚麼?Nick Hopkins在《衛報》整理了Facebook關於裸露、暴力以及虐待的相關規定,原題為「Revealed: Facebook's internal rulebook on sex, terrorism and violence」。我們不妨來看看Facebook都是如何解釋他們的種種規定的。

《衛報》的調查顯示,Facebook大約有100多個內部培訓手冊、電子表格和流程圖,它們深度揭秘了Facebook在面對暴力、仇恨言論、恐怖主義、色情、種族主義、自殘行為、假球甚至食人的時候,是如何和諧這些內容的。

這些文件讓我們得以一窺Facebook在歐洲、美國政府重壓下,是如何對網站進行管制的。文件說明了Facebook運營之艱難,它必須應對一些全新的挑戰,如「色情復仇」。Facebook的管理員也面臨巨大挑戰,他們的工作量太大了,常常只有10秒的時間對某條內容的去留做決定。

一位消息人士說:「Facebook不能控制其內容,它的規模太大了,內容增長太快了。」

據說,許多Facebook管理員擔憂於那些互相矛盾、特殊的管理政策。比如涉及到性的內容,相關政策看上去那樣複雜、令人迷惑。

Facebook內部管理員手冊遭曝光,告訴你哪些言論及圖片會被臉書官方刪除

▲Facebook關於「色情復仇」(例如:散佈前女(男)友裸照)的政策

有文件顯示:Facebook每週會收到大約6.5百萬個潛在虛假帳戶(FNRP: fake, not real person)舉報。

Facebook的規定如此之多,數千張投影片和圖片才能說得清,這些規定讓人們擔憂,批評家們說Facebook現在是一個發行商了,必須盡力消除仇恨、傷害和暴力內容。

然而,這些規定也讓自由言論倡導者擔憂。他們認為,Facebook可能已經成為了世界上最大的審查員,該事實敲響了言論自由的警鐘。

上述兩種觀點可能都要求Facebook的管理規則更加透明。

去年,《衛報》發現了一些Facebook管理員的文件,文件這樣要求他們:

  • 刪除類似「射殺川普」的言論,因為川普是美國元首,是被保護的。但是如下言論卻是不會被刪除的:「咬住一個婊子的脖子,把所有的力氣都壓在她脖子中間」、「滾去死」,因為這些言論不算是真正的威脅;

  • 場面悽慘的死亡影片,雖然它們的標籤是「令人不安的」,但是可以不被刪除。因為它們可以提高人們對一些問題的認識,比如精神疾病;

  • 一些非性虐待、霸凌兒童的照片可以不刪除,除非有性虐待或慶祝因素;

  • 虐待動物的照片可以分享,只有那些極度過分的照片才會打上「令人不安」的標籤;

  • 允許分享裸體、正在進行性行為的手工藝術品,但是數位化製作的、展示性行為的影片/照片不在此列。

  • 允許墮胎影片的分享,只要沒有裸露;

  • 允許直播人們的自殘行為,因為Facebook「不想檢查/懲罰處於痛苦中的人」

  • 擁有超過10萬粉絲即被認為是公眾人物,這也就意味著他們不再享有作為個人的全面保護。

文件允許的其他類型的言論包括:「小女孩要在她爸爸打她之前,在她爸爸面前站直」、「我希望有人能殺了你」。這些威脅被認為是普遍的、不可信的。

 

關於暴力威脅言論的政策

在一份洩露的文件當中,Facebook承認「人們透過網路語言暴力發洩心情」,他們覺得在網上「這麼做比較安全」。

還有:人們認為自己不會面臨網路暴力,並且對那些遭受網路暴力、受到威脅的人們沒有絲毫的同情。因為透過數位裝置的溝通交流完全不能激起類似面對面交流的同情心。

Facebook內部管理員手冊遭曝光,告訴你哪些言論及圖片會被臉書官方刪除

▲Facebook關於暴力威脅的政策,對號指不會被刪除的言論,叉號指要被刪掉的言論。

「我們認為暴力語言更多的只是發洩情緒,並不足信,除非某些特定語言讓我們覺得它超越了發洩情緒,可能轉變成一場謀殺。,從這一點看,『我要殺了你』和『滾去死』這種話就是某種不高興、沮喪情緒的發洩。」

該文件還補充道:「人們大多用著那種毫無意義、毫不客氣的方式,來威脅或呼籲暴力,藉以表達對某人、某事的鄙視或不同意。」

Facebook承認「並非所有令人不快、令人不安的內容都會違反我們的標準」。

Facebook的全球政策管理負責人Monika Bickert表示,Facebook有將近20億用戶,很難完全達成共識。

Facebook內部管理員手冊遭曝光,告訴你哪些言論及圖片會被臉書官方刪除

▲Facebook關於暴力威脅的說明,上述語句均不會被刪除。因為他們認為這些是情緒發洩

她說:「Facebook遍佈全球,是一個多樣化的社群網路,人們判斷某些內容適合分享的標準不同。無論我們定哪種標準,總會有一些灰色區域存在,比如諷刺和幽默以及不當內容之間的界限有時候就非常模糊,我們很難決定哪種言論應該留下、哪種應該被刪掉。」

「Facebook有責任維護平台安全,我們絕對有責任繼續貫徹這些方針,這是一個公司的承諾。我們將會繼續投資那些積極保持網站安全的算法,我們也希望人們向我們舉報任何違反我們標準的內容。」

她表示,在某些場合下,冒犯性言論會違反Facebook政策,但在另一些場合則不會。

洩露的Facebook政策還包括:暴力死亡、非性虐待兒童圖片、虐待動物直播等,顯示出該網站是如何試著躲避雷區的。

文件顯示:「場面悽慘的死亡影片雖然「令人不安的」,但是可以幫助提高認識。就影片來說,我們認為未成年人需要受到保護,但成年人需要的卻是選擇,因而我們把暴力死亡影片分類為『令人不安』的影片。」

這樣的片段應當是「未成年人不可見」的,而不是被自動刪除,因為「它們可以提高人們對一些問題的認識,比如自殘、精神疾病、戰爭犯罪等」。

對於具有新聞價值圖片的規定

Facebook在去年刪除了那張著名的越南戰爭照片(讀者可以自行搜索「越南戰爭 女童」),原因居然是圖片中的小女孩赤身裸體,這引發了強烈的抗議。目前披露的文件顯示,Facebook發佈了關於裸露的新準則。

現在,Facebook允許「反戰」原則之下、「具有新聞價值」的裸露,但是還是禁止發佈「大屠殺背景下的兒童裸體照片」

Facebook告訴《衛報》,目前Facebook正在使用一款軟體工具攔截某些圖片內容,讓這種圖片完全無法上傳到網站。但是「我們希望人們能夠就全球以及當前問題進行討論,所以某些具有暴力元素的圖片在一些時候是非常有必要的」。

美國和歐洲的批評家們要求Facebook應當和廣播、出版商一樣被管理。

但是Bickert說Facebook是「一個新型公司,並非傳統的技術公司,也不是傳統的媒體公司。Facebook開發技術,也認為自己有責任對如何使用技術負責。我們並不發佈新聞,只是新聞發佈的平台。」

5月1日,一位英國議員發表報告指出:「這個全球最大、最富有的社交媒體公司應當感到恥辱,它完全沒有採取足夠的措施處理非法、危險內容,也沒能設立合適的標準,不能保護用戶的安全」。

內容審核專家Sarah T Roberts表示:「小型網路社群的原則和價值設定是一回事,但當一個社區已經擁有了世界很大一部分人口的時候,這時候你說『分享你自己』,社群就會完全混亂。

「然後當一社群透過『分享』盈利的時候,該社群可能已經進入了災難模式。」

Facebook一直努力評估暴力圖像的新聞/認識價值。儘管該公司最近因為沒有刪除Robert Godwin被謀殺的影片、沒有刪除泰國一位父親殺死自己孩子的影片而飽受批評,但該平台也積極傳播警方濫殺和其他政府濫用職權的影片,發揮了重要作用。

比如,2016年,Facebook刪除了一個影片,內容是警察在沒有明顯原因的情況下對黑人Philando Castile連開四槍殺死他的影片,隨後Facebook恢復了影片,並聲稱這是一次「誤刪」。該影片引發美國民眾的強烈抗議。

 

Facebook內部管理員手冊遭曝光,告訴你哪些言論及圖片會被臉書官方刪除

36Kr
作者

36氪(36Kr.com)累計發表超過10.8萬條包含圖文、音訊、影片在內的優質內容。氪原創內容體系涵蓋新創公司、大公司、投資機構、地方產業與二級市場等內容模組,設置有快訊、深度商業報導

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則