義工收集資料加上一家AI公司,女性可以輕易打破「男權謊言」的演算法

義工收集資料加上一家AI公司,女性可以輕易打破「男權謊言」的演算法

對於演算法開發過程的簡易化,更加提升了AI的工具價值。讓人感到欣慰的,不僅僅是女性開始利用AI的力量保護自己、為自己發聲,而是國際特赦組織的成功是可以複製的,除了那些在社群媒體上被辱罵的女性,其他的弱勢群體其實也可以利用類似的方式發出聲響和自我拯救。

AI與女性之間的關係,似乎一直不太好。

提到AI,我們看到的往往是「AI篩選履歷帶有性別歧視,更偏向於男性員工」「AI取代秘書、翻譯和速記正在讓女性失業」「一切AI助理都是女性配音加重男權主義」……

AI作為人類智慧與經驗的高度結晶,同樣也繼承了人類社會文化中糟粕的部分,並且會毫無遮掩展示出來。

但今天我們要講的這個故事,是關於AI如何保護女性遠離網路暴力。

女記者、女政治家和女權活動家的共同罪過

你遭受過網路暴力嗎?

對於大多數人來說,網路暴力離我們很遠。但即使在某次在網路論壇上互噴口水時,男性和女性也一定會有不同的體驗。對於男性來說,遭到的辱罵通常是「白痴」、「腦殘」一類的常用詞彙,或者是對家人的「問候」。而對於女性來說,往往會遭受到對自己身材、外貌的攻擊,以及性方面的騷擾。

在國際特赦組織的調查中發現,這種情況非常普遍,並且在Twitter這樣的公共話語空間中已經上升到了危害女性人權的程度。

今年以來,國際特赦組織陸續推出了長達八章的調查報告,講述普通女性、女記者、女政治家是如何因為自己的女性身份而在Twitter中飽受酸民侮辱的。而篇調查報告的名稱就是《Toxic Twitter》——有毒的推特。

我們可以摘幾組調查報告中出現的數據:

「2017年全年,有110萬條辱罵性的推文被發給了778名女記者和政治家。」

「在發送給女性的推文中,有7.1%都涉及到攻擊和辱罵。」

「在辱罵女性的推文中,提及黑人女性推文的比率比白人女性高84%。」

而那些辱罵女性推文的大概內容又是什麼呢?

有這樣的:

義工收集資料加上一家AI公司,女性可以輕易打破「男權謊言」的演算法

還有這樣的:

義工收集資料加上一家AI公司,女性可以輕易打破「男權謊言」的演算法

如圖所示,一切的辱罵和威脅,總與性有關,時時刻刻強調著女性身份的弱勢之處。

在調查時,女政治家和記者也表示,因為性別而遭受到的攻擊,是她們職業路上非常重要的困難和障礙。當男性遭到攻擊時,被攻擊的是他的行為和他的工作成果。可當女性遭受到攻擊時,酸民們總會瞄準她們的性別。

彷彿生而為女人,應當抱歉。

演算法除了推動流量,還推動了什麼?

而這一切中有Twitter哪些責任呢?

從基本上而言,Twitter沒有足夠強大的敏感詞審核和過濾機制,不能從源頭控制這些辱罵性的語言。

最主要的是,Twitter演算法的向智慧推薦方向調整後,原本相對封閉的關注體系變得更加開放了。在過去那些女政治家、女記者和普通女性的帳號以及推文內容只會顯示在關注者的Timeline上。但訊息流變得更加開放後,更大的流量同樣也帶來了惡意攻擊和極端性別主義者——同樣這些辱罵女性的推文雖然來自普通人,但在全新的演算法機制下,即使他們沒有什麼關注者,也會獲得不少曝光。一方面加重了語言傷害的能量,另一方面也讓那些惡意攻擊者可以更方便地找到彼此,形成組織對女性進行攻擊。

國際特赦組織也表示,他們已經數次向Twitter反映了這些問題,卻一直沒有得到滿意的答覆。

其實在這件事上,Twitter顯得有些無辜。畢竟演算法調整增強了各個圈層的互相瞭解,本意上是好的。我們也知道,透過人工智慧辨識出侮辱性詞彙,尤其是針對性別的侮辱性詞彙並不是那麼容易。就像「if she was raped,would she keep her mouth shut?」(如果強姦了她,她能夠閉上嘴嗎?)這句話從詞彙上看來並沒有什麼不對,但是聯合語境看來卻是在用非常暴力的性犯罪來威脅女性停止發聲。

但演算法造成問題,還要演算法來解決。

如果AI被把握在女性手中

AI不能理解語境嗎?顯然不是,大量涉及到長本文語義理解的演算法就是幹這個的。只不過面對性別侮辱這類相對複雜的語境,需要大量的訓練樣本和反覆調試。

當得不到Twitter的支持時,國際特赦組織做了兩件事:

第一是找了6500位義工,在推特上分別尋找收集那些侮辱女性的言論和正常言論,作為標註數據累積,建立起了全世界最大的「仇女言論」資料庫。

第二是找到Element AI,一家提供AI既服務的創業企業,利用數據進行訓練和分析,最終得出了上述完整的數據,並且訓練出了一個可以判斷女性侮辱言論的神經網路模型。國際特赦組織在報告中提出,目前這一模型的準確度已經達到了50%,並且還在不斷提高中。

義工收集資料加上一家AI公司,女性可以輕易打破「男權謊言」的演算法

當然最後的結局沒有人們想像中那麼美好,Twitter並沒有直接採用模型,借此保護平台上的女性使用者。但透過這兩件事,國際特赦組織明確了自己的需求,給Twitter提了很多富有價值的意見,例如Twitter應該改進舉報機制,讓關於女性侮辱的舉報可以得到更多重視;Twitter應該更加清晰的解釋平台過濾演算法如何運行,如何辨識那些針對女性的語言暴力;Twitter應該加強對女性使用者的教育,提醒她們如何保護自己;更重要的是,Twitter應該更多的公開相關數據,讓更多人知道女性正在社群媒體上承受著更多壓力。

打破技術即權力:保護她和他們的AI

這件事情其實帶來了一個非常有趣的思考:當AI發展的愈發成熟,技術即權力的魔咒是不是正在被默默打破?

女性如今之所以處在一個讓她們略感不適的地位之中,很大一部分原因在於對技術的掌控不如男性,所以她們不能創造和男性一樣多的價值。千百年前女性不知道如何開墾更多土地種植糧食;幾十年前女性不知道如何使用電腦;到今年女性不知道Twitter的演算法為什麼不能過濾掉那些仇恨言論。

而隨著科技的發展,阻礙女性獲取技術的門檻正在逐漸被磨平。從生理結構上天然的體力差別,到社會和家庭身份對於時間的占用,直到今天。

義工收集資料加上一家AI公司,女性可以輕易打破「男權謊言」的演算法

我們發現,號召義工收集數據,加上一家願意幫忙的AI服務企業,女性可以輕易打破Twitter的「男權謊言」——你說演算法做不到?她們就去證明演算法可以做到。

當AI模型的開發越來越走向低門檻,當谷歌和百度都在推出小孩子都能使用的模型訓練平台,這便意味著(綜合來看)開發經驗更少的女性群體也可以創造和利用AI的技術能力。

這也是AI作為工具而言最重要的價值,將以往高密度的經驗與智慧整合為人人可以利用的演算法,讓馬路殺手像老司機一樣行駛在路上,讓分不清PS和Photoshop的人也能拍出好照片。如今對於演算法開發過程的簡易化,更加提升了AI的工具價值。讓我們感到欣慰的,不僅僅是女性開始利用AI的力量保護自己、為自己發聲,而是國際特赦組織的成功是可以複製的,除了那些在社群媒體上被辱罵的女性,其他的弱勢群體其實也可以利用類似的方式發出聲響和自我拯救。

AI正在保護她,並且還可以保護他們。

腦極體
作者

你的困惑,來自於無路貼近未知。我們在技術、思想、傳播的異界,販來極限腦量下的TMT。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則