職業歧視、種族偏見都可以被量化?偏見測試可以用來調整人工智慧和遊戲體驗

職業歧視、種族偏見都可以被量化?偏見測試可以用來調整人工智慧和遊戲體驗

無論是中國人還是外國人,在個孩子起名字的時候都會有一定的寓意。尤其中國人的名字,紛繁複雜、各不相同,一個好名字往往就會給人非常深刻的印象。比如「高強」,往往會讓我們聯想到身材的高大和能力的出眾。  也就是說,甭管你見沒見過這個人,當你看到他的名字的時候,你就已經對他產生了第一印象。而這種印象與其本人的真實狀態幾乎毫無關聯。

職業歧視、種族偏見都可以被量化?偏見測試可以用來調整人工智慧和遊戲體驗

不僅僅是看人的名字,人們對陌生人進行判斷的時候,會根據很多因素產生刻板的印象。比如認為北方人更粗獷,南方人精細;或者自然地存在歧視某地居民;或者對某種職業產生偏見;或者非常敏感的種族主義問題。

我們往往認為陳規的觀念和偏見本質上是主觀行為,在心理學研究上就很難對這種主觀行為進行掌控。而在近期,面對人們的偏見問題,科學家們卻在試圖開發出一個模型,以對可能發生的不平等待遇進行預測。

從「暈輪效應」開始,到量化偏見的模型

在認知心理學當中,有一個概念叫做「暈輪效應」,由美國心理學家愛德華‧桑戴克在上個世紀20年代提出。其認為,當認知者對一個人的某個特徵形成固定的好的或壞的印象之後,就會對個人其他的特徵形成類似的推斷。最簡單的比方,當你開始喜歡上一個人的時候,你會發現它所有的一切都是美好的;有點愛屋及烏的味道。

職業歧視、種族偏見可以被量化?有人做出了這樣一個模型

而實際上,愛德華對這種效應持有的是否定的態度。也就是說,從一個局部的印象擴展到整體,很容易產生對某個人的片面理解,由此而產生偏見。

在此之後,心理學家戴恩也做過一個實驗。他透過給為試者提供不同類型的照片,比如有魅力、魅力中等和無魅力,然後讓其評價。最終那些看起來更有魅力的人會得到更多褒獎的評價,長得越不好則積極的人格評價越少。

這種以貌取人,就是暈輪效應的最基本體現。

但問題在於,傳統上人們認為這種主觀印像是很難固定的,畢竟每個人都不同。而最近來自柏克萊大學和北京大學的研究人員則試圖在做這樣一件工作:透過建立一個模型,把人們的刻板印象和不平等待遇進行量化,進而達到可以預測不平等待遇發生的可能性。

打個比方,小明和小紅都討厭小花,但小明比小紅更討厭小花。可是這個「更」到底是多大程度呢?研究人員要做的就是把小明的討厭程度礻10分,小紅的為7分。這樣就把人們偏見的程度進行量化,進而可以對這種心理進行科學研究。

為了更直接地對人們的表現進行研究,研究人員做了一系列的實驗。其中有一項是心理學中的「獨裁者遊戲」,給受試者10美元,他擁有對這10美元的絕對處置權利。在實驗中,研究人員讓受試者根據給出的訊息(職業、國家、種族等)來決定自己會拿出10美元中的多少給對方。結果表明,人們僅僅根據一條訊息就給出了不同的金額,比如無家可歸的人受試者平均收到了5.1美元,「癮君子」則收了1.9美元,「律師」甚至只收到了1.7美元。

在這項研究中,研究人員還借用了心理學當中「熱情」和「能力」兩個因素對人們偏見的影響。很顯然受試者認為律師是非常有能力的,因此不應該得到更多的錢;而且受試者還認為愛爾蘭人更熱情只是能力差點,因此得到的錢要比英國人更多一點。

職業歧視、種族偏見可以被量化?有人做出了這樣一個模型

實驗結果表明,受試者透過「熱情」和「能力」對分錢的對象進行分級,與最終給予的錢的數量基本一致。

也就是說,透過這種模型的測試,研究人員可以對某人對某個職業、種族、國籍等群體產生何種程度的偏見和不平等待遇進行預估,進而對社會上的不平等現象進行把握和做出對策。該模型確實讓人眼前一亮,但如果能夠和下面這個研究成果結合起來,或許關於人的偏見的預測會更加精準。

D因素來了!暗黑人格或能給這個模型加點料

從某種程度上來說,人們對某個群體產生偏見的原因或許是認識的片面,但還有一種可能就是:他就是刻意要對其進行歧視。在這種情況下,他可能是一個暗黑人格之人。

人們一般認為,暗黑人格的人往往在道德倫理和社會表現上存在一定違背常理的情況。比如說自戀、變態、自傲、冷酷、腹黑等,這些不同的暗黑性格表現個不相同,但最近有人找到了它們之間共同的聯繫,而這個聯繫就被稱為「D因素」。

來自德國和丹麥的研究團隊將D因素的特徵分為九個,即「自我」、「馬基維利主義」、「道德缺失」、「自戀」、「心理權利」、「精神變態」、「施虐傾向」、「利己主義」和「懷恨在心」。他們認為,基本上擁有暗黑人格的人,或多或少都會呈現出這些特徵,而在某一項特徵上集中呈現。也就是說,如果你沾上了這九個特徵中的其中一條,你就可以被認為是一個暗黑人格之人;占的條數越多,你就越暗黑……

還不趕緊對照一下自己到底有多黑?

職業歧視、種族偏見可以被量化?有人做出了這樣一個模型

但是,影響暗黑人格的D因素與偏見的量化又有什麼關係呢?

可以肯定的是,在擁有暗黑人格因素的人身上,偏見行為會得到放大。也就是說,假如一個正常人格的人給了律師1.7美元的話,那麼暗黑人格的人可能會因為對律師這一職業的天然印象(有錢、地位高等)而產生逆反,進而在自己能夠成為掌控者的情況下對律師產生更嚴重的偏見。反映在給錢的數量上,可能就會遠低於1.7美元。

那麼,問題就在這裡。柏克萊大學的研究人員想要將人們偏見的行為量化起來,不僅要建立一個社會上對某一個群體的看法的普遍模型,還要考慮到產生偏見主體的個人因素。而其中的人格就是重要一環。

例如,當我們要預測一位求職者是否會通過面試官的考核的時候,首先我們要看求職者的姓名、籍貫、經歷,給出一個其在普遍意義上是否符合用人的一般標準的初步判斷;然後,針對面試官的人格因素,再判斷求職者的條件會引起面試官怎樣的反應。

從這個角度上來說,為了保證自己在面試時候對面試者的公平對待,面試官就可以透過這個加入了暗黑人格因素的偏見模型對自己進行測試,然後量化的得出自己可能會不由自主地對哪些人產生偏見。那麼,在面試的時候,就可以達到提醒自己、避免犯錯的效果。

而不僅僅是暗黑人格可以對模型的優化起積極的作用,一些其他的人格因素的加入提高預測的精準度。也就是說,對個人偏見的預測,結合人格方面的因素或許會收到更好的效果。

人工智慧、遊戲優化……偏見模型有什麼用?

那麼,這項在關乎心理學的研究模型,又能夠在現實中產生哪些作用呢?

可以確定的是,它絕不會淪為一項僅供娛樂的測試項目。或許在解決人工智慧歧視問題上,它還能發揮一定的效用。

我們知道,人工智慧之所以會產生歧視問題,其實就是對人類行為、職業、種族等進行關聯分析後的結果。也就是說,沒有人告訴它醫生應該是個男性而護士應該是個女性,但它卻在經過大量的數據學習之後,做出了最大可能的解。

職業歧視、種族偏見可以被量化?有人做出了這樣一個模型

那麼,要解決這個問題,則可以利用偏見模型來對其進行訓練。比如柏克萊大學的研究人員為了這個實驗總共找了大概1200人,那麼為了對AI進行訓練,研究者可以進一步擴大參與實驗的人員數量。透過對較大數量人群的偏見進行量化,然後總結出哪些類型的人容易對人的哪些特徵產生偏見,並將這些結果交給AI進行學習。在這種情況下,AI在做出判斷的時候就會多了一道對照結果進行糾錯的程序。

如此一來,即將給出歧視結果的AI,將可能會在最後一刻對答案進行優化,進而大幅度減少歧視情況的發生。

另一方面,利用偏見模型將可能會對一些涉及人物角色類的遊戲進行優化,以更好的增強玩家的沉浸體驗。比如日本的很多遊戲中設計的關於中國的人物形象,女性多為旗袍、馬尾或短髮,男性則多辮子、短衫或……和尚;而涉及西方人物的時候則往往是肌肉橫生、高大魁梧。這就是日本人對中國和西方人的刻板的、固有的印象。符合了大眾的普遍認知,自然能獲得更多的玩家投入。那換個角度簡單來說,在設計日本的人物形象的時候,矮小、衛生鬍、八字嘴,估計是最符合中國人對日本人的一貫印象,雖然在身材方面中國人已經被日本超過……

職業歧視、種族偏見可以被量化?有人做出了這樣一個模型

也就是說,深刻地瞭解到玩家對某種人物或場景的刻板印象,並按照大部分人的普遍印象進行設計,效果想必會好很多。

由此推開,把握住目標人群對產品的一貫的印象,將可能成為眾多產品研發者的一把利器。

當然,構建偏見模型更重要的現實意義在於瞭解到人群的歧視模式並採取相應科學的方法將其消解,或者幫助個人更好地瞭解自己所未嘗察覺的偏見弱點,進而構建一個更加和諧的群體。或許有一天,我們的世界裡將不再存在種族、性別、職業等歧視,每個人都會成為一個沒有偏見的人。

本文授權轉載自腦極體

使用 Facebook 留言

發表回應

謹慎發言,尊重彼此。按此展開留言規則