2018.10.25 09:30

Women in Tech:AI無法幫助我們擺脫男女偏見,卻恰恰證明了偏見文化的根深蒂固

ADVERTISEMENT

在上週,台灣微軟首度於 WinHEC 2018 Taipei 中加入「Women in Tech」主題,由微軟全球雲端及 AI 事業部資深副總裁暨微軟全球女性社群領袖 Erin Chapple、台灣微軟研究開發處副總經理楊迪華攜手跨世代科技女性代表,分享國內外科技女力的發展趨勢觀察。主要的目的就是希望鼓勵全球女性勇敢實踐科技夢,協助推廣打造性別平等且友善的工作環境。

其實台灣對於科技業男女比例的問題討論的起步可能已經有點晚了,早在2013、2014年開始,矽谷的科技業就吹起一股「性別潮」,有越來越多的科技大廠重視內部員工「男女」性別比例的問題。

女性在科技產業工作的比例非常低,約莫只佔15%,這個數字還持續在下降。很多的研究都發現女性在科技工作場所的比例在1989年曾達到高峰,之後就逐年下降。甚至數位化的來臨,並沒有帶給女性工作在科技業比例的提高,反而是下降的。而這個問題,一直到2017年前Google工程師James Damore撰寫一則涉嫌歧視女性的備忘錄,更是引起了關注。該備忘錄指出因為男女生物學上的差異,造就能力上的差距,順便解釋了為什麼女性軟體工程師數量相對少的原因。

ADVERTISEMENT

關於這個議題,可以討論的面向很多。包括涉及了性別、種族的歧視,以男性為主的矽谷科技業高層是怎麼形成的、 是否真的有所謂的「偏見」以及偏見是怎麼產生的。趁著這次Erin Chapple來台,也跟我們討論了其中的幾個問題。

 

ADVERTISEMENT

為什麼是科技業?女性在科技業的比例多少才算沒有歧視?

女性在科技業中的比例少的確是一種現象。但是,當我們討論到女性在科技業中的比例,或許你會想到一個問題,就是為什麼「女性在科技業」中的比例多寡這件事情是重要的?為什麼是「科技業」?

舉例來說,在化妝品、美妝產業中,女性工作者的比例無疑是高出許多,那為什麼就沒人討論男性在這些產業中有沒有被歧視的問題?

ADVERTISEMENT

針對這個,Erin Chapple 表示其實之所以他們在講科技業,主要在於科技業男女比例明顯的差距。至於「比例多少」才不算是偏見、歧視,這個問題並沒有標準答案。在某些產業,如果男性比例過少,一樣也會有這方面的問題需要研究。

但是她強調,女性工作者今天在討論女力以及這些相關的議題,其實她們要講的並不是比例多寡的問題,她們的目的是希望能夠讓想要踏入科技領域的女性,有一個沒有人為障礙的環境。這才是她們想解決的問題。

女性在科技業的比例過少,這的背後的因素很多,可能要從小時候爸爸就給女兒買洋娃娃玩具、給男孩買變形金剛開始講起,然後小時候就被家庭教育成對理工不感興趣、還包括了同儕之間彼此影響,上了大學發現理工科男女比例就相差懸殊,最後到了職場的一些工作從招聘人員開始就預期是希望以男性為主。

ADVERTISEMENT

這些問題從文化背景開始就根深蒂固地影響我們的生活,就連女生自己可能都無法確定自己的「興趣」是不是真正的興趣。有很多偏見是深植於我們的生活、甚至語言之中的,這些都很難根除,但是她希望做到的是提醒大家意識到,有這些偏見的存在。

而她與其他同伴努力的,就是希望透過她們這些已經在科技領域工作的女性,分享自身成功經歷,鼓勵其他懷有科技夢的女性可以去勇敢築夢。

 

「理工」與「文組」的對立?

台灣長期以來,教育有「男理工、女人文」的性別隔離現象。今年年初依據科技部統計資料,全國高等教育中科技相關研究人員的男女性別比例約67:33。而台灣微軟研究開發處副總經理楊迪華對於「男理工、女人文」的性別隔離現象也很有感觸。

楊迪華於今年初創辦「Ada Fair科技女力論壇」,更連續三年舉辦「Coding Angels 女性程式設計工作坊」,對女性科技人才扶植不遺餘力。其中「Coding Angels 女性程式設計工作坊」更是每年都吸引了來自全台灣大專院校超過百位女大生的報名,透過以小遊戲的方式,推動程式教育。鼓勵更多女性一起寫程式,體驗其中的樂趣。

楊迪華表示當初唸高中時是念女校,自己原本打算念法律,以為自己以後會一輩子作為法律人。不過,一直到選組之前,因為高中的校長說了一句「女生就是該念文組」「女生要顧家、不該念自然組」,一氣之下第二天他就決定選理組了,也從此展開了另外一個人生。之後有很長一段時間,都覺得女生要證明自己,「男生能夠做到的事情女生一樣能做到」。

不過,她表示一直到了近幾年,才漸漸能夠理解,其實不管是男生女生,人都不該活在別人的價值觀裡頭。而是要做妳(你)自己,做想做的事情。大家很多時間都會把性別這件事放大,在職場的時候,不管妳升官或是不升官,有些人可能會覺得說「因為你是女生,老闆因而偏袒、或是偏心」。其實她覺得,少聽一些別人怎麼想,而多去注意自己做的開不開心,才是最重要的。

有些人會說,念科技類的女性比較少,因此科技界的女性工作者比較少也是自然的結果。不過她再舉一個例子,大家印象中女性念音樂專業的比例應該很高,但是她注意過,柏林交響愛樂每兩年會來台灣一次,其中樂團的12把大提琴每年都只有2位女性。當然,或許有人說這可能是因為大提琴的體積較大,但是再看全球的交響樂團,指揮是女性的比例其實也少之又少。但是,喜歡音樂的女性比例是絕對不會少的。這也是一種明顯的偏見。

楊迪華表示,雖然很多人都覺得女生該念文組,但是她其實自己學習了理工之後,才發現理工這一門學問是很公平的。牛頓第二定律並不會因為你是男生或是女生而有所不同,數學方程式誰來計算的結果都一樣。電腦程式也不會因為你是男生而跑得比較快。所以,在自然的前面其實是沒有偏見的,有很多偏見都是後人所強加上來的。任何事情,只要盡你的力去做到最好,就會有最好的結果。

 

人類帶有偏見、AI也會帶有偏見

與楊迪華當初因為校長的一句話而去念理工不同,台灣大學資訊工程學系暨研究所助理教授陳縕儂,專業為語言理解、機器智慧、口語對話系統、深度學習、自然語言處理。她表示自己從小就喜歡數理,自發性地選擇了理工這條路。不過,長期以來,自己就是理工科中的「少數」,就某些方面來說,的確是有一些少數的優勢,但也有些時候,比方說分組的時候,男性可能會覺得女生會拖累小組的成績,不願意與女性同組。

她表示,以學界來說其實也一樣存在著許多種偏見,這種現象就算是在國外也一樣。

舉例來說,她認識一位華盛頓大學的女性資深教授,這位教授有一位研究室的學生剛生了孩子,教授於是把這位學生分配到大一點的實驗室,想說讓她哺乳比較方便,結果沒想到就被其他學生抗議並且收到校方的警告,認為她對女性學生偏心。

陳縕儂說,要改善「男理工、女人文」的性別隔離現象其實是非常非常困難的,就算是她自己現在已經任教,但是在自己目前實驗室中,十個學生裡頭也只有一個女生。並不是她不收女生,而是因為她自己研究的領域比較偏重數理,女生可能覺得數學太多就不敢過來。 

當然,在資工領域女生比較少,其實也是有其優勢,像是萬綠叢中一點紅在課堂上也比較容易被教授注意到。但是,大多數的男性會比較無法理解女性,包括像是生理假這件事。而在畢業之後如果進入職場工作,選擇科技業的話,與其他行業比起來科技業的工時比較長,女性也會擔心自己沒有時間照顧小孩,再不然就是選擇單身。

不過,在台灣女生就讀理工科系的比例她認為還是偏低,以她過去在台大資工系就讀的實際人數來看,台灣的理工科男女比例大約是5比1,可能還會更低。而以她在美國卡內基美隆(CMU)的同學來看,男女比大約是3比1。

不過,她表示這可能與學校的申請制度方式不同有比較大的關係。像是台灣是大家參加一個共同的考試,實際上就是有多少人來考試,再從中依照分數來分配選擇,比例是沒辦法控制的。而國外的大學則是申請的,因此,如果來申請的履歷中有很多人的背景看起來都一樣,學校可能就會想要一些不同背景的學生進來,維護學校的多元化。

如果學生的男女比例就已經相差這麼多了,那麼,理工科系的教授比例是不是也跟學生一樣呢?

陳縕儂表示其實以教職來說,教授的男女比例倒是接近一比一,分布比較平均,這點國內外都差不多。雖然說看似很公平,不過,背後的理由卻又好像不是那麼公平。

她表示,理工科系的畢業生其實多數都還是想要到業界去工作的,尤其是在資工領域來說,到學術界當教授與去企業工作兩者的薪資比較起來是非常懸殊的。因此,其實男性並不是那麼願意留在學界。而與業界比較起來,教授的工作環境相較之下又比較彈性,因此對女性來說比較可以照顧家庭。 

 

 

亞馬遜的AI招募程式有偏見?人類可以用AI來改變偏見嗎?

而就在這個月,有許多媒體報導說Amazon從2014年以來,開發了用來審應徵者履歷表的AI系統,用來從眾多求職的履歷表中,篩選出合適的候選人選。但是後來發現這個系統「重男輕女」,有著嚴重的偏見,所以最後棄用了。

由於機器智慧是陳縕儂的研究專業,因此現場也有人問她關於AI的「偏見」這件事。或是,人類是否能將一些主觀判斷的事情交給AI,這樣是否能夠達到不帶偏見的結果?

陳縕儂表示這個問題其實必需要從理解AI開始說明。她雖然不清楚Amazon的徵才系統是怎麼設計的,不過她認為「重男輕女」並不能說就代表Amazon的這個系統不好,因為AI的判斷靠的是過去Amazon的徵才數據來養成的,「重男輕女」只能代表過去Amazon的徵才比例男性偏高,而AI純粹就是反映出這個結果。

事實上,如果人類帶有偏見,AI恰恰就是一個反映出人類偏見的放大鏡。

她進一步說明,以她本身對於自然語言處理以及AI相關的研究來說,在語言上,AI可以用向量來表示詞語之間的關係,而研究者就發現一個很有趣的現象,比方說:King跟Queen之間的向量關係,與Boy跟Girl之間的向量關係是很接近的。而這點我們當然可以理解,而且會覺得這個AI的判斷很準確。但是,當我們輸入更多的數據,就會發現一些很有趣的現象,比方說:「男生」跟「女生」的向量關係,與「教授」與「助理教授」之間的向量關係是很接近的。

她再舉另外一個例來說明:我們都知道有很多AI系統,可以將一張圖送入系統中,然後AI就可以幫你辨識分析出圖片中的物件是什麼。而在研究的過程中,她們也發現,如果把一張「人在廚房做菜」的圖片輸入到這個AI系統中,不管這張圖片中做菜的人的臉孔有多麼明顯是男生,但是AI在大多數的情況下都還是會告訴你「一個女生在廚房做菜」。

造成這種因素的原因很簡單,就是因為先前輸入給AI的資料有非常高的比例都是女生在做菜,因此AI只能判斷說出這樣的結果。

不過,陳縕儂表示,也因為學界已經發現人類本身就帶有偏見,因此AI反映出來人類的這種偏見的問題,現在正有一個派別的研究方向,就是想嘗試去除AI的這種偏見,好得到一個更客觀、公正的結果。

因此,回到一開始的問題:AI是否能夠幫助人類去除偏見?

以目前來說,我們的AI系統可能無法完全解除這些偏見,當然不光是男女的問題、也包括種族的問題、審美的問題...等等,因為人類世界已經有很多這些偏見了,因此輸入了這些數據,自然會得到這些結果。但是,如果人類不去探討這些AI之中的偏見,那麼就會永遠都使用帶有偏見的AI系統。

那麼,要如何察覺出這些偏見呢?她表示在AI的發展過程中,加入更多受偏見的那一方來參與,將會有助於發展。因為如果你是受偏見的那一方,自然會比較容易意識到偏見的產生,從而來協助對系統的校正。

雖然如此,但是陳縕儂表示,隨著AI在各個領域的發展以及進化,她認為AI至少可以做到的是,就像是一個反映出人類偏見的放大鏡。讓我們知道,生活已經充滿了這些方方面面的偏見,然後提醒我們不要照著這些偏見走。

ADVERTISEMENT