面試你的不是人?紐約計劃限制人工智慧「面試官」

面試你的不是人?紐約計劃限制人工智慧「面試官」

「我們無法提供有關您面試結果的具體結果。」

在美國,越來越多的僱主利用人工智慧(AI)加快招聘流程。但求職者很少知道 AI 招聘工具為何拒絕他們的履歷,或者如何分析他們的視訊面試。當他們落選時,往往只能收到這樣一封冷冰冰的郵件,不知道自己到底為什麼落選。

圖片來源:unsplash

這不免令人不安,AI 在我們的職業生涯中究竟起到怎樣的決定權?

美聯社報導,11 月初,紐約市議會以 38 票對 4 票通過了一項法案:如果 AI 招聘系統沒有通過年度審計,將被禁止使用。年度審計將檢查 AI 招聘系統有沒有種族或性別歧視,允許求職者選擇人工審查等替代方案,AI 開發人員還需披露更多過去不透明的細節。

面試你的不是人?紐約計劃限制人工智慧「面試官」

有趣的是,負責年度審計的是 AI 開發人員,但會被處罰的是僱主,如果他們使用了未通過年度審計的 AI 招聘系統,每項違規行為最高處罰 1500 美元。

支持者認為,該法案將為復雜的演算法打開一扇窗戶。演算法往往根據求職者的說話或寫作方式對技能和個性進行排名,但機器能否准確公正地判斷性格特徵和情緒訊號值得懷疑,這一過程未來會更加透明。

至少,知道「因為演算法有偏見而被拒絕」就是有意義的,牛津大學技術法教授 Sandra Wachter 曾經表示:

反歧視法主要是由投訴驅動的,如果他們不知道發生在自己身上的事情,就沒有人可以抱怨被剝奪了工作機會。

面試你的不是人?紐約計劃限制人工智慧「面試官」

初創公司 Pymetrics 也非常支持這一法案,他們提倡借助 AI 通過遊戲等方法面試,並認為其符合公平要求。與此同時,過時的 AI 面試方案將被掃進垃圾堆。AI 招聘系統提供商 HireVue 在今年初已開始逐步淘汰其臉部掃描工具,這項工具被學術界稱為「偽科學」,讓人想起有關種族主義的顱相學理論。

對法案的反對意見,大多是出於「這遠遠不夠」。民主與技術中心主席 Alexandra Givens 指出,提案實際上只是要求僱主滿足美國民權法的現有要求——禁止因種族、民族或性別而產生不同影響的招聘行為,但忽略了針對殘疾或年齡的偏見。

圖片來源:unsplash

而一些人工智慧專家和數位權利活動家擔心,法案只是讓 AI 開發人員自證他們遵守了基本要求,也只是為聯邦監管機構和立法者設定薄弱標准,具體如何「審計偏見」非常模糊。

值得注意的是,偏見在面試中並不少見,主要問題出在喂養演算法的樣本,但它們往往被置於「黑箱」之中,普通求職者很難發覺。

面試你的不是人?紐約計劃限制人工智慧「面試官」

幾年前,亞馬遜停用了履歷掃描工具,因為它偏向讓男性擔任技術崗位。部分原因在於,它將求職者的條件與公司內部的男性技術勞動力進行比較;同理,如果演算法從種族和性別差異已經普遍存在的行業中獲取養料,那麼它只是在鞏固偏見。

這種偏見並不只是招聘中。今年 4 月,南加州大學一項新的研究表明,Facebook 正在以可能違反《反歧視法》的方式展示廣告,男性更有可能看到披薩送貨司機招聘廣告,而女性更有可能看到購物廣告。

圖片來源:unsplash

本質上,AI 歧視就是被人類社會培養的,個人的偏見行為甚至是下意識的,我們自己不一定察覺。如果將一家偏見較少的公司與偏見嚴重的公司比較,一般就是兩種原因——前者在有意消除偏見方面做得更好,後者更擅長收集並不合理的現狀並使它們永久化。

所以,中性意見認為紐約市提案最好的部分是它的披露要求,讓人們知道自己正在被 AI 評估、如何被 AI 評估以及他們的數據去向是哪里。 

▲ 參考資料:
1.https://apnews.com/article/technology-business-race-and-ethnicity-racial-injustice-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d
2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9

ifanr
作者

ifanr依托於中國移動互聯網的發展大潮,用敏銳的觸覺、出色的內容,聚焦 TMT 領域資訊,迅速成為中國最為出色的新銳科技Blog 媒體。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則