矽谷「演算法裁員」成趨勢:把裁員理由全推給電腦,人資主管:比較沒有愧疚感

矽谷「演算法裁員」成趨勢:把裁員理由全推給電腦,人資主管:比較沒有愧疚感

先前,Google大規模裁員 1.2 萬人之後,有數百名突然被裁員的員工湧入一個線上聊天室,對公司的冷酷裁員表達不滿,同時也在討論,高層是如何決定裁掉誰的?其中有人就表示,他認為有個精心設計、不違反任何法律的「無腦演算法」,選擇了誰該被裁。 

Google對此表示,他們的裁員決定「沒有涉及任何演算法」。

但隨著越來越多的 AI 工具被應用於職場,這些Google被裁員工的懷疑似乎並無道理。如今,許多人力資源主管使用機器學習軟體分析數百萬個與就業相關的資料點,從而得出哪些人可以參加面試、收到 offer、晉陞或應該被留住的建議。

但據人力資源分析師和勞動力專家表示,隨著矽谷的命運發生轉變,這些 AI 工具可能會幫助處理一項更艱鉅的任務:幫助人類決定誰將被裁掉。

人類總是有感情的動物,要決定拿走誰的飯碗,其實多少都會對於下決定的主事者產生心理上的影響。而裁員規模越大,造成的影響自然就更大。

今年 1 月份,針對 300 名美國公司人力資源主管的調查顯示,98% 的人認為,軟體和演算法將幫助他們在今年做出裁員決定。隨著公司大量裁員,單靠人類很難完成如此繁複的任務。自年初以來,美國大公司的裁員人數已經悄悄達到五位數。

哈佛商學院教授約瑟夫・富勒(Joseph Fuller)表示,從科技巨頭到家庭用品公司,大公司經常使用 AI 軟體為發展中的的計畫尋找「合適的人」。這些產品幫助建立了一份「技能清單」,可以幫助人資主管確定擁有何種工作經驗、證書和技能的人選與不同的職位匹配。同理,這些工具也可以幫助裁員。

軟體評測網站 Capterra 的高級人力資源分析師 Brian Westfall 說,自 2008 年經濟衰退以來,人力資源部門變得「越來越依賴大數據」。他補充說,在做出裁員等棘手決定時,求助於演算法可能會幫助人資主管撫平愧疚感。

許多公司都在使用分析員工績效資料的軟體。在 Capterra 的調查中,70% 的人力資源主管表示,在評估裁員時,績效是最重要的考核因素。Westfall 也表示,用於裁員的其他指標可能不那麼明確。例如,人力資源演算法可以計算出哪些因素會導致某人有「跳槽風險」,以及更有可能離開公司。

Westfall 聲稱,AI 的介入也引發了許多問題。例如,如果某家公司有歧視問題,有色人種員工離開的比例可能會更高。但如果演算法沒有接受過類似的培訓,並不瞭解這種情況,它可能會認為非白人員工的「落跑風險」更高,並建議裁掉更多有色人種員工。

「在某種程度上,你可以看到滾雪球效應出現。你不知道資料是如何建立的,或者資料是如何受到影響的,而這些因素突然導致了糟糕的決策。」Westfall 說。

使用 AI 工具的人力資源軟體公司 Gloat 的副總裁傑夫・施瓦茨(Jeff Schwartz)說,Gloat 的客戶沒在使用該公司的軟體建立裁員名單。但他承認,人力資源主管們在如何做出此類決策方面必須保持透明,包括演算法的使用範圍有多廣。

他說:「對我們來說,這是一個學習時刻,我們需要揭開黑盒子的秘密。我們需要瞭解哪些演算法在以哪些方式發揮作用,我們需要弄清楚人們和演算法是如何協同工作的。」

勞動力專家表示,對軟體的依賴引發了一場辯論,爭論的焦點是演算法在裁員過程中應該扮演什麼角色,以及僱主應該在多大程度上公開裁員背後的原因。Westfall 說:「風險在於使用了錯誤的資料,以及根據演算法所說的東西做出決定,然後盲目地跟隨它。」

但勞工和就業律師、追蹤人力資源領域進步的組織 Disrupt HR 的成員扎克・邦巴奇(Zack Bombatch)表示,自疫情暴發以來,人力資源單位已經不堪重負,他們將繼續使用軟體來幫助減輕工作量。

有鑑於此,公司在做裁員決定時,不該讓演算法單獨給出名單,而是需要人類審查其建議,以確保不會對有色人種、女性或老年員工產生偏見,這些行為都會引發訴訟。邦巴奇警告稱:「不要試圖把責任都推給演算法。」

NetEase
作者

網易科技,有態度的科技門戶!關注微信公眾號(tech_163),看有態度的深度內容。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則