AI演算法用「數位足跡」判斷150名員工沒有生產力全數開除,釋放出了哪些危險訊號?

AI演算法用「數位足跡」判斷150名員工沒有生產力全數開除,釋放出了哪些危險訊號?

ADVERTISEMENT

演算法招聘不稀奇,現在利用AI演算法來自動化處理巨量簡歷篩選,已經是司空見慣的運作。但使用演算法裁員,對於許多人來說就聞所未聞了。 

最近,一家海外公司Xsolla透過演算法判斷出150人是「沒有生產力的員工」,然後一口氣裁掉了這些員工。 

引起爭議的不是裁員本身,而是這一決定背後的原因、標準:Xsolla首席執行長阿列克桑德·阿加皮托夫接受俄羅斯出版物《Meduza》的一次採訪中提出,員工的「數位足跡」不符合公司標準。

AI演算法用「數位足跡」判斷150名員工沒有生產力全數開除,釋放出了哪些危險訊號?

遠端工作時代,加上外部環境急劇變化,處於困境的企業不得不裁員自救,原本無可厚非。但利用AI演算法來履行裁員職責,就有待商榷了,因為這牽涉到一系列問題,像是: 

靠數位足跡判斷員工合格是否合理?演算法開除的決定是否符合勞動保護條例?這是不是意味著未來上班族必須按照AI的喜好來行動,進而成為演算法的奴隸? 

演算法裁員,究竟釋放出了哪些「惡之花」? 

邊界之問

透過演算法來開除員工,聽起來著實有些匪夷所思,直到Xsolla創始人阿加皮托夫撰寫的內部郵件被公開,人們才知道演算法的判斷標準是:數位足跡(Digital Footprint)。 

信中提到,Xsolla的大資料團隊分析了員工在Jira、Confluence, Gmail、聊天、檔案、儀表板等應用程式中的活動,然後將那些行為路徑老是不在工作場景中的員工標記為「沒有生產力的員工」。 

在技術社會中,想要追蹤一個人的網路活動是很容易的。此前,許多企業會透過社群媒體篩選潛在的員工,員工也會經營自己的 形象」以傳遞好的形象,大家似乎都為企業考察員工的數位足跡投出了一張「贊成票」。

AI演算法用「數位足跡」判斷150名員工沒有生產力全數開除,釋放出了哪些危險訊號?

但當事情發生在裁員這一動作下,或許才會發現,數位足跡在職場的應用,正釋放出了三個危險訊號: 

  1. 模糊生活與工作的隱私邊界。涉及150人規模的員工不知道自己正在被AI追蹤,並且網路活動的「蛛絲馬跡」都可能被引入考核標準,還是很讓人恐懼的。 
  2. 演算法「黑箱性」缺乏說服力。透過數位足跡的可以分析判斷出該人的性格特徵,這在招聘時可作為加分項,但裁員需要明確的「不勝任工作」的認定標準,演算法「黑箱性」讓裁員這件事充滿了不確定性,難以服眾,容易引發心理失衡的報復事件; 
  3. 缺乏對「倖存者」指導意義。一次成功的裁員,不僅僅在於將部分員工開除,還要讓「倖存者」做好對新任務的準備、瞭解持續發展的規範,但透過分析數位足跡作出的裁員決定,卻無法清晰地呈現出被裁和網路活動的因果關係。 

一個人可能因為總在工作時間登入社群媒體,被認為效率過低,但這一結果對於需要與使用者頻繁交流的創意型崗位就沒什麼價值,也讓「倖存者」處於惶惶然不可終日的狀態。 

疫情之後,越來越多的企業開始推行永久制的遠端辦公,與此同時,如何評估員工的工作狀態和生產力也成為難題。這個案例也驅使我們思考,個人該向企業讓渡多少數位足跡存取權限,將成為未來勞動市場和法律法規的重要議題。 

標準之謎

那麼,透過數位足跡來衡量員工的敬業度和生產力,到底可不可靠呢? 

我們知道,數位足跡只能追蹤到軟體互動的時間和頻率,對於流程化程度高的工作有直接的參考意義,但對於創造性工作就有點無能為力了。 

一來,科技企業是典型的知識經濟,涉及到大量的創意創新,這是十分個性化的過程。比如賈伯斯喜歡打坐冥想,然後做出決策;有媒體報導過,當團隊遭遇瓶頸時,騰訊副總裁張小龍就帶著大家一起聽搖滾樂;德國作家席勒缺乏靈感的時候,則喜歡吸幾口爛蘋果的味道……如果讓AI來判斷,這些都算「不務正業」。

AI演算法用「數位足跡」判斷150名員工沒有生產力全數開除,釋放出了哪些危險訊號?

二來,現有演算法很難評估OKR(Objectives and Key Results:目標和關鍵成果)與數位足跡之間的因果關係。Intel公司創始人安迪·葛洛夫發明的OKR目標與關鍵成果法,已經成為Googel、Facebook、Linked in、BAT等科技企業廣泛使用的工作模式,即先明確努力的方向和目標,過程中員工可以自主探索,只要保持品質,保證工作量地完成預定目標即可。這種方式能最大程度地誘發員工的積極性,並且鼓勵他們打破常規。這時候,用網路衝浪的蛛絲馬跡來衡量員工的表現,是一種既過時又極其無效的標準。 

標準的不合理性,也會直接影響裁員程度的正當性。我們知道,為了避免任意裁員,許多國家的法律法規都對裁員的程式公平有著嚴格限制,依靠AI演算法裁員很難避免暗箱操作和違規裁員,一般企業為了避免陷入風險也不會草率的導入相關演算法。 

人性之思

演算法裁員,也證實了一個令諸多學者都擔憂已久的問題:AI應該增強人性,而不是減少或取代它,是這個時代面臨的最大挑戰之一。 

數位時代,許多勞動者都不可避免地被「異化」,失去了對工作、生活和自我的控制,比如與系統爭分奪秒的外送員、被演算法支配的網路叫車司機、沉浸在演算法推送中不可自拔的短影音愛好者……本該具備人文關懷的裁員,也開始因演算法加入而變得冰冷。 

此次Xsolla創始人信中表現出的態度和語氣令許多網友感到不滿,他把被解雇的員工貼上「沒有參與工作和無益」的標籤,稱「我真的相信Xsolla不適合你」。還分享了一份「被開除者名單」,直言不擔心離職員工,也不擔心這些措施是否會打擊公司的士氣。

AI演算法用「數位足跡」判斷150名員工沒有生產力全數開除,釋放出了哪些危險訊號?

根據演算法直接把人裁掉, Xsolla作出如此草率的決定,說明企業本身存在更大的問題。但用技術語言與員工溝通的做法,在科技公司卻並不罕見。 

2018年就曾發生過網路公司技術總監因不滿辭退,怒刪9TB關鍵資料,造成直接的大量的經濟損失;2020年63歲的Amazon司機因演算法評分較低而被解雇。試圖讓演算法背黑鍋,拒絕以人為本的溝通,等待的不是被裁者的「反殺」,就是大眾的群嘲了。 

在裁員這一環節中,演算法能提供的僅僅只是一個參考標準,更多工作則需要人性化的方式來進行。比如裁員溝通,就是一種更為人性化的方式。有研究顯示,在裁員期間受到管理者積極人際待遇的員工,會較少表現出消極反應,對組織未來目標的認可也會增加。 

高品質的對話,可以有效地避免員工的不公平感,進而把裁員的負面效應減少到最低限度。這是裁員活動中最不可控也至關重要的一個環節,也是展現企業文化和管理者個人素養的尺規。 

AI越來越多地進入到企業經營的各個關鍵領域當中,但在直接與人有關的領域,倉促使用AI都是不合適的。剛剛浮現出的演算法裁員問題,甚至應該被快速納入技術倫理甚至法律規範的議程。 

因為無論多強的技術、再多的資料,都無法穿越0和1的字元本身,明辨是非善惡。人機共生的必然方向:AI越努力,人性的光輝越需要照耀到每一個技術角落。

使用 Facebook 留言

HR Journey
1.  HR Journey (發表於 2021年10月02日 17:12)
合格第三方的演算法稽核,日益重要。避免人們錯誤運用 AI 而影響社會公平:
https://hiproficiency.com/ai-hiring-auditing/

發表回應

謹慎發言,尊重彼此。按此展開留言規則