算法招聘不稀奇,現(xiàn)在利用AI算法來自動(dòng)化處理海量簡(jiǎn)歷篩選,已經(jīng)是司空見慣的操作。但算法裁員,對(duì)于許多人來說就聞所未聞了。
最近,一家海外公司Xsolla通過算法判斷出150人是“沒有生產(chǎn)力的員工”,然后一口氣裁掉了他們。
引起爭(zhēng)議的不是裁員本身,而是這一決定背后的原因、標(biāo)準(zhǔn):Xsolla首席執(zhí)行官阿列克桑德·阿加皮托夫接受俄羅斯出版物《Meduza》的一次采訪中提出,員工的“數(shù)字足跡”不符合公司標(biāo)準(zhǔn)。
遠(yuǎn)程工作時(shí)代,加上外部環(huán)境急劇變化,處于困境的企業(yè)不得不裁員自救,原本無可厚非。但利用AI算法來履行裁員職責(zé),就有待商榷了,因?yàn)檫@牽涉到一系列問題,比如:
靠數(shù)字足跡判斷員工合格是否合理?算法開除的決定是否符合勞動(dòng)保護(hù)條例?這是不是意味著未來打工人必須按照AI的喜好來行動(dòng),從而成為算法的奴隸?
算法裁員,究竟釋放出了哪些“惡之花”?
邊界之問
通過算法來開除員工,聽起來著實(shí)有些匪夷所思,直到Xsolla創(chuàng)始人阿加皮托夫撰寫的內(nèi)部郵件被公開,人們才知道算法的判斷標(biāo)準(zhǔn)是:數(shù)字足跡(Digital Footprint)。
信中提到,Xsolla的大數(shù)據(jù)團(tuán)隊(duì)分析了員工在Jira、Confluence, Gmail、聊天、文檔、儀表板等應(yīng)用中的活動(dòng),然后將那些行為路徑不總出現(xiàn)在工作場(chǎng)景中的員工標(biāo)記為“沒有生產(chǎn)力的員工”。
在技術(shù)社會(huì)中,想要追蹤一個(gè)人的網(wǎng)絡(luò)活動(dòng)是很容易的。此前,許多企業(yè)會(huì)通過社交媒體篩選潛在的員工,員工也會(huì)經(jīng)營自己的“賽博形象”以傳遞好的形象,大家似乎都為企業(yè)考察員工的數(shù)字足跡投出了一張“贊成票”。
但當(dāng)事情發(fā)生在裁員這一動(dòng)作下,或許才會(huì)發(fā)現(xiàn),數(shù)字足跡在職場(chǎng)的應(yīng)用,正釋放出了三個(gè)危險(xiǎn)信號(hào):
1.模糊生活與工作的隱私邊界。涉及150人規(guī)模的員工不知道自己正在被AI跟蹤,并且網(wǎng)絡(luò)活動(dòng)的“蛛絲馬跡”都可能被引入考核標(biāo)準(zhǔn),還是很讓人恐懼的。
2.算法“黑箱性”缺乏說服力。通過數(shù)字足跡的可以分析判斷出該人的性格特征,這在招聘時(shí)可作為加分項(xiàng),但裁員需要明確的“不勝任工作”的認(rèn)定標(biāo)準(zhǔn),算法“黑箱性”讓裁員這件事充滿了不確定性,難以服眾,容易引發(fā)心理失衡的報(bào)復(fù)事件;
3.缺乏對(duì)“幸存者”指導(dǎo)意義。一次成功的裁員,不僅僅在于將部分員工開除,還要讓“幸存者”做好對(duì)新任務(wù)的準(zhǔn)備、了解持續(xù)發(fā)展的規(guī)范,但通過分析數(shù)字足跡作出的裁員決定,卻無法清晰地體現(xiàn)出被裁和網(wǎng)絡(luò)活動(dòng)的因果關(guān)系。
一個(gè)人可能因?yàn)榭傇诠ぷ鲿r(shí)間登錄社交媒體,被認(rèn)為效率過低,但這一結(jié)果對(duì)于需要與用戶頻繁交流的創(chuàng)意型崗位就沒什么價(jià)值,也讓“幸存者”處于惶惶然不可終日的狀態(tài)。
疫情之后,越來越多的企業(yè)開始推行永久制的遠(yuǎn)程辦公,與此同時(shí),如何評(píng)估員工的工作狀態(tài)和生產(chǎn)力也成為難題。這個(gè)案例也驅(qū)使我們思考,個(gè)人該向企業(yè)讓渡多少數(shù)字足跡訪問權(quán)限,將成為未來勞動(dòng)市場(chǎng)和法律法規(guī)的重要議題。
標(biāo)準(zhǔn)之謎
那么,通過數(shù)字足跡來衡量員工的敬業(yè)度和生產(chǎn)力,到底靠不靠譜呢?
我們知道,數(shù)字足跡只能跟蹤到軟件交互的時(shí)間和頻率,對(duì)于流程化程度高的工作有直接的參考意義,但對(duì)于創(chuàng)造性工作就有點(diǎn)無能為力了。
一來,科技企業(yè)是典型的知識(shí)經(jīng)濟(jì),涉及到大量的創(chuàng)意創(chuàng)新,這是十分個(gè)性化的過程。比如喬布斯喜歡打坐冥想,然后做出決策;有媒體報(bào)道過,當(dāng)團(tuán)隊(duì)遭遇瓶頸時(shí),張小龍就帶著大家一起聽搖滾樂;德國作家席勒缺乏靈感的時(shí)候,則喜歡吸幾口爛蘋里的味道……如果讓AI來判斷,這些都算“不務(wù)正業(yè)”。
二來,現(xiàn)有算法很難評(píng)估OKR與數(shù)字足跡之間的因果關(guān)系。英特爾公司創(chuàng)始人安迪·葛洛夫發(fā)明的OKR目標(biāo)與關(guān)鍵成果法,已經(jīng)成為谷歌、Facebook、Linked in、BAT等科技企業(yè)廣泛使用的工作模式,即先明確努力的方向和目標(biāo),過程中員工可以自主探索,只要保質(zhì)保量地完成預(yù)定目標(biāo)即可。這種方式能最大程度地激活員工的積極性,并且鼓勵(lì)他們打破常規(guī)。這時(shí)候,用網(wǎng)絡(luò)沖浪的蛛絲馬跡來衡量員工的表現(xiàn),是一種既過時(shí)又極其無效的標(biāo)準(zhǔn)。
標(biāo)準(zhǔn)的不合理性,也會(huì)直接影響裁員程度的正當(dāng)性。我們知道,為了避免任意裁員,許多國家的法律法規(guī)都對(duì)裁員的程序公平有著嚴(yán)格限制,依靠AI算法裁員很難避免暗箱操作和違規(guī)裁員,正規(guī)企業(yè)為了避免陷入風(fēng)險(xiǎn)也不會(huì)草率上馬相關(guān)算法。
人性之思
算法裁員,也證實(shí)了一個(gè)令諸多學(xué)者都擔(dān)憂已久的問題:AI應(yīng)該增強(qiáng)人性,而不是減少或取代它,是這個(gè)時(shí)代面臨的最大挑戰(zhàn)之一。
數(shù)字時(shí)代,許多勞動(dòng)者都不可避免地被“異化”,失去了對(duì)工作、生活和自我的控制,比如與系統(tǒng)爭(zhēng)分奪秒的外賣派送員、被算法支配的網(wǎng)約車司機(jī)、沉浸在算法推送中不可自拔的短視頻愛好者……本該具備人文關(guān)懷的裁員,也開始因算法加入而變得冰冷。
此次Xsolla創(chuàng)始人信中表現(xiàn)出的態(tài)度和語氣令許多網(wǎng)友感到不滿,他給被解雇的員工貼上“沒有參與工作和無益”的標(biāo)簽,稱“我真的相信Xsolla不適合你”。還分享了一份“被開除者名單”,直言不擔(dān)心離職員工,也不擔(dān)心這些措施是否會(huì)打擊公司前進(jìn)的士氣。
根據(jù)算法直接把人裁掉, Xsolla作出如此草率的決定,說明企業(yè)本身存在更大的問題。但用技術(shù)語言與員工溝通的做法,在科技公司卻并不罕見。
2018年就曾發(fā)生過某技術(shù)總監(jiān)因不滿辭退,怒刪9TB關(guān)鍵數(shù)據(jù),造成直接經(jīng)濟(jì)損失225萬;2020年63歲的亞馬遜司機(jī)因算法評(píng)分較低而解雇。試圖讓算法“背鍋”,拒絕以人為本的溝通,等待的不是被裁者的“反殺”,就是大眾的群嘲了。
在裁員這一環(huán)節(jié)中,算法能提供的僅僅只是一個(gè)參考標(biāo)準(zhǔn),更多工作則需要人性化的方式來進(jìn)行。比如裁員溝通,就是一種更為人性化的方式。有研究顯示,在裁員期間受到管理者積極人際待遇的員工,會(huì)較少表現(xiàn)出消極反應(yīng),對(duì)組織未來目標(biāo)的認(rèn)可也會(huì)增加。
高質(zhì)量的對(duì)話,可以有效地避免員工的不公平感,從而把裁員的負(fù)面效應(yīng)減少到最低限度。這是裁員活動(dòng)中最不可控也至關(guān)重要的一個(gè)環(huán)節(jié),也是展現(xiàn)企業(yè)文化和管理者個(gè)人素養(yǎng)的標(biāo)尺。
馬克思曾指出:我們的一切發(fā)現(xiàn)和進(jìn)步,似乎結(jié)果是物質(zhì)力量成為有智慧的生命,而人的生命則化為蠢鈍的物質(zhì)力量。
AI越來越多地進(jìn)入到企業(yè)經(jīng)營的各個(gè)關(guān)鍵領(lǐng)域當(dāng)中,但在直接與人有關(guān)的領(lǐng)域,倉促部署AI都是不合適的。剛剛浮現(xiàn)出的算法裁員問題,應(yīng)該被快速提上技術(shù)倫理甚至法律規(guī)范的議程。
因?yàn)闊o論多強(qiáng)的技術(shù)、再多的數(shù)據(jù),都無法穿越0和1的字符本身,明辨是非善惡。人機(jī)共生的必然方向:AI越努力,人性的光輝越需要照耀到每一個(gè)技術(shù)角落。