2024年4月30日-5月1日英國倫敦國際人力資源技術(shù)展覽會算法人力資源,將“人力資源”中的“人”去掉?隨著零工經(jīng)濟(jì)的興起,人力資源決策也越來越由算法而非人力來做出。這是未來的趨勢嗎?您有多嚴(yán)格地遵守指導(dǎo)方針?假設(shè)某人未達(dá)到其月度 KPI 的 3/5,您就會對其處以警告。六個月內(nèi)警告三次,則立即解雇。這是處理績效不佳的具體且結(jié)構(gòu)化的方法。不過,一些人力資源專業(yè)人士可能會引入一些回旋余地——如果在其中一個月份,相關(guān)員工失去了親人怎么辦?或者第三次警告只是剛好低于標(biāo)準(zhǔn)?那么,算法人力資源可能會將你(和你的回旋余地)排除在外——這是相當(dāng)確定的。
什么是算法人力資源?算法人力資源的概念非常直觀:人力資源部門可以使用人員分析來指導(dǎo)他們的選擇,而不是基于主觀意見和人類觀察做出決策。這樣,他們就可以對自己的決策更有信心,因?yàn)樗麄冎肋@些決策是基于客觀數(shù)據(jù)的。這種方法可以用于員工監(jiān)控。如果某人超額完成了目標(biāo),或者經(jīng)歷了特別好的一周,系統(tǒng)可能會獎勵他們一張午餐券或一個下午的休息時間。相反,如果銷售人員經(jīng)常遲到,或者打電話的時間減少,這可能會觸發(fā)一個序列,安排他們與直線經(jīng)理會面討論他們的表現(xiàn)。雖然這聽起來有點(diǎn)悲觀,但它也消除了人為偏見;每個人都會得到公平對待。在招聘階段,消除偏見尤其有益。當(dāng)一個人的技能和經(jīng)驗(yàn)由計(jì)算機(jī)系統(tǒng)評估時,性別、種族或殘疾等關(guān)鍵特征就再也不會成為阻礙。一旦人工智能進(jìn)入這個領(lǐng)域,可能性就會擴(kuò)大。預(yù)測模型可以根據(jù)某些數(shù)據(jù)點(diǎn)之間的關(guān)系,找出可能離開公司的員工?;诖?,企業(yè)可以確定需要做些什么來留住這些員工。
缺點(diǎn)算法的好壞取決于它所得到的數(shù)據(jù)。袖珍計(jì)算器可以計(jì)算出圓周率的平方根(順便說一下,是 1.7725),但它無法告訴你你舉起了多少根手指。同樣,算法人力資源對“什么”的總結(jié)是無與倫比的,但它對“為什么”的分析充其量也有限。就拿開頭的例子來說吧。如果你的算法沒有給出一個人表現(xiàn)不佳的完整背景——也許他們剛生完孩子,累得神志不清——它可能會建議你把這個新父母趕出家門。當(dāng)然,情況可能更糟。它可能會把它們?nèi)映鋈ァ嗰R遜通過 Flex 與許多司機(jī)簽約,這意味著他們無法獲得與全職員工相同的保護(hù)。最近,亞馬遜遭到抨擊,因?yàn)檫@些工人在沒有人類做出決定的情況下被解雇。相反,亞馬遜使用一款應(yīng)用程序來監(jiān)控司機(jī)的速度、安全性和完成配額的能力。如果司機(jī)的駕駛速度低于標(biāo)準(zhǔn),他們不會被叫到辦公室討論此事。相反,他們會在手機(jī)上收到一條消息,說他們不再需要服務(wù)。這個系統(tǒng)被批評為冷酷無情,最糟糕的是,它完全是反烏托邦的。當(dāng)一個人的生計(jì)取決于一組 1 和 0 的決定時,很難不同意。擁有解雇員工權(quán)力的系統(tǒng)意味著什么?有些人會認(rèn)為這絕對公平——你設(shè)定一個標(biāo)準(zhǔn),那些落后的人就會被解雇。它消除了人為偏見;一個人被解雇的可能性不會因他的經(jīng)理有多喜歡他而增加或減少。然而,機(jī)器偏見仍然是一個值得關(guān)注的問題:計(jì)算機(jī)系統(tǒng)并不完美,它們很少(如果有的話)對自己的錯誤負(fù)責(zé)。這自然使得它們很難被爭論。
繼承偏見人工智能讓事情變得更加復(fù)雜,因?yàn)樗鼉A向于遵循訓(xùn)練模式。諷刺的是,這給人工智能植入了許多人類潛意識中的偏見。以 Dall-E 和 Midjourney 等 AI 圖像生成器為例,它們在現(xiàn)有藝術(shù)作品上接受過訓(xùn)練,能夠根據(jù)提示創(chuàng)建圖像。當(dāng)被要求畫一個“女人”時,這些程序往往會默認(rèn)畫一個白人女人,除非提示指定了不同的種族。這不是故意為之。相反,這是因?yàn)榛ヂ?lián)網(wǎng)上其他藝術(shù)作品的描述很少會指明女性是白人時的種族。然而,如果藝術(shù)作品描繪的是亞洲或西班牙裔女性,這一特征更有可能被指出。藝術(shù)創(chuàng)作中的小問題會成為招聘中的大問題。如果你要求人工智能為你提供與你現(xiàn)有團(tuán)隊(duì)“相似”的候選人,結(jié)果會怎樣?你可能想要一套類似的技能,卻沒有注意到你的小團(tuán)隊(duì)恰好完全由 40 歲以下的男性組成。那么,人工智能可能會在不知不覺中排除那些不符合這一表面描述的候選人。就這樣,你就有了一個反饋循環(huán),它可以以多種方式教條地影響你員工隊(duì)伍的多樣性。
那么,我們該怎么做?算法人力資源是一種工具。就像錘子一樣,它既不是善的力量,也不是惡的力量,盡管它可以同時用于善和惡。事實(shí)上,最好將這些系統(tǒng)視為團(tuán)隊(duì)的支持成員:聽取他們告訴你的內(nèi)容,相信他們會做好自己的工作,但將決策權(quán)留給自己。請記住,對于他們能夠注意到的每一個你永遠(yuǎn)不會注意到的細(xì)節(jié),都有一千條他們不可能理解的背景信息。簡而言之:使用算法心率作為衛(wèi)星導(dǎo)航。不要讓它駕駛汽車。
展會時間及展會地點(diǎn):2025年4月30日-5月1日??英國???倫敦??就業(yè)? ??(意向參展請點(diǎn)擊詢洽盈拓展覽專業(yè)展會顧問)