訂閱
糾錯
加入自媒體

AI面試是如何工作的?

2021-01-12 21:15
霞光社
關(guān)注

譯者丨艾瑞莉婭

繼可口可樂、聯(lián)合利華等巨頭采購AI招聘系統(tǒng)后,國內(nèi)招聘平臺智聯(lián)招聘也推出了視頻面試產(chǎn)品“AI易面”。在面試中AI能進(jìn)行語義分析、視頻分析,還能給出一些固定套路的面試題,加上經(jīng)典的性格和智力測評,“AI易面”就可以智能完成人崗匹配。聽起來似乎HR已經(jīng)被AI踢出了招聘流程,但這種新技術(shù)也存在不少問題。

原本AI招聘的賣點是可以消除企業(yè)在招聘過程中的人為偏見,讓企業(yè)和求職者都能從招聘中受益。但實際應(yīng)用起來可沒那么容易,AI算法并非“生來”客觀,招聘軟件也會帶來新的偏差和歧視,誤刷掉有能力的應(yīng)聘者,甚至讓企業(yè)陷入被動境地。


哪些公司在做AI招聘工具?

招聘流程中,每一步都有AI加入的可能性。

Textio公司用機器學(xué)習(xí)來幫主管們優(yōu)化崗位描述。Facebook、LinkedIn和ZipRecruiter都是利用算法的推薦,制作專門針對潛在的候選人招聘頁面。

另一方面,Ideal、CVViZ等AI提供商推出“簡歷掃描”服務(wù),可以篩選簡歷,留下那些符合條件的候選人。而當(dāng)和候選人的面試結(jié)束后,HireVue、Modern Hire等向企業(yè)承諾他們的算法可以分析面試中的對話,預(yù)測哪些候選人未來會在工作上表現(xiàn)最好。

Pymetric的核心(測試)小游戲

還有一些軟件公司會提供AI嵌入的心理測試,如Humantic通過候選人的申請材料和個人網(wǎng)上檔案來分析,Pymetrics表示可以用一些簡單的小游戲達(dá)到一樣的效果。

AI招聘工具是如何工作的?

要做好AI招聘工具,數(shù)據(jù)基礎(chǔ)是最大的難題。只有數(shù)據(jù)質(zhì)量高,機器學(xué)習(xí)算法才能精確。

目前,大多數(shù)AI招聘工具都從現(xiàn)有員工的數(shù)據(jù)中進(jìn)行提取訓(xùn)練的,例如要訓(xùn)練一個“簡歷掃描儀”,公司需要收集全部在職員工的簡歷,與銷售數(shù)據(jù)或年度匯報等指標(biāo)進(jìn)行對比。這些數(shù)據(jù)搜集、梳理、分析將教會算法如何辨別與公司頂尖員工最相似的簡歷。

當(dāng)然,這種方法只能抓取現(xiàn)有員工的數(shù)據(jù),難免陷入“窠臼”,甚至?xí)霈F(xiàn)用人的偏見。

北美地區(qū)波士頓咨詢集團(tuán)AI部門的聯(lián)合主管Shervin Khodabandeh說:“AI生來就是帶有偏見的,因為世界上根本不存在毫無偏差的數(shù)據(jù)!彼忉屨f,這個難題在招聘中更加明顯,因為可用數(shù)據(jù)非常有限——公司招聘的候選人,要過很多年才能看出他們未來會不會成為頂尖員工。

為了解決這些問題,AI服務(wù)提供商們采用一種迂回的方式減少訓(xùn)練數(shù)據(jù)中的偏差。在康奈爾大學(xué)學(xué)習(xí)招聘算法的學(xué)生Manish Raghavan說,很多賣家都在遵守“4/5規(guī)則”的基礎(chǔ)上設(shè)計算法(美國法律規(guī)定,以人口特征劃分,任意人口組被選擇的概率不得低于另一人口組的80%)。所以為了防止企業(yè)承擔(dān)法律責(zé)任,經(jīng)過精心設(shè)計的招聘AI工具會向企業(yè)推薦人數(shù)相等的男性和女性。

但Raghavan說,這并不意味著在人口特征以外的方面算法也能有同樣的表現(xiàn)。如果訓(xùn)練數(shù)據(jù)大多來自男性員工,AI有可能學(xué)著把一些更多形容男性的特質(zhì)與“成功”聯(lián)系到一起。例如,簡歷上有參加高中橄欖球隊的經(jīng)歷、在介紹信中被稱為“搖滾明星”等。

“如果你有很多這樣的特質(zhì),你可能會騙到很擅長預(yù)測表現(xiàn)杰出的男性的AI招聘工具,但在擅長女性預(yù)測AI招聘工具中你可能就會被淘汰”,Raghavan說道。

如果之后公司面試了十位最符合要求的男性和由申請工具挑選出的十位女性的隨機樣本,表面上來看這次招聘或許是消除了偏見的,但這份工作還是更容易由男性取得。

“搬起石頭砸了自己的腳”

基于上文提到的“弊病”,AI招聘工具在很多情況下并不能優(yōu)質(zhì)、高效的完成任務(wù)。2018年,亞馬遜開發(fā)的“簡歷掃描儀”被爆歧視女性,聲名狼藉。本想做招聘AI中的翹楚,卻因不公平對待含有“女子”一詞(如女子球隊、女子俱樂部)的簡歷而馬失前蹄。

HireVue曾對自家面試分析AI進(jìn)行了周密的測試,這款產(chǎn)品可以分析候選人的面部細(xì)微變化、用詞和語氣。

但紐約大學(xué)AI Now學(xué)院的道德倫理“衛(wèi)士”們評價這款工具是“假科學(xué)”、“對歧視的縱容”,還毫不留情地點名使用這款A(yù)I的企業(yè),其中包括了赫赫有名的聯(lián)合利華、希爾頓集團(tuán)。面對集體抵制,美國聯(lián)邦貿(mào)易協(xié)會正式控告HireVue。伊利諾伊州甚至通過了一項法案,要求企業(yè)披露對類似AI工具的應(yīng)用。

前車之鑒,后事之師

波士頓咨詢集團(tuán)的Khodabandeh說,從之前事件中我們最應(yīng)該吸取的經(jīng)驗就是不要盲從AI的推薦,招聘部門經(jīng)理應(yīng)該始終將決策權(quán)握在自己手中。“當(dāng)你的算法告訴你‘這就是你想要的人’時,不應(yīng)盲目信任它。”他補充道。

相反,Khodabandeh認(rèn)為大眾應(yīng)該換個思路想問題。企業(yè)不應(yīng)該讓AI篩選最佳候選人,之后讓招聘部門經(jīng)理給它的“決定”蓋個章,而是應(yīng)該運用AI來審計企業(yè)本身的招聘流程。最理想的AI招聘應(yīng)該是能夠深入研究人事數(shù)據(jù),但最終目的并不是預(yù)測下個最優(yōu)人選是誰,而是綜合指出過去誰表現(xiàn)得更好。

Khodabandeh補充說:“AI算法的一個優(yōu)勢就是能夠指出你的偏見,你會發(fā)現(xiàn)自己對某些候選人特質(zhì)可能已經(jīng)有了不公平、不負(fù)責(zé)任的偏向,甚至自己都沒意識到可能已經(jīng)觸及了倫理道德的邊線。這時候才輪到我們?nèi)祟愡M(jìn)場、主動去消除偏見和偏差,決定下一輪面試和招聘看重哪些候選人特質(zhì)!

企業(yè)必須非常了解對所應(yīng)用算法的審計,康奈爾的研究員Raghavan說:“多數(shù)AI提供商只會和客戶分享AI算法的內(nèi)部邏輯。對很多客戶來說,即使拿到審計證據(jù),他們也沒有對現(xiàn)實情況的評估能力。”

對于沒有內(nèi)部數(shù)據(jù)的企業(yè),Raghavan的研究中給出了一些普適性提示:首先,對于AI系統(tǒng)探測給出的員工工作表現(xiàn)和面容、聲音、行為等的關(guān)聯(lián)性,要保持懷疑態(tài)度;其次,提供心理方面檢測及結(jié)論的算法少之又少。因此這類算法提出的關(guān)聯(lián)性一般只比隨機取樣稍微靠譜一點點,得出的結(jié)論本身可能就是一項新風(fēng)險。

總結(jié)來看,大火的AI技術(shù)并不是無所不能。有時,HR們最需要的“高科技工具”只是他們的本能。

文章翻譯自QUARTZ,原標(biāo)題為 How to use AI hiring tools to reduce bias in recruiting,作者是Nicolás Rivero,由霞光社簡單整理編輯后發(fā)表。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號