面試你的AI“小姐姐”真有那麼神?_風聞
霞光社-霞光社官方账号-赋能企业全球化。2021-01-05 17:49
譯者丨艾瑞莉婭
繼可口可樂、聯合利華等巨頭採購AI招聘系統後,國內招聘平台智聯招聘也推出了視頻面試產品“AI易面”。在面試中AI能進行語義分析、視頻分析,還能給出一些固定套路的面試題,加上經典的性格和智力測評,“AI易面”就可以智能完成人崗匹配。
聽起來似乎HR已經被AI踢出了招聘流程,但這種新技術也存在不少問題。
原本AI招聘的賣點是可以消除企業在招聘過程中的人為偏見,讓企業和求職者都能從招聘中受益。但實際應用起來可沒那麼容易,AI算法並非“生來”客觀,招聘軟件也會帶來新的偏差和歧視,誤刷掉有能力的應聘者,甚至讓企業陷入被動境地。
哪些公司在做AI招聘工具?
招聘流程中,每一步都有AI加入的可能性。
Textio公司用機器學習來幫主管們優化崗位描述。Facebook、LinkedIn和ZipRecruiter都是利用算法的推薦,製作專門針對潛在的候選人招聘頁面。
另一方面,Ideal、CVViZ等AI提供商推出“簡歷掃描”服務,可以篩選簡歷,留下那些符合條件的候選人。而當和候選人的面試結束後,HireVue、Modern Hire等向企業承諾他們的算法可以分析面試中的對話,預測哪些候選人未來會在工作上表現最好。
圖注:Pymetric的核心(測試)小遊戲
還有一些軟件公司會提供AI嵌入的心理測試,如Humantic通過候選人的申請材料和個人網上檔案來分析,Pymetrics表示可以用一些簡單的小遊戲達到一樣的效果。
AI招聘工具是如何工作的?
要做好AI招聘工具,數據基礎是最大的難題。只有數據質量高,機器學習算法才能精確。
目前,大多數AI招聘工具都從現有員工的數據中進行提取訓練的,例如要訓練一個“簡歷掃描儀”,公司需要收集全部在職員工的簡歷,與銷售數據或年度彙報等指標進行對比。這些數據蒐集、梳理、分析將教會算法如何辨別與公司頂尖員工最相似的簡歷。
當然,這種方法只能抓取現有員工的數據,難免陷入“窠臼”,甚至會出現用人的偏見。
北美地區波士頓諮詢集團AI部門的聯合主管Shervin Khodabandeh説:“AI生來就是帶有偏見的,因為世界上根本不存在毫無偏差的數據。”他解釋説,這個難題在招聘中更加明顯,因為可用數據非常有限——公司招聘的候選人,要過很多年才能看出他們未來會不會成為頂尖員工。
為了解決這些問題,AI服務提供商們採用一種迂迴的方式減少訓練數據中的偏差。在康奈爾大學學習招聘算法的學生Manish Raghavan説,很多賣家都在遵守“4/5規則”的基礎上設計算法(美國法律規定,以人口特徵劃分,任意人口組被選擇的概率不得低於另一人口組的80%)。所以為了防止企業承擔法律責任,經過精心設計的招聘AI工具會向企業推薦人數相等的男性和女性。
但Raghavan説,**這並不意味着在人口特徵以外的方面算法也能有同樣的表現。**如果訓練數據大多來自男性員工,AI有可能學着把一些更多形容男性的特質與“成功”聯繫到一起。例如,簡歷上有參加高中橄欖球隊的經歷、在介紹信中被稱為“搖滾明星”等。
“如果你有很多這樣的特質,你可能會騙到很擅長預測表現傑出的男性的AI招聘工具,但在擅長女性預測AI招聘工具中你可能就會被淘汰”,Raghavan説道。
如果之後公司面試了十位最符合要求的男性和由申請工具挑選出的十位女性的隨機樣本,表面上來看這次招聘或許是消除了偏見的,但這份工作還是更容易由男性取得。
“搬起石頭砸了自己的腳”
基於上文提到的“弊病”,AI招聘工具在很多情況下並不能優質、高效的完成任務。
2018年,亞馬遜開發的“簡歷掃描儀”被爆歧視女性,聲名狼藉。本想做招聘AI中的翹楚,卻因不公平對待含有“女子”一詞(如女子球隊、女子俱樂部)的簡歷而馬失前蹄。
HireVue曾對自家面試分析AI進行了周密的測試,這款產品可以分析候選人的面部細微變化、用詞和語氣。
但紐約大學AI Now學院的道德倫理“衞士”們評價這款工具是“假科學”、“對歧視的縱容”,還毫不留情地點名使用這款AI的企業,其中包括了赫赫有名的聯合利華、希爾頓集團。面對集體抵制,美國聯邦貿易協會正式控告HireVue。伊利諾伊州甚至通過了一項法案,要求企業披露對類似AI工具的應用。
前車之鑑,後事之師
波士頓諮詢集團的Khodabandeh説,從之前事件中我們最應該吸取的經驗就是不要盲從AI的推薦,招聘部門經理應該始終將決策權握在自己手中。“當你的算法告訴你‘這就是你想要的人’時,不應盲目信任它。”他補充道。
相反,Khodabandeh認為大眾應該換個思路想問題。企業不應該讓AI篩選最佳候選人,之後讓招聘部門經理給它的“決定”蓋個章,而是應該運用AI來審計企業本身的招聘流程。最理想的AI招聘應該是能夠深入研究人事數據,但最終目的並不是預測下個最優人選是誰,而是綜合指出過去誰表現得更好。
Khodabandeh補充説:“AI算法的一個優勢就是能夠指出你的偏見,你會發現自己對某些候選人特質可能已經有了不公平、不負責任的偏向,甚至自己都沒意識到可能已經觸及了倫理道德的邊線。這時候才輪到我們人類進場、主動去消除偏見和偏差,決定下一輪面試和招聘看重哪些候選人特質。”
企業必須非常瞭解對所應用算法的審計,康奈爾的研究員Raghavan説:“多數AI提供商只會和客户分享AI算法的內部邏輯。對很多客户來説,即使拿到審計證據,他們也沒有對現實情況的評估能力。”
對於沒有內部數據的企業,Raghavan的研究中給出了一些普適性提示:首先,對於AI系統探測給出的員工工作表現和麪容、聲音、行為等的關聯性,要保持懷疑態度;其次,提供心理方面檢測及結論的算法少之又少。因此這類算法提出的關聯性一般只比隨機取樣稍微靠譜一點點,得出的結論本身可能就是一項新風險。
總結來看,大火的AI技術並不是無所不能。有時,HR們最需要的“高科技工具”只是他們的本能。
文章翻譯自QUARTZ,原標題為 How to use AI hiring tools to reduce bias in recruiting,作者是Nicolás Rivero,由霞光社簡單整理編輯後發表。