研究發現人工智能工具未能減少招聘偏見調節亮度都能影響評分
研究人員在一項研究中說,人工智能招聘工具並沒有減少偏見或改善多樣性。”人們對解決面試偏見等問題的新方法越來越感興趣,”劍橋大學的研究人員在《哲學與技術》雜誌上說。人工智能的使用正變得廣泛–但它對候選人視頻或申請的分析是”偽科學”。
人力資源的專業機構認為AI可以對抗偏見。研究指出,在2020年,對500名人力資源專業人士的國際調查表明,近四分之一的人正在使用人工智能進行”人才招聘,以自動化的形式”。
但是,用它來減少偏見是適得其反的,劍橋大學性別研究中心的博士後研究員凱里-麥克瑞斯博士認為,它是基於”一個神話”。
她說:”這些工具不可能被訓練成只識別與工作有關的特徵,並從招聘過程中剝離出性別和種族,因為我們認為成為一名好員工所必需的各種屬性本身就與性別和種族有關。”
研究報告指出,一些公司也發現這些工具有問題。例如,在2018年,亞馬遜宣布取消開發一個人工智能驅動的招聘引擎,因為它可以從簡歷中檢測出性別,並歧視女性申請人。
研究人員特別關注的是”分析候選人的語言和身體動作的細節”的工具,以了解他們與公司所謂的理想員工有多大的相似之處。
視頻和圖像分析技術”沒有科學依據”,合著者埃莉諾-德拉吉博士告訴BBC新聞,將其視為”現代顱骨學”,即頭骨形狀可以揭示性格和心理能力的錯誤理論。
“他們說,通過看你的臉就能知道你的性格。這個想法是,就像測謊儀測試一樣,人工智能可以’透過’你的臉看到真正的你,”她告訴BBC新聞。
來自劍橋大學的研究截圖,顯示了照明條件的變化如何改變分數,圖片來源:Eleanor Drage
研究人員與六名計算機科學專業的學生一起,建立了他們自己的簡化人工智能招聘工具,對候選人的照片進行”五大”性格特徵的評分:順從性、外向性、開放性、自覺性、神經質。
但這些評分被許多不相關的變量所歪曲。例如,”當你使用我們的工具時,你可以看到,當改變對比度/亮度/飽和度時,你的人格分數會發生變化,”Drage寫道。德國一家公共廣播公司還發現在視頻中戴眼鏡或頭巾會改變候選人的分數。
英國特許人事和發展協會的海法-莫扎尼告訴BBC新聞,其研究表明只有8%的雇主使用人工智能來選擇候選人。她說:”人工智能可以通過從更大的候選人庫中進行過濾,有效地幫助提高一個組織的多樣性–但如果規則和訓練數據不完整或不准確,它也可能錯過很多好的候選人。在招聘中分析候選人的聲音和肢體語言的人工智能軟件還處於起步階段,因此既有機會也有風險。”