面試你的不是人?紐約市欲限制人工智慧「面試官」

作者 | 發布日期 2021 年 11 月 29 日 8:30 | 分類 AI 人工智慧 , 人力資源 , 科技政策 Telegram share ! follow us in feedly


「我們無法提供您更多面試結果細節」。

美國越來越多僱主使用人工智慧(AI)加快招聘流程,但求職者很少知道 AI 招聘工具為何拒絕他們,或如何分析面試過程,落選後往往只收到冷冰冰的郵件,不知道自己為什麼落選。

這不免令人不安,AI 對職涯究竟會有什麼影響?

美聯社報導,11 月初紐約市議會以 38 票對 4 票通過新法案:如果 AI 招聘系統沒有通過年度審核將禁止使用,年度審核將檢查 AI 招聘系統有沒有種族或性別歧視,允許求職者選擇人工審查等替代方案,AI 開發人員還需披露更多不透明細節。

有趣的是,負責年度審核的是 AI 開發人員,但被處罰的是雇主,如果使用未通過年度審核的 AI 招聘系統,每項違規行為最高罰款 1,500 美元。

支持者認為,法案將為複雜的演算法打開窗戶,演算法往往根據求職者口語或寫作能力排名技能和個性,但機器能否準確公正判斷性格特徵和情緒符號值得懷疑,這過程未來會更透明。至少知道「因演算法有偏見被拒絕」就有意義,牛津大學技術法教授 Sandra Wachter 表示:

反歧視法主要由投訴驅動,如果勞工不知道發生切身的事,就沒人可抱怨被剝奪工作機會。

新創公司 Pymetrics 也支持這法案,提倡藉 AI 以遊戲等面試,並認為符合公平要求,同時過時 AI 面試方案將被掃進垃圾堆。AI 招聘系統供應商 HireVue 今年初逐步淘汰臉部掃描工具,這被學術界稱為「偽科學」,讓人想起種族主義的顱相學理論。

持反對意見的多是出於「這遠遠不夠」。民主與技術中心主席 Alexandra Givens 指出,提案只要求僱主滿足美國民權法的現有要求:禁止因種族、民族或性別產生不同影響的招聘行為,但忽略殘疾或年齡偏見。

一些人工智慧專家和數位權利活動家擔心,法案只是讓 AI 開發人員自證遵守基本要求,也只為聯邦監管機構和立法者設定薄弱標準,具體如何「審核偏見」非常模糊。偏見在面試並不少見,主要問題出在餵養演算法的數據,但往往置於「黑箱」中,普通求職者很難發覺。

幾年前,亞馬遜停用履歷掃描工具,因偏向讓男性擔任技術職位。部分原因是將求職者條件與公司內男性員工技術勞動力比較;同理,如果演算法從種族和性別差異普遍存在的行業取得資料,那只會鞏固偏見。

這種偏見並不只存在徵才活動,今年 4 月南加州大學新研究表明,Facebook 正以可能違反《反歧視法》的方式刊登廣告,男性更有可能看到披薩外送司機徵才廣告,女性更有可能看到購物廣告。

AI 歧視只能由人類社會培養,個人偏見行為常是下意識的,人不一定會察覺。如果將偏見較少的公司與偏見嚴重的公司比較,就是兩種原因:前者對消除偏見更努力,後者更擅長收集不合理的現狀並使之永久化。

所以中性意見認為紐約市提案最好的部分是要求披露演算法,讓人們知道自己是由 AI 評估、AI 如何評估及資料去了哪裡。

(本文由 愛范兒 授權轉載;首圖來源:pixabay

延伸閱讀:

關鍵字: , , ,