Ifeoma Ajunwa:请小心算法招聘

译者按:本文原载于纽约时报网站(https://www.nytimes.com/2019/10/08/opinion/ai-hiring-discrimination.html),Ajunwa系美国康奈尔大学的教授。原题目为Beware of Automated Hiring。Automated hiring直译为自动化招聘,但是实际上就是当下流行的用算法来帮助HR筛选和招聘新员工,故翻译的时候做了一点改动——柯振兴

算法为我们做出了很多重要的决定,比如我们的贷款信誉、一个最好的浪漫前景,以及我们是否适合一项工作。在招聘过程中,基于算法更加方便并且(相对于人类)算法的偏见更少,雇主正越来越多地使用他们。然而,正如我在一篇新论文中所描述的,这是误入歧途。

在过去,一个求职者可以走进一家服装店,填写申请表格,并直接交给招聘经理。如今,这份申请必须通过在线招聘算法程序这一障碍后才能被考虑。对于低工资和小时工资的劳动者,这特别真实。

这个情况也同样适用于白领工作。申请成为高盛公司暑期实习生和一年级分析师的人们,他们的简历关键词将被电子扫描,这可以预测他们在这个公司是否会成功。并且公司现在也支持算法协助的面试。

问题是,算法招聘会产生一个闭环系统。由算法生成的广告鼓励特定人群提交他们的简历。当这些简历经历了算法筛选,一些幸运儿被雇佣,然后他们被置于算法评估,评估的结果又被闭环用来建立未来的招聘广告和筛选标准。这个系统的运行没有任何透明度或者责任来检验这个标准是否对所有的求职者都公平。

因此,算法招聘的平台已经使得歧视求职者变得可能。在2017年,伊利诺伊州检察院在收到关于Jobr(一个求职app——译者注)上的简历生成工具实际上排除了大龄求职者的投诉后,对几个算法招聘平台展开调查。平台有一个下拉菜单,如果求职者的大学毕业年份或者第一份工作的年份在1980年之前,那就无法使用下拉菜单。

类似的,2016年的一场集体诉讼声称Facebook Business 工具“不仅使得排除非洲裔、拉丁裔和亚裔收到相关的求职机会的广告成为可能,并且鼓励这种歧视(但是白人能收到这类广告)”。Facebook之前曾推出Lookalike Audiences,允许雇主选择与雇员的人口特征相一致的Facebook用户去看招聘广告,这样可以在他们的公司中复制种族或者性别上的差距。在三月份,Facebook同意改变它的广告平台以平息这场诉讼。

但是这仅仅是冰山的一角。根据联邦法,雇主有很大的自主权来决定求职者的哪些特征符合该组织的文化。这就允许公司选择可以排除特定群体的招聘标准,并通过算法招聘来掩盖这种歧视。比如,选择“工作生涯没有间隔”作为企业文化可能会伤害女性,因为有不成比例的女性会告别她们的工作岗位去照顾子女以及生病的家庭成员。

算法招聘已经超越了简单的简历分析和筛选。一项诉讼显示,一个有着接近完美的SAT分数的大学生(但是有双向情感障碍)在寻找最低工资水平的岗位时被超市和零售店一次又一次拒绝,这些超市和零售店都在使用被用来诊断精神疾病的人格测试模型。

那么,我们该如何保证算法招聘平台不会恶化就业歧视呢?

第一步是通过一项法律,当原告在一个算法招聘系统中遭遇歧视,让他可以提起诉讼。联邦法要求一个原告证明存在区别对待(故意歧视的确凿证据)或者区别影响(统计上的证据证明一个群体的应聘者(比如少数族裔或者白人女性),被不成比例地拒绝)。然而,对于求职者来说,因为雇主控制着招聘平台的数据,他们很难拿到任何一类证据。

我们应该修改法律,允许原告用第三种方法来提起诉讼,也就是“歧视本身(discrimination per se)原则”。就像我在论文中所描述的,这个新原则允许将举证责任转移到雇主。

所以,当一个原告在使用一个招聘平台时遇到一个有问题的设计——比如检验工作生涯中的间隔——它应该能以“雇佣自身”原则提起诉讼,而雇主将被要求从内部审核和外部审核提供统计证据,来展示它的招聘平台并没有非法地歧视特定群体。

我们需要一项联邦法,强制招聘平台保留全体应聘人员的数据(包括没有完成算法分析的求职者),并且要求雇主实行内部和外部的审核,这样就不再有群体会被不成比例地排除。这个审核同样保证被使用的招聘标准事实上与工作任务有关。

这个思想在联邦法中是有先例的:职业安全和卫生行政机构的审核被推荐用来确保劳动者有一个安全的工作条件。那些将算法招聘平台置于外部审核的雇主理应收到一张证书,在劳动力市场中,这张证书有利于这些雇主被辨别出来。这个审核和证书系统承认,关于求职者会信任哪一家求职平台的信息,求职者能在获取信息后做出选择。

工会也能帮助确保算法招聘平台是公平的。通过集体谈判,工会将和雇主一起工作来决定事实上哪些标准与确定工作是否合适有关联。工会也能确保算法招聘平台所保留的应聘者的信息是受保护的,并且确保这些信息的出售或者转移不损害应聘者的利益。

当然,人类的决策也会带有偏见。但是算法的决策也有偏见,特别是,在算法分析过程中的任何阶段——从招聘算法的设计到结果如何被解释——人类的偏见都有可能被引入。

我们不能依赖一个没有足够防护措施去阻止非法就业歧视的算法招聘平台。我们需要新的法律和命令来实现这个目标。

柯振兴