原文请访问:Ifeoma Ajunwa,Unfair Automated Hiring Systems Are Everywhere,https://www.wired.com/story/unfair-automated-hiring-systems-are-everywhere-ftc/
本月早些时候,美国联邦贸易委员会 (FTC) 主席 Lina Khan 在《纽约时报》上发表了一篇文章,申明了该机构监管 AI 的承诺。但有一个 AI 应用程序 Khan 没有提到,而FTC 迫切需要去监管:自动化招聘系统。这些工具的复杂性从仅仅解析简历并对它们进行排名的工具到允许候选人进入下一轮和将认为不合适的简历扔进垃圾桶。越来越多的美国工人不得不使用它们——如果他们想被雇用。
在我最近的书《被量化的工人》(The Quantified Worker)中,我认为美国工人正在被工作场所的人工智能技术简化为数字,其中主要是自动化招聘系统。这些系统将申请人简化到一个分数或等级,往往忽略了他们人类经验的格式塔(gestalt,超越单个组成部分的感知整体——译者注)。有时,他们甚至会根据种族、年龄和性别对人进行分类,这种做法在法律上被禁止纳入就业决策过程。
具有讽刺意味的是,这些系统中的许多都被宣传为无偏见或保证减少歧视性招聘的可能性。但由于监管过于松散,此类系统已被证明会根据种族、年龄、性别和残疾等受保护的类别拒绝提供平等就业机会。例如,2022 年12月,一个女卡车司机工会起诉Meta,指控 Facebook“根据用户的性别和年龄有选择地展示招聘广告,年长的工人不太可能看到广告,而女性则不太可能看到蓝领广告” ,尤其是在历史上排斥女性的行业。” 这就是欺骗。更重要的是,这对求职者和雇主都是不公平的。雇主购买自动招聘系统以减少他们对就业歧视的责任,这些系统的供应商在法律上有义务证实他们的有效性和公平性。
法律将自动招聘系统置于联邦贸易委员会的职权范围内,但该机构尚未就这些系统的供应商应如何为其商品做广告发布具体指导方针。它应该从要求审计开始,以确保自动化招聘平台履行他们对雇主做出的承诺。这些平台的供应商应有义务提供明确的审计记录,证明他们的系统减少了招聘决策中的偏见,正如广告中所宣传的。这些审核应该能够表明设计师在创建平台时遵循了平等就业机会委员会 (EEOC) 的指导方针。
此外,与 EEOC 合作,FTC 可以建立公平自动化招聘标志,该标志将用于证明自动化招聘系统已通过严格的审计流程。作为一种认可,该标志对于消费者(申请人和雇主)来说将是一个有用的质量信号。
FTC还应允许作为AI在线申请系统消费者的求职者根据联邦信用报告法 (Federal Credit Report Act,FCRA) 提起诉讼。此前,FCRA被认为仅适用于三大信贷机构,但仔细阅读就会发现,只要为任何“经济决策”创建了报告,该法律就可以适用。根据这个定义,在线自动招聘平台创建的申请人资料是“消费者报告”,这意味着生成它们的实体(例如在线招聘平台)将被视为信用报告机构。根据FCRA,任何作为这些报告之一的主题的人都可以向做出报告的机构申请查看结果并要求更正或修正。大多数消费者不知道他们拥有这些权利。FTC应该发起一场教育活动,让申请人了解这些权利,以便他们可以利用这些权利。
1982年汤普森诉圣安东尼奥零售商协会 (SARMA) 案(Thompson v. San Antonio Retail Merchants Ass’n)为求职者树立了一个有帮助的先例。在这个案件中,信用机构 SARMA 为汤普森的个人资料输入了错误的社会安全号码,因此错误地报告了另一个名字相似的人的不良信用记录。地方法院和上诉法院都确认SARMA犯了错误。FTC可以创建一个网站,帮助求职者查询自动化招聘平台的求职者报告,并允许他们提交声明以更正错误报告。FTC还可以规定罚款,甚至允许申请人在平台未能更新不准确的报告时提起诉讼。
最后,FTC应该完全禁止销售声称可以解析人类情感的自动化视频采访系统。认为可以从面部表情和动作中收集到诸如可信度之类的人类特征的想法是一种伪科学,类似于被揭穿的颅相学实践,它具有种族主义和优生学的根源。声称可以做到的自动化面试系统最终只会排除不适合多数种族或可能有残障的求职者。
AI招聘系统在塑造公司和决定谁能和不能晋升方面发挥着至关重要的作用。联邦贸易委员会应规范有关它们的营销声明,以阻止欺诈行为并使求职者之间的公平竞争成为可能。通过对这些提议采取行动,联邦贸易委员会可以确保善意的雇主购买有效的招聘工具,而不是欺诈性的产品。