前段时间,由于美国“BLM”平权运动的持续发酵,IBM、谷歌等互联网巨头纷纷下架或停止了自家的 AI 人脸识别业务,因为这些业务被证实存在种族和性别偏见。
但从大厂不断关闭的 AI 业务中,也有一些人找到了相反的创业方向,他们试图利用 AI 工具来解决职场招聘过程中的歧视与偏见问题。
人工智能招聘工具
根据调研机构的分析,在世界财富 500 强企业中,有 98% 以上的企业在招聘过程中会使用 AI 简历过滤软件,同时也有越来越多的中小型企业使用类似的招聘工具。但与 AI 人脸识别一样,这些 AI 工具也存在偏见问题。
据外媒报道,两年前,美国电商巨头亚马逊曾秘密下线了公司内部的一个 AI 招聘工具,原因是该系统在长期对求职者简历进行筛选的训练过程中“学会”了性别歧视
即该 AI 在筛选简历时会更偏爱男性求职者,同时会自动降低一些女性求职者简历的评级。这一事件在当时也引发了人们对于 AI 招聘工具公平性的质疑。
近日,一家名为 GapJumpers 的 AI 创业公司声称,通过精心设计和训练其 AI 模型,他们的 AI 招聘工具能够在招聘流程中专门解决各种系统性偏见。
这不是一个简单的任务:首先 AI 算法本身就存在一些性别和种族方面的偏见。而这家公司采用的策略是清除招聘程序中的身份识别信息,仅依靠匿名面试和技能测试来评定求职者与职位的匹配度,同时加入职位调剂的机制以吸引尽可能多的应聘者。
GapJumpers 是一家位于旧金山的初创公司,他们推出的 AI 招聘项目为求职者提供了一个平台,该平台使用机器学习算法对求职者进行仅与工作相关技能的评估,同时屏蔽所有的个人身份信息,再对每个候选人进行评分和排名。
该公司联合创始人兼首席执行官 Kedar Iyer 表示,这种方法有助于减少传统 AI 招聘工具对于简历内容的过分依赖,因为简历作为训练数据的来源“充满了偏见”,并避免类似亚马逊的 AI 招聘工具在长期的简历筛选中将这样的偏见不断放大。
评论认为,这种减少歧视的刻意做法可能会鼓励更多公司尝试使用 AI 辅助招聘。随着平权运动在西方国家获得越来越广泛的支持,越来越多的企业开始致力于构建企业结构多元化,像 GapJumpers 这样的 AI 招聘业务也得到了很多潜在客户的询问。Iyer 说:“我们看到各种规模的公司都对提高他们的多元化越来越感兴趣。”
需要人工监督的人工智能
亚马逊下线的 AI 招聘工具带来的另一个教训是,在开发类似的 AI 招聘工具时,仅仅关注算法的设计和训练是不够的,因为 AI 软件几乎总是需要不断的人工监督。
对于开发人员和招聘人员来说,这意味着他们不能盲目地信任 AI 工具的筛选结果 —— 他们还需要了解其背后的流程,不同的训练数据如何影响其行为,并监控可能出现的偏见。
来自北卡罗来纳州立大学的信息技术教授 Fay Cobb Payton 表示,科技企业中的种族偏见由来已久,“ 因为该行业中的部分群体(例如非裔美国人、女性)相对较少,而该行业的平均薪酬又恰好高于其他行业,这就造成了人们常常议论的 ‘种族贫富差距’。
而一直以来,这部分群体在招聘过程中就难以进入科技公司(特别是研发部门),从而形成了一个带有偏见的历史循环。”
Payton 和她的同事在去年发表的一篇论文中提到了包括 GapJumpers 在内的多家以 AI 招聘工具为业务的公司,认为它们是采用“故意设计正义”的方法来改变 IT 界的招聘机制。
根据 Payton 的观点,AI 招聘工具根据其在招聘过程中的参与度可分为三种类型。初级的招聘工具可能只是给 HR 提供关于招聘哪种候选人的一般性建议;中级的工具可能会向招聘人员推荐特定的应聘者;而一些高级工具可以对候选人进行主动的筛选,甚至直接做出选择的决策。
但是,无论 AI 在招聘过程中扮演什么角色,最终都应该要人来对评估系统做出决策,并拥有随时推翻 AI 所做决策的权力。
Payton 说:“我认为,正确的 AI 工具不应该在算法建议的末尾才提到人为介入。人类应该从设计 AI 工具到使用该工具进行招聘的整个循环过程中全程参与,一直到系统内部形成完全没有偏见的模型为止。”
Payton 补充说,AI 系统决策点的每个阶段都应允许进行人工审核,以便预防每个阶段可能出现的偏见。当然,人员的分工是至关重要的,比如审核系统的人员与最初设计系统的人员应该是不同的人,这样也能大大降低系统出现偏见或歧视的概率。
AI 工具并不是快速解决方案
AI 招聘工具面临的另一个挑战是,有些客户希望使用这些工具能够快速解决复杂的问题,而事实上并非如此。总部位于伦敦的招聘软件初创公司 Headstart 的产品营销主管 James Doman-Pipe 表示,任何想要使用 AI 或其他技术避免职场歧视的企业,都需要组织领导层和其他部门在各个环节的大力支持。
Headstart 的软件使用机器学习来评估求职者,并生成相应的“匹配分数”,以显示应聘者满足该工作岗位对技能、学历和工作经验要求的程度。Doman-Pipe 说:“通过产生匹配分数来对应聘者进行排序,招聘人员更有可能抛开种族、性别、家庭环境等因素,对应聘者择优录取,从而减少主观潜在的偏见。”
该公司声称,在将基于 AI 的方法与传统招聘方法进行比较的测试中,使用其软件的客户看到了新员工在多样性方面的显着改善。
尽管如此,以人工智能为动力的招聘工具在获得广泛信任之前,所面临的最大障碍之一是缺乏公信力,即这些 AI 工具需要一些公开的数据来表明:不同的工具是如何帮助招聘过程变得更加公平的。
宾夕法尼亚州立大学教授 Yarger 表示:“我从与一些软件公司的访谈中知道,他们确实为了更好的多元化进行了改变,他们重新校准了他们的招聘系统。但是,提高 AI 招聘中的算法公平性是否真的带来了效果,这点尚不清楚。”
她解释说,由于围绕公平就业和职场歧视的问题会带来一些法律责任,因此许多公司仍然不愿公开分享此类信息。因为一旦公开的数据证明了他们使用的 AI 工具曾经或仍然存在歧视某些群体的现象,那么该公司很可能会面临法律后果。
Payton 教授认为,人工智能是否能帮助企业创建公平、公正的人才招聘机制,仍然有待观察。“人类社会长久以来形成的偏见,包括一些职场招聘歧视的现象,并不会一夜之间发生变化。所以我们还有很多工作要做。”
本文采用「CC BY-SA 4.0 CN」协议转载自互联网、仅供学习交流,内容版权归原作者所有,如涉作品、版权和其他问题请给「我们」留言处理。