美国首例针对AI招聘平台FCRA集体诉讼启动,指控筛选求职者过程不透明

richlovec 1500_400 (1)
 

许多求职者在投递简历时,往往并不清楚自己首先面对的已不再是人力资源人员,而是一个人工智能系统。此类系统在后台对简历进行筛选,决定谁能进入下一轮流程,而大量申请则可能在无人知晓的情况下被过滤掉。

在这一背景下,一起于本周二在美国提起的新集体诉讼引发关注。该案被指为美国首例以《公平信用报告法》(FCRA)为依据,起诉人工智能招聘公司的案件。两名加州员工起诉由风险投资支持的人工智能招聘平台 Eightfold AI,指控该公司在求职者不知情、未同意、且无机会纠正错误的情况下,生成用于筛选求职者的报告。

根据诉状,两名原告曾向多家使用 Eightfold AI 的企业投递简历,其中包括 PayPal 和微软。原告之一 Erin Kistler 在一份新闻稿中表示,她在过去一年申请了数百个职位,却感觉“有一股看不见的力量”阻碍自己获得公平考虑。她对《纽约时报》称,在过去一年中,她申请的数千个职位中,仅有约 0.3% 进入了后续环节或面试,她形容这一经历“令人沮丧”,并表示自己并非唯一有类似感受的人。

诉状援引 Eightfold AI 官网介绍称,该公司算法会从职业网站、招聘平台和简历数据库中抓取信息,构建一个包含“100 万个职位名称、100 万项技能,以及超过 10 亿人的职业档案,涵盖所有职位、职业、行业和地区”的数据集。原告方面指称,其中大量数据“不准确、不完整,或来自未知第三方来源”。

原告称,Eightfold AI 基于上述数据训练人工智能模型,并据此对求职者的技能、经验以及招聘经理的用人目标进行匹配,为每份求职申请打出 1 到 5 分的评分。诉状认为,这些由人工智能生成的评估构成了《公平信用报告法》和加州法律意义上的“消费者报告”。

与传统信用报告不同的是,诉状指出,求职者通常不会获知自己的评分结果,也不了解评分的生成方式,很多人甚至不知道自己被算法评估。一旦评分存在错误,候选人也缺乏纠正渠道。这种状况被诉状形容为“黑箱”:外界可以看到系统的输入和输出,但中间的推理过程对个人和依赖评分作出招聘决策的雇主而言仍然是隐藏或难以理解的。在越来越多企业依赖人工智能进行招聘和候选人筛选的情况下,这种不透明性被原告视为问题所在。

针对上述指控,Eightfold AI 一名发言人对《Fast Company》表示,诉状中对公司产品的描述“在事实层面上是不正确的”。该发言人称,Eightfold 向企业提供的是用于管理人才流程和与候选人互动的技术平台,公司不会“潜伏”或抓取个人网页历史、社交媒体等信息来构建“秘密档案”,其平台运行基于的是候选人提交给企业客户的数据,或由客户提供的数据。

这名发言人表示,Eightfold 使用的信息包括申请人自愿向客户提交的技能、工作经验和教育背景,以及客户在合同授权范围内提供的数据,并提及公司公开的“蓝图”文件,称其中对数据使用方式有具体说明。

原告方面则表示,并非要求在招聘中完全禁止使用人工智能,而是希望相关公司在使用此类技术时遵守与其他主体相同的法律标准。代表原告的公益法律机构 Towards Justice 执行董事 David Seligman 在新闻稿中表示,仅仅因为一家公司使用“听起来很高端的人工智能技术”,并获得风险投资支持,并不意味着其可以凌驾于法律之上,他强调,“这里不是‘狂野西部’”。

随着人工智能在招聘和候选人筛选环节的应用不断扩展,原告及其代理机构认为,此类围绕数据使用和程序透明度的法律纠纷可能会变得更加常见。


分享:


发表评论

登录后才可评论。 去登录