求职者在美起诉Eightfold AI:指控其在不知情情况下对简历打分并向雇主提供排名

richlovec 1500_400 (1)
 

美国多地求职者近日对人工智能招聘供应商Eightfold AI提起诉讼,指控该公司在求职者不知情、未同意的情况下对其简历等信息进行自动化分析并生成“匹配”评分,再将评分结果提供给雇主用于筛选与排序候选人。原告称,Eightfold的软件被部署在一些大型企业的招聘门户背后,相关做法使自动化招聘流程的透明度与合规性成为争议焦点。

诉讼发生之际,人工智能工具正被用于在招聘人员接触候选人信息之前,对海量申请进行初步筛选。原告在起诉中质疑相关系统如何收集数据、形成评分并传递给雇主,并请求法院审视此类“算法守门”机制在就业场景中是否触及非法监控或歧视等法律边界。

指控:系统抓取信息生成数值评分并用于筛选

根据诉状,Eightfold AI被指构建了一套自动化系统,可在后台抓取求职者提交的材料及相关就业数据,生成数值化的“匹配”评分,并将评分交付客户公司。原告称,雇主据此对申请人进行排名与筛选,而被分析的求职者并未被告知其材料会被第三方模型用于评分,也未获得明确同意。

原告在法庭文件中表示,该流程并非简单的关键词检索升级版,而是对个人职业信息的自动化画像:系统据称会摄取简历、在线资料及其他就业数据并赋予评分,使部分候选人在招聘者界面中被优先展示,另一些则被压低甚至难以进入人工审阅环节。诉状还提及,Eightfold的技术被描述为可扫描关于员工与职位的“数十亿”数据点,原告认为在此规模下缺乏透明度尤需关注。

法律依据:援引《公平信用报告法》及州层面隐私法规

原告的主要法律主张基于美国联邦《公平信用报告法》(FCRA)。诉状称,Eightfold在就业场景中生成并共享的评分与排名被雇主用于录用决策,性质上相当于受FCRA约束的消费者报告,但公司未履行相关义务,包括获取书面同意、进行必要披露,以及提供纠错渠道等。

除FCRA外,诉状还援引州隐私与消费者保护法律,称求职者未被告知第三方AI供应商会对其提交材料进行分析并建立持续性档案,亦缺乏选择退出或更正错误信息的机会。原告并寻求以集体诉讼方式代表通过Eightfold驱动的招聘门户提交简历的更大范围申请人群体。

争议焦点:隐形排序对招聘结果的影响

诉状称,使用Eightfold软件的雇主收到的候选人列表会按AI评分预先排序,评分较高者被优先展示,评分较低者则被压低或过滤。原告认为,这意味着求职者是否获得回访,可能在招聘人员查看简历之前就已受到专有模型评估结果的影响。

围绕该案的讨论也集中在“黑箱”招聘问题上,即候选人难以获知系统如何评估自身、也缺乏对评分提出异议的路径。原告希望通过诉讼推动相关流程披露与合规审查。

规模与行业影响:大型企业使用与责任边界讨论

报道提到,Eightfold的软件被微软及其他财富500强企业用于招聘流程管理及内部流动项目。相关客户依赖AI推荐与筛选处理大量申请,岗位覆盖软件工程、销售等多个领域。原告认为,在此应用范围下,评分模型若存在系统性问题,影响可能扩散至更广泛的就业市场。

尽管本案诉讼对象为Eightfold,法律界也关注使用第三方筛选工具的雇主责任边界。相关讨论指出,若第三方工具被认定违反反歧视或消费者保护等法律,依赖该工具的企业可能同样面临合规风险。行业层面亦有保险与风险管理机构关注案件进展,以评估高度依赖自动筛选的用工实践所带来的潜在责任。

并非孤例:AI招聘工具相关诉讼持续出现

Eightfold案之外,美国此前也出现针对其他人力资源技术供应商的诉讼。例如,有案件指控Workday的筛选工具在种族、年龄和残疾等方面对申请者构成歧视。相关诉讼普遍聚焦于自动化过滤器在申请追踪系统中的作用,以及民权与消费者法律如何适用于AI驱动的招聘流程。


分享:


发表评论

登录后才可评论。 去登录