“看不见的AI劳动”代价:印度农村女性每天审查数百条暴力与性虐待内容,为AI提供训练数据

richlovec 1500_400 (1)
 

英国《卫报》(The Guardian)于2026年2月5日报道称,在印度农村地区,大量女性以远程方式从事所谓的“内容审核(content moderation)”工作。她们每天反复观看、标注包含暴力、性虐待等极端内容的图片、视频和文本,为全球科技企业的AI系统提供训练数据,却往往处在低薪、隐形、缺乏心理支持的工作环境中。

每天最多审核800条:AI背后的人类“最终判定”

报道聚焦于一位居住在印度东部贾坎德邦(Jharkhand)农村、现年26岁的女性。她每天在家中登录平台后台,审核由自动检测系统标记为“可能违规”的内容,包括视频、图片和文字。

在一个工作量较大的日子里,她需要查看多达800条内容,并根据平台规则判断是否涉及暴力、虐待、色情或其他有害信息,然后进行分类和标注。

这些人工判定结果会被整理成“教师数据”,用于训练和优化算法,使AI系统在识别有害内容时更加精准。报道指出,这类工作是机器学习流程中不可或缺的一环,却往往被公众忽视。

二次创伤压力:职业带来的心理代价

这位女性在接受采访时形容,长时间反复观看暴力和性虐待画面后,会产生一种“最后整个人变得空空的、什么也感觉不到”的状态。

报道提到,从业者中普遍出现失眠、噩梦、侵入性画面反复在脑中浮现、情感麻木等症状。由社会学者米拉格罗斯·米塞利(Milagros Miceli)主导的 Data Workers’ Inquiry 项目指出,内容审核是一种心理负荷极高的劳动形式。

另一项对311名内容审核员进行、历时18个月的追踪研究显示,二次创伤压力、职业倦怠(燃尽)、心理韧性等多项心理指标都受到显著影响。部分企业开始尝试引入心理干预或支持项目,但《卫报》报道认为,整体而言,心理风险仍然缺乏充分重视和系统性应对。

被称为“幽灵劳工”的数据标注者

据估计,截至2021年,印度约有7万人从事数据标注与内容审核等相关工作,市场规模约为2.5亿美元。大量从业者来自农村或半农村地区,其中女性占比超过一半。

一些公司在地方城市设立办公室,借助逐步改善的网络基础设施,将当地劳动力接入全球AI供应链。然而,报道指出,许多劳动者在签约前并未被充分告知工作内容的具体性质和可能带来的心理影响,入职后可获得的心理支持和保障也十分有限。

报道引用了一段对话:当这位女性向经理表达对自己所观看的极端内容的担忧时,经理对她说:“这是上帝的工作。你在保护孩子的安全。”

the guardian260205.jpg

进一步的压力来自严格的保密协议(NDA)。许多劳动者被禁止向家人或朋友详细说明自己的工作内容,这使得她们在面对心理困扰时更难寻求外部支持。

《卫报》的报道强调,在生成式AI飞速发展的背后,仍有大量“看不见的人”在默默承担着筛选与判断的工作。他们的劳动不仅支撑着平台的安全机制,也直接影响着AI系统如何理解和处理“有害内容”,却往往得不到与其风险相匹配的保护与认可。


分享:


发表评论

登录后才可评论。 去登录