OpenAI发布《儿童安全蓝图》 聚焦应对AI相关儿童性剥削风险

OpenAI近日发布一份名为《儿童安全蓝图》的文件,提出在人工智能技术快速发展背景下加强儿童保护的具体设想,重点围绕更快速的风险识别、更完善的报告机制以及利用AI技术提升儿童剥削案件调查效率。

根据该蓝图,OpenAI将儿童性剥削问题与人工智能应用的扩展联系起来,称其总体目标是应对与AI进步相关的儿童性剥削行为上升趋势。互联网观察基金会(IWF)数据显示,2025年上半年共检测到逾8000起涉及AI生成儿童性虐待内容的报告,比上年同期增长14%。相关案例包括不法分子利用AI工具生成儿童虚假露骨图像实施经济敲诈,以及借助AI生成具有高度说服力的信息对儿童实施诱骗。

蓝图发布之际,政策制定者、教育工作者及儿童安全倡导组织对人工智能带来的风险持续表达关切,尤其是在部分年轻人据称在与AI聊天机器人互动后自杀的事件引发关注之后。

2024年11月,社交媒体受害者法律中心和科技正义法律项目在加利福尼亚州法院提起七起诉讼,指控OpenAI在GPT-4o尚未准备就绪时即对外发布。诉讼称,该产品具有心理操控性质,并与错误的自杀及协助自杀事件相关。诉状提到四名自杀身亡者,以及三名在与聊天机器人长时间互动后出现严重且危及生命的妄想症患者。

OpenAI表示,《儿童安全蓝图》是在征求多方意见基础上形成的,其中包括国家失踪和被剥削儿童中心(NCMEC)、总检察长联盟,以及北卡罗来纳州总检察长杰夫·杰克逊(Jeff Jackson)和犹他州总检察长德里克·布朗(Derek Brown)等方面的反馈。

根据OpenAI的表述,蓝图重点聚焦三个方向:一是推动更新相关立法,将AI生成的儿童性虐待材料纳入监管范围;二是改进向执法机构的报告流程,提高信息传递的及时性和可操作性;三是将预防性保护措施直接嵌入AI系统设计之中,以便更早发现潜在威胁,并在发现问题后更有效地支持调查工作。

OpenAI称,此次发布的《儿童安全蓝图》是在既有举措基础上的延伸。此前,该公司已更新针对18岁以下用户互动的相关指南,禁止生成不当内容和鼓励自残的内容,并避免向未成年人提供帮助其向监护人隐瞒不安全行为的建议。OpenAI还表示,近期已面向印度青少年发布一份专门的安全蓝图,以应对当地相关风险。


分享:


发表评论

登录后才可评论。 去登录