OpenAI Japan 发布未成年人安全“蓝图”:强调年龄识别、家长管理与身心健康

richlovec 1500_400 (1)
 

OpenAI Japan 于 2026 年 3 月 17 日发布了《未成年の安全性に関するブループリント》(未成年安全性蓝图),旨在为日本未成年用户安全使用生成式 AI 提供系统性指引。这份文件主张,从 AI 服务的设计源头就应当嵌入未成年人保护机制,并呼吁整个 AI 行业采取类似做法。

蓝图以未成年用户的持续增长为前提,围绕“安全优先”的理念提出了一套 AI 设计原则。OpenAI 指出,生成式 AI 正迅速成为青少年学习与创作的重要工具,但同时也带来了错误信息、不适宜内容以及心理影响等新风险。因此,OpenAI 明确提出:在未成年人相关场景中,应当将“安全”置于“隐私与自由”之上。

三层保护结构:年龄推定、安全策略与家长管理

这份蓝图的核心,是围绕未成年使用场景构建一套系统化的设计原则。

第一层是年龄识别。OpenAI 建议在平台中引入兼顾隐私的年龄推定机制,用以区分未成年与成年人用户。当无法准确判断年龄时,系统应默认将用户视为未成年人,从而自动应用更为保守的保护设置。

第二层是面向 18 岁以下(U18)用户的安全策略。蓝图提出,应对自伤与自杀相关内容、性与暴力内容、危险行为的煽动与协助等进行严格限制。同时,要求 AI 不应与未成年人形成类似“治疗师”或“最亲密朋友”的替代性关系,避免在情感依赖和心理健康方面产生不当影响。

第三层是家长管理机制(家长监护/家长控制)的强化。蓝图设想的功能包括:父母与子女账号的关联、使用时长限制、对部分回复内容的控制、数据与隐私设置的管理,以及在检测到自伤或自杀倾向信号时向监护人发出通知等。

将“身心健康优先”的理念内嵌进 AI 设计

蓝图并不局限于对内容的“禁止与过滤”,还强调要从设计理念上支持未成年人的身心健康(ウェルビーイング)。

在具体实践上,OpenAI 提到,已经在产品中引入了长时间使用时的休息提醒、在用户表达强烈自杀意愿时引导其联系现实世界的支援资源等功能。未来,将在这些基础上,结合外部专家意见与相关研究成果,持续改进安全与健康相关设计。

这一思路背后,是将 AI 视为会对不同发展阶段的未成年人产生深远影响的“环境与存在”,而不仅仅是一个中性的工具。

日本未成年人 AI 使用现状与制度背景

OpenAI 在蓝图中也提及了日本本地的使用情况与政策环境。文件指出,大约六成高中生已经有使用生成式 AI 的经验,且年龄越小的群体,对生成式 AI 的接触与使用越普遍。

与此同时,生成式 AI 输出的信息往往以“看起来很可靠”的形式呈现,对于经验不足的未成年人来说,辨别真伪与判断风险的难度更高。基于这一现实,OpenAI 表示认同日本政策中“不是一刀切限制使用,而是在确保安全的前提下发挥 AI 优点”的方向,并将按照这一思路推进产品设计与治理。

未成年人保护是“社会整体的责任”

OpenAI 强调,保障未成年人在网络与 AI 环境中的安全,不可能仅靠单一企业完成,而是需要全社会共同承担责任。

未来,OpenAI 计划与家长、学校与教育机构、政策制定部门以及相关领域专家持续合作,一方面提升安全措施的精细度与有效性,另一方面加强透明度,让社会各方更清楚 AI 在未成年人保护方面的具体做法与边界。

在未成年人使用 AI 的问题上,OpenAI 表示,不应简单地在“全面禁止”与“完全放开”之间二选一,而是要探索一条“在安全可控的前提下,帮助未成年人充分利用 AI 潜力”的中间路径。


分享:


发表评论

登录后才可评论。 去登录