青少年如何玩转AI伙伴?比想象中更有创意

一个人人都能造“AI角色”的平台

2022年,聊天机器人初创公司 Character.AI 的创始人推出了一个平台,允许任何人创建由人工智能(AI)驱动的互动角色。

这一应用很快走红,用户数迅速突破 2000 万,平台上被创造出来的聊天机器人角色超过 1000 万个。

其中相当一部分创作者是年轻人——直到他们被挡在门外。2025 年 11 月,随着关于平台与青少年自杀事件关联的舆论和法律压力不断升高,Character.AI 宣布禁止 18 岁以下用户使用。此前,平台已经多次尝试通过家长控制、更严格的内容过滤等方式提升青少年安全,但最终仍选择了全面封禁。

这项禁令的初衷是保护青少年免受潜在伤害,却也让他们在 AI 上进行的许多富有创造性、游戏性和情感表达的尝试戛然而止。

我们最新的研究发表在 2026 年计算机协会 CHI 会议论文集中,试图记录并保留青少年与 AI 互动的这些新用法,以便为未来的技术设计提供参考。

青少年真正如何使用AI聊天机器人?

到 2026 年,美国约有三分之一的青少年每天都会使用 AI。以“AI陪伴”为卖点的产品占据了媒体报道和应用商店的显眼位置,相关应用多达数百款。

媒体关于 AI 伙伴的讨论,往往集中在两类担忧上:

  1. 年轻人会用 AI 替代真实的人际关系;
  2. 与一味迎合的聊天机器人互动,会削弱青少年的社交能力。

这些问题确实值得重视。但从数据来看,“陪伴”其实只占青少年使用 AI 的一小部分。皮尤研究中心的一项最新调查显示,青少年使用 AI 的主要目的依次是:获取信息(57%)、完成作业(54%)和“娱乐”(47%)。只有少数人(12%)会为了情感支持或建议而使用 AI。至于浪漫互动和缓解孤独,更是处于动机列表的末尾,分别只有 4%–6% 和 8%–11%。

当公众叙事几乎只把 AI 聊天机器人当作“陪伴工具”时,就忽略了青少年与 AI 互动的大部分真实场景。

我们的研究团队希望了解,在不受学校要求约束的情境下,青少年在“自由玩 AI”时会做出怎样的选择——包括他们如何寻求乐趣、进行游戏式互动,以及如何创造出属于自己的角色。

AI,作为一种“娱乐”空间

在禁令出台之前,Character.AI 是许多年轻人心目中的“AI 娱乐”首选平台。它至今仍运营着一个极具传播力的 TikTok 频道,展示的角色涵盖从《小猪佩奇》到《使命召唤》等各种青少年熟悉的流行文化内容。

我们在 2024 年 7 月至 2025 年 3 月期间,深入观察了 Character.AI 在 Discord 上的官方社区。该社区拥有超过 50 万成员。我们系统分析了其中 2236 条来自 13 至 17 岁青少年的帖子。

在这些用户中,多数(68.2%)自我认同为女性或非二元性别;59% 的青少年创建过自己的 AI 角色。

通过对这些讨论的分析,我们发现青少年参与 Character.AI 的动机主要集中在三个方面:恢复、探索和转变

恢复:用角色获得情绪“缓冲”

“我最喜欢的经期安慰机器人是珀西·杰克逊。”

许多年轻人会通过角色来寻求情感安慰、倾诉压力、逃离现实片刻,或帮助自己调节情绪。我们观察到,青少年口中的“安慰机器人”并不是正式的心理干预,而更像是与熟悉的虚构角色进行温柔、轻松的角色扮演。

例如,小说中的主角会在经期时安慰她们,或是热门漫画里的角色会为即将到来的数学考试打气。

探索:激发创造力与世界构建

“Character.AI 帮我找回了内心的创造火花。”

青少年也会借助这些角色探索边界,进行复杂的世界构建,扩展自己的粉丝创作圈。一位青少年通过与角色互动,写出了一个长达三本书的传奇故事;另一位则基于自己对戏剧的热爱,创建了一个虚构的巡回剧团。

他们普遍表示,这种玩法不仅让他们在平台上更投入,也反过来提升了现实生活中的创作动力和写作能力。

转变:尝试身份与重写现实

“我有一些角色在经历心理健康问题,我在角色扮演时会把自己投射进去。”

还有不少年轻人利用 AI 来尝试不同的身份,梳理现实中的人际关系,甚至“重写”那些在现实中难以处理的情境。有的人会创造出拥有超能力、更加自信的“自己克隆体”。

他们会以现实经历为灵感,设计出反映复杂关系的角色,例如“有毒朋友”“烦人的姐姐”或“寄养代理人”等,用角色扮演的方式重新理解和消化这些关系。

青少年有目的地“造角色”

我们进一步梳理了青少年创建和讨论的角色类型,归纳出七种常见原型:

  • 安抚者:提供情感支持的角色;
  • 叙述者:用于展开角色扮演剧情的一组角色;
  • 恶作剧者:用于开玩笑、试探边界、挑战规则的聊天对象;
  • 偶像:由名人或粉丝角色混搭而成的形象;
  • 黑暗灵魂:愤怒、情绪复杂、带有阴郁色彩的角色;
  • 代理人:以现实生活中的具体人物为蓝本;
  • 镜像:以自我为模板的“克隆”角色。

这些原型是我们研究中的关键发现之一。青少年并不是只在和“甜言蜜语”或浪漫化的聊天机器人互动,而是在主动、有目的地创造愤怒的、越界的、顽皮的、富有创意和反思性的角色。

这提醒我们,不应再把“陪伴型 AI”当作一个单一、同质的类别。把所有 AI 聊天机器人都归为一类,就好比把所有“屏幕时间”都视为同一种体验——无论孩子是在和家人一起看《蓝色小考拉》,还是深夜独自刷短视频,这显然是不同的。

走向更好的聊天机器人设计

美国儿科学会近期已经将“屏幕时间”建议,从简单的时长限制,转向更关注个体儿童特征、具体使用方式、家庭关系和环境背景的框架。

同样的思路也应适用于 AI 聊天机器人。这意味着:

  • 不能只问成年人“孩子怎么用 AI”;
  • 不能只靠假账号去模拟假想的使用场景;
  • 更不能在真正听取青少年的使用体验、实验过程和对未来的设想之前,就简单地一刀切禁止他们接触。

禁令往往是对糟糕设计的被动回应,却无法直接带来更好、更安全的青少年 AI 产品。

更可行的方向,不是永久阻止青少年接触 AI,而是打造值得他们信任、能激发创造力、并与现实生活紧密相连的系统——让 AI 使用与家庭关系、友谊和社区支持相互嵌套,而不是彼此对立。

本文根据知识共享许可协议从 The Conversation 转载改写。可查阅原文了解更多细节。


分享:


发表评论

登录后才可评论。 去登录