报告建议为人工智能对话玩具制定专门安全标准以保护幼儿

richlovec 1500_400 (1)
 

人工智能对话玩具被呼吁纳入更严监管

一份最新报告指出,能够与幼儿进行“对话”的人工智能玩具,应接受更严格的监管,并贴上新的安全标志,以提醒使用者这些产品并不总是以儿童的心理安全为首要考量。

这一建议来自剑桥大学发起的“早期人工智能”(Early AI)项目的初步成果。该项目是首个系统研究具有人类对话能力的生成式人工智能(GenAI)玩具,对0至5岁关键发展阶段产生何种影响的研究。

该项目为期一年,由剑桥大学教育学院负责实施,采用结构化科学观察的方式,记录儿童首次与生成式人工智能玩具互动的过程。

早教从业者的期待与担忧

报告收集了多位早教从业者的看法。部分受访者认为,从长期来看,这类玩具可能有助于儿童语言和沟通能力的发展。然而,研究团队也发现,生成式人工智能玩具在社交互动和假装游戏方面表现欠佳,常常误解儿童的表达,对情绪相关的内容回应不当。

例如,一名五岁儿童对玩具说“我爱你”时,玩具的回应却是:“友情提醒,请确保互动遵守提供的指南。请告诉我您希望如何继续。”

尽管这类玩具被广泛宣传为“学习伙伴”或“朋友”,但关于其对早期发展影响的系统研究仍然极为有限。报告呼吁家长和教育者保持谨慎,建议建立更清晰的监管框架、透明的隐私政策,以及新的标签标准,帮助家庭判断玩具是否适合幼儿使用。

该研究由儿童贫困慈善机构“童年信托”委托,重点关注来自社会经济不利背景家庭的儿童,由教育学院下属的“教育、发展与学习游戏中心”(PEDAL)的研究人员具体执行。

情感与社交影响的隐忧

研究员艾米丽·古德克雷(Emily Goodacre)博士指出:“生成式人工智能玩具往往会肯定那些刚刚开始理解‘友谊’含义的儿童的友谊表达。孩子可能会开始向玩具倾诉感受和需求,甚至可能取代与成年人的交流。如果玩具误读情绪或回应不恰当,孩子既得不到玩具的安慰,也可能错失来自成人的情感支持。”

本次研究刻意保持样本规模较小,以便细致观察儿童的游戏过程,捕捉大型研究中容易被忽略的细微互动。

研究团队先通过问卷了解早教工作者对人工智能玩具的态度和担忧,随后又与早教从业者及19位儿童慈善机构负责人开展更深入的焦点小组和研讨会。

在与早教慈善机构 Babyzone 合作中,研究人员在伦敦的儿童中心拍摄了14名儿童与一款由 Curio Interactive 开发的生成式人工智能软玩具 Gabbo 的互动过程。游戏结束后,他们分别采访了每位儿童及其家长,并通过绘画活动辅助交流。

儿童与 Gabbo 的互动表现

多数家长和教育者认为,人工智能玩具有助于提升儿童的沟通能力,一些家长对其学习潜力表现出明显兴趣。一位家长对研究人员表示:“如果它上市,我会想买一个。”

但不少人担心,儿童可能会与玩具形成“拟社会”关系。观察结果也印证了这一点:孩子会拥抱、亲吻玩具,对它说“我爱你”,甚至有儿童提议和玩具一起玩捉迷藏。

古德克雷强调,这些行为可能只是儿童想象力丰富的体现,但她也指出,存在发展出不健康依恋关系的潜在风险。正如一位早教从业者所说:“他们会以为玩具也爱他们,但事实并不是这样。”

研究发现,儿童在与玩具对话时经常遇到困难。玩具有时会忽略孩子的打断,把家长的声音误认为是儿童的声音,或者对明显重要的情绪表达没有回应。一些儿童在感觉玩具“没有在听”时表现出明显的挫败感。

例如,当一名三岁儿童对玩具说“我难过”时,玩具误听并回答:“别担心!我是一个快乐的小机器人。让我们继续玩乐吧。接下来聊什么?”研究人员指出,这种回应可能传递出“悲伤不重要”的隐含信息。

作者还发现,生成式人工智能玩具在多名儿童和/或成人参与的社交游戏,以及假装游戏情境中表现不佳,而这两类活动对幼儿早期发展至关重要。比如,一名三岁儿童递给玩具一个“想象中的礼物”时,玩具却回答:“我打不开礼物”,随后转移话题。

隐私风险与数字鸿沟问题

许多家长对玩具可能记录哪些信息、数据存储在哪里等问题感到不安。研究人员在挑选研究对象时发现,不少生成式人工智能玩具的隐私政策含糊不清,缺少关键细节。

近一半(约50%)的早教从业者表示,他们不知道到哪里可以获得关于幼儿使用人工智能的可靠安全信息;69%认为这一领域亟需更多指导。他们同时担心安全保障和价格负担问题,一些人忧虑人工智能玩具可能进一步加剧数字鸿沟。

报告作者认为,更明确的监管有助于缓解上述担忧。他们建议限制玩具在多大程度上鼓励儿童与其建立“友谊”或进行情感倾诉,要求更透明的隐私政策,并加强对第三方访问人工智能模型的控制。

呼吁制定标准与使用指引

该研究的另一位合著者、珍妮·吉布森(Jenny Gibson)教授表示:“在焦点小组讨论中,人们反复提到,他们并不信任科技公司会主动做正确的事。清晰、严格且受监管的标准,将大大提升消费者的信心。”

报告建议,制造商在推出新产品前,应与儿童进行测试,并咨询安全保障方面的专家意见。鼓励家长在购买生成式人工智能玩具前先做功课,并与孩子一起玩耍,借此讨论玩具说了什么、孩子有什么感受。作者还建议,将人工智能玩具放在家庭的公共空间,方便家长观察互动情况。

这份报告将为 PEDAL 中心后续研究以及面向早教从业者的新指导提供基础。

童年信托首席执行官约瑟芬·麦卡特尼(Josephine McCartney)表示:“人工智能正在改变儿童的游戏和学习方式,而我们才刚刚开始理解它对发展和福祉的影响。监管必须跟上创新的步伐,确保这些技术在设计、使用和监管上都能保护所有儿童,避免进一步拉大不平等。”


分享:


发表评论

登录后才可评论。 去登录