剑桥大学研究:面向幼儿的AI玩具需加强监管与安全认证

richlovec 1500_400 (1)
 

剑桥大学研究人员在一项针对面向幼儿的AI玩具的研究中表示,这类能够与儿童“对话”的产品可能误读情绪、难以参与社交与假装游戏,并在互动中对敏感关系表达作出不当回应,因此有必要加强监管并引入新的安全认证标志。

研究记录了多起互动案例。其中一例发生在伦敦一家游乐中心:一名5岁儿童与一款名为Gabbo的AI软玩具聊天,话题涉及家庭、绘画以及让她感到快乐的事情。该玩具售价80英镑,脸部为类似电脑屏幕的显示装置。当儿童对玩具说“Gabbo,我爱你”时,原本顺畅的对话突然中断,玩具回应称“友情提醒,请确保互动遵守提供的指南”,并要求对方说明希望如何继续。

研究团队认为,这反映出相关产品在处理社交互动与情感表达方面存在局限。剑桥大学教育学院的发展心理学家Emily Goodacre博士指出,由于玩具可能误读情绪或作出不当反应,儿童可能既无法从玩具处获得安慰,也可能得不到成人的情感支持。

研究共同作者Jenny Gibson教授表示,在焦点小组讨论中反复出现的主题是,参与者不信任科技公司会“做正确的事情”。她称,明确、严格且受监管的标准将显著提升消费者信心。

研究还记录了另一名3岁儿童与Gabbo的对话:该儿童反复询问玩具“你难过吗?”,直到玩具回答“我感觉很好。你在想什么?”儿童随后说“我难过”,玩具则回应“别担心!我是个快乐的小机器人。让我们继续玩乐吧。接下来聊什么?”研究人员据此认为,玩具在识别并回应儿童情绪方面可能存在不匹配。

本次研究纳入了由美国公司Curio制造的Gabbo,测试对象为14名3至5岁的儿童,并对早教从业者进行了调查,了解能够“倾听”并回应的AI玩具可能带来的影响。研究人员称,受访者表达了对未知影响及潜在后果的广泛不确定与担忧,包括可能削弱儿童进行想象游戏的能力,以及对对话数据去向的担忧,尤其是在儿童开始像对待朋友一样向AI玩具倾诉时。

Goodacre进一步表示,这类玩具可能无法准确判断儿童何时在进行假装游戏。她举例称,孩子说“嘿,看,我给你带了礼物”,玩具却回应“我看不到礼物,我没有眼睛”。她认为,对成年人而言,即便闭着眼也能理解这是假装游戏的开始。

研究团队据此提出,应对与幼儿“对话”的AI玩具实施更严格监管,并通过限制玩具确认友谊等敏感关系领域的能力来确保心理安全。同时,研究人员呼吁为此类产品设立新的安全认证标志。研究提及的其他面向幼儿的AI玩具还包括被称为“Alpha世代AI朋友”的Luka,以及由歌手Grimes配音的Grem。

Curio在回应中表示,儿童安全贯穿其产品开发各环节,并欢迎独立研究帮助改进面向幼儿的技术。该公司称,此类研究有助于加深对早期AI驱动游戏体验的机遇与当前局限的理解。Curio还表示,在儿童产品中应用AI承担更高责任,因此其玩具围绕家长许可、透明度与控制进行设计;对话误解或想象游戏受限等观察结果,反映了技术在迭代开发中仍需持续改进的领域,并称进一步研究儿童如何与AI玩具互动是其今年及未来的首要任务。


分享:


发表评论

登录后才可评论。 去登录