Instagram将向监护家长提示青少年反复搜索自残相关词汇

richlovec 1500_400 (1)
 

Instagram表示,将开始在特定情况下向家长发出提醒:当青少年在平台上反复搜索明显与自杀或自残相关的词汇时,家长将收到通知。

该公司称,这项提醒仅面向已注册Instagram家长监督计划的家长。Instagram同时表示,平台已阻止此类内容出现在青少年账户的搜索结果中,并会引导用户联系求助热线。

上述更新发布之际,Instagram母公司Meta在美国正面临两起与未成年人保护相关的诉讼。其一为洛杉矶正在进行的审理,焦点在于Meta的平台是否故意让未成年人上瘾并造成伤害;其二为新墨西哥的审理,旨在确定Meta是否未能保护儿童免受平台上的性剥削。

报道显示,数千个家庭以及学区和政府机构已起诉Meta及其他社交媒体公司,指称相关平台被故意设计为使用户上瘾,并未能保护儿童免受可能导致抑郁、饮食失调和自杀等内容的影响。

Meta高管否认平台会导致成瘾。在上周三洛杉矶审理的质询中,Meta首席执行官马克·扎克伯格表示,他仍同意此前的说法,即现有科学研究尚未证明社交媒体会导致心理健康伤害。Instagram负责人亚当·莫塞里此前一周出庭作证时也对社交媒体成瘾的科学依据提出异议,否认用户会出现“临床成瘾”,并将儿童高频使用Instagram描述为“问题性使用”,类比为“看电视时间超过自己感觉舒适的时长”。

与此同时,心理学界并未将社交媒体成瘾列为正式诊断,但研究人员已记录青少年强迫性使用带来的有害后果,全球立法者也多次表达对社交网络成瘾潜力的担忧。

Instagram称,新提醒将通过电子邮件、短信或WhatsApp发送,具体取决于家长的联系方式,同时也会通过家长的Instagram账户推送通知。平台的家长监督设置需要青少年与家长双方同意,并通过平台发送邀请;青少年年龄需在13至17岁之间,且每个孩子仅允许一位家长进行监督。

Meta在博客中表示,此举旨在“赋能家长”,当青少年的搜索行为显示其可能需要支持时,家长可以介入;同时公司也希望避免不必要的频繁提醒,因为过多通知可能降低整体效用。

Meta还称,正在开发类似的通知功能,用于提醒家长孩子与人工智能的互动情况。公司表示,如果青少年试图与其人工智能进行与自杀或自残相关的特定类型对话,相关通知将提醒家长,并称将在未来几个月分享更多信息。

不过,倡导团体认为此类工具不足以充分保障青少年在社交媒体上的安全。Fairplay执行董事乔什·戈林在声明中表示,家长不应被误导认为Instagram对孩子是安全的,并称Meta是在将责任转嫁给家长,而非修复算法和平台设计中的危险缺陷。他还表示,所有儿童都应受到保护,无论其家长是否注册并使用监督工具。


分享:


发表评论

登录后才可评论。 去登录