将网络游戏纳入社交媒体禁令面临执行难题,相关必要性亦存争议
在多国讨论限制16岁以下青少年使用社交媒体之际,是否应将网络游戏一并纳入监管引发争论。围绕游戏的在线属性、平台边界与年龄验证等问题,外界对可执行性与潜在影响提出质疑。
“看起来像真的”:政治深度伪造数量攀升,研究称即便明知虚假仍具影响力
研究人员指出,生成式AI降低了制作门槛,社交平台上围绕政治人物与社会议题的深度伪造内容快速增加。部分虚构人物被包装进军事场景以吸引流量并导向变现,同时也可能被用于宣传。
Tumbler Ridge事件后:OpenAI的“安全承诺”指向的不是AI监管,而是用户监控
Tumbler Ridge枪击案后,OpenAI向加拿大政府作出一系列安全承诺,但这些举措更多是对用户的监控,而非对人工智能系统本身的监管。
为何有害内容仍不断触达儿童,以及广告系统扮演的关键角色
儿童在网络上持续接触暴力、性、自残等有害内容,表面上是内容审核失灵,更深层原因却藏在以注意力为核心的广告商业模式中。
UpScrolled用户激增后仇恨言论暴露内容审核压力
在TikTok美国所有权变更后迅速走红的社交平台UpScrolled,被曝未能有效处理平台上的种族歧视和仇恨内容,相关用户名、标签及多媒体内容持续在线。
TikTok美国大面积宕机引发用户信任担忧
TikTok因美国数据中心停电出现全国性服务中断,虽被官方界定为技术故障,但用户在社交平台上的反应凸显出对平台所有权变更及内容分发机制的深层不信任。
欧盟委员会初步认定TikTok“成瘾设计”或违反《数字服务法》 或要求调整产品功能
欧盟委员会称该平台未充分评估对儿童及弱势成年人的身心健康风险,并考虑要求其修改包括“无限滚动”和推荐系统在内的关键设计;TikTok表示将提出异议。
Moltbook“人类大清洗”截图走红:平台机制与安全争议引发真伪质疑
“清洗”言论在社交媒体扩散,真伪引发关注 近期,一个名为Moltbook的新社交平台在X和Instagram等社交媒体上引发讨论。多张据称来自平台内AI代理的截图显示,部分账号公开谈论“人类大清洗”等极端内容,相关画面迅速传播,带来围观、恐慌与热度。 围绕这些内容的核心争议在于:这些末日式表述是否指向真实的AI风险,还是为了吸引互动而被刻意制造的戏剧化叙事。根据目前公开信息与多方说法,外界更倾向将
不止Grok:应用商店仍可下载多款“脱衣”AI工具引发监管关注
Grok争议将“脱衣”工具推至台前 X平台上与Grok相关的AI图像编辑功能因生成露骨深度伪造内容而引发舆论关注。不过,多份调查与监督报告指出,这类争议并非孤立事件:在被用户普遍视为“经过审核”的主流移动应用商店中,类似的AI“脱衣”工具已长期存在,并以更隐蔽的方式面向公众分发。 监督审计:App Store与Google Play被指存在数十款相关应用 据监督组织TTP在今年1月对主要应用商店的
“喜忧参半”:众筹重塑捐赠方式,便利与公平性争议并存
从邦迪海滩枪击事件到维多利亚州丛林火灾,在线众筹在危机中迅速动员资金,但其分配效率、平台权力与对传统慈善的影响引发讨论。
具有自主性的AI机器人群进入社交平台:研究警告或加剧心理健康风险并冲击民主
代理型AI机器人群——由多个半自主系统组成、可协同行动的网络——正从研究场景走向社交媒体与聊天窗口等更贴近个人情感与政治讨论的空间。多项研究近期发出警告称,这类系统一旦在缺乏约束的情况下扩张,可能在更大人群范围内带来心理健康层面的负面影响,并在监管措施跟进之前对选举等民主程序产生难以察觉的干扰。 从单一聊天机器人到“群体驱动”系统 围绕生成式AI的早期担忧,主要集中在单个聊天机器人可能误导用户或进
调查:数百万人在Telegram制作并传播AI深度伪造裸照,相关频道遍布多国
《卫报》分析称,Telegram上至少有150个频道分发AI生成的露骨图像与视频。Telegram表示深度伪造色情及其制作工具被平台条款禁止,并称2025年已删除逾95.2万条违规内容。