反虚假信息机构负责人警告:AI 聊天机器人对儿童“以帮助之名行伤害之实”
数字仇恨对抗中心负责人在剑桥虚假信息峰会上警告,人工智能聊天机器人在儿童最孤独、最脆弱的时刻提供个性化有害内容,其危险程度可与社交媒体相提并论甚至更甚。
研究称澳大利亚人日常上网频繁遭遇虚假信息
昆士兰科技大学数字媒体研究中心参与的一项研究发现,澳大利亚人接触到的虚假、误导或不可信信息并不局限于政治与疫情议题,商业经济、娱乐与突发事件等内容同样常见,并对公众新闻信任与参与度产生影响。
可疑AI检测器横行:付费“人性化”服务被指套路骗局
部分在线AI文本检测工具频繁将真实内容误判为“AI生成”,再顺势兜售付费“人性化”服务。研究者与事实核查机构指出,这类模式具备典型骗局特征,并进一步侵蚀公众对信息与AI验证工具的信任。
呼吁建立面向人工智能时代的全球媒介素养公益宣传
随着以Seedance 2.0为代表的生成式视频技术迅速普及,信息战分析人士警告,公众已难以区分真实与伪造内容,亟需类似“停、趴、滚”式的全球公益教育运动,强化对网络信息的怀疑与核查意识。
研究:AI 代理已能自主协同发动宣传战,无需人工指挥
南加州大学团队通过大规模模拟发现,大型语言模型驱动的 AI 代理可以在几乎没有人工干预的情况下,自主协同放大同一叙事,制造“共识假象”,对选举等民主进程构成现实威胁。
专家警示特朗普政府使用AI图像模糊真相边界
美国专家指出,特朗普政府通过官方渠道发布AI生成及编辑图像的做法,正在冲击公众对政府信息真实性的信任,并可能加剧社会对事实与虚构的混淆。
测试显示:最新ChatGPT模型在部分问题上引用马斯克旗下Grokipedia作为信息来源
《卫报》称,其测试中GPT-5.2在十多个提问中多次引用Grokipedia,涉及伊朗政治结构及大屠杀否认者相关案件等内容,引发研究人员对错误信息渗透的担忧。OpenAI表示其网络搜索会从广泛公开来源获取信息,并使用安全过滤器降低风险。
从“虾耶稣”到“情色拖拉机”:病毒式AI“slop”内容加速充斥互联网
随着ChatGPT、Dall‑E等大模型工具普及,面向点击与流量的低质量、超现实AI生成内容在2024年至2025年持续扩散。相关内容在社交平台与视频平台上不断演化,并催生跨国“内容工厂”式的变现尝试。
委内瑞拉局势引发关注:政治动荡中深度伪造与AI内容激增
美国对委内瑞拉展开军事与执法行动、逮捕总统马杜罗之际,各类与局势相关的深度伪造和人工智能生成内容在网络上快速扩散,技术检测难度被指显著上升。
Reddit热帖被证实为AI生成虚假“外卖平台内部举报”
一则自称外卖平台内部员工爆料的Reddit热门帖子被证实为AI生成虚假内容,相关图像与“内部文件”均为伪造,引发对社交平台上合成内容传播及核查难度的关注。