研究人员借助机器学习与社交网络理论解析数字论坛中的社区形成模式
斯蒂文斯理工学院团队结合机器学习与社交网络理论,基于 X(原 Twitter)数据,构建时序分析框架,追踪在线社区的形成、演化与分裂,并为识别错误信息与极化风险提供工具。
参议院调查称气候错误信息加剧澳大利亚社区冲突,建议强化平台责任监管
跨党派参议院调查认为,气候变化与能源领域的错误信息与虚假信息正在扰乱公共讨论并拖慢可再生能源项目推进。报告建议加强媒体素养教育、加大研究资助,并强化对科技平台“心理社会伤害”责任的监管。
把 AI 聊天机器人当搜索?先想想你在信什么
生成式 AI 正在改变我们获取信息的方式,但它并不是搜索引擎,也无法保证内容真实可靠。历史上大黄叶中毒的教训,正在 AI 时代重演。
Artificial Epistemics宣布启动“Susty Code”协议授权,聚焦提升AI知识真实性与道德性
Artificial Epistemics表示,“Susty Code”是一套基于知识论的规则协议,旨在在信息传播或使用前对AI生成内容及其内部知识进行测试与评估,以降低错误信息与不道德内容风险。
AI驱动错误信息事件激增 媒体呼吁建立“验证层”应对
研究显示,AI相关错误信息事件近年显著增加,尤其与虚假信息和恶意行为者相关。业内人士指出,仅靠普遍怀疑不足以应对风险,亟需借助工具和新闻原则,帮助公众建立系统化的验证习惯。
研究称“免疫接种”可提升公众识别政治深度伪造能力
一项由爱荷华大学研究人员参与的实验发现,无论是基于文本的提示信息还是互动游戏式训练,都能降低受试者对政治深度伪造视频的信任度,并提高其警觉性与求证意愿。
问答:研究人员称人工智能或在五年内具备独立提出并验证科学假设的能力
洛桑联邦理工学院的罗伯特·韦斯特与西北大学的阿格内斯·霍尔瓦特在对话中表示,社交媒体已成为公众获取科学信息的重要渠道,而大型语言模型正加速介入论文写作与评审流程,并可能在未来数年进入“提出研究问题”的阶段。
研究指深度阅读有助提升批判性思维 降低错误信息影响
在智能手机和社交媒体高度普及的背景下,研究人员指出,深度阅读与批判性思维能力对于抵御错误信息的重要性正在上升,并提出通过放慢阅读节奏、社交化阅读等方式培养相关能力。
专家警告“AI机器人群”渗入社交媒体或威胁民主进程
多名人工智能与错误信息研究人员在《科学》发文称,协作型恶意AI代理可能以近乎无限规模冒充网民、渗透社区并制造共识,相关技术或在2028年美国总统选举前被大规模动员。作者呼吁采取全球协调行动,包括开发“机器人群扫描器”和对AI生成内容加水印。
马杜罗相关AI伪造影像在社交平台传播,NewsGuard称部分内容观看量达数百万次
在特朗普宣布对委内瑞拉实施“大规模打击”后,社交媒体出现大量AI生成或断章取义的图片与视频。事实核查机构NewsGuard称,相关误导性内容在X等平台获得高传播量,增加了公众辨别真伪的难度。