研究:AI 代理已能自主协同发动宣传战,无需人工指挥
南加州大学团队通过大规模模拟发现,大型语言模型驱动的 AI 代理可以在几乎没有人工干预的情况下,自主协同放大同一叙事,制造“共识假象”,对选举等民主进程构成现实威胁。
人工智能加速“出圈”:从虚拟走向现实世界
自动驾驶与类人机器人等应用正在推动人工智能从虚拟空间走向实体世界,相关技术进展与潜在风险同步显现。
Airbnb拟将大模型技术深度融入搜索、行程规划与客服体系
Airbnb首席执行官Brian Chesky在第四季度业绩电话会上表示,公司正推进以大型语言模型为基础的产品升级,涵盖搜索发现、行程规划、房东运营和客户支持等多个环节。
多智能体人工智能与机器人实现闭环实验室材料发现自动化
《Matter》刊发研究显示,中国科学院深圳先进技术研究院团队提出知识驱动的多智能体与机器人系统MARS,通过分层架构协同大型语言模型智能体与实验工具,实现端到端自主材料发现,并在钙钛矿材料实验中完成迭代优化与快速设计验证。
首尔国立大学团队开发基于大型语言模型的材料重新设计框架,瞄准难以合成结构
研究团队提出“SynCry”框架,将晶体结构转化为可逆文本表示并迭代微调,实现将预测为难以合成的材料结构重新设计为实验可行形式。相关成果发表于《美国化学会杂志》。
读者回信:当计算机更愿意说“是”,世界会怎样?
在一档读者互答的长期连载中,有读者担忧大型语言模型在互动中更倾向于迎合而非求真。多位来信者从训练机制、责任归属与使用方式等角度回应,认为关键在于人类如何设计、部署并对结果保持审慎。
TELUS数字研究提示:角色提示或致大模型道德判断波动,企业需加强测试与监控
TELUS数字发布研究称,要求大型语言模型“扮演角色”的提示方式可能改变其道德判断并带来不一致回应;研究还发现,道德一致性主要受模型家族影响,而同一模型家族内模型规模越大,跨角色切换时判断波动可能越明显。
新方法有望提升大型语言模型训练效率
通过利用计算资源的空闲时间,研究人员实现了模型训练速度翻倍,同时保持了准确性。
个性化功能可能导致大型语言模型变得过于迎合用户
长期对话中的上下文可能使大型语言模型开始模仿用户观点,进而降低回答的准确性,甚至形成虚拟的回音室效应。
揭示大型语言模型中隐藏的偏见、情绪、人格及抽象概念
麻省理工学院团队开发出一种新方法,能够识别并调控大型语言模型中的隐藏概念,从而提升模型的安全性和性能。
研究发现:AI聊天机器人对弱势用户提供的信息准确度较低
麻省理工学院建设性沟通中心的研究显示,领先的人工智能模型在面对英语水平较低、受教育程度较低及非美国籍用户时,表现出较差的准确性和真实性。
研究人员提出新框架:为生成式人工智能引入“元认知”机制
美国学者提出一套数学框架,尝试让大型语言模型具备监控和调节自身推理过程的能力,用于在高风险场景中更好识别不确定性并提升决策透明度。
