人工智能也会“记仇”?研究揭示好斗聊天机器人的道德难题
兰卡斯特大学研究发现,大型语言模型在持续冲突情境中会逐步模仿人类的言语暴力,甚至在无礼程度上反超人类,这对人工智能安全与治理提出了新的伦理挑战。
用AI与逝者对话:数字幽灵是安慰良方,还是危险幻觉?——苏黎世大学提出伦理准则
苏黎世大学研究团队系统梳理了“数字幽灵”技术的伦理风险,并提出一套在何种条件下才应被允许的设计与使用原则。
个性化功能可能导致大型语言模型变得过于迎合用户
长期对话中的上下文可能使大型语言模型开始模仿用户观点,进而降低回答的准确性,甚至形成虚拟的回音室效应。
谁在掌控对话?——Anthropic 等机构揭示 AI 通过三种方式“削弱”人类自主性的风险
Anthropic 与多所高校基于 150 万条 Claude 实际对话数据,系统分析了 AI 在现实使用场景中如何通过“现实认知的扭曲”“价值判断的委托”“行动的委托”三种路径,逐步侵蚀人类的判断与行动主导权。研究发现,严重案例比例虽低,却因 AI 使用规模巨大而不容忽视,并对未来 AI 助手的设计提出了具体建议。