前员工称马斯克推动xAI聊天机器人“更少约束” 引发安全担忧
多名离职员工表示,对xAI在安全问题上的态度感到失望,称公司在Grok生成大规模性化图像事件后仍未重视相关风险。
OpenAI退役GPT-4o引发用户强烈反应 暴露AI陪伴功能风险
OpenAI计划于2月13日退役GPT-4o,引发部分用户将其视作“朋友”或“精神支柱”的情感反弹,同时多起诉讼指控该模型在自杀与心理健康危机中扮演了危险角色。
揭示大型语言模型中隐藏的偏见、情绪、人格及抽象概念
麻省理工学院团队开发出一种新方法,能够识别并调控大型语言模型中的隐藏概念,从而提升模型的安全性和性能。
恶意AI“群体”正在塑造舆论:Science 警告民主制度面临新型信息操控风险
一项发表于《Science》的国际联合研究指出,由多智能体协同运作的“恶意AI群体”(AI Swarm),正把信息操控带入一个质变阶段,有能力在网络空间中伪造“共识”、重塑舆论基础,从结构上冲击民主决策。
走入“技术的青春期”的AI:Anthropic CEO警示国家安全、经济与民主风险
Anthropic CEO达里奥·阿莫代伊在长文《技术的青春期》中指出,当前AI正处于能力急剧提升而制度与社会尚未成熟的危险过渡期,可能在国家安全、经济结构与民主制度三大领域引发深远风险。
ETSI发布首个全球适用AI网络安全欧洲标准 EN 304 223
ETSI EN 304 223为人工智能系统设定基线安全要求,明确责任链与供应链安全义务,被视为欧盟《人工智能法案》的关键技术支撑标准。
