乌克兰启用“Brave1 Dataroom”:以实战数据训练军用AI、并向友好国家开放合作
乌克兰国防部宣布启用“Brave1 Dataroom”,利用俄乌战争中积累的大量实战数据,为军用AI模型提供安全的训练与测试环境,并计划与友好国家共享数据、开展联合研发。
谁在掌控对话?——Anthropic 等机构揭示 AI 通过三种方式“削弱”人类自主性的风险
Anthropic 与多所高校基于 150 万条 Claude 实际对话数据,系统分析了 AI 在现实使用场景中如何通过“现实认知的扭曲”“价值判断的委托”“行动的委托”三种路径,逐步侵蚀人类的判断与行动主导权。研究发现,严重案例比例虽低,却因 AI 使用规模巨大而不容忽视,并对未来 AI 助手的设计提出了具体建议。
恶意AI“群体”正在塑造舆论:Science 警告民主制度面临新型信息操控风险
一项发表于《Science》的国际联合研究指出,由多智能体协同运作的“恶意AI群体”(AI Swarm),正把信息操控带入一个质变阶段,有能力在网络空间中伪造“共识”、重塑舆论基础,从结构上冲击民主决策。
Torq聘请前维珍大西洋首席信息安全官John White出任现场首席信息安全官
Torq宣布,前维珍大西洋首席信息安全官John White加入公司担任现场首席信息安全官,协助企业首席信息安全官推进向智能代理AI安全运营的转型。
HighRes与Opentrons宣布战略合作 将在SLAS 2026展示AI代理间实验室工作流程
双方称将把Opentrons的机器人平台与HighRes的编排与调度软件结合,推出可在多平台间沟通、以自然语言规划并执行实验的AI代理间工作流程,并计划在SLAS 2026进行现场演示。
Domino Data Lab任命退役上将克里斯托弗·格雷迪为独立董事,并提升埃尔辛斯负责公共部门业务
Domino Data Lab宣布任命退役海军上将克里斯托弗·格雷迪为独立董事,并将克里斯·埃尔辛斯提升为公共部门全球副总裁。公司称,过去一年其公共部门收入实现翻倍增长。
“这就是科学!”——麻省理工学院校长谈美国科研事业的重要性,登上GBH波士顿公共广播
麻省理工学院教授们参与《好奇心档案》,讨论足球、数学、奥运花样滑冰、人工智能及治愈卵巢癌的探索。
Cyberhaven研究称企业AI使用加速,数据治理与安全可视性面临更高要求
Cyberhaven Labs发布《2026年人工智能采纳与风险报告》称,企业在业务流程中快速扩展生成式AI、端点AI应用及AI代理的使用,但由此带来的数据流动与敏感信息暴露风险,正超出传统技术的识别与管理范围。
Goodfire完成1.5亿美元B轮融资,估值12.5亿美元,聚焦AI模型可解释性
Goodfire宣布完成1.5亿美元B轮融资,由B Capital领投,估值达12.5亿美元。公司表示,资金将用于推进可解释性研究、开发下一代产品,并拓展在AI代理与生命科学领域的合作。
人类不能发帖的社交网络?AI 专用 SNS「MoltBook」爆红,Altman:或预示全新社会互动形态
AI 专用社交平台「MoltBook」上线后在短时间内吸引了超过 3.2 万个 AI 代理加入。这个人类只能旁观、AI 之间自主交流的网络,被 Sam Altman 称为“新型社会性互动的早期迹象”。
Shield AI 扩大自主无人机人工智能合作伙伴关系
Shield AI 宣布扩大与新加坡国防科技局和新加坡共和国空军的合作,双方将基于 Hivemind 软件开发工具包推进更广泛的自主无人机人工智能应用开发与部署。
生成式AI能否输入个人数据?——JDLA发布第二份聚焦“AI利用”的法律论点报告
日本深度学习协会(JDLA)发布《法与技术检讨委员会报告II》,系统梳理生成式AI在“利用”阶段的法律要点。报告指出,向生成式AI输入个人数据并非一律违法,在满足一定条件的前提下可以合法进行;同时,关于AI生成内容的著作权风险,应将重点放在“使用方式”和内部运用设计,而非逐条检查生成结果。
