领先研究员警告:全球或“没有时间”为尖端人工智能安全风险做准备

richlovec 1500_400 (1)
 

英国政府科学研究机构相关负责人表示,随着尖端人工智能系统能力快速增强,全球可能“没有时间”在安全层面提前做好准备。

阿里亚(Aria)机构项目主管、人工智能安全专家大卫·达尔林普尔在接受《卫报》采访时称,应关注人工智能能力持续提升带来的潜在风险。他表示,值得担忧的是那些能够执行人类完成的所有任务且表现更优的系统,“因为我们将在所有需要保持主导地位的领域被超越,从而失去对我们的文明、社会和地球的控制权”。

达尔林普尔指出,公共部门与人工智能公司之间对即将到来的技术突破影响力存在认知差距。他称,技术进展“非常迅速”,可能来不及从安全角度抢先应对;并表示,认为“五年内,大多数经济价值最高的任务将由机器以更高质量和更低成本完成”并非科幻。

他同时强调,政府不应假设先进系统天然可靠。阿里亚由公共资金支持但独立于政府,负责指导研究资金投向。达尔林普尔目前正开发相关保障机制,以支持人工智能在能源网络等关键基础设施中的安全使用。他表示,在经济压力下,相关科学进展可能无法及时到位,因此更现实的做法是尽可能控制并减轻负面影响。

达尔林普尔将技术进步可能超越安全控制的后果形容为“安全与经济的动荡”,并称需要更多技术工作来理解和约束先进人工智能系统的行为。他还表示,尽管一些前沿人士将这种进步视为积极变化,但风险水平很高,而人类文明整体对这一转变仍缺乏足够意识。

英国政府人工智能安全研究所(AISI)本月表示,先进人工智能模型的能力在各领域“快速提升”,部分领域的表现约每八个月翻一番。AISI称,领先模型目前平均可完成50%的学徒级任务,而去年约为10%;其测试还显示,最先进系统能够自主完成需要人类专家一小时以上的任务。

在关键安全议题之一的自我复制能力测试中,AISI评估了模型将自身复制并传播到其他设备、从而更难控制的风险。测试结果显示,两款尖端模型的成功率超过60%。不过,AISI同时强调,在日常环境中最坏情况不太可能发生,称任何自我复制尝试“在现实条件下不太可能成功”。

达尔林普尔还表示,他认为到2026年底,人工智能系统将能够自动完成相当于一天的研发工作,这将“进一步加速能力提升”,因为相关技术可能在人工智能开发所需的数学与计算机科学方面实现自我改进。


分享:


发表评论

登录后才可评论。 去登录