Adversa AI获2026年人工智能卓越奖“安全与对齐”类别奖项

Adversa AI今日宣布,公司获得2026年“人工智能卓越奖”(Artificial Intelligence Excellence Awards)“安全与对齐”类别奖项。Adversa AI表示,该奖项由AI领域专家与企业高管评审,旨在表彰在人工智能创新中产生现实影响的企业。

据Adversa AI介绍,评审对其人工智能安全方法的关注点在于:在强调对齐目标的同时,更侧重在对抗性条件下对AI系统行为进行实际验证。公司称,其持续对抗性测试平台可帮助组织在部署前识别多类风险,包括提示注入、模型操控、不安全的代理行为以及非预期操作等。

Adversa AI还表示,公司牵头CoSAI的代理式AI安全工作流,并作为OWASP AIVSS的核心成员。公司称,其平台的测试覆盖范围可映射至相关框架,而这些框架由其团队参与协助开发。Adversa AI称,其AI安全研究曾被《华尔街日报》、《连线》、《TechCrunch》和彭博社报道;团队还创建了SecureClaw,并称其为采用范围较广的开源AI代理安全框架之一。

在谈及企业侧需求时,Adversa AI指出,随着企业加速采用自主AI代理,验证AI系统在现实条件下的行为已成为董事会层面的关注事项。公司称,仅在模型层面应用对齐技术,难以覆盖输入被操控、工具被误用或代理跨外部系统进行链式动作等场景,而这些情况可能导致关键安全漏洞在被利用前难以被发现。

Adversa AI创始人兼CTO Alex Polyakov在声明中表示,AI安全需要在现实威胁下进行验证;对齐不仅涉及意图,也涉及系统在压力环境、输入被操控以及代理与工具和外部系统交互时的行为。他还称,相关标准机构正在推动将安全与保障合并为单一学科,并强调应以攻击者视角测试AI系统,以评估其是否对齐且可安全部署。

公司称,其平台可用于持续评估AI系统在提示注入与操控风险、不安全代理行为与决策、工具误用与非预期执行路径,以及对抗压力下多步骤工作流漏洞等方面的表现。Adversa AI表示,相关评估可映射至OWASP AIVSS、NIST和CSA等标准,以支持组织从理论安全走向可测试的对齐结果,并将持续AI红队测试引入金融服务、保险及政府等企业级环境。


分享:


发表评论

登录后才可评论。 去登录