在一篇最新发表的论文中,研究人员提出了“能力方法—情境完整性”(CA-CI)框架,用于应对现代人工智能(AI)系统,尤其是基础模型在不同情境和用途中能力不断演变所带来的隐私与尊严风险。在一项案例研究中,他们展示了如何利用 CA-CI 将欧盟(EU)《人工智能法案》中关于基本权利影响评估、伤害阈值以及前瞻性治理的要求具体化和可操作化。该研究由卡内基梅隆大学和密歇根大学的学者共同完成,发表在《IEEE Security & Privacy》(《IEEE安全与隐私》)期刊上。
卡内基梅隆大学海因茨信息系统与公共政策学院院长、论文合著者 Kirsten Martin 表示:“通过将 AI 监管建立在情境规范和普遍尊严要求之上,我们的框架为在 AI 治理中落实伦理提供了一种务实而稳健的路径。”本研究由密歇根大学研究助理 Kat Roemmich 牵头,密歇根大学信息学以及电气工程与计算机科学副教授 Florian Schaub 亦为合著者。
研究指出,AI 系统的广泛部署伴随着日益突出的隐私风险和治理难题,这些问题与模型的复杂程度、自主性以及跨领域整合能力密切相关。监管机构、系统提供方和用户在管理能够自主学习、泛化并跨情境应用的系统时面临巨大挑战。随着这类系统不断演进,信息流的可观察性、可追踪性和情境稳定性逐渐减弱,信息泄露、滥用以及对个人尊严造成伤害的潜在风险随之上升。
作者认为,要应对这些挑战,需要一个能够超越狭窄任务和固定情境、评估 AI 系统在更广泛社会技术环境中是否符合规范要求的治理框架。为此,他们将“情境完整性”与“能力方法”结合,提出了 CA-CI 框架。具体而言,CA-CI 主要包括以下两个方面:
- 在 Helen Nissenbaum 的情境完整性隐私理论基础上进行扩展和强化,将“目的”提升为信息流的核心构成参数,从而更有效地识别用途蔓延和跨情境重用问题;
- 引入 Martha Nussbaum 能力方法中的“尊严阈值”概念,用以界定实现有尊严的人类生活所需的最低条件;这些能力阈值被用作判断 AI 系统何时造成重大伤害的普遍标准。
Martin 指出,将情境完整性与能力方法统一为一个规范治理框架后,CA-CI 能够通过考察社会生活整体及其中每一个个体生命的完整性,来评估任何社会技术情境中的隐私与尊严状况。她同时强调,Roemmich 的博士论文为这一框架奠定了理论基础。

在现有法律层面,欧盟《通用数据保护条例》(GDPR)确立了“目的限制”原则,要求个人数据必须“为特定、明确且合法的目的收集,并不得以与这些目的不相容的方式进一步处理”。该条例还规定,对于可能对基本权利和自由构成高风险的数据处理活动,必须开展数据保护影响评估。
2024 年通过的欧盟《人工智能法案》在此基础上进一步发展,延续了以基本权利为核心的监管逻辑。该法案禁止被认定为对基本权利、健康或安全构成不可接受风险的 AI 实践。同时,它要求某些高风险 AI 系统的用户在系统投入使用前以及系统发生相关变更后,开展基本权利影响评估;也要求系统提供者在整个生命周期内持续进行针对特定用途的风险评估。
不过,作者指出,《人工智能法案》在如何具体界定“尊严侵犯”方面仍缺乏清晰标准,目前多停留在对基本权利的宽泛引用。这种模糊性使评估者难以判断某一行为何时跨越尊严的道德边界,也削弱了由尊严原则衍生出的人权基础,从而使尊严作为核心规范原则的可执行性变得脆弱。
为解决这一问题,作者提出,需要一个能够贯穿 AI 全生命周期、跨越不断变化的社会技术情境,对尊严风险进行实质性评估的规范治理框架。他们通过将 CA-CI 应用于欧盟《人工智能法案》的关键条款,展示了该框架在以下方面的作用:
- 在基本权利影响评估中,引入对尊严风险的情境敏感分析,使评估更贴合具体应用场景;
- 提供界定“重大伤害”的原则性阈值,帮助监管者和开发者判断风险是否已达到不可接受水平;
- 通过识别尚未被正式承认或写入法规的、基于尊严的潜在风险,支持更具前瞻性的治理实践。
作者最后强调,尽管欧盟《人工智能法案》因其以尊严为基础的权利与风险框架,为展示 CA-CI 的应用提供了一个典型案例,但 CA-CI 并不限于欧盟或特定法律体系。该框架可更广泛地用于评估任何社会技术情境中的隐私与尊严问题,无论其所处的司法管辖区为何。