“没有问责、没有制衡、没有责任”:土著视角下的人工智能治理

很多当下围绕人工智能的讨论,都默认它的广泛应用是必然趋势,认为技术越多、结果越好,而主要任务只是“管控风险”。

但当我们询问澳大利亚原住民和托雷斯海峡岛民,他们在日常生活中如何遭遇和使用人工智能时,呈现出的却是完全不同的现实。我们的“关系未来”(Relational Futures)项目,正是从土著主权出发,审视人工智能的治理问题。

“关系未来”并不把人工智能视为一件孤立的工具,而是把它放进一个更大的系统中,考察它如何重塑人与人、人与机构、人与数据以及人与土地之间的关系。

我们已经发布了研究成果,明确指出:如果忽视问责、伤害与关怀这些核心议题,后果将十分严重。正如一位参与者所说,人工智能“没有问责,没有制衡,没有责任”。

信任为何如此有限

在澳大利亚,自动化决策带来的严重后果已经有前车之鉴,例如“机器人债务”(Robodebt)丑闻。在养老护理和国家残疾保险计划中,也出现了类似的问题。

这些系统往往以“提升效率”为理由被引入。但效率究竟是为谁服务?又是以谁的代价为前提?

人工智能和自动化系统并不是进入一片真空,而是嵌入到本就存在权力不平衡、信任缺失和问责机制不完善的机构之中。一旦出问题,影响也不会平均分布。

我们的项目通过问卷调查和交流圈,首次系统性地建立起土著视角下关于人工智能的定性基础资料。

研究团队希望以土著经验为中心,更细致地理解土著群体如何实际感受和应对新技术。

参与者普遍对人工智能抱持有限信任,很多人明确表示在有选择的情况下会拒绝使用。这种拒绝并不是一概排斥技术,而是基于对现实的判断:人工智能很可能进一步放大既有的不平等,尤其是在福利、医疗和社会服务等领域。

大家普遍意识到,自动化可以显著加快决策速度,但同时也让决策过程更难被看见、更难被质疑,也更难追究责任。

土著数据主权意味着什么

土著数据主权强调的是集体的权利与责任,主张土著人民应对涉及其社区、土地和资源的数据,在整个生命周期内拥有控制权。

这种治理方式要求数据实践必须支持自决,扎根社区,带来集体利益,并避免重复造成伤害或进一步边缘化。我们的参与者几乎都把“社区利益”放在首位。

他们指出的风险远不止隐私泄露或数据被盗,还包括:

  • 人工智能基础设施带来的环境成本;
  • 土著知识被挪用、被简化甚至被扭曲;
  • 系统在设计和部署过程中的不透明。

还有一个突出的担忧是:人工智能会被当作填补资源短缺的“替代品”,用来顶替本应由人和社区承担的服务工作。

一位参与者说:

“有时人工智能无法真正理解第一民族的深层经历、文化细微差别或社区动态。它可能忽视情感分量或背景,这让我想起文化权威必须永远属于族群,而不是技术。”

想象一个“人工智能长者”?

项目也尝试进入更具想象力的空间,邀请参与者思考:未来的人工智能还能是什么样子,而不仅仅是现在的样子。我们提出了“人工智能长者”的概念,设想它可以在文化重连、文化咨询等方面发挥作用。

我们问:如果人工智能不是围绕速度和效率,而是围绕关怀、文化知识和对社区的责任来设计,会发生什么?

参与者的回应却非常直接:

  • 这个“长者”究竟代表谁?
  • 它向谁负责?
  • 它如何与社区建立真实的关系?

在土著语境中,长者不仅是知识的守护者,更是社区的一员:他们之所以被信任,是因为长期的关系、承担的责任和可以被追究的问责。

人工智能无法以这种方式建立关系,也无法真正承担责任,更无法与土地或社区形成活生生的联系。

即便我们努力去想象“更好”的人工智能,有些东西依然是无法被替代的。

未来的方向

人工智能治理不能只停留在技术标准或合规清单上,而必须正面回应权威、责任、伤害与关怀这些根本问题。

如果人工智能系统能够在设计之初,就以安全、问责并真正惠及澳大利亚原住民和托雷斯海峡岛民为前提——这些群体往往是现有系统中被监控最严、被边缘化最深的——那么这些系统也更有可能对所有人都安全且有效。

为边缘群体设计,并不是一个“细分议题”,而是检验这些系统是否真正可行、是否真正公正的试金石。

正如一位参与者所说:

“我最担心的是我们被落下。把人工智能看成负面或威胁很容易,但同样容易看到它可能带来的好处。显然,我们需要积极参与(否则就有被排除的风险)人工智能系统的设计、训练和使用,否则现有的权力不平衡只会被技术复制。”

“关系未来”既是一种警示,也提供了一条前行的路径。

如果没有土著领导和以关系为核心的治理方法,人工智能只会继续重演我们在机器人债务等系统中已经看到的伤害。前进的关键不在于简单“放慢技术”,而在于重新思考技术存在的目的、服务的对象,以及它应当如何被问责。

本文转载自 The Conversation,遵循知识共享许可协议。可查阅原文以了解更多细节。


分享:


发表评论

登录后才可评论。 去登录