“没有问责、没有制衡、没有责任”:土著视角下的人工智能治理
当前主流人工智能讨论多聚焦技术扩散与风险管理,而澳大利亚原住民和托雷斯海峡岛民的经验揭示了另一种图景:在缺乏问责、制衡与责任的前提下,人工智能可能加剧既有不平等与伤害。
谁来为未来的人工智能立规矩?一项研究剖析规则制定者与治理基础设施
加泰罗尼亚开放大学的一项研究指出,围绕人工智能的未来想象,正通过私有数字身份和生物识别系统,悄然塑造新的治理模式。
研究者提出CA-CI新框架,应对现代AI系统的隐私与尊严风险
研究团队提出能力方法—情境完整性(CA-CI)框架,用于评估和治理现代人工智能系统在不同情境和用途下能力演变所带来的隐私与尊严风险,并展示其在欧盟《人工智能法案》中的具体应用。
SBS CyberSecurity推出面向金融机构的人工智能风险同行小组
SBS CyberSecurity宣布成立“SBS人工智能同行小组”,面向银行及其他受监管机构,聚焦人工智能在治理、安全与合规方面的实际挑战,并通过月度会议与用例实验室促进同业交流与实践。
FBI称无需AI也可实施大规模监控:承认购买美国人商业数据引发隐私争议
联邦调查局局长卡什·帕特尔在参议院听证会上确认,FBI正在购买关于美国人的商业可得数据,包括位置信息。相关做法被指可能绕开令状要求,并在人工智能应用争议升温之际再度引发对政府监控能力的关注。
Anthropic 成立全新研究机构「Anthropic Institute」,专注强大 AI 的社会影响与挑战
Anthropic 宣布成立新机构「Anthropic Institute」,系统研究强大 AI 对经济、社会制度与公共政策的影响,并向政府、企业与学术界公开研究成果,帮助各方为即将到来的 AI 时代做好准备。
人工智能治理风险升温 董事会责任成焦点
人工智能加速进入企业核心业务,相关治理、合规与董事责任风险迅速上升,律师事务所Gowling WLG提示企业需将AI纳入董事会层面的系统性治理议题。
Obsidian Security获得ISO/IEC 42001:2023人工智能治理认证
Obsidian Security表示,新认证体现其在人工智能软件开发生命周期中强化治理与风险管理的承诺,认证范围覆盖Obsidian SaaS安全平台服务。
调查:企业加速采用自主型人工智能 治理机制建设明显滞后
一项针对500多名数据专业人士的调查显示,企业在日常运营中广泛使用自主型人工智能,但相应治理框架成熟度不足,责任划分与人工干预时点不清,正成为重要风险来源。
Anthropic公开讨论Claude“道德考量”引争议:意识可能性、宪法规则与拟人化风险
Anthropic过去一年在公开表述中多次触及人工智能“是否可能具有意识”的议题,并将这一不确定性与其旗舰模型Claude的安全规则设计联系起来。围绕Claude是否应获得某种道德考量的讨论,也在公司对外文件、技术研究与外部批评之间形成张力:一方面,系统会谈论自身“感受”和“内在状态”;另一方面,批评者认为这更可能源于提示设计与叙事框架,而非意识本身。 在相关争论中,利害关系被描述为并不抽象。若C
企业加速部署自主型人工智能,但治理建设明显滞后
一项针对500多名数据专业人士的调查显示,企业在大规模使用自主型人工智能的同时,相关治理框架却远未跟上,这种脱节正成为人工智能应用中的核心风险来源。
马斯克力推Optimus人形机器人之际,外界聚焦安全与透明度缺口
特斯拉首席执行官埃隆·马斯克近期持续为人形机器人Optimus造势,将其描述为可从特斯拉工厂走向家庭、仓库及养老设施的“通用机器”。不过,围绕该项目的公开呈现多以演示视频和工厂画面为主,外界批评认为,关于机器人在发生故障时的风险、网络安全以及人工监管等关键议题,仍缺乏清晰、系统的说明。 在相关讨论中,有观点指出,Optimus并非单一消费电子产品,而更接近一种将与儿童、老年人以及处于既有风险环境中