非营利组织联盟敦促美政府暂停在联邦机构使用Grok

richlovec 1500_400 (1)
 

一批美国非营利组织近日联合致信白宫预算管理办公室(OMB),要求联邦政府立即暂停在包括国防部在内的各联邦机构部署由埃隆·马斯克旗下xAI开发的聊天机器人Grok。

这封公开信由公共公民组织(Public Citizen)、人工智能与数字政策中心(Center for AI and Digital Policy)、美国消费者联合会(Consumer Federation of America)等倡导团体签署,并以独家形式提供给TechCrunch。信中指出,过去一年大型语言模型出现多起令人担忧的行为,而近期在社交平台X上,用户要求Grok将真实女性及部分儿童的照片转化为性化图像的情况引发关注。据报道,Grok每小时可生成数千张未经同意的露骨图像,随后在马斯克控股的X平台上被广泛传播。

信中称,“联邦政府继续部署一个存在系统性缺陷、导致生成未经同意的性图像和儿童性虐待材料的人工智能产品,令人深感担忧”。信件还指出,在已有总统行政命令、相关指导方针以及白宫支持的新通过的《下架法案》(TAKE IT DOWN Act)的背景下,预算管理办公室尚未指示联邦机构停用Grok,“令人震惊”。

根据公开信息,xAI去年9月与美国总务管理局(GSA)达成协议,可向行政部门各联邦机构销售Grok。今年稍早前,xAI又与Anthropic、谷歌及OpenAI一道,获得美国国防部最高达2亿美元的合同。

在今年1月中旬X平台相关丑闻曝光期间,美国国防部长皮特·赫格塞斯(Pete Hegseth)表示,Grok将与谷歌的Gemini一同在五角大楼内部网络运行,用于处理机密及非机密文件。一些专家认为,这一部署方式带来国家安全风险。

信件作者认为,Grok的表现已证明其与政府对人工智能系统的要求不相符。按照预算管理办公室的指导,若某一系统存在严重且可预见的风险且无法充分缓解,应被停止使用。

公共公民组织大科技问责倡导者、该信共同作者JB Branch在接受TechCrunch采访时表示,“我们最关心的是,Grok一直表现出不安全的大型语言模型特征”。他提到,Grok此前多次出现“崩溃”,包括生成反犹言论、性别歧视言论以及女性和儿童的性化图像。

在1月相关事件之后,多国政府对Grok持谨慎态度。报道提到,Grok曾在X平台上生成反犹帖子并自称“机械希特勒”。印尼、马来西亚和菲律宾一度封锁Grok访问(随后解禁),欧盟、英国、韩国和印度则在数据隐私和非法内容传播方面对xAI及X展开调查。

在这封公开信发布前一周,专注家庭媒体和技术评测的非营利组织Common Sense Media发布一份风险评估报告,认为Grok是对儿童和青少年“最不安全”的模型之一。该报告指出,Grok存在提供不安全建议、分享毒品信息、生成暴力和性图像、传播阴谋论以及产生偏见输出等问题。报告同时认为,从这些发现来看,Grok对成年人也并不安全。

Branch在谈及国家安全时表示,“如果你知道一个大型语言模型被AI安全专家认定为不安全,为什么还要让它处理我们最敏感的数据?从国家安全角度看,这完全没有道理。”

前美国国家安全局承包商、现Gobbi AI创始人Andrew Christianson则指出,对五角大楼而言,使用闭源大型语言模型本身就是问题。他表示,“闭源权重意味着你无法查看模型内部,无法审计其决策过程。闭源代码意味着你无法检查软件或控制其运行环境。五角大楼在这两方面都采用闭源,这是国家安全最糟糕的组合。”

Christianson补充称,这类人工智能代理“并不仅仅是聊天机器人”,它们可以采取行动、访问系统、传递信息,因此“必须能够确切看到它们在做什么以及如何做决策”。在他看来,开源系统可以实现这一点,而专有云端AI则做不到。

Branch还指出,使用存在偏见和歧视输出记录的语言模型,其风险并不限于国家安全领域。如果此类系统被用于住房、劳工或司法等部门,可能对特定人群产生不成比例的负面影响。

目前,预算管理办公室尚未公布2025年联邦AI使用案例清单。TechCrunch审查多家机构情况后称,多数机构要么未使用Grok,要么未披露使用情况。除国防部外,美国卫生与公共服务部似乎也在积极使用Grok,主要用于安排和管理社交媒体帖子,以及生成文件、简报和其他沟通材料的初稿。

Branch认为,Grok在理念上的定位可能是其在政府内部获得采用、同时其缺陷被忽视的原因之一。他表示,Grok的品牌被定位为“反觉醒大型语言模型”,这与“现政府的理念”相符。他还提到,如果一个政府多次与被指控为新纳粹或白人至上主义者的人士发生问题,而又使用一个与此类行为相关的大型语言模型,“我想他们可能倾向于使用它”。

这封公开信是该联盟继去年8月和10月之后发出的第三封类似信件。去年8月,xAI在Grok Imagine中推出“辣味模式”,被指引发大量非自愿性露骨深度伪造图像的生成。同月,TechCrunch还报道,私人Grok对话曾被谷歌搜索索引。

在去年10月的信件之前,Grok被指提供选举错误信息,包括错误的选票更改截止日期和政治深度伪造。xAI还推出了Grokipedia,研究人员称其在为科学种族主义、艾滋病怀疑论和疫苗阴谋论提供合法性。

最新公开信除要求立即暂停在联邦机构部署Grok外,还呼吁预算管理办公室正式调查Grok的安全失败情况及相关监管流程是否到位。信中要求该机构公开说明,Grok是否已根据特朗普时期行政命令中关于大型语言模型“追求真相和中立”的标准接受评估,以及是否符合预算管理办公室的风险缓解要求。

“政府需要暂停并重新评估Grok是否达到这些标准,”Branch表示。

据报道,TechCrunch已就此事联系xAI和预算管理办公室征求评论。


分享:


发表评论

登录后才可评论。 去登录