埃隆·马斯克近日在社交平台X上暗示,平台将推出针对被编辑图片的“操纵媒体”标注功能。不过,X方面尚未公布该功能的具体规则和技术路径,也未说明是否涵盖使用传统图像编辑软件(如 Adobe Photoshop)处理过的图片。
功能由马斯克转发账号披露
目前有关这一功能的信息主要来自马斯克在 X 上发布的一条简短帖子。他在文中写下“编辑视觉警告”(Edit Visual Warning),并转发了匿名账号 DogeDesigner 发布的相关说明。该账号长期用于预告或展示 X 的新功能,马斯克经常通过转发其内容对外释放产品动向。
DogeDesigner 在帖子中称,X 的新功能将把经过编辑的图片标注为“操纵媒体”,并声称此举可能会“让传统媒体集团更难传播误导性剪辑或图片”。该账号还表示,这是 X 的一项新功能。但除这些表述外,关于系统如何识别、适用范围如何界定等关键细节尚未披露。
与旧版 Twitter 政策关系不明
在被马斯克收购并更名为 X 之前,Twitter 曾对含有“操纵或欺骗性更改或伪造媒体”的推文进行标注,而非直接删除。时任网站诚信负责人 Yoel Roth 曾在 2020 年表示,这一政策并不限于人工智能生成内容,还包括“选择性编辑、裁剪、减速、配音或字幕操控”等多种形式的修改。
目前尚不清楚 X 是否会沿用上述标准,还是将针对人工智能相关内容进行重大调整。X 现有帮助文档仍提到平台反对分享“非真实媒体”的政策,但外界普遍认为执行力度有限。近期用户分享未经同意的深度伪造裸照事件,以及包括白宫在内的机构发布经编辑图片的情况,都引发了对相关规则执行状况的关注。
标注“操纵媒体”面临技术与界定难题
如何界定何种内容应被标注为“操纵媒体”或“人工智能图片”,在业界一直存在争议。鉴于 X 已成为国内外政治宣传的重要平台,外界关注公司将如何说明“编辑”与“操纵”的边界,以及是否区分人工智能生成内容与一般后期处理图片。
此外,除 X 现有的众包“社区注释”机制外,是否会设立其他争议处理流程,目前也没有公开信息。

他平台经验显示误判风险
其他平台在类似功能上的实践显示,相关检测系统容易出现误判。Meta 在 2024 年推出人工智能图像标注时,就被发现将部分真实照片错误标注为“由人工智能制作”,而这些图片并非由生成式人工智能生成。
报道指出,这一问题与创作工具中广泛集成人工智能功能有关。摄影师和图形设计师常用的软件在处理图片时,可能触发平台的人工智能检测机制。例如,Adobe 的裁剪工具在将图片保存为 JPEG 前会对图层进行扁平化处理,这一过程被 Meta 的系统识别为人工智能相关操作。又如,Adobe 的生成式人工智能填充功能可用于去除衣物褶皱或不需要的反光,这类局部修饰也曾导致图片被标注为“由人工智能制作”,尽管图片并非完全由人工智能生成。
在出现上述情况后,Meta 将相关标签调整为“人工智能信息”,以降低对图片来源的误导性暗示。
行业标准与 X 的位置
在数字内容真实性和来源验证方面,业界已形成若干标准和倡议。其中,C2PA(内容来源与真实性联盟)致力于制定验证数字内容真实性和溯源的技术标准;CAI(内容真实性倡议)和 Project Origin 等项目则聚焦为媒体内容添加防篡改的来源元数据。
报道推测,X 的新功能可能会参考现有的人工智能内容识别流程,但马斯克尚未说明是否会采用上述标准,也未明确该功能是否仅针对人工智能生成图片,还是涵盖所有非直接从智能手机相机上传的图片。DogeDesigner 所称“全新功能”的说法,目前也未得到更多官方说明。
除 Meta 外,TikTok 也已开始对人工智能内容进行标注。流媒体平台 Deezer 和 Spotify 正在扩大对人工智能音乐的识别与标注举措。Google Photos 则使用 C2PA 标记平台上照片的生成方式。微软、BBC、Adobe、Arm、英特尔、索尼、OpenAI 等机构均在 C2PA 指导委员会中,成员范围持续扩大。
C2PA 公布的成员名单中目前尚未出现 X。报道提到,相关机构已就此向 C2PA 进行询问,以确认是否有最新变动。X 一般不会回应置评请求,但外界仍在等待更多信息。
