可疑AI检测器横行:付费“人性化”服务被指套路骗局

将伊朗新闻报道或文学经典输入某些在线文本检测器,系统给出的结论往往是:AI生成。紧接着,页面便弹出“付费人性化写作”的推销。这种先误判、再收费“去AI化”的模式,被专家认为具有典型骗局特征。

随着社交媒体上AI生成虚假信息激增,专业事实核查员的处理能力已被严重挤压。在这样的背景下,虚假的AI检测工具可能为本就破碎的信息生态再添一层欺骗。

研究人员指出,即便是相对可靠的AI检测器也会出错,但近期在网络上出现了一批明显带有欺诈性质的工具,它们不仅容易被用来抹黑真实内容,还可能直接损害个人和机构声誉。

法新社事实核查团队锁定了三款声称可以“估算文本中AI生成比例”的检测器。这些工具支持四种语言,却频繁将人类撰写的文本误判为AI生成,并试图借此牟利。

其中一款名为 JustDone AI 的检测器,在分析一篇关于美伊战争的人类撰写报告时,给出的结果是“88% AI内容”。随后,它立刻向用户推销付费服务,声称可以“清除任何AI痕迹”。

该网站宣称“您的AI文本正在被人性化”,并引导用户进入一个标注“100%原创文本”的付费页面,收费最高可达 9.99 美元。

另外两款工具 TextGuard 和 Refinely 也出现了类似的误报,并同样试图通过这些结果获利。

“骗局”模式

法新社将调查结果反馈给这三款检测器的运营方。

TextGuard 客服团队回复称:“我们的系统使用现代AI模型,在我们的技术范围内,所提供的结果被认为是准确的。”

他们同时表示:“我们无法保证,也无法与其他系统的结果进行比较。”

JustDone 则重申,“没有任何AI检测器能保证 100% 准确”。

该公司承认,其免费版检测器“可能因为需求量大且采用轻量模型以便快速访问,而导致结果不够精确”。

与法新社的发现相呼应,一名用户在评价平台上抱怨称:“即使是 100% 人类撰写的材料,JustDone 仍然标记为AI。”

法新社向这些工具输入了多份人类撰写的文本样本,涵盖荷兰语、希腊语、匈牙利语和英语。所有样本都被错误标记为高比例AI内容,其中包括一段 1916 年出版的匈牙利文学经典。

更极端的是,无论输入什么内容——哪怕是毫无意义的乱序文本,这些工具依然给出“AI生成”的判定。

此外,JustDone 和 Refinely 在无网络连接的情况下似乎仍能“正常工作”,这暗示其输出结果很可能是预设脚本,而非基于真实技术分析得出的判断。

“这些根本不是AI检测器,而是用来推销‘人性化’工具的骗局。这类工具经常输出我们称之为‘扭曲短语’的内容——即无关术语或毫无意义的替代词。”曾研究过检测工具的德国学者 Debora Weber-Wulff 对法新社表示。

“说谎者红利”的放大器

这类工具也被用来抹黑政治对手。今年早些时候,一名匈牙利亲政府影响者声称,一份反对派选举活动文件“完全由AI生成”。

为了支撑这一毫无根据的指控,他在社交媒体上发布了来自 JustDone 的检测截图,试图以此作为“证据”。

法新社测试的这些工具,明显将学生和学者视为主要目标客户,其中两款还声称其用户来自康奈尔大学等世界顶尖学府。

康奈尔大学则对法新社表示,学校“没有与任何AI检测公司建立关系”。

“生成式AI确实增加了学生提交非本人作品的风险,”该校指出。

“遗憾的是,检测技术不太可能为这一问题提供可靠的解决方案。准确识别AI生成内容本身就非常困难。”

包括法新社在内的事实核查机构,通常依赖由专家开发的AI视觉检测工具,这类工具会寻找隐藏水印和其他数字线索。

不过,即便是这些较为成熟的系统也会出错,因此事实核查员往往需要结合开源情报等额外证据来交叉验证。

不可靠的检测器频繁误判,不仅削弱了公众对AI验证工具的整体信任,还助长了一种被研究人员称为“说谎者红利”的错误信息策略——即把真实内容说成是AI伪造,从而轻易否定不利事实。

“我们经常报道误导者和其他骗子如何利用AI伪造虚假图像和视频,”虚假信息追踪机构 NewsGuard 的 Waqar Rizvi 表示。

“而现在,我们开始监测另一种同样阴险的现象:有人声称某些视觉内容是AI创作,但实际上它们是真实的。”

© 2026 法新社


分享:


发表评论

登录后才可评论。 去登录