研究显示:人工智能尚未在网络犯罪圈中取得实质突破

人工智能在网络犯罪中的应用受限

一项首创研究通过分析地下网络犯罪社区的一亿条帖子发现,网络犯罪分子在实际作案中难以有效采用人工智能。这项研究已发表在 arXiv 预印本平台上。

研究指出,多数网络犯罪分子(通常被称为黑客)并不具备推动其犯罪活动实现真正技术创新所需的技能或资源。

罪犯目前如何使用人工智能

研究团队发现,目前人工智能在网络犯罪中的主要用途包括:

  • 隐藏原本容易被网络安全防御系统识别的行为模式;
  • 驱动社交媒体机器人,用于实施厌女骚扰;
  • 通过自动化欺诈活动牟利。

来自爱丁堡大学、剑桥大学和斯特拉斯克莱德大学的研究人员,利用 CrimeBB 数据库中的讨论数据展开分析。该数据库收录了从地下和暗网网络犯罪论坛抓取的一亿多条帖子。团队结合机器学习工具与人工抽样方法,重点检索自 2022 年 11 月 ChatGPT 发布以来,网络犯罪行为者如何尝试使用人工智能技术的相关讨论。

研究结果显示,人工智能编码助手对已经具备技术能力的行为者更有帮助,而没有显著降低实施网络犯罪所需的技能门槛。这些工具本身仍要求用户具备较高的技术水平和相关知识才能发挥作用。

团队还发现,一些人工智能工具已被用于更高级形式的自动化,尤其是在社会工程攻击和“机器人农场”运营方面。

专家指出,由于当前大部分网络犯罪活动本身已经高度工业化、流程化,并依赖自动化工具和预制资源,人工智能的引入更像是对既有犯罪模式的延伸和优化,而非颠覆性变革。

保护措施、担忧与未来风险

研究认为,目前主流聊天机器人的安全防护措施在减少潜在危害方面总体上是有效的。然而,研究人员也观察到,地下社区已经在尝试并部分成功地操纵这些主流聊天机器人的输出,这一趋势仍令人担忧。

有意思的是,许多网络犯罪社区成员对人工智能在主流软件行业的广泛应用感到不安,担心这会威胁到他们的“正当工作”,从而可能促使他们本人或他人更多地转向网络犯罪活动。

与不少网络安全行业报告的主流观点不同,研究作者提醒,当前最紧迫的风险可能并非来自网络犯罪分子直接采用人工智能工具,而是来自安全性较差的自主型人工智能系统的部署。这类系统能够自主行动、做出决策并执行特定任务,一旦设计或防护不当,可能被轻易利用。

此外,合法行业中使用人工智能编写的“vibecoded”产品也被指出存在安全隐患,这些产品本身的安全缺陷可能为攻击者提供新的切入点。

该研究已通过同行评审,计划于 2026 年 6 月在美国伯克利举行的信息安全经济学研讨会上正式发布。

爱丁堡大学社会与政治科学学院数字方法高级讲师本·科利尔(Ben Collier)博士表示:“网络犯罪分子确实在尝试这些工具,但据我们目前掌握的证据,它们并没有在犯罪实践中带来真正的实质性优势。我们给业界的建议是:不要过早陷入恐慌。当前更直接的危险在于,公司和公众自身采用了安全性不足的人工智能系统,从而让自己暴露在网络犯罪分子几乎不费力就能发动的灾难性新型攻击面前。”


分享:


发表评论

登录后才可评论。 去登录