开源人工智能模型原本被寄望于降低技术门槛、推动更广泛的应用落地,但多名安全研究人员指出,开放获取与可修改的特性正被网络犯罪分子利用,使其成为可在普通笔记本电脑或服务器上下载、改造并隐蔽“武器化”的工具。研究人员称,相关地下生态正在快速成熟,攻击者不仅使用人工智能工具,还在其基础上进行二次开发与集成。
无防护模型被改造成“即插即用”黑客助手
安全团队的记录显示,部分攻击者会在移除商业系统常见的安全限制后,将开源模型改造成可直接用于攻击的辅助工具。一项研究提到,攻击者可能通过劫持运行无防护开源AI模型的计算机,将其变为进一步入侵的“发射台”。研究人员指出,当强大模型能够在本地运行时,缺少集中式服务提供方来限制滥用或记录可疑行为,增加了追踪与治理难度。
事件响应人员还观察到,相关系统被纳入更大规模的犯罪行动。一项调查称,黑客曾将某开源AI框架用于全球范围的加密劫持活动,从原本用于合法机器学习任务、但对外暴露的集群中悄然抽取GPU算力。社交媒体上的相关警告也提到,犯罪分子可能劫持运行这些模型的计算机,而缺乏内置防护被认为带来系统性风险。
AI推动钓鱼与勒索软件等传统攻击升级
研究人员表示,开源AI对攻击者的价值不仅在于模型能力本身,还在于可针对特定诈骗场景进行调优。对攻击者行为的分析显示,网络犯罪分子正利用模型生成更具针对性的钓鱼邮件,内容可模仿企业内部语言甚至个人写作风格。相关报道指出,组织过去依赖员工识别语法错误或不自然措辞等“破绽”,但AI生成内容正在削弱这些传统识别线索。
国家网络机构也就相关风险发出警示。英国网络机构在一份评估中表示,网络犯罪分子利用现有人工智能模型提升入侵能力,可能加剧全球勒索软件威胁;评估同时指出,攻击者未必需要自行训练系统,只要接入现有模型服务即可获得相关能力。该机构的配套文件强调,现成工具足以抬升犯罪技术的基础水平。
模型后门与AI供应链污染风险上升
多名威胁研究人员指出,攻击者不仅使用模型,还可能从源头对模型进行破坏。相关研究提到,Hugging Face等流行模型仓库中,不少模型依赖Python的pickle模块进行序列化,这可能为不知情用户在加载模型时触发隐藏代码执行打开空间。研究还描述了所谓“带后门的大型语言模型”风险:恶意载荷可能被嵌入,并在看似无害的操作过程中被触发,例如通过“数学提示”或“系统覆盖”类指令。

在企业环境中,AI软件供应链同样被认为是风险暴露点。一份行业分析指出,AI软件供应链攻击多针对共享组件与编排层,且大量AI软件依赖项会自动从公共注册库拉取。报告撰写团队警告,随着AI在各行业加速采用,防御方需要将AI管道视为关键基础设施,而非实验性代码。
执法与国家机构将AI增强型犯罪列为重点关注
执法部门的公开信息显示,相关问题正从技术圈关注扩展为更广泛的安全议题。美国联邦调查局(FBI)旧金山分局发布警告称,网络犯罪分子正利用人工智能扩大网络欺诈的规模与复杂度,并强调AI生成内容可能提高欺骗成功率、助长数据窃取。该分局在相关咨询中表示,已将“AI增强的欺诈”视为优先威胁类别。
英国网络机构的评估与上述判断相呼应,强调防御者需要假设攻击者会常态化使用当代模型进行网络探测,并在配套文件中重申网络犯罪分子利用现有模型提升入侵能力的可能性。
防御方加速引入AI,形成对抗性“军备竞赛”
面对机器生成攻击的速度与规模,安全厂商与企业团队也在加速将人工智能引入检测与响应流程。一份技术概述指出,AI驱动的网络威胁往往来得更快、预警更少,但同类技术也可用于识别网络流量与用户行为中的异常,并通过机器学习对告警进行分流、突出最紧急事件。
追踪攻击者行为的专家同时指出,防御方需要理解犯罪分子如何在真实环境中试验与迭代AI能力。相关恶意用例分析提到,网络犯罪分子可能利用AI生成带有定制特征的恶意软件变种,迫使防御方使用自身模型跟进变化。另有技术博客展示了“数学提示法”“系统覆盖”等手法如何被用于测试模型鲁棒性或检测模型是否遭篡改。研究人员据此认为,蓝队需要将AI产物视为潜在攻击面,对其中可能隐藏的载荷进行与其他可执行文件类似的安全扫描。
