三年来,网路安全公司、政府机构和人工智慧实验室一直警告称,生成式人工智慧将催生新一代超级骇客。而根据一篇经过实地调查的最新学术论文,这些超级骇客大多利用 ChatGPT 来发送垃圾邮件和产生裸照取乐。
这项名为《独立复合体还是 Viber 犯罪? 》的研究由剑桥大学和其他大学的研究人员发表在 arXiv 上,旨在了解网路犯罪地下组织实际上是如何采用人工智慧的,而不是网路安全供应商所说的那样。
研究人员写道:“我们在此展示了首次尝试采用混合方法对网路犯罪地下组织早期采用 GenAI 的模式进行实证研究的成果之一。”
该团队分析了 ChatGPT 于 2022 年 11 月上线后发布的 97,895 个论坛帖子,这些帖子来自剑桥网路犯罪中心的 CrimeBB 数据集,该数据集包含地下和暗网论坛。他们运行了主题模型,手动阅读了 3,200 多个帖子,并以民族志的方式深入研究了该领域。
结论对人工智慧末日论者群体来说并不光彩:样本中97.3%的帖子被归类为“其他”,这意味著它们实际上与利用人工智慧犯罪毫无关系。只有1.9%的贴文涉及使用「氛围编码」工具。
还记得 WormGPT、FraudGPT 以及2023 年铺天盖地的所谓恶意聊天机器人吗?论坛数据却讲述了一个不同的故事。
研究人员发现,大多数关于「暗黑人工智慧」产品的贴文都是人们乞求免费使用、无谓的猜测以及抱怨这些工具实际上不起作用。一位热门暗黑人工智慧服务的开发者最终向论坛成员承认,该产品只是一种行销手段。
「说到底,[CybercrimeAI]只不过是一个不受限制的ChatGPT,」开发者在专案关闭前写道。 “任何网路使用者都可以使用众所周知的越狱技术,获得相同甚至更好的结果。”
研究人员表示,到2024年底,主流模式的越狱方案将变成一次性,大多数方案会在一周或更短时间内失效。开源模型虽然可以无限期越狱,但速度慢、资源消耗大,无法更新。
作者们总结道:“人工智慧系统的护栏已被证明既有用又有效”,他们自己也称这一发现对于一篇批判性论文而言是反直觉的。
该论文直接回应了Anthropic公司2025年8月发布的广受关注的报告,该报告声称Claude Code曾被用于对17个组织进行「氛围骇客」勒索活动。剑桥团队的数据并未在更广泛的地下音乐圈中显示出这种模式。
在他们研究的论坛中,人工智慧程式码助理的使用方式与主流开发者相同:作为自动补全和 Stack Overflow 的替代品,供经验丰富的程式设计师使用。技能较低的程式设计师则坚持使用预先编写好的脚本,因为预先编写好的脚本确实有效。
研究人员发现,就连骇客也不信任他们自己编写的基于人工智慧的骇客工具。 「人工智慧辅助程式设计是一把双面刃。它能加快开发速度,但也会加剧不安全程式码和供应链漏洞等风险,」一位用户在研究人员监控的一个论坛上说道。
另一位骇客警告说,长期使用人工智慧会导致技能退化:“现在很明显,使用人工智慧编写程式码会导致你的技能迅速下降,”一位骇客在论坛上写道,“如果你的目标只是制造SaaS骗局,而不在乎程式码品质、安全性和效能,那么使用人工智慧程式码或许可行。(似乎也适用于网路钓鱼。)”
这与欧洲刑警组织的危言耸听的预测形成了鲜明对比,该组织在 2025 年警告说,完全自主的人工智慧有朝一日可能会控制犯罪网络。
这种破坏一旦出现,往往发生在食物链的最底层。
SEO诈骗犯正利用LLM(人工智慧生成文字)大量生产垃圾博客,以弥补不断下滑的广告收入。爱情诈骗犯和网路卖淫者正利用语音克隆和图像生成技术牟利。一夜致富的骗子们正炮制人工智慧生成的电子书,每本售价20美元。
研究人员发现最令人不安的市场是裸体图像生成服务。一位运营商打出这样的广告:“我可以用人工智能生成任何女孩的裸体照片……1 张照片 = 1 美元,10 张照片 = 8 美元,50 张照片 = 40 美元,90 张照片 = 75 美元。”
这些都不是复杂的网路犯罪。这和过去二十年来垃圾邮件产业赖以生存的低利润、高产量的伎俩如出一辙,只不过现在用的工具稍微先进了一些。
研究者最后一点的观察最为精辟。他们认为,人工智慧最终颠覆网路犯罪生态系统的最大方式,或许并非增强犯罪者的能力,而是将合法科技公司中被裁员的开发人员推入地下,另谋生路。
「近几个月来,人们对这些工具可能造成的劳动力市场混乱的担忧急剧增加,」该报告指出。 “这最终可能成为生成式人工智慧工具扰乱网路犯罪生态系统的最重要方式——大规模裁员、经济衰退和就业市场低迷,将合法且技能更娴熟的开发人员推向快速致富、欺诈和网路犯罪的地下圈子。”



