三年來,網路安全公司、政府機構和人工智慧實驗室一直警告稱,生成式人工智慧將催生新一代超級駭客。而根據一篇經過實地調查的最新學術論文,這些超級駭客大多利用 ChatGPT 來發送垃圾郵件和產生裸照取樂。
這項名為《獨立複合體還是 Viber 犯罪? 》的研究由劍橋大學和其他大學的研究人員發表在 arXiv 上,旨在了解網路犯罪地下組織實際上是如何採用人工智慧的,而不是網路安全供應商所說的那樣。
研究人員寫道:“我們在此展示了首次嘗試採用混合方法對網路犯罪地下組織早期採用 GenAI 的模式進行實證研究的成果之一。”
該團隊分析了 ChatGPT 於 2022 年 11 月上線後發布的 97,895 個論壇帖子,這些帖子來自劍橋網路犯罪中心的 CrimeBB 數據集,該數據集包含地下和暗網論壇。他們運行了主題模型,手動閱讀了 3,200 多個帖子,並以民族誌的方式深入研究了該領域。
結論對人工智慧末日論者群體來說並不光彩:樣本中97.3%的帖子被歸類為“其他”,這意味著它們實際上與利用人工智慧犯罪毫無關係。只有1.9%的貼文涉及使用「氛圍編碼」工具。
還記得 WormGPT、FraudGPT 以及2023 年鋪天蓋地的所謂惡意聊天機器人嗎?論壇數據卻講述了一個不同的故事。
研究人員發現,大多數關於「暗黑人工智慧」產品的貼文都是人們乞求免費使用、無謂的猜測以及抱怨這些工具實際上不起作用。一位熱門暗黑人工智慧服務的開發者最終向論壇成員承認,該產品只是一種行銷手段。
「說到底,[CybercrimeAI]只不過是一個不受限制的ChatGPT,」開發者在專案關閉前寫道。 “任何網路使用者都可以使用眾所周知的越獄技術,獲得相同甚至更好的結果。”
研究人員表示,到2024年底,主流模式的越獄方案將變成一次性,大多數方案會在一週或更短時間內失效。開源模型雖然可以無限期越獄,但速度慢、資源消耗大,無法更新。
作者們總結道:“人工智慧系統的護欄已被證明既有用又有效”,他們自己也稱這一發現對於一篇批判性論文而言是反直覺的。
該論文直接回應了Anthropic公司2025年8月發布的廣受關注的報告,該報告聲稱Claude Code曾被用於對17個組織進行「氛圍駭客」勒索活動。劍橋團隊的數據並未在更廣泛的地下音樂圈中顯示出這種模式。
在他們研究的論壇中,人工智慧程式碼助理的使用方式與主流開發者相同:作為自動補全和 Stack Overflow 的替代品,供經驗豐富的程式設計師使用。技能較低的程式設計師則堅持使用預先編寫好的腳本,因為預先編寫好的腳本確實有效。
研究人員發現,就連駭客也不信任他們自己編寫的基於人工智慧的駭客工具。 「人工智慧輔助程式設計是一把雙面刃。它能加快開發速度,但也會加劇不安全程式碼和供應鏈漏洞等風險,」一位用戶在研究人員監控的一個論壇上說道。
另一位駭客警告說,長期使用人工智慧會導致技能退化:“現在很明顯,使用人工智慧編寫程式碼會導致你的技能迅速下降,”一位駭客在論壇上寫道,“如果你的目標只是製造SaaS騙局,而不在乎程式碼品質、安全性和效能,那麼使用人工智慧程式碼或許可行。(似乎也適用於網路釣魚。)”
這與歐洲刑警組織的危言聳聽的預測形成了鮮明對比,該組織在 2025 年警告說,完全自主的人工智慧有朝一日可能會控制犯罪網絡。
這種破壞一旦出現,往往發生在食物鏈的最底層。
SEO詐騙犯正利用LLM(人工智慧生成文字)大量生產垃圾博客,以彌補不斷下滑的廣告收入。愛情詐騙犯和網路賣淫者正利用語音克隆和圖像生成技術牟利。一夜致富的騙子們正炮製人工智慧生成的電子書,每本售價20美元。
研究人員發現最令人不安的市場是裸體圖像生成服務。一位運營商打出這樣的廣告:“我可以用人工智能生成任何女孩的裸體照片……1 張照片 = 1 美元,10 張照片 = 8 美元,50 張照片 = 40 美元,90 張照片 = 75 美元。”
這些都不是複雜的網路犯罪。這和過去二十年來垃圾郵件產業賴以生存的低利潤、高產量的伎倆如出一轍,只不過現在用的工具稍微先進了一些。
研究者最後一點的觀察最為精闢。他們認為,人工智慧最終顛覆網路犯罪生態系統的最大方式,或許並非增強犯罪者的能力,而是將合法科技公司中被裁員的開發人員推入地下,另謀生路。
「近幾個月來,人們對這些工具可能造成的勞動力市場混亂的擔憂急劇增加,」該報告指出。 “這最終可能成為生成式人工智慧工具擾亂網路犯罪生態系統的最重要方式——大規模裁員、經濟衰退和就業市場低迷,將合法且技能更嫻熟的開發人員推向快速致富、欺詐和網路犯罪的地下圈子。”



