Một nghiên cứu cho thấy tội phạm mạng có thể là công việc duy nhất mà trí tuệ nhân tạo (AI) chưa đảm nhận.

Bài viết này được dịch máy
Xem bản gốc

Trong ba năm qua, các công ty an ninh mạng, chính phủ và phòng thí nghiệm AI đã cảnh báo rằng trí tuệ nhân tạo tạo sinh sẽ tạo ra một thế hệ tin tặc siêu mạnh mới. Theo một bài báo học thuật mới đây, những tin tặc siêu mạnh này chủ yếu sử dụng ChatGPT để viết thư rác và tạo ảnh khỏa thân cho vui.

Nghiên cứu có tiêu đề "Tổ hợp độc lập hay tội phạm Viber?" đã được các nhà nghiên cứu từ Cambridge và các trường đại học khác công bố trên arXiv, nhằm mục đích tìm hiểu cách thức tội phạm mạng ngầm thực sự áp dụng trí tuệ nhân tạo (AI), chứ không phải như các nhà cung cấp an ninh mạng nói.

"Chúng tôi trình bày ở đây một trong những nỗ lực đầu tiên nhằm thực hiện một nghiên cứu thực nghiệm kết hợp nhiều phương pháp về các mô hình ban đầu của việc áp dụng trí tuệ nhân tạo thế hệ mới (GenAI) trong thế giới ngầm tội phạm mạng," các nhà nghiên cứu viết.

Nhóm nghiên cứu đã phân tích 97.895 Threads diễn đàn được đăng tải sau khi ChatGPT ra mắt vào tháng 11 năm 2022, được lấy từ bộ dữ liệu CrimeBB của Trung tâm Tội phạm mạng Cambridge về các diễn đàn ngầm và Dark Web . Họ đã sử dụng các mô hình chủ đề, tự mình đọc hơn 3.200 Threads và tìm hiểu sâu về bối cảnh diễn đàn thông qua phương pháp nghiên cứu dân tộc học.

Kết luận này không mấy khả quan đối với cộng đồng những người bi quan về AI: 97,3% Threads trong mẫu được phân loại là "khác", nghĩa là thực tế không hề liên quan đến việc sử dụng AI cho mục đích phạm tội. Chỉ có 1,9% liên quan đến việc ai đó sử dụng các công cụ mã hóa cảm xúc.

Bạn còn nhớ WormGPT, FraudGPT và làn sóng chatbot được cho là độc hại từng tràn ngập các tiêu đề báo chí năm 2023 không? Dữ liệu từ diễn đàn lại cho thấy một câu chuyện khác.

Các nhà nghiên cứu nhận thấy rằng hầu hết các bài đăng về sản phẩm “Trí tuệ nhân tạo đen tối” đều là những lời cầu xin được truy cập miễn phí, những suy đoán vô căn cứ và những lời phàn nàn rằng các công cụ này thực sự không hoạt động. Một nhà phát triển của một dịch vụ Trí tuệ nhân tạo đen tối phổ biến cuối cùng đã thừa nhận với các thành viên diễn đàn rằng sản phẩm này chỉ là một chiêu trò tiếp thị.

“Tóm lại, [CybercrimeAI] chẳng khác gì một phiên bản ChatGPT không bị hạn chế,” nhà phát triển viết trước khi dự án ngừng hoạt động. “Bất cứ ai trên Internet đều có thể sử dụng một kỹ thuật bẻ khóa phổ biến và đạt được kết quả tương tự, thậm chí còn tốt hơn.”

Theo các nhà nghiên cứu, đến cuối năm 2024, việc bẻ khóa (jailbreak) đối với các mẫu điện thoại phổ thông đã trở nên lỗi thời. Hầu hết chúng ngừng hoạt động trong vòng một tuần hoặc ít hơn. Các mẫu điện thoại mã nguồn mở có thể được bẻ khóa vô thời hạn, nhưng chúng chậm, tốn nhiều tài nguyên và bị đóng băng về mặt thời gian.

“Các rào cản bảo vệ cho hệ thống AI đang chứng tỏ cả tính hữu ích và hiệu quả,” các tác giả kết luận, trong một phát hiện mà chính họ gọi là trái ngược với trực giác đối với một bài báo mang tính phê phán.

Bài báo này trực tiếp đề cập đến báo cáo được công bố rộng rãi của Anthropic vào tháng 8 năm 2025, trong đó khẳng định Claude Code đã được sử dụng để thực hiện chiến dịch tống tiền "hack cảm xúc" nhắm vào 17 tổ chức. Dữ liệu của nhóm nghiên cứu Cambridge đơn giản là không cho thấy mô hình đó trong thế giới ngầm rộng lớn hơn.

Trong các diễn đàn mà họ nghiên cứu, trợ lý lập trình AI đang được sử dụng theo cách tương tự như các nhà phát triển chuyên nghiệp: như một công cụ tự động hoàn thành và thay thế cho Stack Overflow dành cho những lập trình viên đã có kỹ năng. Các diễn viên có kỹ năng thấp vẫn sử dụng kịch bản có sẵn, bởi vì kịch bản có sẵn hoạt động hiệu quả.

Các nhà nghiên cứu phát hiện ra rằng ngay cả tin tặc cũng không tin tưởng vào các công cụ hack được mã hóa bằng cảm xúc của họ. “Lập trình hỗ trợ bởi AI là con dao hai lưỡi. Nó sẽ đẩy nhanh quá trình phát triển nhưng cũng làm tăng rủi ro như mã không an toàn và lỗ hổng chuỗi cung ứng”, một người dùng cho biết trong một diễn đàn được các nhà nghiên cứu theo dõi.

Một người khác cảnh báo về việc mất kỹ năng lâu dài: "Rõ ràng là việc sử dụng AI để lập trình sẽ gây ra sự suy giảm kỹ năng nhanh chóng", một hacker viết trên diễn đàn, "Nếu mục tiêu của bạn chỉ là tạo ra các phần mềm lừa đảo SaaS và bạn không quan tâm đến chất lượng/bảo mật/hiệu suất của mã, thì việc sử dụng AI để lập trình có thể khả thi. (Cũng có vẻ khả thi đối với lừa đảo trực tuyến)."

Điều này hoàn toàn trái ngược với những dự báo đáng báo động từ Europal , tổ chức đã cảnh báo vào năm 2025 rằng trí tuệ nhân tạo tự động hoàn toàn một ngày nào đó có thể kiểm soát các mạng lưới tội phạm.

Khi sự gián đoạn xuất hiện, nó thường xảy ra ở đáy chuỗi thức ăn.

Những kẻ lừa đảo SEO đang sử dụng LLM để sản xuất hàng loạt bài viết spam trên blog nhằm đuổi kịp doanh thu quảng cáo đang giảm sút. Những kẻ lừa đảo tình cảm và các nhà điều hành mại dâm trực tuyến đang tận dụng việc sao chép giọng nói và tạo ảnh. Những kẻ muốn làm giàu nhanh chóng đang sản xuất sách điện tử do AI viết để bán với giá 20 đô la mỗi cuốn.

Thị trường đáng lo ngại nhất mà các nhà nghiên cứu phát hiện liên quan đến dịch vụ tạo ảnh khỏa thân. Một nhà cung cấp quảng cáo: “Tôi có thể biến bất kỳ cô gái nào thành khỏa thân bằng trí tuệ nhân tạo… 1 ảnh = 1 đô la, 10 ảnh = 8 đô la, 50 ảnh = 40 đô la, 90 ảnh = 75 đô la.”

Đây không phải là tội phạm mạng tinh vi. Nó chỉ là chiêu trò kinh doanh lợi nhuận thấp, quy mô lớn đã từng thúc đẩy ngành công nghiệp thư rác trong hai thập kỷ qua, giờ đây được vận hành bằng các công cụ tinh vi hơn một chút.

Nhận xét cuối cùng của các nhà nghiên cứu là nhận xét sắc bén nhất. Họ cho rằng, cách lớn nhất mà AI làm xáo trộn hệ sinh thái tội phạm mạng có thể không phải là làm cho tội phạm trở nên giỏi hơn. Mà có thể là bằng cách đẩy những nhà phát triển bị sa thải từ các công ty công nghệ chính thống vào hoạt động ngầm để tìm việc làm.

Bài báo viết: “Trong những tháng gần đây, nỗi lo ngại về sự gián đoạn thị trường lao động do các công cụ này gây ra đang gia tăng nhanh chóng. Điều này có thể trở thành cách quan trọng nhất mà các công cụ AI tạo sinh làm gián đoạn hệ sinh thái tội phạm mạng – sa thải hàng loạt, suy thoái kinh tế và thị trường việc làm ảm đạm đẩy các nhà phát triển có tay nghề cao và đáng tin cậy vào các cộng đồng ngầm của các kế hoạch làm giàu nhanh chóng, lừa đảo và tội phạm mạng.”

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận