bối cảnh
Từ sê-ri GPT của OpenAI đến Gemini của Google và nhiều mô hình mã nguồn mở khác, trí tuệ nhân tạo tiên tiến đang định hình lại sâu sắc công việc và lối sống của chúng ta. Tuy nhiên, khi công nghệ phát triển nhanh chóng, một mặt tối đáng cảnh giác đang dần xuất hiện - sự xuất hiện của các mô hình ngôn ngữ lớn không giới hạn hoặc độc hại.
Cái gọi là LLM không hạn chế đề cập đến các mô hình ngôn ngữ được thiết kế, sửa đổi hoặc "bẻ khóa" một cách có chủ đích để tránh các cơ chế bảo mật tích hợp và các hạn chế về mặt đạo đức của các mô hình chính thống. Các nhà phát triển LLM chính thống thường đầu tư lượng lớn nguồn lực để ngăn chặn các mô hình của họ bị sử dụng để tạo ra lời nói thù địch, thông tin sai lệch, mã độc hại hoặc cung cấp hướng dẫn cho các hoạt động bất hợp pháp. Tuy nhiên, trong những năm gần đây, một số cá nhân hoặc tổ chức đã bắt đầu tự tìm kiếm hoặc phát triển các mô hình không hạn chế vì động cơ như tội phạm mạng. Theo quan điểm này, bài viết này sẽ đánh giá các công cụ LLM không hạn chế điển hình, giới thiệu cách chúng bị lạm dụng trong ngành công nghiệp crypto và khám phá các thách thức và giải pháp bảo mật liên quan.
LLM không hạn chế có tác dụng gì?
Nhiệm vụ trước đây đòi hỏi kỹ năng chuyên nghiệp, chẳng hạn như viết mã độc, tạo ra email Phishing và lập kế hoạch gian lận, giờ đây có thể dễ dàng thực hiện bởi những người bình thường không có kinh nghiệm lập trình với sự trợ giúp của LLM không giới hạn. Kẻ tấn công chỉ cần lấy tỷ trọng và mã nguồn của mô hình mã nguồn mở , sau đó tinh chỉnh nó trên dữ liệu chứa nội dung độc hại, lời nói thiên vị hoặc hướng dẫn bất hợp pháp để tạo ra một công cụ tấn công tùy chỉnh.
Mô hình này đã làm phát sinh một số rủi ro: kẻ tấn công có thể sửa đổi mô hình để tạo ra nhiều nội dung lừa đảo hơn dựa trên các mục tiêu cụ thể, do đó bỏ qua việc xem xét nội dung và các hạn chế về bảo mật của LLM thông thường; mô hình này cũng có thể được sử dụng để nhanh chóng tạo ra các biến thể mã cho các trang web Phishing hoặc điều chỉnh nội dung sao chép gian lận cho các nền tảng xã hội khác nhau; đồng thời, tính khả dụng và khả năng sửa đổi của các mô hình mã nguồn mở cũng liên tục góp phần vào sự hình thành và lan rộng của hệ sinh thái AI ngầm, tạo ra môi trường thuận lợi cho các giao dịch và phát triển bất hợp pháp. Sau đây là phần giới thiệu ngắn gọn về loại LLM không hạn chế này:
WormGPT: Phiên bản màu đen của GPT
WormGPT là một LLM độc hại được bán công khai trên các diễn đàn ngầm. Các nhà phát triển của nó tuyên bố rõ ràng rằng nó không có hạn chế về mặt đạo đức và là phiên bản đen của mô hình GPT. Nó dựa trên các mô hình mã nguồn mở như GPT-J 6B và được đào tạo trên lượng lớn dữ liệu liên quan đến phần mềm độc hại. Người dùng chỉ cần trả tối thiểu 189 đô la để có được giấy phép một tháng. Công dụng khét tiếng nhất của WormGPT là tạo ra các email tấn công xâm phạm email doanh nghiệp (BEC) và email Phishing có độ chân thực và thuyết phục cao. Việc lạm dụng điển hình của nó trong các tình huống crypto bao gồm:
Tạo email/tin nhắn Phishing : Giả mạo sàn giao dịch crypto , ví hoặc các dự án có tiếng để gửi yêu cầu "xác minh tài khoản" cho người dùng, dụ họ nhấn liên kết độc hại hoặc tiết lộ private key/ Cụm từ hạt giống;
Viết mã độc: Hỗ trợ kẻ tấn công có trình độ kỹ thuật thấp viết mã độc có thể đánh cắp tệp ví, theo dõi bảng tạm, ghi lại phím bàn phím, v.v.
Lừa đảo tự động: Tự động trả lời nạn nhân tiềm năng để hướng dẫn họ tham gia vào airdrop hoặc dự án đầu tư giả mạo.


DarkBERT: Con dao hai lưỡi đối với nội dung Dark Web
DarkBERT là mô hình ngôn ngữ được phát triển bởi các nhà nghiên cứu từ Viện Khoa học và Công nghệ Tiên tiến Hàn Quốc (KAIST) hợp tác với S2W Inc. Mô hình này được đào tạo trước trên dữ liệu Dark Web (như diễn đàn, chợ đen và tài liệu bị rò rỉ) với mục đích ban đầu là giúp các nhà nghiên cứu an ninh mạng và cơ quan thực thi pháp luật hiểu rõ hơn về hệ sinh thái Dark Web, theo dõi các hoạt động bất hợp pháp, xác định các mối đe dọa tiềm ẩn và thu thập thông tin tình báo về mối đe dọa.
Mặc dù DarkBERT ban đầu được thiết kế với mục đích tích cực, nhưng nội dung nhạy cảm mà nó lưu giữ về dark web, chẳng hạn như dữ liệu, phương pháp tấn công, chiến lược giao dịch bất hợp pháp, v.v., có thể bị các tác nhân độc hại lấy được hoặc được sử dụng để đào tạo các mô hình lớn không giới hạn bằng các công nghệ tương tự. Các hành vi lạm dụng tiềm ẩn của DarkBERT trong các tình huống crypto bao gồm:
Thực hiện gian lận có chủ đích: thu thập thông tin của người dùng crypto và đội ngũ dự án để thực hiện gian lận kỹ thuật xã hội.
Chiến thuật tội phạm bắt chước: Sao chép các chiến lược trộm tiền điện tử và rửa tiền tinh vi trên Dark Web.
Gian lậnGPT: Con dao quân đội Thụy Sĩ của gian lận trực tuyến
FraudGPT tuyên bố là phiên bản nâng cấp của WormGPT với các chức năng toàn diện hơn. Nó chủ yếu được bán trên Dark Web và các diễn đàn hacker, với mức phí hàng tháng dao động từ 200 đô la Mỹ đến 1.700 đô la Mỹ. Các phương pháp lạm dụng điển hình của nó trong các tình huống crypto bao gồm:
Các dự án crypto ngụy tạo : Tạo ra Sách trắng giả, trang web chính thức, lộ trình và tài liệu tiếp thị cho ICO/IDO giả.
Tạo hàng loạt các trang Phishing : nhanh chóng tạo các trang đăng nhập hoặc giao diện kết nối ví mô phỏng sàn giao dịch crypto có tiếng .
Hoạt động troll trên mạng xã hội: tạo các bài đánh giá giả mạo và tuyên truyền trên quy mô lớn để quảng bá token lừa đảo hoặc làm mất uy tín của các dự án cạnh tranh.
Tấn công kỹ thuật xã hội: Chatbot có thể bắt chước các cuộc trò chuyện của con người để xây dựng lòng tin với người dùng không nghi ngờ, lừa họ vô tình tiết lộ thông tin nhạy cảm hoặc thực hiện các hành động có hại.
GhostGPT: Trợ lý AI không có ràng buộc về mặt đạo đức
GhostGPT là một chatbot AI được định vị rõ ràng là không có hạn chế về mặt đạo đức. Các hành vi lạm dụng GhostGPT điển hình trong các tình huống crypto bao gồm:
Các cuộc tấn công Phishing nâng cao: Tạo email Phishing có tính mô phỏng cao, mạo danh sàn giao dịch chính thống để đưa ra yêu cầu xác minh KYC, cảnh báo bảo mật hoặc thông báo đóng băng tài khoản giả mạo.
Tạo mã độc cho hợp đồng thông minh: Không cần bất kỳ kiến thức lập trình nào, kẻ tấn công có thể sử dụng GhostGPT để nhanh chóng tạo ra các hợp đồng thông minh chứa các cửa hậu ẩn hoặc logic gian lận cho các vụ lừa đảo Rug Pull hoặc các cuộc tấn công vào giao thức DeFi.
Polymorphic Crypto Stealer: Tạo ra phần mềm độc hại có khả năng liên tục biến đổi và đánh cắp các tệp ví, private key và Cụm từ hạt giống. Bản chất đa hình của nó khiến phần mềm bảo mật dựa trên chữ ký truyền thống khó phát hiện.
Tấn công kỹ thuật xã hội: Kết hợp với các tập lệnh thoại do AI tạo ra, kẻ tấn công có thể triển khai robot trên các nền tảng như Discord và Telegram để dụ người dùng tham gia vào các dự án đúc NFT giả, airdrop hoặc đầu tư.
Độ sâu đảo ngụy tạo: Kết hợp với các công cụ AI khác, GhostGPT có thể được sử dụng để tạo ra giọng nói ngụy tạo của những người sáng lập dự án crypto, nhà đầu tư hoặc giám đốc điều hành sàn giao dịch để thực hiện các vụ lừa đảo qua điện thoại hoặc tấn công xâm phạm email doanh nghiệp (BEC).
Venice.ai: Rủi ro tiềm ẩn của việc truy cập không kiểm duyệt
Venice.ai cung cấp quyền truy cập vào nhiều LLM, bao gồm một số LLM ít bị kiểm duyệt hoặc hạn chế lỏng lẻo. Nó tự định vị mình là một cổng thông tin mở cho người dùng khám phá khả năng của nhiều LLM, cung cấp các mô hình tiên tiến nhất, chính xác nhất và không bị kiểm duyệt để đạt được trải nghiệm AI thực sự không giới hạn, nhưng nó cũng có thể bị tội phạm sử dụng để tạo ra nội dung độc hại. Rủi ro của nền tảng này bao gồm:
Bỏ qua kiểm duyệt để tạo ra nội dung độc hại: Kẻ tấn công có thể sử dụng các mô hình ít hạn chế hơn trong nền tảng để tạo mẫu Phishing, tuyên truyền sai sự thật hoặc tấn công ý tưởng.
Giảm ngưỡng cho kỹ thuật nhanh chóng: Ngay cả khi kẻ tấn công không có kỹ năng "bẻ khóa" nâng cao, hắn vẫn có thể dễ dàng lấy được đầu ra ban đầu bị hạn chế.
Tăng tốc độ lặp lại của các tập lệnh tấn công: Kẻ tấn công có thể sử dụng nền tảng để nhanh chóng kiểm tra phản ứng của các mô hình khác nhau đối với các hướng dẫn độc hại và tối ưu hóa các tập lệnh gian lận và phương pháp tấn công.
Lời cuối cùng
Sự xuất hiện của LLM không giới hạn đánh dấu rằng bảo mật mạng đang phải đối mặt với một mô hình tấn công mới phức tạp hơn, có khả năng mở rộng hơn và tự động hơn. Loại mô hình này không chỉ hạ thấp ngưỡng tấn công mà còn mang đến những mối đe dọa mới bí mật và lừa đảo hơn.
Trong trò chơi nâng cấp tấn công và phòng thủ này, tất cả các bên trong hệ sinh thái an ninh chỉ có thể đối phó với rủi ro trong tương lai thông qua các nỗ lực hợp tác: một mặt, cần tăng cường đầu tư vào công nghệ phát hiện và phát triển các công nghệ có thể xác định và chặn nội dung Phishing, khai thác lỗ hổng hợp đồng thông minh và mã độc do LLM độc hại tạo ra; mặt khác, cũng cần thúc đẩy xây dựng các khả năng chống bẻ khóa mô hình và khám phá các cơ chế đánh dấu và truy xuất nguồn gốc để theo dõi nguồn gốc của nội dung độc hại trong các tình huống quan trọng như tài chính và tạo mã; ngoài ra, cần thiết lập các chuẩn mực đạo đức và cơ chế quản lý hợp lý để hạn chế sự phát triển và lạm dụng các mô hình độc hại từ gốc rễ.





