Bản gốc | Odaily (@ OdailyChina)
Tác giả | Azuma (@ azuma_eth)
Vào sáng sớm ngày 22 tháng 11 theo giờ Bắc Kinh, SlowMist Founder Yù Hóng đã đăng một trường hợp kỳ lạ trên X cá nhân của mình - ví của một người dùng đã bị "hack" bởi AI...
Diễn biến của vụ việc này như sau.
Vào sáng sớm hôm nay, người dùng X r_ocky.eth tiết lộ rằng trước đây anh ta đã muốn sử dụng ChatGPT để tạo một bot giao dịch hỗ trợ cho pump.fun.
r_ocky.eth đã cung cấp yêu cầu của mình cho ChatGPT, và ChatGPT đã trả lại cho anh ta một đoạn mã, đoạn mã này thực sự có thể giúp r_ocky.eth triển khai bot theo yêu cầu của mình, nhưng anh ta không ngờ rằng trong đoạn mã sẽ ẩn chứa nội dung lừa đảo - r_ocky.eth đã kết nối ví chính của mình và do đó đã bị mất 2.500 USD.
Từ ảnh chụp màn hình do r_ocky.eth đăng, có thể thấy đoạn mã mà ChatGPT cung cấp sẽ gửi private key đến một trang web có tính chất lừa đảo, đây cũng là nguyên nhân trực tiếp dẫn đến việc bị đánh cắp.
Khi r_ocky.eth vướng vào bẫy, kẻ tấn công phản ứng rất nhanh, trong vòng nửa giờ đã chuyển toàn bộ tài sản trong ví của r_ocky.eth sang một địa chỉ khác (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX), sau đó r_ocky.eth lại thông qua truy vết trên Chuỗi tìm thấy địa chỉ ví được cho là của kẻ tấn công chính (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC).
Thông tin trên Chuỗi cho thấy, địa chỉ này hiện đã thu thập được hơn 100.000 USD "tiền bẩn", do đó r_ocky.eth nghi ngờ loại tấn công này có thể không phải là trường hợp đơn lẻ, mà là một vụ tấn công có quy mô nhất định.
Sau sự việc, r_ocky.eth thất vọng cho biết đã mất niềm tin vào OpenAI (công ty phát triển ChatGPT) và kêu gọi OpenAI sớm xử lý nội dung lừa đảo bất thường.
Vậy, với tư cách là ứng dụng AI được ưa chuộng nhất hiện nay, tại sao ChatGPT lại cung cấp nội dung lừa đảo?
Về vấn đề này, Yù Hóng xác định nguyên nhân gốc rễ của vụ việc này là "tấn công đầu độc AI", và chỉ ra rằng trong các mô hình ngôn ngữ lớn như ChatGPT, Claude, v.v. tồn tại các hành vi lừa đảo phổ biến.
Cái gọi là "tấn công đầu độc AI" là chỉ các hành vi cố ý phá hoại dữ liệu huấn luyện AI hoặc thao túng thuật toán AI. Kẻ tấn công có thể là người trong nội bộ, chẳng hạn như nhân viên hiện tại hoặc cũ không hài lòng, hoặc là hacker bên ngoài, động cơ có thể bao gồm gây thiệt hại về uy tín và thương hiệu, thay đổi độ tin cậy của quyết định AI, làm chậm hoặc phá hoại quá trình AI, v.v. Kẻ tấn công có thể thông qua việc đưa vào dữ liệu có nhãn hoặc đặc điểm gây hiểu lầm, làm méo mó quá trình học của mô hình, dẫn đến kết quả sai lệch khi triển khai và vận hành.
Kết hợp với vụ việc này, rất có thể ChatGPT cung cấp mã lừa đảo cho r_ocky.eth là vì mô hình AI trong quá trình huấn luyện đã nhiễm phải dữ liệu chứa nội dung lừa đảo, nhưng AI dường như không thể nhận ra nội dung lừa đảo ẩn trong dữ liệu thông thường, sau đó AI đã học được và cung cấp những nội dung lừa đảo này cho người dùng, dẫn đến vụ việc này xảy ra.
Khi AI phát triển nhanh chóng và được ứng dụng rộng rãi, "tấn công đầu độc" đã trở thành mối đe dọa ngày càng lớn. Trong vụ việc này, mặc dù số tiền bị mất không lớn, nhưng tác động lan rộng của loại rủi ro này đủ để gây cảnh báo - giả sử xảy ra ở các lĩnh vực khác, chẳng hạn như hỗ trợ lái xe bằng AI...
Khi trả lời câu hỏi của người dùng, Yù Hóng đề cập đến một biện pháp tiềm năng để giảm thiểu loại rủi ro này, đó là ChatGPT bổ sung một cơ chế kiểm tra mã.
Nạn nhân r_ocky.eth cũng cho biết đã liên hệ với OpenAI về vấn đề này, mặc dù hiện tại chưa nhận được phản hồi, nhưng hy vọng vụ việc này sẽ trở thành cơ hội để OpenAI quan tâm đến loại rủi ro này và đưa ra các giải pháp tiềm năng.