Liệu bot AI có thể đánh cắp crypto của bạn không? Sự gia tăng của những tên trộm kỹ thuật số

avatar
ODAILY
03-18
Bài viết này được dịch máy
Xem bản gốc
Dưới đây là bản dịch tiếng Việt của nội dung đã được yêu cầu:

Liệu Bots AI có thể đánh cắp tiền Crypto của bạn? Sự trỗi dậy của những kẻ trộm kỹ thuật số

Callum Reid

Biên dịch: 0x deepseek, ChainCather

Trong kỷ nguyên tăng tốc của tiền Crypto và công nghệ AI, bảo mật tài sản kỹ thuật số đang đối mặt với những thách thức chưa từng có. Bài viết này tiết lộ cách các Bots AI, nhờ vào khả năng tấn công tự động, học sâu và xâm nhập quy mô lớn, đã biến lĩnh vực Crypto thành một chiến trường tội phạm mới - từ Phishing chính xác đến khai thác lỗ hổng hợp đồng thông minh, từ Deepfake lừa đảo đến phần mềm độc hại tự thích ứng, các phương thức tấn công đã vượt xa khả năng phòng thủ truyền thống của con người. Đối mặt với cuộc đấu tranh giữa thuật toán và thuật toán này, người dùng cần cảnh giác với "những kẻ trộm kỹ thuật số" được AI trang bị, đồng thời cũng phải biết tận dụng các công cụ phòng thủ do AI điều khiển. Chỉ bằng cách duy trì cảnh giác kỹ thuật và thực hành an ninh, người dùng mới có thể bảo vệ được tài sản của mình trong những sóng gió của thế giới Crypto.

TL;DR

  1. Bots AI có khả năng tự học hỏi, có thể tự động hóa hàng loạt các cuộc tấn công Crypto, hiệu quả hơn nhiều so với các hacker con người.

  2. Vào năm 2024, các cuộc tấn công Phishing bằng AI đã gây ra thiệt hại 65 triệu USD trong một lần, các trang web không gian airdrop giả có thể tự động làm rỗng ví của người dùng.

  3. AI cấp độ GPT-3 có thể trực tiếp phân tích lỗ hổng hợp đồng thông minh, công nghệ tương tự đã dẫn đến việc Fei Protocol bị đánh cắp 80 triệu USD.

  4. AI có thể xây dựng mô hình dự đoán bằng cách phân tích dữ liệu rò rỉ mật khẩu, giảm thời gian bảo vệ ví mật khẩu yếu kém lên đến 90%.

  5. Công nghệ Deepfake tạo ra các video/âm thanh giả mạo CEO giả, đang trở thành một vũ khí kỹ thuật xã hội mới để lừa người dùng chuyển tiền.

  6. Thị trường tội phạm đã xuất hiện các công cụ AI như WormGPT, cho phép những người không có kỹ năng kỹ thuật tạo ra các cuộc tấn công Phishing tùy chỉnh.

  7. Mã độc BlackMamba sử dụng AI để tự động sửa đổi mã, khiến các hệ thống bảo mật chính thống không thể phát hiện ra 100%.

  8. Ví phần cứng lưu trữ private key ngoại tuyến có thể hiệu quả ngăn chặn 99% các cuộc tấn công từ xa bằng AI (như được chứng minh trong sự kiện FTX 2022).

  9. Mạng xã hội zombie do AI điều khiển có thể điều khiển đồng thời hàng triệu tài khoản, vụ lừa đảo Deepfake của Elon Musk liên quan đến số tiền hơn 46 triệu USD.

I. Bots AI là gì?

Bots AI là phần mềm tự học, có thể tự động hóa và liên tục tối ưu hóa các cuộc tấn công mạng, khiến chúng trở nên nguy hiểm hơn nhiều so với các phương pháp tấn công truyền thống của hacker.

Tội phạm mạng do AI điều khiển ngày nay tập trung vào Bots AI - những chương trình phần mềm tự học này nhằm xử lý khối lượng dữ liệu khổng lồ, ra quyết định độc lập và thực hiện các nhiệm vụ phức tạp mà không cần can thiệp của con người. Mặc dù những con bot này đã trở thành lực lượng đột phá trong các lĩnh vực như tài chính, y tế và dịch vụ khách hàng, chúng cũng trở thành vũ khí của tội phạm mạng, đặc biệt là trong lĩnh vực tiền Crypto.

Khác với các phương pháp tấn công truyền thống dựa vào thao tác thủ công và chuyên môn kỹ thuật của hacker, Bots AI có thể tấn công hoàn toàn tự động, thích ứng với các biện pháp bảo mật tiền Crypto mới và thậm chí tối ưu hóa chiến lược theo thời gian. Điều này khiến chúng vượt xa khả năng của những kẻ tấn công bị giới hạn bởi thời gian, tài nguyên và quy trình dễ sai sót của con người.

II. Tại sao Bots AI lại nguy hiểm như vậy?

Mối đe dọa lớn nhất của tội phạm mạng do AI điều khiển là quy mô. Một hacker đơn lẻ cố gắng xâm nhập vào sàn giao dịch hoặc lừa người dùng tiết lộ private key có khả năng hạn chế, nhưng Bots AI có thể phát động hàng nghìn cuộc tấn công đồng thời và tối ưu hóa phương pháp tấn công theo thời gian.

  • Tốc độ: Bots AI có thể quét hàng triệu giao dịch blockchain, hợp đồng thông minh và trang web trong vài phút, nhận dạng lỗ hổng ví (dẫn đến ví bị hack), điểm yếu của các giao thức DeFi và sàn giao dịch.

  • Khả năng mở rộng: Kẻ lừa đảo con người có thể gửi hàng trăm email lừa đảo, nhưng Bots AI có thể gửi hàng triệu email lừa đảo được cá nhân hóa và thiết kế cẩn thận trong cùng một khoảng thời gian.

  • Khả năng thích ứng: Học máy cho phép những con bot này tiến hóa từ mỗi lần thất bại, khiến chúng khó bị phát hiện và chặn.

Khả năng tự động hóa, thích ứng và tấn công quy mô lớn này đã dẫn đến sự gia tăng đáng kể các vụ lừa đảo Crypto do AI điều khiển, khiến việc phòng chống lừa đảo Crypto trở nên vô cùng quan trọng.

Vào tháng 10 năm 2024, tài khoản X của nhà phát triển Truth Terminal, Andy Ayrey, bị hack. Kẻ tấn công đã sử dụng tài khoản này để quảng bá đồng tiền meme lừa đảo có tên là Infinite Backrooms (IB), khiến giá trị thị trường của IB tăng lên 25 triệu USD. Trong vòng 45 phút, kẻ phạm tội đã bán tất cả số tiền nắm giữ và thu về hơn 600.000 USD.

III. Bots AI lấy cắp tài sản Crypto như thế nào?

Bots AI không chỉ tự động hóa các hành vi lừa đảo, mà còn trở nên thông minh, chính xác và khó phát hiện hơn. Dưới đây là một số loại lừa đảo Crypto nguy hiểm sử dụng AI:

Bots Phishing được điều khiển bởi AI

Các cuộc tấn công Phishing không phải là mới trong lĩnh vực Crypto, nhưng AI đã khiến chúng trở nên nguy hiểm hơn nhiều. Ngày nay, Bots AI có thể tạo ra thông tin liên lạc rất giống với các nền tảng chính thức như Coinbase hoặc MetaMask, thu thập thông tin cá nhân thông qua cơ sở dữ liệu bị rò rỉ, mạng xã hội thậm chí cả giao dịch blockchain, khiến các cuộc lừa đảo trở nên rất thuyết phục.

Ví dụ, vào đầu năm 2024, một cuộc tấn công Phishing nhắm vào người dùng Coinbase thông qua email cảnh báo bảo mật giả đã lừa đảo được gần 65 triệu USD. Hơn nữa, sau khi GPT-4 ra mắt, những kẻ lừa đảo đã xây dựng các trang web không gian airdrop giả của OpenAI, lừa người dùng kết nối ví và tự động làm rỗng tài sản của họ.

Những cuộc tấn công Phishing được tăng cường bởi AI này thường không có lỗi chính tả hoặc ngôn từ kém, một số thậm chí triển khai các bot hỗ trợ khách hàng bằng AI để "xác minh" và lừa đoạt private key hoặc mã 2FA. Vào năm 2022, phần mềm độc hại Mars Stealer có thể đánh cắp private key của hơn 40 ứng dụng và tiện ích ví, thường lây lan thông qua các đường dẫn Phishing hoặc phần mềm giả mạo.

Bots quét lỗ hổng do AI điều khiển

Hợp đồng thông minh là mỏ vàng của những kẻ tấn công, và các Bots AI đang khai thác những lỗ hổng này với tốc độ chưa từng có. Những con bot này liên tục quét các nền tảng như Ethereum hoặc Chuỗi thông minh BNB, tìm kiếm các dự án DeFi mới được triển khai và tìm ra các lỗ hổng. Một khi phát hiện ra vấn đề, chúng sẽ tự động khai thác, thường chỉ trong vài phút.

Các nhà nghiên cứu đã chứng minh rằng các chatbot AI được điều khiển bởi GPT-3 có thể phân tích mã hợp đồng thông minh để xác định các điểm yếu có thể bị lợi dụng. Ví dụ, đồng sáng lập Zellic, Stephen Tong, đã trình diễn một chatbot AI có thể phát hiện ra lỗ hổng trong chức năng "rút tiền" của hợp đồng thông minh, tương tự như lỗ hổng đã được khai thác trong vụ tấn công Fei Protocol, dẫn đến mất 80 triệu USD.

Các cuộc tấn công bạo lực được tăng cường bởi AI

Các cuộc tấn công bạo lực trước đây đòi hỏi rất nhiều thời gian, nhưng Bots AI đã khiến chúng trở nên cực kỳ hiệu quả. Bằng cách phân tích các vụ r

Deepfake bắt chước bot

Hãy tưởng tượng bạn xem một video của một người ảnh hưởng đáng tin cậy về tiền điện tử hoặc một Giám đốc Điều hành yêu cầu bạn đầu tư - nhưng tất cả đều là giả. Đây là hiện thực của lừa đảo Deepfake do trí tuệ nhân tạo điều khiển. Những bot này tạo ra các video và bản ghi âm siêu thực, thậm chí lừa đảo những người nắm giữ tiền điện tử tinh vi để chuyển tiền.

Mạng xã hội Botnet

Trên các nền tảng như X và Telegram, có rất nhiều bot AI đang lan truyền các vụ lừa đảo tiền điện tử với quy mô lớn. Các botnet như "Fox 8" sử dụng ChatGPT để tạo ra hàng trăm bài đăng thuyết phục, quảng bá mạnh mẽ về token lừa đảo và trả lời người dùng theo thời gian thực.

Trong một trường hợp, những kẻ lừa đảo lạm dụng tên của Elon Musk và ChatGPT để quảng bá một món quà tiền điện tử giả - kèm theo một video Deepfake của Musk - để lừa mọi người chuyển tiền cho những kẻ lừa đảo.

Vào năm 2023, các nhà nghiên cứu của Sophos phát hiện ra những kẻ lừa đảo tình yêu sử dụng ChatGPT để trò chuyện đồng thời với nhiều nạn nhân, khiến thông tin tình cảm của chúng trở nên thuyết phục và có thể mở rộng.

Tương tự, Meta báo cáo rằng số lượng phần mềm độc hại và liên kết lừa đảo giả mạo ChatGPT hoặc các công cụ AI đã tăng vọt, thường liên quan đến các kế hoạch lừa đảo tiền điện tử. Trong lĩnh vực lừa đảo tình yêu, trí tuệ nhân tạo đang thúc đẩy những gì được gọi là Pig Butchering - những vụ lừa đảo dài hạn, khi kẻ lừa đảo xây dựng mối quan hệ trước khi lôi kéo nạn nhân vào các khoản đầu tư tiền điện tử giả mạo. Vào năm 2024, Hong Kong đã chứng kiến một vụ việc nổi bật khi cảnh sát phá vỡ một băng nhóm tội phạm đã lừa đảo 46 triệu USD từ các nam giới ở khắp châu Á thông qua những vụ lừa đảo tình yêu được hỗ trợ bởi trí tuệ nhân tạo.

Bốn, Cách phần mềm độc hại AI thúc đẩy tội phạm mạng nhắm vào người dùng tiền điện tử

Trí tuệ nhân tạo đang dạy những kẻ tội phạm mạng cách xâm nhập vào các nền tảng tiền điện tử, cho phép những kẻ tấn công có trình độ kỹ thuật thấp hơn có thể phát động các cuộc tấn công đáng tin cậy. Điều này giúp giải thích tại sao các hoạt động lừa đảo và phần mềm độc hại nhắm vào tiền điện tử lại có quy mô lớn đến vậy - các công cụ AI cho phép những kẻ xấu tự động thực hiện các vụ lừa đảo và liên tục cải thiện các phương pháp hiệu quả.

Trí tuệ nhân tạo cũng tăng cường các mối đe dọa phần mềm độc hại và chiến lược tấn công nhắm vào người dùng tiền điện tử. Một mối quan ngại đáng lo ngại là phần mềm độc hại được tạo ra bởi trí tuệ nhân tạo, những chương trình độc hại này sử dụng trí tuệ nhân tạo để thích ứng và tránh bị phát hiện.

Vào năm 2023, các nhà nghiên cứu đã trình diễn một chương trình minh họa có tên là BlackMamba, một bộ ghi lại bàn phím đa hình thái sử dụng mô hình ngôn ngữ AI (như công nghệ nền tảng của ChatGPT) để viết lại mã của nó mỗi khi chạy. Điều này có nghĩa là mỗi lần chạy BlackMamba, nó sẽ tạo ra một biến thể mới trong bộ nhớ, giúp nó tránh được sự phát hiện của phần mềm diệt virus và bảo mật điểm cuối.

Trong các bài kiểm tra, các hệ thống phát hiện và phản hồi điểm cuối hàng đầu trong ngành đã không thể phát hiện ra phần mềm độc hại do trí tuệ nhân tạo tạo ra này. Một khi được kích hoạt, nó có thể lén lút thu thập tất cả nội dung do người dùng nhập (bao gồm mật khẩu sàn giao dịch tiền điện tử hoặc cụm từ khởi tạo ví) và gửi dữ liệu đó cho kẻ tấn công.

Mặc dù BlackMamba chỉ là một bài trình diễn trong phòng thí nghiệm, nhưng nó nổi bật lên một mối đe dọa thực sự: những kẻ tội phạm có thể sử dụng trí tuệ nhân tạo để tạo ra phần mềm độc hại biến đổi nhắm vào tài khoản tiền điện tử, và chúng khó bị phát hiện hơn so với virus truyền thống.

Thậm chí ngay cả khi không có phần mềm độc hại AI kỳ lạ, các tác nhân đe dọa vẫn sẽ lợi dụng sự phổ biến của trí tuệ nhân tạo để lan truyền những mã độc truyền thống. Những kẻ lừa đảo thường thiết lập các ứng dụng giả mạo "ChatGPT" hoặc liên quan đến trí tuệ nhân tạo có chứa phần mềm độc hại, vì họ biết rằng người dùng có thể hạ thấp cảnh giác do thương hiệu trí tuệ nhân tạo. Ví dụ, các nhà phân tích bảo mật đã quan sát thấy các trang web lừa đảo giả mạo trang web ChatGPT và có nút "Tải xuống Windows"; nếu nhấp vào, nó sẽ lặng lẽ cài đặt một con ngựa Trojan ăn cắp tiền điện tử trên máy tính của nạn nhân.

Ngoài chính phần mềm độc hại, trí tuệ nhân tạo cũng giảm rào cản kỹ thuật đối với những kẻ tấn công. Trước đây, những kẻ tội phạm cần một số kiến thức về mã hóa để tạo ra các trang web lừa đảo hoặc virus. Bây giờ, các công cụ "AI as a Service" bất hợp pháp như WormGPT và FraudGPT đã xuất hiện trên các diễn đàn tối tăm, có thể tạo ra email lừa đảo, mã phần mềm độc hại và kỹ thuật tấn công theo yêu cầu. Chỉ cần trả một khoản phí, ngay cả những kẻ tội phạm không có kỹ năng kỹ thuật cũng có thể sử dụng các bot AI này để tạo ra các trang web lừa đảo thuyết phục, tạo ra các biến thể phần mềm độc hại mới và quét các lỗ hổng phần mềm.

Năm, Cách bảo vệ tiền điện tử của bạn khỏi các cuộc tấn công bot AI

Các mối đe dọa do trí tuệ nhân tạo điều khiển ngày càng tinh vi, vì vậy các biện pháp bảo mật mạnh mẽ là rất quan trọng để bảo vệ tài sản kỹ thuật số khỏi các cuộc tấn công tự động và lừa đảo.

Dưới đây là những cách hiệu quả nhất để bảo vệ tiền điện tử khỏi bị hack và chống lại các cuộc tấn công lừa đảo, Deepfake và lỗ hổng do bot AI:

  • Sử dụng ví phần cứng: Phần mềm độc hại và các cuộc tấn công lừa đảo do AI chủ yếu nhắm vào các ví trực tuyến (nóng). Bằng cách sử dụng các ví phần cứng như Ledger hoặc Trezor, bạn có thể giữ khóa riêng tư hoàn toàn ngooffline, khiến hacker hoặc bot AI độc hại gần như không thể truy cập từ xa. Ví dụ, trong sự sụp đổ của FTX vào năm 2022, những người sử dụng ví phần cứng đã tránh được những tổn thất lớn mà những người dùng lưu trữ tài khoản trên sàn giao dịch phải chịu.

  • Bật xác thực đa yếu tố (MFA) và sử dụng mật khẩu mạnh: Bot AI có thể sử dụng học sâu trong tội phạm mạng để phá vỡ mật khẩu yếu, khai thác các thông tin đăng nhập bị lộ bằng cách sử dụng các thuật toán học máy được đào tạo trên dữ liệu bị rò rỉ. Để giải quyết vấn đề này, luôn bật MFA thông qua các ứng dụng xác thực như Google Authenticator hoặc Authy, thay vì sử dụng mã dựa trên SMS - những kẻ tấn công đã biết cách lợi dụng lỗ hổng hoán đổi SIM để làm cho xác thực SMS không an toàn.

  • Cảnh giác với các cuộc tấn công lừa đảo do AI: Email, tin nhắn và yêu cầu hỗ trợ giả mạo do AI tạo ra gần như không thể phân biệt với những yêu cầu thực. Tránh nhấp vào các liên kết trong email hoặc tin nhắn trực tiếp, luôn kiểm tra địa chỉ web thủ công và tuyệt đối không chia sẻ khóa riêng tư hoặc cụm từ khởi tạo, bất kể yêu cầu có vẻ thuyết phục đến mức nào.

  • Xác minh cẩn thận danh tính, tránh lừa đảo Deepfake: Video và bản ghi âm Deepfake do AI điều khiển có thể thuyết phục giả mạo những người ảnh hưởng tiền điện tử, lãnh đạo doanh nghiệp thậm chí cả những người bạn quen biết. Nếu ai đó yêu cầu tiền hoặc quảng bá cơ hội đầu tư khẩn cấp thông qua video hoặc âm thanh, hãy xác minh danh tính của họ qua nhiều kênh trước khi thực hiện bất kỳ hành động nào.

  • Theo dõi các mối đe dọa bảo mật blockchain mới nhất: Thường xuyên tham khảo các nguồn tin đáng tin cậy về bảo mật blockchain, chẳng

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận
Followin logo