Công ty theo dõi tiền điện tử Elliptic hiện đang sử dụng AI để bắt tin tặc

avatar
Decrypt
06-03
Bài viết này được dịch máy
Xem bản gốc

Công ty phân tích tiền điện tử Elliptic đang tích hợp trí tuệ nhân tạo vào bộ công cụ của mình để theo dõi các giao dịch chuỗi khối và xử lý phát hiện rủi ro.

Bằng cách sử dụng chatbot ChatGPT của OpenAI, công ty cho biết họ sẽ có thể sắp xếp dữ liệu nhanh hơn và với số lượng lớn hơn. Tuy nhiên, nó đã thực hiện một số giới hạn sử dụng nhất định và cũng không sử dụng các trình cắm ChatGPT.

Người phát ngôn của Elliptic nói với Decrypt : “Là một tổ chức được các ngân hàng, cơ quan quản lý, tổ chức tài chính, chính phủ và cơ quan thực thi pháp luật lớn nhất thế giới tin tưởng, điều quan trọng là phải giữ an toàn cho thông tin tình báo và dữ liệu của chúng tôi”. “Đó là lý do tại sao chúng tôi không sử dụng ChatGPT để tạo hoặc sửa đổi dữ liệu, tìm kiếm thông tin tình báo hoặc giám sát các giao dịch.”

Ra mắt vào năm 2013, Elliptic cung cấp cho các tổ chức và cơ quan thực thi pháp luật nghiên cứu phân tích chuỗi khối để theo dõi tội phạm mạng và tuân thủ quy định liên quan đến tiền điện tử. Ví dụ, vào tháng 5, Elliptic đã báo cáo một số doanh nghiệp Trung Quốc bán hóa chất để tạo ra tiền điện tử được chấp nhận fentanyl , bao gồm cả Bitcoin . Thượng nghị sĩ Hoa Kỳ Elizabeth Warren đã sử dụng báo cáo này để một lần nữa kêu gọi các quy định chặt chẽ hơn về tiền điện tử.

Elliptic sẽ sử dụng ChatGPT để bổ sung cho các quy trình tổ chức và thu thập dữ liệu dựa trên con người của mình nhằm tăng cường nỗ lực của nhóm, điều mà Elliptic cho biết sẽ cho phép nó tăng gấp đôi về độ chính xác và khả năng mở rộng. Đồng thời, các mô hình ngôn ngữ lớn (LLM) sắp xếp dữ liệu.

Người phát ngôn cho biết: "Nhân viên của chúng tôi tận dụng ChatGPT để nâng cao bộ dữ liệu và thông tin chi tiết của chúng tôi". "Chúng tôi tuân theo và tuân thủ chính sách sử dụng AI và có khung xác thực mô hình mạnh mẽ."

Vì Elliptic không sử dụng ChatGPT để tạo thông tin nên công ty cho biết họ không lo ngại về “ảo giác” AI hoặc thông tin sai lệch. Ảo giác AI đề cập đến các trường hợp trong đó AI tạo ra kết quả không mong muốn hoặc sai sự thật không được hỗ trợ bởi dữ liệu trong thế giới thực.

Các chatbot AI như ChatGPT đã bị giám sát chặt chẽ hơn vì cung cấp thông tin sai lệch về con người, địa điểm và sự kiện một cách thuyết phục. OpenAI đã tăng cường nỗ lực sử dụng toán học để giải quyết cái gọi là ảo giác này trong quá trình đào tạo các mô hình của mình, gọi đây là một bước quan trọng hướng tới việc xây dựng trí tuệ tổng quát nhân tạo (AGI) phù hợp.

"Khách hàng của chúng tôi đến với chúng tôi để biết chính xác mức độ rủi ro của họ," Elliptic CTO Jackson Hull cho biết trong một tuyên bố. "Việc tích hợp ChatGPT cho phép chúng tôi mở rộng quy mô thông minh của mình, giúp khách hàng của chúng tôi có cái nhìn về rủi ro mà họ không thể tìm thấy ở bất kỳ nơi nào khác."

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận