Các nhà nghiên cứu cảnh báo rằng "bầy đàn" AI có thể làm gia tăng thông tin sai lệch và thao túng trực tuyến.

Bài viết này được dịch máy
Xem bản gốc

Theo một báo cáo mới được công bố trên tạp chí Science hôm thứ Năm, kỷ nguyên của các mạng botnet dễ phát hiện đang đi đến hồi kết. Trong nghiên cứu này, các nhà nghiên cứu cảnh báo rằng các chiến dịch thông tin sai lệch đang chuyển sang các nhóm trí tuệ nhân tạo tự động có khả năng bắt chước hành vi của con người, thích nghi trong thời gian thực và cần rất ít sự giám sát của con người, làm phức tạp thêm các nỗ lực phát hiện và ngăn chặn chúng.

Bài báo , được viết bởi một nhóm các nhà nghiên cứu, bao gồm các nhà nghiên cứu từ Oxford, Cambridge, UC Berkeley, NYU và Viện Max Planck, mô tả một môi trường kỹ thuật số trong đó việc thao túng trở nên khó nhận biết hơn. Thay vì những đợt Short gắn liền với bầu cử hoặc chính trị, các chiến dịch AI này có thể duy trì một câu chuyện trong thời gian dài hơn.

“Trong tay chính phủ, những công cụ như vậy có thể đàn áp sự bất đồng chính kiến ​​hoặc khuếch đại quyền lực của chính quyền đương nhiệm,” các nhà nghiên cứu viết. “Do đó, việc triển khai trí tuệ nhân tạo phòng thủ chỉ có thể được xem xét nếu được quản lý bởi các khuôn khổ nghiêm ngặt, minh bạch và có trách nhiệm giải trình dân chủ.”

Một Swarm là một nhóm các tác nhân AI tự động hoạt động cùng nhau để giải quyết vấn đề hoặc hoàn thành mục tiêu hiệu quả hơn so với một hệ thống đơn lẻ. Các nhà nghiên cứu cho biết bầy đàn AI khai thác những điểm yếu hiện có trong các nền tảng mạng xã hội, nơi người dùng thường bị cô lập khỏi các quan điểm trái chiều.

“Tin giả được chứng minh là lan truyền nhanh hơn và rộng rãi hơn tin thật, làm sâu sắc thêm sự chia rẽ trong thực tế và làm xói mòn các chuẩn mực thông tin chung,” họ viết. “Bằng chứng gần đây cho thấy việc chọn lọc nội dung tối ưu hóa tương tác có liên quan đến sự phân cực, với các thuật toán của nền tảng khuếch đại nội dung gây chia rẽ ngay cả khi phải trả giá bằng sự hài lòng của người dùng, làm suy thoái thêm không gian công cộng.”

Sự thay đổi đó đã có thể thấy rõ trên các nền tảng lớn, theo Sean Ren, giáo sư khoa học máy tính tại Đại học Nam California và Giám đốc điều hành của Sahara AI, người cho biết ngày càng khó phân biệt các tài khoản do AI điều khiển với người dùng thông thường.

“Tôi nghĩ việc siết chặt quy trình Kiểm Tra Danh Tính (KYC), hay xác thực danh tính tài khoản, sẽ giúp ích rất nhiều ở đây,” Ren nói với Decrypt . “Nếu việc tạo tài khoản mới khó hơn và việc giám sát những kẻ gửi thư rác dễ dàng hơn, thì việc các đối tượng sử dụng số lượng lớn tài khoản để thao túng có phối hợp sẽ trở nên khó khăn hơn nhiều.”

Các chiến dịch gây ảnh hưởng trước đây chủ yếu dựa vào quy mô hơn là sự tinh tế, với hàng nghìn tài khoản đăng tải các thông điệp giống hệt nhau cùng một lúc, khiến việc phát hiện tương đối dễ dàng. Ngược lại, nghiên cứu cho biết, các nhóm AI thể hiện “tính tự chủ, sự phối hợp và quy mô chưa từng có”.

Ren cho rằng chỉ riêng việc kiểm duyệt nội dung khó có thể ngăn chặn các hệ thống này. Vấn đề, theo ông, là cách các nền tảng quản lý danh tính trên quy mô lớn. Ông nói rằng việc kiểm tra danh tính chặt chẽ hơn và giới hạn việc tạo tài khoản có thể giúp dễ dàng phát hiện hành vi phối hợp, ngay cả khi các bài đăng riêng lẻ trông giống như của con người.

“Nếu người quản lý chỉ có thể sử dụng một số lượng tài khoản hạn chế để đăng nội dung, thì việc phát hiện hành vi sử dụng đáng ngờ và cấm các tài khoản đó sẽ dễ dàng hơn nhiều”, ông nói.

Các nhà nghiên cứu kết luận rằng không có giải pháp duy nhất cho vấn đề này, các lựa chọn tiềm năng bao gồm cải thiện khả năng phát hiện sự phối hợp bất thường về mặt thống kê và tăng cường tính minh bạch xung quanh hoạt động tự động, nhưng cho rằng chỉ riêng các biện pháp kỹ thuật khó có thể đủ.

Theo Ren, động cơ tài chính vẫn là động lực dai dẳng của các cuộc tấn công thao túng có phối hợp, ngay cả khi các nền tảng đưa ra các biện pháp bảo vệ kỹ thuật mới.

“Những nhóm tác nhân này thường được điều khiển bởi các đội ngũ hoặc nhà cung cấp nhận được tiền thưởng từ các bên hoặc công ty bên ngoài để thực hiện việc thao túng có phối hợp,” ông nói. “Các nền tảng nên tăng cường các cơ chế xác minh danh tính khách hàng (Kiểm Tra Danh Tính (KYC) và phát hiện thư rác để xác định và lọc ra các tài khoản bị tác nhân thao túng.”

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
79
Thêm vào Yêu thích
19
Bình luận