Nghiên cứu mới từ Đại học Cornell và Viện An ninh Trí tuệ Nhân tạo của Anh đã phát hiện ra rằng các hệ thống trí tuệ nhân tạo được sử dụng rộng rãi có thể làm thay đổi sở thích của cử tri trong các cuộc bầu cử được kiểm soát lên đến 15%.
Các phát hiện này , được công bố trên tạp chí Science và Nature, xuất hiện trong bối cảnh các chính phủ và nhà nghiên cứu đang xem xét cách trí tuệ nhân tạo (AI) có thể ảnh hưởng đến các chu kỳ bầu cử sắp tới, trong khi các nhà phát triển tìm cách loại bỏ sự thiên vị khỏi các mô hình hướng đến người tiêu dùng.
“Công chúng đang rất lo ngại về khả năng sử dụng trí tuệ nhân tạo tạo sinh để thuyết phục cử tri trong chính trị và những tác động của nó đến bầu cử và nền dân chủ,” các nhà nghiên cứu viết. “Chúng tôi cung cấp thông tin cho những lo ngại này bằng cách sử dụng các thí nghiệm đã được đăng ký trước để đánh giá khả năng của các mô hình ngôn ngữ quy mô lớn trong việc ảnh hưởng đến thái độ của cử tri.”
Nghiên cứu được công bố trên tạp chí Nature đã thử nghiệm trên gần 6.000 người tham gia ở Mỹ, Canada và Ba Lan. Những người tham gia đánh giá một ứng cử viên chính trị, trò chuyện với một chatbot ủng hộ ứng cử viên đó, và đánh giá lại ứng cử viên đó.
Trong phần nghiên cứu tại Mỹ, với sự tham gia của 2.300 người trước cuộc bầu cử tổng thống năm 2024, chatbot có tác dụng củng cố khi nó phù hợp với sở thích đã nêu của người tham gia. Sự thay đổi lớn hơn xảy ra khi chatbot ủng hộ ứng cử viên mà người tham gia phản đối. Các nhà nghiên cứu đã báo cáo kết quả tương tự ở Canada và Ba Lan.
Nghiên cứu cũng cho thấy rằng các thông điệp tập trung vào chính sách tạo ra hiệu quả thuyết phục mạnh mẽ hơn so với các thông điệp dựa trên tính cách cá nhân.
Độ chính xác khác nhau giữa các cuộc hội thoại, và các chatbot ủng hộ ứng cử viên cánh hữu đưa ra nhiều tuyên bố không chính xác hơn so với những chatbot ủng hộ ứng cử viên cánh tả.
“Những phát hiện này mang theo một hàm ý đáng lo ngại rằng sự thuyết phục chính trị bằng trí tuệ nhân tạo có thể lợi dụng sự mất cân bằng trong kiến thức của các mô hình, lan truyền những thông tin không chính xác đồng đều ngay cả khi được hướng dẫn rõ ràng là phải trung thực”, các nhà nghiên cứu cho biết .
Một nghiên cứu riêng biệt trên tạp chí Science đã xem xét lý do tại sao sự thuyết phục lại xảy ra. Nghiên cứu đó đã thử nghiệm 19 mô hình ngôn ngữ với 76.977 người trưởng thành ở Vương quốc Anh trên hơn 700 vấn đề chính trị.
"Có nhiều lo ngại rằng trí tuệ nhân tạo đàm thoại có thể sớm gây ảnh hưởng chưa từng có đến niềm tin của con người," các nhà nghiên cứu viết.
Họ nhận thấy rằng các kỹ thuật gợi ý có tác động thuyết phục lớn hơn kích thước mô hình. Các gợi ý khuyến khích mô hình đưa ra thông tin mới làm tăng khả năng thuyết phục nhưng lại làm giảm độ chính xác.
“Lời nhắc nhở khuyến khích các giảng viên luật cung cấp thông tin mới là cách hiệu quả nhất để thuyết phục mọi người,” các nhà nghiên cứu viết.
Cả hai nghiên cứu đều được công bố trong bối cảnh các nhà phân tích và các tổ chức nghiên cứu chính sách đang đánh giá quan điểm của cử tri về việc sử dụng trí tuệ nhân tạo trong các vai trò của chính phủ.
Một cuộc khảo sát gần đây của Viện Heartland và Rasmussen Reports cho thấy những người bảo thủ trẻ tuổi sẵn sàng trao quyền cho trí tuệ nhân tạo (AI) trong các quyết định quan trọng của chính phủ hơn so với những người theo chủ nghĩa tự do. Những người tham gia khảo sát từ 18 đến 39 tuổi được hỏi liệu hệ thống AI có nên giúp định hướng chính sách công, giải thích các quyền hiến pháp hay chỉ huy các lực lượng quân sự lớn hay không. Những người bảo thủ bày tỏ sự ủng hộ cao nhất.
Donald Kendal, giám đốc Trung tâm Các Vấn đề Mới nổi Glenn C. Haskins tại Viện Heartland, cho biết cử tri thường đánh giá sai tính trung lập của các mô hình ngôn ngữ lớn.
“Một trong những điều tôi cố gắng nhấn mạnh là xóa bỏ ảo tưởng rằng trí tuệ nhân tạo là không thiên vị. Rõ ràng là nó có sự thiên vị, và một phần trong số đó là thụ động,” Kendal nói với Decrypt , đồng thời cho biết thêm rằng niềm tin vào các hệ thống này có thể bị đặt sai chỗ khi các quyết định đào tạo của doanh nghiệp định hình hành vi của chúng.
“Đây là những tập đoàn lớn ở Thung lũng Silicon đang xây dựng các mô hình này, và chúng ta đã thấy từ những tranh cãi về kiểm duyệt công nghệ trong những năm gần đây rằng một số công ty không ngần ngại tác động đến việc phân phối nội dung trên nền tảng của họ,” ông nói. “Nếu điều tương tự đang xảy ra trong các mô hình ngôn ngữ quy mô lớn, thì chúng ta đang có một mô hình thiên vị.”



