Gần đây, cựu tổng thống và tội phạm bị kết án Donald Trump đã đăng một loạt ảnh dường như cho thấy người hâm mộ ngôi sao nhạc pop Taylor Swift ủng hộ nỗ lực tranh cử tổng thống Hoa Kỳ của ông. Những bức ảnh trông giống như được tạo ra bởi AI và WIRED đã có thể xác nhận rằng chúng có thể là như vậy bằng cách chạy chúng qua công cụ phát hiện của tổ chức phi lợi nhuận True Media để xác nhận rằng chúng cho thấy "bằng chứng đáng kể về sự thao túng".
Mọi thứ không phải lúc nào cũng dễ dàng như vậy. Việc sử dụng AI tạo ra, bao gồm cả cho mục đích chính trị, đã trở nên ngày càng phổ biến và WIRED đã theo dõi việc sử dụng AI trong các cuộc bầu cử trên toàn thế giới. Nhưng ở nhiều nơi trên thế giới bên ngoài Hoa Kỳ và một số khu vực của Châu Âu, việc phát hiện nội dung do AI tạo ra rất khó khăn vì sự thiên vị trong quá trình đào tạo hệ thống, khiến các nhà báo và nhà nghiên cứu có ít nguồn lực để giải quyết tình trạng tràn ngập thông tin sai lệch đang hướng đến họ.
Phát hiện phương tiện truyền thông được tạo ra hoặc thao túng bằng AI vẫn là một lĩnh vực đang phát triển, một phản ứng trước sự bùng nổ đột ngột của các công ty AI tạo ra. (Các công ty khởi nghiệp AI đã thu hút được hơn 21 tỷ đô la đầu tư chỉ riêng trong năm 2023.) Sabhanaz Rashid Diya, người sáng lập Viện Công nghệ Toàn cầu, một nhóm chuyên gia tập trung vào chính sách công nghệ ở Nam Bán cầu, cho biết: "Có rất nhiều công cụ và công nghệ dễ tiếp cận hơn thực sự cho phép ai đó tạo ra phương tiện truyền thông tổng hợp so với những công cụ và công nghệ có sẵn để thực sự phát hiện ra nó".
Theo Sam Gregory, giám đốc chương trình của tổ chức phi lợi nhuận Witness, tổ chức giúp mọi người sử dụng công nghệ để hỗ trợ nhân quyền, hầu hết các công cụ hiện có trên thị trường chỉ có thể cung cấp tỷ lệ tin cậy từ 85 đến 90 phần trăm khi xác định liệu một thứ gì đó có được tạo ra bằng AI hay không. Nhưng khi xử lý nội dung từ một nơi nào đó như Bangladesh hoặc Senegal, nơi các đối tượng không phải là người da trắng hoặc họ không nói tiếng Anh, mức độ tin cậy đó giảm mạnh. Gregory cho biết: "Khi các công cụ được phát triển, chúng được ưu tiên cho các thị trường cụ thể". Trong dữ liệu được sử dụng để đào tạo các mô hình, "họ ưu tiên tiếng Anh - tiếng Anh giọng Mỹ - hoặc khuôn mặt chiếm ưu thế ở thế giới phương Tây".
Điều này có nghĩa là các mô hình AI chủ yếu được đào tạo trên dữ liệu từ và cho các thị trường phương Tây, và do đó không thể thực sự nhận ra bất cứ điều gì nằm ngoài các thông số đó. Trong một số trường hợp, đó là do các công ty đang đào tạo các mô hình bằng cách sử dụng dữ liệu dễ dàng nhất có sẵn trên internet, nơi tiếng Anh là ngôn ngữ thống trị . "Hầu hết dữ liệu của chúng tôi, thực tế là, từ [Châu Phi] là bản cứng", Richard Ngamita, người sáng lập Thraets [LƯU Ý CHO NHÓM SAO CHÉP: KHÔNG PHẢI LỖI ĐÁNH MÁY], một tổ chức công nghệ Civic phi lợi nhuận tập trung vào các mối đe dọa kỹ thuật số ở Châu Phi và các khu vực khác của Nam Bán cầu, cho biết. Điều này có nghĩa là trừ khi dữ liệu đó được số hóa, các mô hình AI không thể được đào tạo trên đó.
Nếu không có lượng dữ liệu khổng lồ cần thiết để đào tạo các mô hình AI đủ tốt để phát hiện chính xác nội dung do AI tạo ra hoặc do AI thao túng, các mô hình thường sẽ trả về kết quả dương tính giả, đánh dấu nội dung thực là do AI tạo ra hoặc kết quả âm tính giả, xác định nội dung do AI tạo ra là thật. Diya cho biết: "Nếu bạn sử dụng bất kỳ công cụ nào có sẵn để phát hiện văn bản do AI tạo ra, chúng có xu hướng phát hiện tiếng Anh do người nói tiếng Anh không phải là người bản xứ viết và cho rằng văn bản do người nói tiếng Anh không phải là người bản xứ viết thực sự là AI". "Có rất nhiều kết quả dương tính giả vì chúng không được đào tạo trên một số dữ liệu nhất định".
Nhưng không chỉ các mô hình không thể nhận dạng giọng, ngôn ngữ, cú pháp hoặc khuôn mặt ít phổ biến hơn ở các nước phương Tây. Gregory cho biết "Rất nhiều công cụ phát hiện deepfake ban đầu được đào tạo trên phương tiện truyền thông chất lượng cao". Nhưng ở nhiều nơi trên thế giới, bao gồm cả Châu Phi, các thương hiệu điện thoại thông minh giá rẻ của Trung Quốc cung cấp các tính năng đơn giản đang thống trị thị trường. Ngamita cho biết các bức ảnh và video mà những chiếc điện thoại này có thể tạo ra có chất lượng thấp hơn nhiều, khiến các mô hình phát hiện càng thêm khó hiểu.
Gregory cho biết một số mô hình rất nhạy cảm đến mức ngay cả tiếng ồn nền trong một đoạn âm thanh hoặc nén video cho phương tiện truyền thông xã hội cũng có thể dẫn đến kết quả dương tính hoặc âm tính giả. "Nhưng đó chính xác là những trường hợp bạn gặp phải trong thế giới thực, phát hiện thô sơ và lộn xộn", ông nói. Các công cụ miễn phí, công khai mà hầu hết các nhà báo, người kiểm tra thực tế và các thành viên của xã hội dân sự có thể tiếp cận cũng là "những công cụ cực kỳ không chính xác, xét về mặt giải quyết cả sự bất bình đẳng về những người được đại diện trong dữ liệu đào tạo và những thách thức khi xử lý tài liệu chất lượng thấp hơn này".
Trí tuệ nhân tạo tạo ra không phải là cách duy nhất để tạo ra phương tiện truyền thông bị thao túng. Cái gọi là phương tiện truyền thông giá rẻ , hoặc phương tiện truyền thông bị thao túng bằng cách thêm nhãn gây hiểu lầm hoặc chỉ làm chậm hoặc chỉnh sửa âm thanh và video, cũng rất phổ biến ở Nam Bán cầu, nhưng có thể bị nhầm lẫn là bị thao túng bởi AI bởi các mô hình lỗi hoặc các nhà nghiên cứu chưa được đào tạo.
Diya lo ngại rằng các nhóm sử dụng các công cụ có nhiều khả năng đánh dấu nội dung từ bên ngoài Hoa Kỳ và Châu Âu là do AI tạo ra có thể gây ra hậu quả nghiêm trọng ở cấp độ chính sách, khuyến khích các nhà lập pháp đàn áp các vấn đề tưởng tượng. "Có một rủi ro rất lớn về việc thổi phồng những con số đó", cô nói. Và việc phát triển các công cụ mới khó có thể chỉ là vấn đề nhấn nút.
Giống như mọi hình thức AI khác, việc xây dựng, thử nghiệm và chạy một mô hình phát hiện đòi hỏi phải có quyền truy cập vào các trung tâm năng lượng và dữ liệu mà hầu như không có ở nhiều nơi trên thế giới. Ngamita, người có trụ sở tại Ghana, cho biết: "Nếu bạn nói về AI và các giải pháp cục bộ ở đây, thì gần như không thể chạy bất kỳ mô hình nào mà chúng tôi đang nghĩ đến nếu không có mặt tính toán". Nếu không có các giải pháp thay thế cục bộ, các nhà nghiên cứu như Ngamita chỉ còn lại một vài lựa chọn: trả tiền để truy cập vào một công cụ có sẵn như công cụ do Reality Defender cung cấp, chi phí có thể rất cao; sử dụng các công cụ miễn phí không chính xác; hoặc cố gắng truy cập thông qua một tổ chức học thuật.
Hiện tại, Ngamita cho biết nhóm của ông đã phải hợp tác với một trường đại học châu Âu, nơi họ có thể gửi các phần nội dung để xác minh. Nhóm của Ngamita đã biên soạn một tập dữ liệu về các trường hợp deepfake có thể xảy ra trên khắp lục địa, mà ông cho biết là có giá trị đối với các học giả và nhà nghiên cứu đang cố gắng đa dạng hóa tập dữ liệu của mô hình của họ.
Nhưng việc gửi dữ liệu cho người khác cũng có những nhược điểm. “Thời gian trễ khá đáng kể”, Diya nói. “Phải mất ít nhất vài tuần thì mới có người có thể tự tin nói rằng đây là dữ liệu do AI tạo ra, và đến lúc đó, nội dung đó đã bị hư hại rồi”.
Gregory cho biết Witness, đơn vị điều hành chương trình phát hiện phản ứng nhanh của riêng mình, tiếp nhận một "số lượng lớn" các trường hợp. "Việc xử lý những trường hợp này trong khung thời gian mà các nhà báo tuyến đầu cần và với khối lượng giao dịch mà họ bắt đầu gặp phải đã là một thách thức", ông nói.
Nhưng Diya cho biết việc tập trung quá nhiều vào phát hiện có thể chuyển hướng tài trợ và hỗ trợ khỏi các tổ chức và định chế tạo nên hệ sinh thái thông tin phục hồi hơn nói chung. Thay vào đó, bà cho biết, tài trợ cần hướng đến các cơ quan thông tấn và tổ chức xã hội dân sự có thể tạo ra cảm giác tin tưởng của công chúng. "Tôi không nghĩ rằng đó là nơi tiền đang chảy vào", bà nói. "Tôi nghĩ rằng nó đang chảy nhiều hơn vào phát hiện".