Hôm thứ Tư, UNICEF đã đưa ra lời kêu gọi khẩn cấp các chính phủ hình sự hóa việc tạo ra nội dung lạm dụng tình dục trẻ em bằng trí tuệ nhân tạo, viện dẫn bằng chứng đáng báo động cho thấy ít nhất 1,2 triệu trẻ em trên toàn thế giới đã bị chỉnh sửa hình ảnh thành các video giả mạo khiêu dâm trong năm qua.
Các số liệu được tiết lộ trong dự án nghiên cứu Disrupting Harm Phase 2, do Văn phòng Chiến lược và Bằng chứng Innocenti của UNICEF, ECPAT International và INTERPOL dẫn đầu, cho thấy ở một số quốc gia, con số này tương đương với 1/25 trẻ em, tức là một trẻ em trong một lớp học điển hình, theo một tuyên bố hôm thứ Tư và bản tóm tắt vấn đề kèm theo .
Nghiên cứu này, dựa trên cuộc khảo sát hộ gia đình đại diện toàn quốc với khoảng 11.000 trẻ em ở 11 quốc gia, cho thấy những kẻ phạm tội hiện nay có thể tạo ra những hình ảnh khiêu dâm trẻ em chân thực mà trẻ không hề tham gia hay hay biết.
Theo dữ liệu, tại một số quốc gia tham gia nghiên cứu, có tới hai phần ba số người được hỏi cho biết họ lo ngại trí tuệ nhân tạo (AI) có thể được sử dụng để tạo ra hình ảnh hoặc video giả mạo về bản thân họ, mặc dù mức độ lo ngại khác nhau rất nhiều giữa các quốc gia.
UNICEF khẳng định: "Chúng ta cần phải nói rõ. Hình ảnh trẻ em bị tình dục hóa được tạo ra hoặc chỉnh sửa bằng công cụ trí tuệ nhân tạo là tài liệu lạm dụng tình dục trẻ em (CSAM). Lạm dụng bằng deepfake là lạm dụng, và không có gì là giả tạo về tác hại mà nó gây ra."
Lời kêu gọi này càng trở nên cấp thiết hơn khi các nhà chức trách Pháp đột kích vào văn phòng của X tại Paris hôm thứ Ba như một phần của cuộc điều tra hình sự về cáo buộc khiêu dâm trẻ em liên quan đến chatbot AI Grok của nền tảng này, các công tố viên đã triệu tập Elon Musk và một số giám đốc điều hành để thẩm vấn.
Một báo cáo của Trung tâm Chống lại Sự thù hận trên mạng được công bố tháng trước ước tính rằng Grok đã tạo ra 23.338 hình ảnh khiêu dâm trẻ em trong khoảng thời gian 11 ngày, từ ngày 29 tháng 12 đến ngày 9 tháng 1.
Bản tóm tắt vấn đề được công bố cùng với tuyên bố nêu rõ những diễn biến này đánh dấu "sự leo thang nghiêm trọng về các rủi ro mà trẻ em phải đối mặt trong môi trường kỹ thuật số", nơi quyền được bảo vệ của trẻ em có thể bị xâm phạm "mà không cần gửi tin nhắn hoặc thậm chí không biết điều đó đã xảy ra".
Tổ chức Internet Watch Foundation của Anh đã cảnh báo về gần 14.000 hình ảnh nghi ngờ được tạo ra bằng trí tuệ nhân tạo trên một diễn đàn web đen duy nhất trong vòng một tháng, khoảng một phần ba trong số đó được xác nhận là có liên quan đến tội phạm. Trong khi đó, các nhà chức trách Hàn Quốc báo cáo số vụ phạm tội tình dục liên quan đến trí tuệ nhân tạo và deepfake tăng gấp mười lần từ năm 2022 đến năm 2024, với hầu hết các nghi phạm được xác định là thanh thiếu niên.
Tổ chức này khẩn thiết kêu gọi tất cả các chính phủ mở rộng định nghĩa về tài liệu lạm dụng tình dục trẻ em để bao gồm cả nội dung do trí tuệ nhân tạo tạo ra và hình sự hóa việc tạo ra, thu thập, sở hữu và phân phối loại nội dung này.
UNICEF cũng yêu cầu các nhà phát triển AI áp dụng các phương pháp đảm bảo an toàn ngay từ khâu thiết kế và các công ty kỹ thuật số ngăn chặn việc phát tán những nội dung như vậy.
Bản kiến nghị kêu gọi các quốc gia yêu cầu các công ty thực hiện thẩm định về quyền trẻ em, đặc biệt là đánh giá tác động đến quyền trẻ em, và yêu cầu mọi bên tham gia trong chuỗi giá trị AI phải tích hợp các biện pháp an toàn, bao gồm cả thử nghiệm an toàn trước khi phát hành đối với các mô hình mã nguồn mở.
UNICEF cảnh báo: "Tác hại từ việc lạm dụng deepfake là có thật và cấp bách. Trẻ em không thể chờ đợi luật pháp bắt kịp."
Tháng trước, Ủy ban châu Âu đã khởi động một cuộc điều tra chính thức về việc liệu X có vi phạm các quy định kỹ thuật số của EU hay không khi không ngăn chặn Grok tạo ra nội dung bất hợp pháp, trong khi Philippines , Indonesia và Malaysia đã cấm Grok, và các cơ quan quản lý ở Anh và Úc cũng đã mở các cuộc điều tra.




