유니세프는 수요일, 전 세계적으로 최소 120만 명의 아동 이미지가 인공지능(AI)을 이용해 성적으로 노골적인 딥페이크 이미지로 조작된 사례가 지난 1년 동안 발생했다는 충격적인 증거를 근거로, 각국 정부에 AI 기반 아동 성착취물 제작을 범죄화할 것을 긴급히 촉구했다.
유니세프 전략 및 증거 사무국 이노첸티, ECPAT 인터내셔널, 인터폴이 주도한 연구 프로젝트인 '피해 차단 2단계'에서 공개된 수치는 일부 국가에서 아동 25명 중 1명이 아동 학대를 당하고 있으며, 이는 일반적인 교실의 아동 1명에 해당하는 수치라고 수요일 발표된 성명 과 함께 배포된 보고서 에서 밝혔습니다 .
11개국 약 11,000명의 아동을 대상으로 한 전국 대표 가구 설문조사를 바탕으로 한 이번 연구는 가해자들이 이제 아동의 관여나 인지 없이도 아동의 사실적인 성적 이미지를 만들어낼 수 있다는 점을 강조합니다.
일부 조사 대상 국가에서는 응답자의 최대 3분의 2가 인공지능이 자신에 대한 가짜 성적 이미지나 동영상을 만드는 데 사용될 수 있다고 우려한다고 답했지만, 국가별로 우려 수준은 크게 차이가 나는 것으로 나타났습니다.
유니세프는 "분명히 밝혀야 할 것은, 인공지능 도구를 이용해 생성되거나 조작된 아동의 성적 대상화된 이미지는 아동 성착취물(CSAM)이라는 점입니다."라며, "딥페이크를 이용한 학대는 명백한 학대이며, 그것이 초래하는 피해는 결코 가짜가 아닙니다."라고 밝혔습니다.
프랑스 당국이 화요일 X의 파리 사무실을 압수수색하면서 이러한 요구는 더욱 시급해졌습니다. 이번 압수수색은 플랫폼의 AI 챗봇 그록과 관련된 아동 포르노 혐의에 대한 형사 수사의 일환이며, 검찰은 일론 머스크와 여러 임원을 소환해 조사할 예정입니다.
지난달 발표된 디지털 혐오 대응 센터의 보고서에 따르면, 그록은 12월 29일부터 1월 9일까지 11일 동안 아동 성착취 이미지 23,338개를 제작한 것으로 추산됩니다 .
성명과 함께 발표된 정책 보고서는 이러한 상황 전개가 "디지털 환경에서 아동이 직면하는 위험이 심각하게 증가했음을 의미한다"며, 아동이 "메시지를 보내지 않았거나 심지어 메시지를 받았다는 사실조차 알지 못한 채" 보호받을 권리가 침해될 수 있다고 지적합니다.
영국의 인터넷 감시 재단(Internet Watch Foundation)은 한 달 동안 한 다크웹 포럼에서 인공지능(AI)으로 생성된 것으로 의심되는 이미지 약 14,000개를 발견했으며, 그중 약 3분의 1이 범죄 행위로 확인되었다고 밝혔습니다. 또한 한국 당국은 2022년에서 2024년 사이에 AI 및 딥페이크와 관련된 성범죄가 10배 급증했으며, 대부분의 용의자가 10대 청소년으로 확인되었다고 보고했습니다.
해당 단체는 모든 정부에 인공지능이 생성한 콘텐츠를 포함하도록 아동 성학대 자료의 정의를 확대하고, 그러한 콘텐츠의 제작, 획득, 소지 및 배포를 범죄화할 것을 긴급히 촉구했다.
유니세프는 또한 AI 개발자들이 설계 단계부터 안전성을 고려하도록 하고, 디지털 기업들이 그러한 자료의 유포를 막도록 요구했습니다.
이 보고서는 각국 정부가 기업들에게 아동 권리 실사, 특히 아동 권리 영향 평가를 의무화하고, 인공지능 가치 사슬의 모든 참여자가 오픈 소스 모델에 대한 사전 출시 안전성 테스트를 포함한 안전 조치를 마련하도록 촉구합니다.
유니세프는 "딥페이크 악용으로 인한 피해는 심각하고 시급하다"며 "아이들은 법이 따라잡을 때까지 기다릴 수 없다"고 경고했다.
유럽연합 집행위원회는 지난달 X사가 Grok의 불법 콘텐츠 생성 방지 조치를 취하지 않아 EU 디지털 규정을 위반했는지 여부에 대한 공식 조사에 착수했으며 , 필리핀 , 인도네시아, 말레이시아는 Grok 사용을 금지했고, 영국 과 호주 규제 당국 도 조사를 시작했습니다.



