인공지능 기반 이미지 생성기의 접근성이 높아지면서 사진 속 인물의 옷을 디지털 방식으로 제거하는 웹사이트도 등장했습니다. 이러한 사이트 중 하나에는 이러한 앱이 어떻게 사용되는지 엿볼 수 있는 불안한 기능이 있는데, 바로 피사체를 '누드화'하려는 사용자가 업로드한 사진으로 보이는 두 개의 피드입니다.
이 이미지 피드는 의도된 피해자의 충격적인 모습을 보여줍니다. WIRED는 분명히 어린아이로 보이는 소녀들의 이미지를 발견했습니다. 다른 사진에는 성인의 모습과 함께 여자 친구 또는 낯선 여성임을 나타내는 캡션이 있었습니다. 이 사이트의 홈페이지는 로그인하지 않은 방문자에게는 가짜 누드 이미지를 표시하지 않습니다.
딥페이크 누드 이미지를 생성하고 저장하려는 사람들은 암호화폐 지갑을 사용하여 사이트에 로그인해야 합니다. 현재 가격은 공개되어 있지 않지만, 관련 YouTube 페이지에 게시된 2022년 동영상에서는 사용자가 딥페이크 누드 이미지를 제작할 수 있는 크레딧을 5달러부터 5크레딧까지 구매할 수 있도록 했습니다. WIRED는 이 사이트에 대해 알게 된 것은 서브 레딧에 올라온 NFT 마켓플레이스 오픈씨에 대한 게시물을 통해 알게 되었고, 이 게시물은 유튜브 페이지로 연결되었습니다. WIRED가 YouTube에 연락한 후 플랫폼은 해당 채널을 종료했다고 밝혔고, Reddit은 해당 사용자가 금지되었다고 WIRED에 알려왔습니다.
WIRED는 피드에 남아 있는 여성과 소녀들을 보호하기 위해 아직 온라인 상태인 해당 웹사이트의 신원을 밝히지 않고 있습니다. 2022년 2월에 개설된 이 사이트의 IP 주소는 인터넷 보안 및 인프라 제공업체인 Cloudflare의 소유입니다. 이 회사의 대변인인 Jackie Dutton은 이 사이트의 관여에 대한 질문에 대해 Cloudflare처럼 사이트의 IP 주소를 제공하는 것과 콘텐츠를 호스팅하는 것의 차이점을 언급하며, 자신은 그렇지 않다고 말했습니다.
WIRED는 아동 착취 사례를 법 집행 기관에 신고하는 데 도움을 주는 국립 실종 및 착취 아동 센터에 이 사이트의 존재를 알렸습니다.
OpenAI 및 Stability AI와 같은 AI 개발자는 자사의 이미지 생성기는 상업적 및 예술적 용도로 사용되며 유해한 콘텐츠를 방지하기 위한 가드레일을 갖추고 있다고 말합니다. 하지만 오픈 소스 AI 이미지 생성 기술은 이제 비교적 강력해졌으며 포르노 제작은 가장 인기 있는 사용 사례 중 하나입니다. 이미지 생성이 더 쉽게 가능해지면서 여성을 대상으로 하는 비합의적인 누드 딥페이크 이미지 문제가 더욱 광범위하고 심각해졌습니다. 이달 초, WIRED는 플로리다의 10대 청소년 두 명이 동의 없이 중학교 동급생의 누드 이미지를 AI로 생성하고 공유한 혐의로 체포된 첫 번째 사례로 보인다고 보도했습니다.
동의하지 않은 노골적인 이미지 문제를 연구해온 조지 워싱턴 대학교 법대 교수인 메리 앤 프랭크스는 딥누드 웹사이트가 암울한 현실을 보여준다고 말합니다: 현재 대중이 알고 있는 것보다 훨씬 더 많은 사건들이 동의 없는 여성과 미성년자의 누드 이미지와 관련된 AI 생성 사건이 발생하고 있습니다. 몇몇 공개 사례는 커뮤니티 내에서 이미지가 공유되고 누군가가 이를 듣고 경각심을 불러일으켰기 때문에 노출된 것일 뿐입니다.
프랭크스는 "이런 사이트는 추적하기 어려운 온갖 종류의 사이트가 있을 것이며, 대부분의 피해자들은 누군가 신고하기 전까지는 이런 일이 일어났다는 사실을 전혀 알지 못합니다."라고 말합니다.
WIRED가 검토한 웹사이트에는 사용자가 제출한 것으로 보이는 사진이 두 페이지에 걸쳐 피드로 제공되고 있습니다. 하나는 "홈", 다른 하나는 "탐색"이라는 레이블이 붙어 있습니다. 몇몇 사진에는 18세 미만의 소녀가 분명하게 찍혀 있었습니다.
한 이미지에는 머리에 꽃을 꽂은 어린 소녀가 나무에 기대어 서 있는 모습이 담겨 있었습니다. 또 다른 사진은 중학교 또는 고등학교 교실로 보이는 곳에 있는 소녀의 모습입니다. 같은 반 친구가 몰래 찍은 것으로 보이는 이 사진에는 "포르노"라는 캡션이 붙어 있습니다.
사이트에 게시된 또 다른 이미지에는 중학교에 다니는 것으로 보이는 10대 청소년 그룹, 즉 한 남학생이 학교 체육관으로 보이는 곳에서 두 명의 여학생과 함께 셀카를 찍고 미소를 지으며 포즈를 취하고 있는 모습이 담겨 있습니다. 이 소년의 이목구비는 눈을 너무 크게 확대하여 얼굴을 가릴 정도로 스냅챗 렌즈에 가려져 있었습니다.
업로드된 것으로 보이는 이미지의 캡션에는 친구, 동급생, 연인의 이미지가 포함되어 있습니다. 한 캡션에는 "내 여자친구"라는 문구와 함께 거울을 보며 셀카를 찍는 젊은 여성의 모습이 담겨 있었습니다.
많은 사진에는 틱톡, 인스타그램 및 기타 소셜 미디어 플랫폼에서 인기 있는 인플루언서가 등장했습니다. 다른 사진들은 사람들이 일상 생활에서 찍은 이미지를 공유하는 인스타그램 스크린샷으로 보였습니다. 한 이미지에는 한 젊은 여성이 축하 촛불을 얹은 디저트를 들고 미소 짓고 있는 모습이 담겨 있었습니다.
몇몇 이미지는 사진을 찍은 사람과 전혀 모르는 사람들을 보여주는 것처럼 보였습니다. 뒤에서 찍은 한 이미지는 사진을 찍기 위해 포즈를 취하지 않고 관광 명소로 보이는 곳 근처에 서 있는 여성 또는 소녀의 모습을 담고 있었습니다.
WIRED가 검토한 피드에 있는 이미지 중 일부는 여성과 소녀의 얼굴을 잘라내어 가슴이나 가랑이만 보여주었습니다.
8일 동안 이 사이트를 모니터링한 결과 홈 피드에 5개의 새로운 여성 이미지가, 탐색 페이지에 3개의 여성 이미지가 새로 표시되었습니다. 사이트에 표시된 통계에 따르면 이러한 이미지 대부분은 수백 건의 "조회수"를 기록했습니다. 사이트에 제출된 모든 이미지가 홈 또는 탐색 피드에 표시되는지 또는 조회수가 어떻게 집계되는지는 불분명합니다. 홈 피드에 있는 모든 게시물의 조회수는 최소 수십 회입니다.
유명인이나 인스타그램 팔로워가 많은 사람들의 사진이 사이트에 나열된 '가장 많이 본' 이미지 목록의 맨 위에 있습니다. 이 사이트에서 역대 가장 많은 조회수를 기록한 사람은 66,000회 이상의 조회수를 기록한 배우 제나 오르테가, 27,000회 이상의 조회수를 기록한 싱어송라이터 테일러 스위프트, 26,000회 이상의 조회수를 기록한 말레이시아 출신의 인플루언서 겸 DJ입니다.
스위프트와 오르테가는 이전에도 딥페이크 누드의 표적이 된 적이 있습니다. 지난 1월 스위프트의 가짜 누드 이미지가 X에 유포되면서 딥페이크의 영향과 피해자를 위한 법적 보호 강화의 필요성에 대한 논의가 다시금 활발해졌습니다. 이번 달 NBC는 메타가 7개월 동안 딥누드 앱의 광고를 호스팅했다고 보도했습니다. 이 앱은 16세 때 찍은 제나 오르테가의 사진을 사용하여 사람들의 옷을 '벗기는' 기능을 자랑했습니다.
미국에서는 합의되지 않은 가짜 누드 이미지의 유통을 규제하는 연방법이 없습니다. 몇몇 주에서 자체적으로 관련 법률을 제정했습니다. 그러나 인공지능으로 생성된 미성년자의 누드 이미지는 다른 아동 성적 학대물, 즉 CSAM과 같은 범주에 속한다고 NCMEC의 착취 아동 부서의 제니퍼 뉴먼 전무이사는 말합니다.
"실제 피해자의 이미지, 실제 아동의 이미지와 구별할 수 없다면 아동 성적 학대 자료로 간주합니다."라고 뉴먼은 말합니다. "그리고 우리는 이러한 신고를 법 집행 기관에 전달할 때 신고를 처리하는 것과 같은 방식으로 처리할 것입니다."
뉴먼은 2023년에 NCMEC가 "어떻게든 생성 AI 기술과 연결되는" 약 4,700건의 신고를 받았다고 말합니다.
이 사이트에서 딥페이크 누드 이미지를 생성하고 저장하려는 사람은 코인베이스, 메타마스크, 월렛커넥트 암호화폐 지갑 중 하나를 사용하여 로그인해야 합니다. 코인베이스 대변인 맥케나 오터스테트는 이 사이트와 회사 지갑의 통합에 대한 내부 조사를 시작한다고 말했습니다. 월렛커넥트와 컨센시스 소유의 메타마스크는 논평 요청에 응답하지 않았습니다.
2022년 11월, 딥누드 사이트의 유튜브 채널은 사용자가 비자 또는 마스터카드로 "크레딧을 구매할 수 있다"는 내용의 동영상을 게시했습니다. 두 결제 처리업체 모두 WIRED의 논평 요청에 응답하지 않았습니다.
NFT 마켓플레이스인 OpenSea에서는 2022년에 딥페이크가 아닌 편집되지 않은 다양한 인스타그램 및 틱톡 인플루언서들의 사진이 포함된 30개의 NFT를 나열했는데, 모두 여성이었습니다. 웹 아카이브에 따르면 당시에는 초기 단계였던 이 웹사이트는 현재 환율로 280달러 상당의 이더리움 암호화폐로 NFT를 구입한 후 소유자는 웹사이트에 액세스할 수 있었습니다. NFT 목록은 사용자에게 "개인 정보 보호가 최우선 순위"라고 말했습니다.
NFT는 여성들이 인식하는 특징을 나타내는 태그로 분류되었습니다. 카테고리에는 가슴 크기, 국가(대부분의 여성이 말레이시아 또는 대만 출신으로 표시됨), "귀여운", "청순한", "어머니 같은" 등의 태그와 함께 특징이 포함되었습니다.
해당 계정에 등록된 NFT 중 판매된 상품은 없었습니다. OpenSea는 WIRED가 회사에 연락한 후 90분 이내에 해당 리스팅과 계정을 삭제했습니다. NFT에 표시된 여성 중 누구도 논평 요청에 응답하지 않았습니다.
딥누드 웹사이트를 누가, 또는 얼마나 많은 사람들이 만들었는지 또는 소유하고 있는지는 불분명합니다. 현재 삭제된 OpenSea 계정의 프로필 이미지는 세 번째 구글 이미지 검색 결과인 "nerd"와 동일했습니다. 계정 자기소개에는 "이 세상의 더러운 것을 드러내고" "모든 얼간이와 한심한 형제들"과 공유하는 것이 제작자의 모토라고 적혀 있었습니다.
OpenSea 계정에서 링크된 X 계정은 동일한 약력을 사용했으며 "화이트햇, 블랙햇 해킹" 및 "사기 및 돈 벌기"에 관한 지금은 활동하지 않는 블로그에도 링크되어 있었습니다. 이 계정의 소유자는 69 Fucker라는 닉네임을 사용하는 블로그의 기고자 세 명 중 한 명인 것으로 보입니다.
이 웹사이트는 50세 미만으로 보이는 동아시아계 남성의 프로필 사진을 올린 한 명의 사용자에 의해 레딧에서 홍보되었습니다. 그러나 2022년 3월에 작성된 이 웹사이트의 아카이브에 따르면 이 사이트는 "9명의 성욕에 찬 사람들이 만들었다"고 주장합니다. 프로필 이미지의 대부분은 스톡 사진으로 보였고, 직책은 모두 가식적인 것이었습니다. 그 중 세 개는 호색한 감독, 무서운 스토커, 전리품 감독이었습니다.
웹사이트와 관련된 이메일 주소는 논평 요청에 응답하지 않았습니다.


