구글 딥마인드는 화요일에 딥페이크, 허위정보, AI 지원 부정행위가 온라인과 교실에서 확산됨에 따라 SynthID 탐지기를 공개했습니다. 이 새로운 도구는 구글의 점점 성장하는 AI 모델에 의해 삽입된 보이지 않는 워터마크를 위해 이미지, 오디오, 비디오, 텍스트를 스캔합니다.
여러 형식에서 작동하도록 설계된 SynthID 탐지기는 구글의 AI가 생성한 콘텐츠를 식별하고 워터마크될 가능성이 가장 높은 부분을 강조함으로써 더 큰 투명성을 가져오는 것을 목표로 합니다. 여기에는 오디오 AI인 노트북LM, 리리아, 이미지 생성기 이마젠이 포함됩니다.
"텍스트의 경우, SynthID는 다음에 생성될 단어를 살펴보고 전체 텍스트의 품질과 유용성에 영향을 미치지 않는 적절한 단어 선택에 대한 확률을 변경합니다," 구글은 데모 프레젠테이션에서 말했습니다.
"만약 한 구절에 선호되는 단어 선택의 사례가 더 많다면, SynthID는 그것이 워터마크되었다고 감지할 것입니다."라고 덧붙였습니다.
SynthID는 텍스트 생성 중 단어 선택의 확률 점수를 조정하여, 출력의 의미나 가독성에 영향을 미치지 않는 보이지 않는 워터마크를 삽입합니다. 이 워터마크는 나중에 구글의 제미니 앱이나 웹 도구에서 제작된 콘텐츠를 식별하는 데 사용될 수 있습니다.
구글은 처음에 2023년 8월에 AI 생성 이미지를 탐지하는 도구로 SynthID 워터마킹을 도입했습니다. SynthID 탐지기 출시로 이 기능을 오디오, 비디오, 텍스트로 확장했습니다.
현재 SynthID 탐지기는 제한된 릴리스로 제공되며, 저널리스트, 교육자, 디자이너, 연구자들이 프로그램을 시도해볼 수 있는 대기 목록이 있습니다.
생성형 AI 도구가 더욱 널리 보급됨에 따라 교육자들은 개인적 경험을 반영하기 위한 과제에서조차 학생의 과제가 독창적인지 판단하기가 점점 더 어려워지고 있습니다.
AI를 이용한 부정행위
뉴욕 매거진의 최근 보고서는 이러한 증가하는 문제를 강조했습니다.
산타클라라 대학의 기술 윤리 교수는 개인 성찰 에세이를 과제로 냈지만, 한 학생이 ChatGPT를 사용해 이를 완성했음을 발견했습니다.
리틀록의 아칸소 대학에서는 다른 교수가 학생들이 AI에 의존하여 수업 소개 에세이와 수업 목표를 작성하는 것을 발견했습니다.
학생들이 수업에서 AI 모델을 사용해 부정행위를 하는 빈도가 증가했음에도 불구하고, OpenAI는 정확도가 낮다는 이유로 2023년에 AI 탐지 소프트웨어를 폐쇄했습니다.
"우리는 AI가 작성한 텍스트를 식별하는 것이 교육자들 사이에서 중요한 논의 지점이었음을 인정하며, 동시에 교실에서 AI 생성 텍스트 분류기의 한계와 영향을 인식하는 것도 마찬가지로 중요하다"고 OpenAI는 당시 말했습니다.
AI 부정행위 문제를 더욱 악화시키는 것은 AI 탐지 소프트웨어를 우회하도록 설계된 Cluely와 같은 새로운 도구입니다. 전 콜롬비아 대학 학생 로이 리가 개발한 Cluely는 데스크톱 수준에서 AI 탐지를 우회합니다.
시험과 면접에서 부정행위를 하는 방법으로 홍보된 Cluely는 리가 애플리케이션을 개발하기 위해 530만 달러를 모금했습니다.
"아마존 면접 중 제가 이를 사용하는 영상을 게시한 후 폭발적으로 인기를 얻었습니다," 리는 이전에 디크립트에 말했습니다. "사용하는 동안 사용자 경험이 정말 흥미롭다는 것을 깨달았습니다. 화면을 보고, 오디오를 듣고, 컴퓨터의 플레이어 2처럼 행동하는 반투명 화면 오버레이라는 아이디어를 아무도 탐구하지 않았거든요."
SynthID와 같은 도구의 약속에도 불구하고 많은 현재 AI 탐지 방법은 여전히 신뢰할 수 없습니다.
10월, 디크립트의 주요 AI 탐지기 테스트에서 그래믈리, 퀼봇, GPTZero, ZeroGPT 중 단 두 개만이 미국 독립선언서를 인간이 썼는지 AI가 썼는지 판별할 수 있었습니다.
편집: 세바스찬 싱클레어




