구글의 보안팀인 맨디언트는 북한 해커들이 암호화폐 기업들을 겨냥한 점점 더 정교해지는 공격의 일환으로 인공지능으로 생성된 딥페이크를 가짜 화상 회의 에 활용하고 있다고 월요일 발표한 보고서에서 경고했습니다.
Mandiant는 최근 한 핀테크 기업에서 발생한 침입 사건을 조사했다고 밝혔습니다 . 이 사건은 북한과 높은 연관성을 보이는 위협 행위자 UNC1069, 또는 "CryptoCore"의 소행으로 추정됩니다. 공격자는 해킹된 텔레그램 계정, 가짜 줌 회의, 그리고 소위 ClickFix 기법을 사용하여 피해자가 악성 명령을 실행하도록 유도했습니다. 조사 결과, 가짜 회의 중에 인공지능(AI)으로 생성된 영상이 피해자를 속이는 데 사용된 증거도 발견되었습니다.
"맨디언트는 UNC1069가 소프트웨어 회사와 개발자, 벤처 자본 회사와 그 직원 또는 임원을 포함하여 암호화폐 업계 내 기업과 개인을 모두 표적으로 삼기 위해 이러한 기술을 사용하는 것을 관찰했습니다."라고 보고서는 밝혔습니다.
북한의 암호화폐 절도 규모가 계속 커지고 있는 가운데 이러한 경고가 나왔습니다. 블록체인 분석 업체 체이나리시스는 12월 중순, 북한 해커들이 2025년에 20억 2천만 달러 상당의 암호화폐를 훔쳤다고 밝혔는데 , 이는 전년 대비 51% 증가한 수치입니다. 북한과 연계된 해커들이 훔친 총액은 공격 횟수는 감소했지만 현재 약 67억 5천만 달러에 달합니다.
이번 조사 결과는 국가 연계 사이버 범죄자들이 활동하는 방식에 있어 광범위한 변화를 보여줍니다. 크립토코어(CryptoCore)와 같은 조직들은 대규모 피싱 공격에 의존하기보다는, 캘린더 초대나 화상 통화와 같은 일상적인 디지털 상호작용에서 발생하는 신뢰를 악용하는 고도로 맞춤화된 공격에 집중하고 있습니다. 이러한 방식으로 북한은 더 적고 표적화된 공격을 통해 더 큰 규모의 정보 탈취를 달성하고 있습니다.
Mandiant에 따르면, 공격은 피해자가 텔레그램에서 유명 암호화폐 업계 임원으로 보이는 사람으로부터 연락을 받으면서 시작되었는데, 그 임원의 계정은 이미 해킹당한 상태였습니다. 공격자는 피해자와 친밀한 관계를 쌓은 후, 30분짜리 회의를 위한 캘린들리 링크(Chainlink) 보냈고, 이 링크는 피해자를 공격자 그룹의 인프라에서 호스팅되는 가짜 줌(Zoom) 회의로 연결했습니다. 통화 중 피해자는 유명 암호화폐 CEO의 딥페이크로 보이는 영상을 목격했다고 신고했습니다.
회의가 시작되자 공격자들은 오디오 문제가 있다고 주장하며 피해자에게 "문제 해결" 명령어를 실행하라고 지시했는데, 이는 결국 악성코드 감염을 유발한 ClickFix 기법이었습니다. 이후 포렌식 분석 결과 피해자의 시스템에서 7개의 서로 다른 악성코드 계열이 발견되었으며, 이는 금융 사기 및 향후 신분 도용을 위해 자격 증명, 브라우저 데이터 및 세션 토큰을 수집하려는 시도로 보입니다.
탈중앙화 신원 인증 기업 cheqd의 공동 창립자 겸 CEO인 프레이저 에드워즈는 이번 공격이 원격 회의와 신속한 협업이 중요한 직종 종사자들을 대상으로 반복적으로 발생하는 공격 패턴을 반영한다고 말했습니다. 에드워즈는 "이러한 공격 방식이 효과적인 이유는 눈에 띄지 않는 사소한 부분만으로도 충분하기 때문"이라고 설명했습니다.
"발신자가 익숙합니다. 회의 형식도 평소와 같습니다. 악성코드 첨부 파일이나 명백한 공격 시도도 없습니다. 기술적 방어 수단이 개입하기 전에 신뢰가 이용된 것입니다."
에드워즈는 딥페이크 영상이 일반적으로 실시간 통화와 같은 상황 악화 시점에 사용된다고 말했습니다. 익숙한 얼굴을 보여주는 것만으로도 예상치 못한 요청이나 기술적 문제로 인한 의심을 잠재울 수 있다는 것입니다. 그는 "카메라에 실제 사람처럼 보이는 사람이 나오는 것만으로도 예상치 못한 요청이나 기술적 문제로 인한 의심을 없애기에 충분한 경우가 많습니다. 목표는 장시간의 상호 작용이 아니라, 피해자가 다음 단계로 넘어가도록 충분한 현실감을 조성하는 것입니다."라고 설명했습니다.
그는 인공지능이 이제 실시간 통화 외에도 사칭을 지원하는 데 사용되고 있다고 덧붙였습니다. "인공지능은 메시지 초안을 작성하고, 어조를 교정하고, 누군가가 동료나 친구와 평소에 소통하는 방식을 모방하는 데 사용됩니다. 이렇게 하면 일상적인 메시지에 대해 의심하기 어려워지고, 수신자가 대화 내용을 확인하기 위해 충분히 생각할 시간을 줄여줍니다."라고 그는 설명했습니다.
에드워즈는 AI 에이전트가 일상적인 소통과 의사결정에 도입됨에 따라 위험이 증가할 것이라고 경고했습니다. 그는 "에이전트는 메시지를 보내고, 통화를 예약하고, 기계 속도로 사용자를 대신하여 행동할 수 있습니다. 이러한 시스템이 악용되거나 손상될 경우, 딥페이크 오디오 또는 비디오가 자동으로 배포되어, 사칭 행위가 수동적인 작업에서 확장 가능한 프로세스로 바뀔 수 있습니다."라고 말했습니다.
에드워즈는 대부분의 사용자가 딥페이크를 식별하는 방법을 알 것이라고 기대하는 것은 "비현실적"이라며, "해결책은 사용자에게 더 주의를 기울이라고 요구하는 것이 아니라 기본적으로 사용자를 보호하는 시스템을 구축하는 것"이라고 덧붙였다. "즉, 콘텐츠의 진위 여부를 나타내고 검증하는 방식을 개선하여 사용자가 직감, 친숙함 또는 수동 조사에 의존하지 않고도 콘텐츠가 진짜인지, 합성된 것인지, 검증되지 않은 것인지를 신속하게 파악할 수 있도록 하는 것입니다."




