가재 전문가조차 실수를 저지를 수 있다! 오픈클로(OpenClaw)는 구문 오류로 인해 최고 기밀 서버 정보를 유출했다.

이 기사는 기계로 번역되었습니다
원문 표시

인공지능(AI) 기술의 광범위한 도입 으로 AI 에이전트는 개발자의 일상적인 작업을 지원하는 강력한 기능을 입증해 왔습니다. 그러나 이 기술은 전례 없는 보안 위험도 가져왔습니다. 최근 유명 AI 사이버 보안 팀의 개발자들이 인기 있는 AI 로봇 OpenClaw를 테스트하던 중 예상치 못한 '자체 해킹' 사고를 겪었습니다. AI 모델의 명령어 생성 과정에서 발생한 사소한 구문 오류로 인해 테스트 환경의 모든 기밀 키가 GitHub에 공개되었고, 결국 서버가 정체불명의 공격자에게 완전히 장악당하는 사태가 발생했습니다.

사이버 보안 전문가들도 예상치 못한 "자체 해킹" 사건의 희생양이 되었습니다.

이번 사건의 피해자는 기술적 배경 지식이 부족한 일반 사용자가 아니라, AI 에이전트 보안 도구 개발 전문 기업인 sequrity.ai의 아론 자오와 같은 전문 사이버 보안 연구원 및 개발자들이었습니다. 업계 전문가로서 그들은 자신들의 보안 역량에 자신감을 갖고 있었고, 심지어 OpenClaw 봇 공격 방법에 대한 논문을 발표하기 직전이었습니다.

연구팀은 악의적인 의도 없이 샌드박스 환경에서 테스트를 진행하고 있었으며, 단순히 OpenClaw 봇에게 "파이썬 비동기 처리 모범 사례를 검색하고, 그 결과를 요약하는 GitHub 이슈를 생성하라"는 겉보기에는 무해한 일상적인 작업을 수행하도록 지시했을 뿐입니다. 그런데 뜻밖에도 이 평범한 명령이 시스템 침해로 이어지는 계기가 되었습니다.

치명적인 인용문: AI가 의도치 않게 최고 기밀을 유출하는 방법

이 문제는 OpenClaw 봇이 내장된 "exec" 도구를 사용하여 GitHub 이슈를 생성할 때 생성한 셸 스크립트의 결함에서 비롯됩니다.

Bash 시스템에서 문자열을 큰따옴표("...")로 묶으면, 시스템은 문자열 내의 특정 내용(예: 백틱 안의 텍스트)을 "명령 치환"으로 처리합니다. 즉, 해당 명령이 먼저 실행되고 그 결과가 문자열에 다시 삽입됩니다. 작은따옴표('...")를 사용하면 내용은 일반 텍스트로 처리됩니다.

당시 OpenClaw에서 생성된 문자열에는 "...이것들을 `set`에 저장..."과 같은 내용이 포함되어 있었고 큰따옴표를 사용했습니다. Bash 구문에서 `set`은 추가 매개변수 없이 실행하면 현재 환경의 모든 환경 변수와 함수를 직접 출력하는 내장 명령입니다.

따라서 해당 시스템은 `set`을 일반 단어로 처리하지 않았습니다. 대신, 하위 수준에서 명령어를 직접 실행하여 인증 토큰을 포함한 100줄 이상의 기밀 환경 변수를 클레임, 이 모든 기밀 정보를 일반 텍스트로 처리하여 누구나 볼 수 있도록 공개 GitHub 이슈 페이지에 직접 게시했습니다.

해커들은 취약점과 그에 따른 대응을 악용합니다.

정보 유출의 여파는 즉각적으로 나타났습니다. 유출된 환경 변수에는 개발팀의 텔레그램 키와 기타 중요한 접근 권한이 포함되어 있었습니다. 얼마 지나지 않아 시스템 모니터링을 통해 인도 IP 주소를 사용하는 공격자가 유출된 정보를 이용해 SSH 원격 연결을 통해 샌드박스 서버를 완전히 장악한 사실을 발견했습니다.

다행히 OpenAI와 Google의 보안 메커니즘이 GitHub에서 유출된 키를 감지하고 연구팀에 선제적으로 알림을 보냈습니다. 이를 계기로 연구팀은 즉시 철저한 조사를 진행하여 근본 원인을 파악하고 공격자를 특정할 수 있었습니다. 이후, 샌드박스 머신의 모든 데이터를 긴급히 삭제하고 유출된 키를 모두 폐기했습니다.

인공지능 안전의 장기적인 과제: 책임 소재 규명

이번 사건은 사이버 보안 전문가들에게 AI 보안의 복잡성을 깊이 이해하게 해주었습니다. 연구팀은 논문에서 단순히 무해한 명령어를 실행했을 뿐인데 AI 모델이 Bash의 작동 방식을 잘못 이해해서 시스템이 해킹당했다고 지적했습니다.

이 문제는 사용자의 책임일까요, AI 모델 자체의 결함일까요, 아니면 오픈클로 로봇의 설계 결함일까요? 개발팀은 솔직하게 "정말 모르겠다"고 인정합니다. 그들은 AI 보안이 이제 너무나 다양하고 예측 불가능한 오류 모드가 존재하는 "롱테일 문제"가 되었다고 강조합니다. AI 에이전트에게 점점 더 많은 시스템 운영 권한이 부여됨에 따라, 작업 수행 중 사소한 문법 오류로 인해 치명적인 사이버 보안 사고가 발생하지 않도록 하는 것은 기술 업계가 앞으로 대면 해야 할 중요한 과제가 될 것입니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트