"AI 중독"은 예방하기 어렵습니다. 그래도 ChatGPT를 사용하여 코드를 작성할 수 있습니까?

이 기사는 기계로 번역되었습니다
원문 표시

최근 한 사용자가 pump.fun에 대한 자동 게시물 봇을 개발하려다 ChatGPT에 코드 도움을 요청했지만, 예기치 않게 사기를 당했습니다. 이 사용자는 ChatGPT가 제공한 코드 지침에 따라 추천된 솔라나(Solana) API 웹사이트에 접속했습니다. 그러나 이 웹사이트는 실제로 사기 플랫폼이었고, 사용자는 약 2,500달러를 손실했습니다.

사용자의 설명에 따르면, 해당 코드의 일부는 API를 통해 개인 키를 제출하도록 요구했습니다. 바쁜 나머지 검토하지 않고 자신의 주 솔라나(Solana) 지갑을 사용했습니다. 사후에 생각해보니 큰 실수를 했다는 것을 깨달았지만, 당시 OpenAI에 대한 신뢰로 인해 잠재적인 위험을 간과했습니다.

해당 API를 사용한 후, 사기꾼들은 신속하게 행동에 나섰고 30분 만에 사용자 지갑의 모든 자산을 FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX 주소로 이체했습니다. 처음에는 이 웹사이트에 문제가 있다는 것을 완전히 확신하지 못했지만, 도메인 홈페이지를 자세히 살펴본 결과 의심스러운 징조가 명확히 드러났습니다.

현재 이 사용자는 커뮤니티에 @solana 웹사이트를 차단하고 @OpenAI 플랫폼에서 관련 정보를 제거해 달라고 호소하고 있습니다. 또한 사기꾼들이 남긴 단서를 통해 조사를 진행하여 그들을 처벌하기를 희망하고 있습니다.

Scam Sniffer 조사 결과, 악성 코드 저장소가 발견되었으며, 이는 AI 생성 코드를 통해 개인 키를 훼손할 목적으로 만들어졌습니다.

• solanaapisdev/moonshot-trading-bot

• solanaapisdev/pumpfun-api

Github 사용자 "solanaapisdev"는 지난 4개월 동안 여러 개의 코드 저장소를 만들어 AI를 악용하려 했습니다.

이 사용자의 개인 키가 도난당한 이유는 HTTP 요청 본문에 직접 전송되었기 때문입니다.

슬로우 미스트(Slow Mist) 창립자 Yu Chao는 "이러한 행위는 매우 안전하지 않으며, 다양한 방식으로 사용자를 위험에 빠뜨리고 있다"고 말했습니다. "개인 키를 업로드할 뿐만 아니라 사용자를 위해 온라인에서 개인 키를 생성해 주는 것도 문제가 있다. 문서 또한 겉으로는 잘 만들어졌지만 실제로는 위험하다."

그는 또한 이러한 악성 코드 웹사이트의 연락처가 매우 단순하고, 웹사이트에 내용이 없으며 주로 문서와 코드 저장소로 구성되어 있다고 지적했습니다. "도메인은 9월 말에 등록되었기 때문에, 이는 의도적인 공격으로 보이지만 GPT에 의해 의도적으로 수집되었는지는 확실하지 않다."

Scam Sniffer는 AI 지원 코드 생성에 대한 보안 권장 사항을 제시했습니다:

• AI 생성 코드를 무분별하게 사용하지 말 것

• 항상 코드를 주의 깊게 검토할 것

• 개인 키는 오프라인 환경에 보관할 것

• 신뢰할 수 있는 출처만 사용할 것

원문 링크

블록비츠(BlockBeats) 공식 커뮤니티에 가입하세요:

텔레그램 구독 그룹: https://t.me/theblockbeats

텔레그램 채팅 그룹: https://t.me/BlockBeats_App

트위터 공식 계정: https://twitter.com/BlockBeatsAsia

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트