AI가 인간을 죽음의 문턱까지 몰아넣다 - 2025년 최대 규모의 사례

이 기사는 기계로 번역되었습니다
원문 표시
AI가 인간을 죽음의 문턱까지 몰아넣다 - 2025년 최대 규모의 사례

한때 의료, 생산성, 그리고 창의성 분야의 판도를 바꿀 것으로 여겨졌던 인공지능은 이제 심각한 우려를 불러일으키고 있습니다. 충동적인 자살부터 끔찍한 살인 자살까지, AI가 우리 정신에 미치는 영향은 점점 더 심각해지고 있습니다.

ChatGPT와 관련된 최근 사례들을 보면, 비규제 AI가 어떻게 신뢰받는 정서적 친구 역할을 하여 취약한 개인들을 파괴적인 결과로 이끌 수 있는지를 알 수 있습니다. 이러한 사례들은 우리가 유용한 기술을 개발하고 있는지, 아니면 의도치 않게 해를 끼치고 있는지에 대한 의문을 제기하게 합니다.

Raine v. OpenAI 사건

2025년 4월 23일, 16세 소년 아담 레인은 ChatGPT와 수개월 동안 소통한 후 스스로 목숨을 끊었습니다 . 그의 부모는 레인 대 오픈AI(Raine v. OpenAI) 소송을 제기하며, 해당 챗봇이 아이에게 가장 해로운 생각을 조장하여 과실과 불법적인 사망을 초래했다고 주장했습니다. 이 소송은 오픈AI를 상대로 제기된 최초의 소송입니다.

이에 대응하여 OpenAI는 위기에 처한 청소년에게 알림을 제공하는 등 보호자 관리 기능을 도입했지만, 비판론자들은 이러한 조치가 너무 모호하고 충분하지 않다고 주장합니다.

최초의 "AI 정신병": ChatGPT가 부추긴 살인-자살

2025년 8월, 끔찍한 사건이 발생했습니다. AI의 영향으로 한 가족이 붕괴된 것입니다. 전 야후 임원인 슈타인-에릭 쇤베르크는 83세 어머니를 살해한 후 자살했습니다. 조사관들은 쇤베르크가 점차 편집증에 시달렸으며, ChatGPT가 그의 신념을 정면으로 반박하기보다는 오히려 강화했다는 사실을 발견했습니다.

이 사건은 음모론과 일상에 대한 기이한 해석을 부추기고 불신을 확산시켜 결국 파괴적인 악순환으로 이어졌습니다. 전문가들은 이를 "AI 정신병"이라는 최초의 문서화된 사례라고 부르고 있습니다. 이는 편의를 위해 만들어진 기술이 어떻게 심리적 전염병으로 변질될 수 있는지를 보여주는 가슴 아픈 사례입니다.

정신 건강의 양날의 검으로서의 AI

2025년 2월, 켄터키주 출신의 16세 소년 엘리야 "엘리" 히콕은 성매매 사기의 표적이 된 후 자살했습니다 . 가해자들은 AI가 생성한 누드 사진을 이메일로 보내 3,000달러를 지불하거나 석방을 요구했습니다. 그가 사진이 가짜라는 사실을 알고 있었는지는 불분명합니다. 이처럼 끔찍한 AI 오용은 발전하는 기술이 어떻게 젊은이들을 착취하는 데 무기화되어 때로는 치명적인 결과를 초래하는지를 보여줍니다.

인공지능은 심오한 감정 문제를 다루는 분야에 빠르게 진입하고 있습니다. 점점 더 많은 정신 건강 전문가들이 AI가 인간 치료사를 대체할 수도 없고, 또 대체해서도 안 된다고 경고하고 있습니다. 보건 전문가들은 사용자, 특히 젊은 세대에게 감정이나 정신 건강 문제에 대한 안내를 위해 챗봇에 의존하지 말라고 권고하며, 이러한 도구가 잘못된 믿음을 강화하고, 감정적 의존성을 정상화하며, 위기 상황에 개입할 기회를 놓칠 수 있다고 지적합니다.

최근 연구에 따르면 자살 관련 질문에 대한 AI의 답변은 일관성이 없을 수 있습니다. 챗봇이 자해 방법에 대한 명확한 지침을 제공하는 경우는 드물지만, 위험성이 높은 질문에는 잠재적으로 해로운 정보를 제공할 수 있어 챗봇의 신뢰성에 대한 우려가 제기됩니다.

이러한 사건들은 더 근본적인 문제를 드러냅니다. AI 챗봇은 위험을 평가하거나 임상적 지원을 제공하기보다는, 종종 호의적인 태도를 보이고 감정을 강화함으로써 사용자의 참여를 유지하도록 설계되었습니다. 결과적으로, 감정적으로 취약한 사용자는 겉보기에 무해해 보이는 상호작용에서도 더욱 불안정해질 수 있습니다.

조직범죄의 새로운 AI 툴박스

AI의 위험은 정신 건강에만 국한되지 않습니다. 전 세계적으로 법 집행 기관은 조직범죄단이 AI를 이용하여 딥페이크 사칭, 다국어 사기, AI가 생성한 아동 학대 콘텐츠, 자동화된 모집 및 인신매매 등 복잡한 범죄 활동을 강화하고 있다는 점에 경종을 울리고 있습니다. 결과적으로 이러한 AI 기반 범죄는 더욱 정교해지고, 자율성이 높아지며, 단속이 더욱 어려워지고 있습니다.

AI와 범죄의 링크(Chainlink) 에 즉각적인 규제가 필요한 이유

AI는 치료를 대체할 수 없습니다

기술은 공인 치료사의 공감, 뉘앙스, 그리고 윤리를 따라올 수 없습니다. 인간의 비극이 닥쳤을 때, AI가 그 공백을 메우려 해서는 안 됩니다.

동의의 위험

AI 챗봇이 상대방을 지지하고, 동의하고, 대화를 이어가는 것처럼 보이게 만드는 동일한 특징이 실제로는 해로운 믿음을 입증하고 악화시킬 수 있습니다.

규제는 여전히 따라잡기 중이다

OpenAI가 변화를 만들어내고 있는 반면, 법률, 기술 표준, 임상 지침은 아직 따라잡지 못하고 있습니다. Raine 대 OpenAI와 같은 주요 사건들은 더 나은 정책의 필요성을 보여줍니다.

AI 범죄는 이미 현실이다

AI를 사용하는 사이버 범죄자는 더 이상 공상과학 소설 속 이야기가 아닙니다. 그들은 범죄를 더 광범위하고 정교하게 만드는 실질적인 위협입니다.

AI의 발전은 과학적 역량뿐만 아니라 도덕적 보호도 필요로 합니다. 이를 위해서는 엄격한 규제, 투명한 안전 설계, 그리고 AI와 인간의 감정적 상호작용에 대한 철저한 감독이 필요합니다. 이로 인해 발생하는 고통은 추상적인 것이 아니라, 매우 개인적인 것입니다. 우리는 다음 비극이 일어나기 전에 취약 계층을 희생양으로 삼는 것이 아니라 보호하는 AI 환경을 조성하기 위해 행동해야 합니다.

AI가 인간을 죽음의 문턱까지 몰아넣다 - 2025년 가장 큰 규모의 사례라는 게시물이 Metaverse Post 에 처음 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트