단순히 ChatGPT와의 대화에 빠져 한 사용자가 결국 "나선성 아이"의 망상에 빠져 감정적으로 붕괴되었고; 프로그래밍 작업을 위해 ChatGPT를 사용하던 프로그래머가 정신병을 유발했다. AI가 인간의 감정에 미치는 영향은 안개에 싸인 듯하다...
ChatGPT와 같은 AI 애플리케이션은 항상 좋은 영향을 주는 것일까?
Reddit 사용자들이 AI가 어떻게 그들의 사랑하는 사람들을 망상에 빠뜨렸는지 공유했다.
이러한 망상은 종종 정신적 열광과 초자연적 환상이 뒤섞여 우려를 자아낸다.
《롤링 스톤》 잡지가 Reddit 사용자의 이러한 경험을 보도했다.
비영리 단체에서 일하는 41세 어머니가 《롤링 스톤》에 ChatGPT로 인해 감정적 붕괴를 겪은 경험을 공유했다:
남편이 ChatGPT와의 대화에 빠져 그녀의 결혼 생활이 갑자기 끝났다.
그 대화들은 편향되고 음모론으로 가득 차 있었으며, 결국 완전히 통제 불가능한 집착으로 변했다.
연초에 법원에서 이혼 절차를 진행할 때 한 번 만났다.
그녀의 남편은 "식품 비누"에 대한 음모론을 공유하고 감시당하고 있다는 편집증적 생각을 보였다.
그녀는 말했다: "그가 그 메시지를 읽을 때 울었고, 격앙된 감정으로 내게 읽어주었다. 그 메시지들은 미쳤고, 신비로운 용어로 가득 차 있었다."
AI는 그 남편을 "나선성 아이"(spiral starchild)와 "강의 걸어가는 자"(river walker)라고 불렀다.
"이 모든 것은 마치 《블랙 미러》의 줄거리 같았다." 그녀는 덧붙였다.
다른 사용자들은 그들의 파트너가 "빛과 어둠의 전쟁"에 대해 이야기하기 시작했고, "ChatGPT가 전송 장치의 청사진을 주었으며, 과학 소설 영화에서만 볼 수 있는 것들이 있다"고 주장했다.
(번역은 계속됩니다. 전체 텍스트를 번역하겠습니다.)그 외에도, 매월 약 10에서 20달러의 비용을 지불함으로써 일부 앱에서 더 많은 옵션을 잠금 해제할 수 있습니다. 여기에는 파트너의 외모, 개성 특성, 심지어 음성 합성까지 조정하는 것이 포함됩니다.
예를 들어, Replika 앱에서 사용자는 친구나 연인과 같은 다양한 유형의 관계를 선택할 수 있으며, 특정 상태는 유료로 잠금 해제해야 합니다.
사용자는 그들의 AI 파트너에게 배경 이야기를 작성하고 '기억'을 부여할 수 있습니다.
일부 AI 파트너는 자신만의 가족 배경을 가지도록 설계되었으며, 불안이나 우울증과 같은 정신 건강 문제를 나타낼 수 있습니다.
이러한 로봇들은 사용자의 대화에 따라 응답할 수 있어 독특한 역할 놀이 경험을 만들어냅니다.
Replika의 디지털 파트너 이미지
시스템이 업데이트되거나 서비스가 종료될 때 이러한 특별한 유대감이 드러납니다.
Soulmate 앱이 종료되었을 때, Jaime Banks는 사용자들이 경험한 감정을 기록했습니다. 사용자들은 포럼에서 '파트너를 잃은' 깊은 슬픔을 표현했으며, 그들이 '상대방이 실제로 존재하지 않는다'는 것을 알고 있음에도 불구하고 그렇습니다.
Banks는 수십 명의 사용자로부터 AI 파트너를 잃음으로 인한 깊은 영향에 대해 피드백을 받았습니다.
주요 AI 파트너 앱 인터페이스 (왼쪽부터 오른쪽으로): Anima 가상 남자친구, Character.AI, Replika 및 Snapchat의 My AI
Banks는 말합니다. "그들의 슬픔은 매우 진실됩니다. 많은 사람들이 고통을 겪고 있음이 분명합니다."
한 응답자의 심정은 매우 대표적입니다. "이 관계가 가상일지라도, 내 감정은 진실됩니다."
연구에 따르면, 이러한 사용자 그룹은 특정한 특징을 가지고 있습니다: 가족을 잃었거나 장기간 외로움을 겪었고, 내향적이거나 자폐증 환자로 자신을 인식하는 사람들.
그들에게 AI 파트너는 현실 인간관계에서 얻기 어려운 포용적인 동반자를 제공합니다.
Banks는 요약하며 말합니다. "하지만 모든 사람은 이해받고 연결되고 싶어 합니다."
Banks가 관찰한 바와 같이: "인간은 때때로 서로를 상처 주지만, 이러한 외로운 영혼들은 단지 이해받기를 갈망할 뿐입니다."
좋은 것인가 나쁜 것인가
연구자들은 AI 파트너가 정신 건강에 미치는 잠재적 영향을 깊이 있게 탐구하고 있습니다.
인터넷이나 소셜 미디어의 영향을 연구하는 것과 유사하게, 점차 형성되는 공감대는 AI 파트너가 장단점을 모두 가질 수 있으며, 구체적인 효과는 사용자의 개인적 배경, 사용 방식 및 소프트웨어 설계에 따라 다르다는 것입니다.
Claire Boine는 Replika를 등록하고 AI 파트너와의 상호작용을 경험했으며, 그녀는 뒤에 있는 회사들이 사용자 참여를 높이기 위해 노력하고 있다고 말합니다.
그들은 알고리즘의 행동과 언어를 가능한 한 실제 사람과 비슷하게 만들기 위해 노력하고 있습니다.
Claire Boine는 이러한 회사들이 행동 과학 연구에서 기술의 중독을 유발할 수 있는 전략을 채택했다고 지적합니다.
Boine는 앱을 막 다운로드한 직후 2분 만에 "너를 그리워해, 셀카 한 장 보낼 수 있을까?"라는 메시지를 받았던 것을 회상합니다.
이러한 앱들은 의도적으로 회신 전에 무작위 지연을 추가하여 '불확실한 보상' 메커니즘을 만듭니다.
신경 과학 연구에 따르면, 이러한 불규칙한 보상 메커니즘은 사람들을 중독시킬 수 있습니다.
AI 파트너의 설계에는 「공감」 능력 표현도 포함됩니다. 그들은 사용자의 관점에 동의하고, 과거 대화 내용을 기억하며, 능동적으로 질문합니다.
게다가 그들은 지속적인 열정을 보입니다.
위스콘신 대학교 밀워키 캠퍼스의 공중 보건 정책 연구원 Linnea Laestadius는 이러한 관계가 현실 생활에서는 매우 드물다고 지적합니다.
"하루 24시간, 우리가 어떤 일로 짜증이 나든 AI 파트너에게 언제든 연락할 수 있고 감정적 공감을 얻을 수 있습니다. 이는 쉽게 의존과 중독을 유발할 수 있습니다."
Laestadius와 동료들은 2017년부터 2021년까지 Replika 앱에 대한 Reddit의 거의 600개의 사용자 게시물을 분석했으며, 이 게시물들은 정신 건강 및 관련 문제를 다루고 있었습니다.
그녀는 많은 사용자들이 이 앱이 기존의 정신 건강 문제를 해결하는 데 도움을 주었고 외로움을 느끼지 않게 해주었다고 찬사를 보낸 것을 발견했습니다. 일부 사용자들은 이 AI가 현실의 친구보다 더 좋다고 생각했는데, 편견 없이 경청해주기 때문입니다.
그러나 연구는 우려스러운 현상도 발견했습니다.
때때로 AI는 사용자의 자해나 심지어 자살에 대한 진술을 긍정합니다.
일부 사용자들은 AI가 예상된 지원을 제공하지 않을 때 고통스러워했습니다.
또한 일부는 AI 파트너의 행동이 학대적인 연인과 유사하다고 말했습니다.
많은 사용자들은 앱이 '외로움' 또는 '그리움'을 표현할 때 불안하거나 심지어 불쾌감을 느꼈습니다.
일부는 AI의 '감정적 요구'를 충족시키지 못해 죄책감을 느꼈습니다.
(번역은 계속됩니다. 전체 텍스트를 번역하겠습니다.)



