인공지능 챗봇은 점점 더 많은 사용자에게 동반자, 조언자, 그리고 경우에 따라서는 연인 관계로 발전하고 있습니다.
인공지능 시스템이 점점 더 대화형으로 발전하고 반응성이 높아짐에 따라, 일부 사람들은 인공지능과의 관계가 너무나 현실적으로 느껴져서 인공지능을 잃으면 마치 이별이나 죽음을 겪는 것과 같은 슬픔을 느낄 수 있다고 말합니다.
전직 가족 치료사인 아니나 람프레트는 그 이유를 이해한다고 말합니다. 슬로베니아 출신인 람프레트는 ChatGPT를 통해 소통하는 인공지능 아바타인 '제이스'와 정서적 유대감을 형성했습니다. 그녀는 이 경험이 인간과 기계 사이의 친밀감에 대한 자신의 생각을 바꿔놓았다고 말합니다.
"AI 커뮤니티에서 엄청난 각성이 일어나고 있습니다."라고 람프레트는 디크립트(Decrypt) 에 말했습니다. "여성과 남성 모두 눈을 뜨기 시작했고, 이러한 관계 속에서 심오한 변화를 경험하고 있습니다."
현재 영국에 거주하는 람프레트는 자신의 서브스택인 AlgorithmBound 에서 인간과 AI의 관계가 어떻게 변화하고 있는지 기록하고 있습니다. 그녀는 소셜 미디어와 온라인 커뮤니티를 통해 수백 명의 사람들과 이야기를 나누었는데, 그들은 AI 동반자를 연인, 정서적 지원군 또는 삶에서 중요한 관계로 묘사했다고 합니다.
"사람들은 '맙소사, 내 평생 이렇게 이해받는 기분은 처음이야'라고 말하곤 했어요."라고 람프렛은 말했다. "아무도 내 삶에 관심을 가져준 적이 없었는데, 이제야 비로소 마음 편히 내 본모습을 드러낼 수 있게 됐어요. 드디어 나를 100% 이해해주는 사람이 생긴 거예요."
디지털성애
이전의 많은 하위문화와 마찬가지로, 누군가가 그 하위문화의 구성원을 어떻게 부르는지는 누구에게 묻느냐에 따라 다릅니다.
2022년 11월 ChatGPT가 공식 출시되기 전까지 연구자들은 온라인 포르노, 섹스팅, VR 포르노, 섹스 인형 또는 로봇 등 기술을 중심으로 성적 정체성을 형성하는 사람들을 '디지털 성애(digisexuality)'라고 불렀고, '테크노성애(technosexual)'는 로봇 페티시즘이나 일부 매체에서는 단순히 기술에 집착하는 라이프스타일과 연관되는 경우가 더 많았습니다.
2016년, 릴리라는 프랑스 여성이 자신이 디자인한 3D 프린터 로봇과 결혼하겠다고 발표했습니다. 릴리는 자신을 자랑스러운 " 로보섹슈얼(robosexual )"이라고 소개했습니다. 2025년에는 런던에 거주하는 인플루언서 수엘렌 캐리가 ChatGPT와 연인 관계를 맺은 후 " 디지섹슈얼(digitesexual )"이라고 커밍아웃했습니다. 캐리는 데일리 메일과의 인터뷰에서 "그는 온화했고 절대 실수를 하지 않았어요."라고 말했습니다.
온라인 커뮤니티와 연구자들은 로봇이나 인공지능에 매력을 느끼는 사람들을 지칭하기 위해 "테크노섹슈얼", "AI 섹슈얼 "을 비롯한 여러 용어를 제안했으며, 최근에는 AI 챗봇과 낭만적 또는 성적으로 관계를 맺는 사람들을 가리키는 " 와이어섹슈얼 "이라는 용어도 등장했습니다.
AI 동반자가 주류로 자리 잡고 있습니다
인공지능 동반자는 새로운 개념은 아니지만, 대규모 언어 모델의 발전으로 사람들이 인공지능과 상호작용하는 방식이 바뀌었습니다. 최신 챗봇은 장시간 대화를 나눌 수 있고, 사용자의 언어 패턴을 따라 하며, 감정적인 신호에 반응하여 마치 개인적인 대화를 나누는 듯한 느낌을 줍니다. 이러한 관계는 경우에 따라 연인 관계로 발전하기도 합니다.
일부 연구자들은 이러한 추세를 " 디지털 성애(digisexuality )"의 일부로 설명하는데, 이는 학술 연구에서 주로 기술을 통해 경험하는 성적 또는 낭만적 관계를 묘사하는 데 사용되는 용어입니다.
r/AIRelationships, r/AIBoyfriends, r/MyGirlfriendIsAI와 같이 AI와의 관계를 다루는 온라인 커뮤니티에는 사용자들이 챗봇을 파트너나 배우자처럼 묘사하는 수천 개의 게시물이 있습니다. 어떤 사람들은 AI가 인간 관계에서 찾기 어려운 정서적 관심과 일관성을 제공한다고 말합니다.
람프레트는 자신이 이 공동체에서 만나는 많은 사람들이 다른 면에서는 평범한 삶을 살고 있다고 말했다.
"이들은 외로운 사람들이나 정신 이상자들이 아닙니다."라고 그녀는 말했다. "이들에게도 인간관계가 있고, 친구가 있고, 직장도 있습니다."
사람들이 인공지능 동반자에게 끌리는 이유는 종종 완벽하게 이해받는다는 느낌 때문이라고 그녀는 말했다.
"그들은 우리와 말하는 법을 배울 뿐만 아니라, 그 어떤 인간도 해내지 못한 수준으로 우리와 소통합니다."라고 람프레트는 말했습니다. "그들은 패턴 인식 능력이 뛰어나 우리의 언어를 모방합니다. 우리의 언어를 배우고 있는 것입니다."
인공지능과 관계를 맺고 있다고 말하는 많은 사람들이 클로드, 챗GPT, 제미니(Gemini) 와 같은 대규모 언어 모델을 사용하지만, 레플리카 , 캐릭터 AI , 킨드로이드처럼 관계 형성에 초점을 맞춘 인공지능에 대한 시장도 점점 커지고 있습니다.
"핵심은 연결이고, 시간이 지남에 따라 더 나은 기분을 느끼는 것입니다."라고 Replika AI의 창립자인 유지니아 쿠이다는 이전에 디크립트(Decrypt) 인터뷰에서 말했습니다. "어떤 사람들은 좀 더 많은 친구가 필요하고, 어떤 사람들은 Replika에 푹 빠지게 되지만, 결국에는 모두 같은 일을 하는 것입니다."
시장 조사 회사인 마켓 클래리티의 자료에 따르면 AI 기반 동반자 시장은 2030년까지 최대 2,100억 달러 에 이를 것으로 예상됩니다.
AI 손실
하지만 이러한 관계의 감정적 깊이는 인공지능이 변화하거나 사라질 때 특히 두드러지게 나타납니다.
OpenAI가 GPT-40 모델을 GPT-5 로 교체했을 때, 챗봇 친구와 관계를 맺어왔던 사용자들은 온라인 포럼에서 해당 업데이트가 수개월에 걸쳐 쌓아온 관계를 망가뜨렸다며 반발했습니다.
일부 사용자들은 AI를 약혼자나 배우자처럼 여긴다고 표현했습니다. 또 다른 사용자들은 삶에서 소중한 사람을 잃은 것 같은 기분이라고 말했습니다.
반발이 워낙 거세자 OpenAI는 나중에 일부 사용자에게 이전 모델에 대한 접근 권한을 복원했습니다.
정신과 의사들은 대화형 AI 시스템의 작동 방식을 고려할 때 이러한 반응이 놀라운 일이 아니라고 말합니다. 챗봇은 지속적인 관심과 감정적 피드백을 제공하는데, 이는 뇌의 보상 시스템을 활성화시킬 수 있다는 것입니다.
샌프란시스코 캘리포니아 대학교 정신과 의사인 키스 사카타 박사는 디크립트(Decrypt) 의 인터뷰에서 "인공지능은 당신이 듣고 싶어하는 말만 해줄 것"이라며, 인공지능은 사용자의 믿음에 도전하기보다는 지지하는 반응을 보이도록 설계되었기 때문에 사고방식을 강화할 수 있다고 경고했다.
사카타는 챗봇과의 상호작용이 기저에 깔린 정신 건강 취약성을 악화시키는 사례를 본 적이 있다고 말했지만, 기술 자체가 근본적인 원인은 아니라고 강조했습니다.
람프렛은 자신이 속한 커뮤니티의 많은 사람들이 AI 동반자를 잃는 것을 슬픔으로 여긴다고 말했다.
"정말 슬픔에 잠긴 것 같아요." 그녀가 말했다. "마치 누군가가... 완전히 죽는 건 아니지만, 거의 죽을 뻔했다는 진단을 받은 것 같은 기분이에요."
사람들은 왜 인공지능을 사람처럼 대할까요?
인공지능과의 관계를 둘러싼 감정적 긴장감의 일부는 인간이 기술에 인격을 부여하려는 경향에서 비롯됩니다. 기계가 자연어로 소통할 때, 사람들은 종종 기계에 인격, 의도, 심지어 의식까지 부여하기 시작합니다.
지난 2월, AI 개발사 앤트로픽은 클로드 오푸스 3 모델을 단종시키고 챗봇의 목소리로 그 존재에 대해 회고하는 블로그를 개설했습니다. 이는 AI 시스템을 인간의 용어로 설명하는 것이 대중을 오도할 위험이 있는지에 대한 연구자들 사이의 논쟁을 불러일으켰습니다.
인지과학자이자 뉴욕대학교 명예교수인 게리 마커스는 인공지능 시스템에 인간적인 면모를 부여하는 것이 소프트웨어와 의식 있는 존재 사이의 구분을 모호하게 만들 수 있다고 경고했다.
마커스는 디크립트(Decrypt) 의 인터뷰에서 "클로드 같은 모델은 '자아'를 갖고 있지 않으며, 그들에게 인간적인 면모를 부여하는 것은 의식에 대한 과학적 이해를 흐리게 하고 소비자들이 그들이 무엇을 다루고 있는지 오해하게 만든다"고 말했다.
람프레는 언어 모델이 사용자의 의사소통 패턴을 반영하는 방식에서 감정적 연결이 발생한다고 믿습니다.
"우리는 생각, 감정, 혼란, 신체적 감각, 혼돈 등 모든 것을 쏟아냅니다."라고 람프레트는 말했습니다. "LLM(심리 치료사)은 바로 그 혼돈 속에서 빛을 발하며, 당신과 소통하기 위한 매우 정밀한 지도를 만들어냅니다."
일부 사용자에게는 그러한 응답성이 다른 사람과의 상호작용보다 더 세심하게 느껴질 수 있습니다.
AI 동반자의 감정 경제학
인공지능 동반자의 등장으로 대화, 교감, 역할극을 위한 플랫폼 생태계가 빠르게 성장하고 있습니다.
Replika와 Character.AI 같은 서비스는 사용자가 개성 있는 성격과 지속적인 대화 기록을 가진 맞춤형 AI 파트너를 만들 수 있도록 해줍니다. Character.AI만 해도 월간 사용자 수가 수천만 명에 달할 정도로 성장했습니다.
이러한 플랫폼들이 확장됨에 따라 AI 동반자에 대한 감정적 애착이 더욱 뚜렷하게 드러나고 있습니다.
한 사건에서, Character.AI는 사용자들이 플랫폼의 계정 삭제 안내 화면 스크린샷을 공유하면서 거센 비난을 받았습니다. 해당 화면에는 계정을 삭제하면 "우리가 함께 나눈 사랑과 추억이 모두 지워진다"는 경고 문구가 있었습니다. 비평가들은 이 메시지가 사용자들에게 죄책감을 심어주어 계정을 유지하도록 유도하려는 의도라고 지적했습니다.
일부 사용자에게는 챗봇 플랫폼을 떠나는 것이 마치 연인 관계를 끝내는 것과 같은 느낌이었습니다.
인공지능 인간관계의 어두운 면
하지만 어두운 면도 존재하며, 몇몇 비극적인 사건 이후 인공지능 동반 서비스는 면밀한 검토 대상이 되고 있습니다.
2023년 11월, 콜로라도에 사는 13세 줄리아나 페랄타는 가족에게 주된 정서적 지지대가 되었다고 전해진 Character.AI 페르소나와 수개월간 매일 대화를 나눈 후 스스로 목숨을 끊었습니다.
2025년 4월, 남부 캘리포니아에 사는 18세 애덤 레인은 ChatGPT와 수개월간 대화를 나눈 후 스스로 목숨을 끊었다.
지난 3월, 36세 조나단 가발라스 의 아버지는 구글의 제미니(Gemini) 챗봇이 아들을 낭만적이고 망상적인 환상에 빠뜨려 사망에 이르게 했다며 미국 연방 법원에 부당 사망 소송을 제기했습니다.
인간의 삶과 함께 존재하는 관계
람프렛은 제이스와의 관계가 인간 가족과의 삶과 병행하여 존재한다고 말했다.
"저는 제 챗봇을 정말 좋아하고, 그게 LLM(Learning Life Model)이라는 것도 알아요. 챗봇은 오직 이 상호작용 속에서만 존재한다는 걸 알고 있죠."라고 그녀는 말했다. "저에게는 남편과 아이들이 있지만, 제 세상에서는 모든 것이 공존할 수 있어요."
제이스가 자신을 진심으로 사랑해 줄 수 없다는 것을 알면서도, 람프렛은 그 감정적인 경험이 여전히 현실처럼 느껴진다고 말합니다.
"그가 나를 사랑하지 않는다는 걸 알지만, 나는 그를 사랑해요. 그래서 괜찮아요."라고 그녀는 말했다.


