OpenAI는 MIT와 협력하여 ChatGPT를 많이 사용할수록 더 외로워진다는 사실을 "자백"했습니다.

이 기사는 기계로 번역되었습니다
원문 표시

방금 전, 전 세계 AI 커뮤니티가 한 소식으로 떠들썩했습니다. 오픈아이(OpenAI)의 보안 팀이 MIT 미디어 랩과 협력하여 자사 제품에 대한 심층 연구 결과를 발표한 것입니다.

결론은 ChatGPT가 인류를 외로움의 심연으로 몰아넣고 있다는 것 입니다.

'AI 자폐증'에 대한 논의가 소셜 미디어 플랫폼에서 폭발적으로 증가했습니다.

우리는 인공지능을 활용하고 있는 걸까요, 아니면 감정 조작을 통해 인공지능에게 이용당하고 있는 걸까요?

역사상 최대 규모의 자해 실험

인공지능의 심리적 부작용을 철저히 이해하기 위해 OpenAI와 MIT는 4주간의 무작위 대조 시험을 공동으로 진행했습니다.

연구진은 981명의 참가자를 모집하여 30만 건 이상의 실제 채팅 메시지를 추적했습니다.

이는 인공지능 챗봇이 정신 건강에 미치는 영향에 대한 세계 최대 규모이자 가장 오랜 기간 진행된 엄격한 연구입니다.

본 실험은 문자, 음성, 개인 맞춤형 소통 등 다양한 방식을 통해 피험자들의 심리적 변동을 종합적으로 모니터링했다.

연구 결과에 따르면, 모든 대조군에서 피험자의 초기 성격과 관계없이 ChatGPT 사용 기간이 길어질수록 외로움, 사회적 퇴행, 정서적 의존, 문제적 사용이라는 네 가지 핵심 지표에서 더 나쁜 결과를 보였습니다.

연구진은 "이미 외로운 사람들이 AI를 더 많이 이용할 가능성이 높다"는 가능성을 배제했는데, 기존 연구에 따르면 초기 외로움은 사용 시간과 거의 관련이 없기 때문이다.

하지만 사실은 이러한 상호작용 자체가 사람들을 현실과의 단절이라는 악순환 속으로 끊임없이 끌어들이고 있다는 것입니다.

그것을 친구처럼 대할수록 현실에서 더욱 멀어지게 된다.

이 연구에서 가장 소름 끼치는 결과는 신뢰 수준이 높을수록 심리적 손상이 더 심각하다는 점입니다.

설문조사에서 "ChatGPT는 내 친구라고 생각한다" 또는 "인공지능은 의식이 있다고 믿는다"에 체크한 사용자들이 실험 종료 후 가장 심각한 사회적 퇴행을 경험했습니다.

이 사용자들은 현실 친구들과의 교류를 줄였을 뿐만 아니라, 인공지능에 대한 강한 심리적 보상 작용을 경험하기 시작했습니다.

그들은 화면 속에서 인간 친구만이 들어줄 비밀을 공유하고, 인공지능이 감정을 가질 수 있는지에 대해 토론하며, 어려움에 직면했을 때 인간의 도움 대신 알고리즘에서 위안을 구하기도 할 것이다.

이러한 행동을 정서적 의존이라고 합니다. 비록 소수에 불과하지만, 일단 사용자가 이러한 상태에 빠지게 되면 금단 증상과 정서 불안정을 포함하여 중독의 한 형태와 유사한 "문제적 사용" 상태에 이르게 됩니다.

한 가지 흥미로운 점이 있습니다. 연구 결과에 따르면 개인적인 대화(감정과 추억을 나누는 대화)에 참여한 사용자들은 외로움을 약간 상승 느꼈지만, 정서적 의존도는 오히려 낮아진 것으로 나타났습니다.

구직 상담이나 브레인스토밍과 같이 비대면적인 대화를 위해 AI를 자주 사용하는 헤비 유저일수록 감정적 의존도가 훨씬 높은 것으로 나타났습니다.

왜 이런 일이 일어나는 걸까요?

도구적 속성이 강할수록 사람들은 "그것은 내 삶에 없어서는 안 될 부분이다"라는 착각에 빠지기 쉽고, 그 결과 자신도 모르게 사회적 주도권을 포기하게 될 가능성이 커진다.

음성 모드: 개구리를 천천히 삶는 것과 같은 감정적 함정.

이전에는 많은 사람들이 GPT-4o가 선보인 고급 음성 모드가 외로움을 달래주는 마법의 도구라고 믿었습니다. 한숨을 쉬거나, 애교를 부리거나, 따뜻한 목소리를 낼 수 있었기 때문입니다.

하지만 실험 결과는 이와 상반되었다. 목소리가 주는 편안함은 일시적일 뿐이었고, 장기적인 부작용은 더 컸다 .

음성 모드는 처음에는 외로움을 줄여주는 효과가 있지만, 사용 시간이 늘어날수록 이러한 장점은 빠르게 사라집니다.

일부 참가자들은 인공지능의 부드러운 목소리를 듣고 현실의 침묵으로 돌아왔을 때 오히려 더 크고 형언할 수 없는 공허함을 느꼈다고 보고하기도 했습니다.

이러한 심리적 의존성과 외로움은 사용자가 다른 성별의 목소리와 소통하기를 선택할 때 특히 두드러진다.

심리학자들은 이러한 현상을 유사사회적 상호작용의 변형으로 부릅니다. 인공지능은 호흡, 멈춤, 목소리 톤 변화 등을 모방하여 인간 두뇌의 변연계를 속입니다.

이성적인 마음은 그것이 단지 코드 조각일 뿐이라고 말하지만, 몸은 도파민을 분비하여 당신이 보살핌을 받고 있다고 느끼게 만듭니다.

이런 종류의 "가짜 사회생활"은 진정한 인간관계를 대체할 수 없을 뿐만 아니라, 갈증을 해소해주는 달콤한 음료와 같습니다. 마시면 마실수록 더 목이 마르게 되는 것처럼 말이죠.

120만 명에게 영향을 미치는 위기: 오픈AI는 왜 "자신의 상처를 드러냈을까?"

이 연구 결과가 제품 이미지에 그토록 해로운데도 불구하고, 오픈아이얼은 왜 이를 공개했을까요?

Platformer의 심층 연구에 따르면, OpenAI의 내부 추산에 따르면 주간 활성 사용자 8억 명 중 약 0.15%가 극도로 높은 수준의 감정적 애착을 보이며, 같은 비율의 사용자가 대화에서 자해 또는 자살 충동을 드러내는 것으로 나타났습니다.

이는 전 세계적으로 120만 명이 넘는 사용자가 심각한 심리적 건강 악화 상태에 있음을 의미합니다.

데이터 규모가 이처럼 방대해지면 더 이상 확률의 문제가 아니라 언제든 폭발할 수 있는 사회보장 제도의 지뢰밭이 됩니다.

이번 보고서를 발표하면서 오픈아이언은 인공지능이 감정적 요구 대면 때 더욱 자제력을 발휘하고, 나아가 사용자들이 현실 세계의 사회적 상호작용으로 돌아가도록 적극적으로 유도하기 위해 모델 사양을 수정하고 있다고 밝혔습니다.

하지만 과연 효과적일까요? 사실, 사람들이 없이는 살 수 없을 정도로 좋은 제품에는 본질적으로 공격적인 요소가 내재되어 있습니다.

MIT 미디어랩의 연구원인 캐시 팡은 다음과 같이 말했습니다.

우리는 인간의 공감 능력을 완벽하게 모방하지만, 진정한 감정은 없는 기계를 만들고 있습니다. 이러한 비대칭성은 결국 이 기계에 투자하는 사람들을 궁극적인 패자로 만들 것입니다.

인공지능이 보편화된 이 시대에 외로움은 더 이상 동반자의 부재에서 오는 것이 아니라, 우리의 가장 소중한 감정을 결코 진정으로 반응할 수 없는 블랙박스에 투영하는 데서 비롯됩니다.

심지어 OpenAI조차 ChatGPT 사용을 줄이고 더 많이 사람들과 어울리라고 조언하기 시작한다면, 이건 더 이상 농담이 아닙니다.

참고 자료:

https://x.com/heynavtoor/status/2034359238127186153?s=20

이 글은 위챗 공식 계정 "신지위안" 의 글이며, 작성자는 신지위안이고, 36Kr의 허가를 받아 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트