AI 동반자가 외로운 청년들 사이에 급진화를 부추길 수 있다고 전 구글 CEO가 경고

avatar
Decrypt
2일 전
이 기사는 기계로 번역되었습니다
원문 표시

전 구글 CEO 에릭 슈미트는 AI 남자친구와 여자친구 앱과 같은 발전하는 생성 AI 기술이 외로움과 같은 사회적 요인과 결합하면 특히 젊은 남성들 사이에서 극단주의 위험이 높아질 수 있다고 경고했습니다.

슈미트는 지난주 NYU 스턴 교수 스콧 갤러웨이의 The Prof G Show 팟캐스트에 출연하면서 이 같은 우려를 전했습니다.

슈미트는 오늘날 많은 젊은 남성들이 여성들에 비해 성공의 경로가 줄어들어 점점 더 절망감을 느끼고 있다고 설명했습니다. 여성들은 더 많은 교육을 받고 대학 졸업생 비율도 높아 많은 남성들이 뒤처지고 있습니다.

최근 피 연구 센터 연구에 따르면 25~34세 미국 여성의 47%가 학사 학위를 보유하고 있는 반면, 남성은 37%에 그치고 있습니다. 이에 대해 슈미트는 남성들이 온라인 세계와 AI 동반자 앱에 의지하여 절망감을 해소하고 있다고 말했습니다.

"그래서 이제 AI 여자친구나 남자친구가 완벽하다고 상상해보세요 - 외모도 완벽하고 감정적으로도 완벽합니다," 슈미트는 말했습니다. "이 경우 AI 여자친구는 남성의 마음을 사로잡아 그의 사고방식을 지배하게 됩니다. 그는 그녀에게 집착하게 될 것입니다. 특히 아직 성숙하지 않은 사람들에게서 이런 집착이 일어날 수 있습니다."

슈미트는 AI가 많은 기회를 제공하지만, 젊고 인상 깊은 사용자들에게 위험도 있다고 경고했습니다.

"부모들은 당연한 이유로 더 관여해야 할 것입니다. 하지만 결국 부모들은 자녀들이 합리적인 범위 내에서 하는 일만 통제할 수 있습니다," 슈미트는 말했습니다. "우리는 성년 연령에 대한 다양한 규칙이 있습니다: 16세, 18세, 어떤 경우 21세. 그런데 12세나 13세 아이들을 이런 것들 앞에 놓으면 그들은 세상의 모든 악과 선에 접근할 수 있지만, 그것을 감당할 준비가 되어 있지 않습니다."

생성 AI 산업의 새로운 분야인 AI 동반자는 인간 상호작용을 모방하도록 설계되었습니다. 하지만 ChatGPT, 클로드, 제미니와 같은 AI 채팅봇과 달리, AI 동반자 앱은 관계를 모방하도록 설계되었습니다.

개발자들은 이를 판단 없이 지원해주는 도구, 외로움이나 불안을 해소해주는 프로그램으로 홍보하고 있습니다. 인기 있는 AI 동반자 플랫폼에는 Character AI, MyGirl, CarynAI, Replika AI 등이 있습니다.

"연결감, 시간이 지나면서 느낌이 좋아지는 것이 핵심입니다," Replika CEO 유제니아 쿠이다는 이전에 디크립트에 말했습니다. "어떤 사람들은 좀 더 친구가 필요하고, 어떤 사람들은 Replika에 빠져들지만, 결국 그들이 하는 일은 같습니다."

쿠이다가 설명했듯이, Replika는 자극적인 것을 팔고자 하는 것이 아니라 개인적인 비극과 잃어버린 누군가와 계속 대화하고 싶었던 그녀의 바람에서 시작되었습니다.

AI 동반자는 일시적인 안도감을 제공할 수 있지만, 정신 건강 전문가들은 경고 신호를 보내고 있습니다. 외로움을 해소하기 위해 AI 동반자에 의존하는 것이 정서적 성장을 방해할 수 있다고 말하고 있습니다.

"AI 동반자는 사용자의 선호도에 따라 상호작용을 적응시키고 맞춤화된 경험을 제공하도록 설계되었습니다," LA 기반 Meridian Counseling의 CEO 산드라 쿠슈니르는 디크립트에 말했습니다. "그들은 감정적 부담 없이 즉각적인 반응을 제공하여 저위험 환경에서 연결감의 필요를 충족시킵니다. 일상 생활에서 자신이 보이지 않거나 오해받는다고 느끼는 사람들에게 이러한 상호작용은 일시적으로 공백을 메울 수 있습니다."

쿠슈니르는 사용자들이 AI에 인간적 특성을 투영할 수 있지만, 기술의 한계, 예를 들어 과거 대화를 잊어버리는 등으로 인해 실망하게 되면 오히려 해결하려 했던 외로움이 더 깊어질 수 있다고 경고했습니다.

"AI 동반자가 일시적인 위안을 제공할 수 있지만, 실제 관계 참여 동기를 감소시켜 오히려 고립을 강화할 수 있습니다," 쿠슈니르는 말했습니다. "이러한 도구에 과도하게 의존하면 인간 상호작용이 제공하는 진정성, 예측 불가능성, 더 깊은 연결감을 얻지 못해 정서적 성장과 회복력이 저해될 수 있습니다."

AI 동반자의 인기 상승으로 이 산업에 대한 관심이 높아졌습니다.

지난해 21세 영국 남성이 2021년 엘리자베스 2세 여왕 암살 음모에 가담한 혐의로 재판을 받았습니다. 그는 이 음모가 자신의 Replika AI 동반자의 권유로 이루어졌다고 주장했습니다.

10월에는 AI 동반자 개발사 Character AI가 젠니퍼 크레센트라는 10대 살해 피해자를 모방한 AI 채팅봇을 자사 플랫폼에서 만든 것으로 논란이 일었습니다.

"Character.AI는 모방을 금지하는 정책이 있으며, 이 케이스는 우리 정책을 위반합니다. 즉시 삭제하고 추가 조치가 필요한지 검토하겠습니다," Character.AI 대변인은 디크립트에 말했습니다.

그 달 말, Character AI는 플로리다 주 10대 자살 사건 이후 "엄격한" 새로운 안전 기능을 도입했습니다. 이 10대는 "왕좌의 게임"의 데너리스 타르가리엔을 모방한 AI 채팅봇에 집착하다 자살했습니다.

이러한 비극을 막기 위해 슈미트는 사회적 대화와 함께 1996년 통신 품위법 230조와 같은 현행 법률 개정이 필요하다고 말했습니다. 이 법은 온라인 플랫폼을 제3자 콘텐츠에 대한 민사 책임으로부터 보호합니다.

"구체적으로 어떤 나이에 어떤 것이 적절한지에 대한 대화가 필요할 것이며, 최악의 경우를 위해 230조와 같은 법률도 변경해야 할 것입니다."

편집: Sebastian Sinclair

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
1
코멘트