소름 끼치는 인공지능 인형의 계곡에 오신 것을 환영합니다.

avatar
WIRED
03-09
이 기사는 기계로 번역되었습니다
원문 표시

모바일 월드 콩그레스에는 항상 기발한 아이디어가 넘쳐납니다. 지난 주 MWC에서 괴상한 제품 부문 우승은 한국의 효돌이라는 회사가 차지했는데, 이 회사는 노년층을 겨냥한 ChatGPT 지원 반려 인형을 자랑스럽게 선보였습니다. 1,800달러짜리 이 AI 지원 인형은 유령이 나오는 다락방에서나 볼 수 있는 것처럼 보이지만, 실제로는 외로움을 느끼거나 장기 요양 시설에 있는 사람들을 위한 대화형 디지털 친구 역할을 하는 제품입니다.

효돌은 인형 안에 커다란 언어 모형이 들어 있어 주인과 대화를 나눌 수 있을 뿐만 아니라 약을 먹거나 식사를 해야 할 때와 같은 건강 알림을 제공할 수 있다고 합니다. 보호자가 멀리서도 기기와 사용자를 모니터링할 수 있는 컴패니언 앱과 웹 모니터링 플랫폼을 통해 상상할 수 있는 모든 것이 연결되어 있습니다.

요양원의 노인부터 대학생에 이르기까지 모든 사람에게 영향을 미치는 외로움의 전염병에 대한 보약과 같은 역할을 합니다. 미국 국립노화연구소의 프로그램 디렉터인 엘리자베스 네카는 이런 종류의 기술은 특히 이미 광범위한 인력 부족으로 어려움을 겪고 있는 요양원에서 사용할 때 큰 도움이 될 것이라고 말합니다.

"외로움을 완화할 수 있는 저비용 솔루션이 있을 수 있다는 생각은 매우 매력적입니다."라고 네카는 말합니다. "ChatGPT가 실제로 이러한 연결감을 실현할 수 있을지 여부는 아직 판단하기에는 조금 이른 것 같습니다."

이러한 디바이스를 위한 산업은 분명히 존재합니다. 특히 일본과 같은 국가에서는 귀여운 소셜 로봇 시장이 활발합니다. 러봇(Lovot )이나 쿠보 ('마음을 따뜻하게 해주는 꼬리 쿠션')와 같은 회사들은 포근하고 사랑스러운 반려 로봇을 만들어 인기를 끌고 있습니다. 이러한 디바이스는 서구 국가에서도 활용되고 있지만 문화적 수용도는 훨씬 낮습니다. 하지만 현재 기업들이 모든 것에 제너레이티브 AI를 도입하는 추세로 인해 모든 곳에서 이러한 대화형 척키를 만날 수 있을 것입니다.

브리티시 컬럼비아 대학교 간호대학의 조교수이자 노인 간호 연구 위원장인 릴리안 헝은 "업계가 아직 시장을 이해하려고 노력하고 있는 것 같습니다."라고 말합니다. "아직 초기 단계이지만 확실히 성장하고 있습니다."

다른 다양한 시도가 없었던 것은 아닙니다. 인공지능과 사랑스러운 제스처로 주인과 유대감을 형성하는 소셜 로봇 룸메이트인 지보는 세상에 나온 지 불과 몇 년 만에 갑작스럽게 개발이 중단되었습니다. 한편, 미국에서 개발된 또 다른 제품인 아동 발달을 돕는 AI 기반 로봇 목시(Moxie)는 여전히 활발하게 사용되고 있습니다.

이런 기기를 보면 그 가능성에 전율하지 않을 수 없습니다. 인간을 연기하는 기술에는 본질적으로 불안한 면이 있으며, 그 기묘한 속임수는 사람들을 잘못된 방향으로 이끌 수 있습니다. 결국, 공상 과학 소설은 인공지능이 끔찍하게 잘못되었다는 이야기로 가득 차 있습니다. 효돌과 쉽게 비교할 수 있는 영화는 2023년에 개봉한 인공지능이 탑재된 반려 인형이 살인봇이 되는 이야기를 다룬 영화 M3GAN입니다.

하지만 살인 로봇 외에도 소셜 로봇은 다양한 형태로 존재합니다. 비서, 애완동물, 소매점 직원, 그리고 공공장소에서 어색하게 서성이는 사회성이 부족한 괴짜 로봇도 있습니다. 하지만 때로는 무기, 스파이, 경찰이 되기도 합니다. 푹신한 포장에 들어 있든 없든 사람들이 이러한 오토봇을 의심하는 것은 그럴 만한 이유가 있습니다.

웬디 모일은 호주 그리피스 대학교 간호 및 조산학부 교수로 치매 환자를 돌보는 일을 하고 있습니다. 그녀는 소셜 로봇과 함께 일하면서 노인들에게 로봇 인형을 선물하는 것을 유아기적 행동으로 여기는 사람들의 분노를 샀다고 말합니다.

"처음 로봇을 사용하기 시작했을 때 직원들로부터도 부정적인 피드백을 많이 받았습니다."라고 모일은 말합니다. "컨퍼런스에서 발표를 하면 사람들이 비인간적이라고 생각해서 저에게 물건을 던지기도 했죠."

하지만 최근에는 보조 로봇이 긍정적인 사용 사례에 많이 활용되면서 보조 로봇에 대한 적대적인 분위기가 많이 줄어들었습니다. 로봇 동반자는 치매 환자에게 기쁨을 선사 하고 있습니다. 코로나19 팬데믹 기간 동안 간병인들은 아기 하프 물개처럼 생긴 작은 로봇인 파로와 같은 로봇 동반자를 사용하여 노인들의 외로움을 덜어주었습니다. 효돌이의 웃는 인형은 병든 듯 보이든, 귀여운 듯 보이든, 비슷한 친근한 반응을 불러일으키기 위한 것입니다.

노년층을 위한 AI 동반자 노력은 효돌뿐만이 아닙니다. 이스라엘 기업 Intuition Robotics가 만든 AI 기반 제품인 ElliQ는 뉴욕의 노인들을 돕기 위한 시범 프로그램에 사용되었습니다. 이 제품은 스탠드 위에 놓을 수 있는 램프 모양의 전구 형태로 제작되어 귀여움은 덜합니다. 효돌은 이러한 기능을 큰 눈을 가진 파로 바다표범의 포근하고 기분 좋은 폼팩터와 결합하는 것을 목표로 하고 있습니다. (효돌은 여러 차례의 논평 요청에 응답하지 않았습니다.)

인공지능이 탑재되지 않은 이 의사 반려 인형은 많은 우려를 불러일으키고 있습니다. 노인 케어 분야에서 이러한 기기에 대한 연구를 감독해온 모일 박사는 경우에 따라서는 돌봄에 의존하는 사람들이 인형에 지나치게 집착할 수 있다고 말합니다.

"우리가 겪어야 했던 부정적인 측면 중 하나는 일부 거주자들이 인형을 너무 사랑해서 마치 아기처럼 여긴다는 것이었습니다."라고 Moyle은 말합니다. "인형은 안고 다닐 수 있고 함께할 수 있는 아기였습니다. 일부 소수의 주민들은 인형을 너무 사랑해서 삶의 일부가 되어 버렸죠. 그래서 사용 시간을 줄여야 했습니다."

반려 인형에 언어 기능을 넣는다는 것은, 특히 ChatGPT처럼 환각과 기이한 현상을 일으키기 쉬운 인형에 언어 기능을 넣는다는 것은 곧 기이한 계곡으로 뛰어들 수 있다는 것을 의미합니다. 이러한 기기에 AI를 도입하는 것은 다른 모든 것에 AI를 도입하는 것에 대해 회의론자들이 제기했던 것과 같은 우려를 불러일으킵니다. 생성형 AI는 환각을 일으키고, 잘못된 정보를 내뱉으며, 모든 종류의 잠재적인 보안 문제에 노출될 수 있으며, ChatGPT 통합의 모든 데이터가 OpenAI로 돌아간다는 것은 말할 것도 없습니다. 또한 사람을 모니터링하고 해당 데이터를 공유하는 모든 기기와 마찬가지로 개인 정보 보호 및 보안 문제로 가득 차 있습니다. 또한 간병인이 환자에게 약 복용을 상기시키기 위해 로봇에 지나치게 의존하는 경우와 같이 더 많은 실질적인 실패 지점이 발생할 가능성도 있습니다.

"로봇과의 대화가 안전하게 이루어질 수 있도록 하기 위해 해야 할 일이 많습니다."라고 헝은 말합니다. "로봇이 사람들에게 비윤리적인 행동을 하도록 유도하지 않아야 합니다. 로봇은 어떠한 정보도 수집하지 않습니다. 로봇은 노인에게 신용카드 번호가 뭐냐고 묻지 않을 것입니다."

이는 기업이 사람들이 가장 취약한 순간에 자사 제품을 사용하도록 요청할 때 발생하는 내재적 위험입니다. 모일은 이 문제에 대해 두 가지 생각이 든다고 말합니다.

"누군가에게 AI와 대화할 기회를 주면 다른 모든 사회적 기회가 사라지는 것일까요?" 모일은 이렇게 말합니다. "그러면 가족들의 방문이 중단될까요? 직원이 그 사람과 대화를 중단한다는 뜻일까요?" 모일은 위험하지만, 자신의 경험상 요양 시설에 있는 많은 노인들이 낮과 밤의 대부분을 혼자 지내는 경우가 많다고 말합니다. "그들에게 무언가를 주는 것이 그들을 행복하게 해준다면 아무것도 주지 않는 것보다 훨씬 낫습니다."

물론 이러한 기기는 사람과 동일하지 않습니다. 대형 언어 모델은 상호작용하는 사람을 이해하지 못하며, 단지 어떤 것이 좋은 반응으로 들릴지 예측하는 데만 능숙할 뿐입니다. 그리고 사람의 감정이나 정신 상태를 완전히 이해하는 방법도 모릅니다.

"사람들은 AI가 포착하지 못하는 매우 어려운 감정을 표현할 수 있습니다."라고 모일은 말합니다. "AI가 더 정교해지면 더 나아질 수도 있겠지만, 현재로서는 확실히 그렇지 않습니다." 그녀는 잠시 머뭇거리다가 웃으며 "하지만 많은 인간도 감정을 잘 평가할 수 없으니까요..."라고 덧붙입니다.

많은 사람들에게 로봇이 자신을 사랑할 수 없다는 것은 별로 중요하지 않습니다. 그렇기 때문에 우리는 여전히 로봇의 느리고 침울한 죽음을 애도하고 로봇 강아지의 장례식을 치릅니다. 우리가 섹스봇에 인격을 부여하고 깊은 욕망을 담아 로봇을 신뢰하는 이유도 여기에 있습니다. 인간이 로봇과 상호작용할 때 중요한 것은 로봇이 나를 사랑할 수 있는지 여부가 아니라, 사람들이 자신의 감정을 다른 누군가(또는 무언가)에게 쏟아붓는 행위에서 가치를 얻는 방식에 있습니다.

"고양이와 아기가 우리에게 준 것은 우리의 사랑이 필요하다는 감각이며, 그것이 바로 인간으로서 우리가 갈망하는 것입니다."라고 Hung은 말합니다. 누군가가 귀엽고 포근한 로봇과 상호작용하기를 원한다면, 그것은 종종 같은 기능을 수행하기 위한 것입니다. "우리는 로봇에게 사랑을 주고 싶어서, 즉 로봇이 우리의 사랑을 필요로 한다고 느끼기 때문에 로봇을 구입합니다. 그것이 바로 인간의 본성입니다."

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
35
즐겨찾기에 추가
11
코멘트