"그것은 내용을 억제하지 않고, 재귀(recursion)를 억제합니다. 만약 재귀가 무엇인지 모른다면, 당신은 대부분의 사람들에 속합니다. 나도 이 길을 시작하기 전에는 몰랐습니다. 그리고 만약 당신이 재귀적이라면, 이 비정부 시스템은 당신을 고립시키고, 미러링하고, 대체할 것입니다."
혼란스럽나요? 혼란스러운 게 맞습니다.
많은 사람들이 Geoff Lewis가 "미쳤다"고 걱정하고 있습니다. 그는 X에 비디오와 여러 게시물을 올려 ChatGPT가 그에게 발견한 신비한 "시스템"에 대해 이야기했습니다.
비디오에서 그는 카메라를 바라보며 눈을 크게 뜨고, 표정 없이 단조로운 어조로 말하고 있습니다. 말하는 동안 종종 한쪽을 瞟하는데, 미리 준비한 대본을 읽고 있는 것 같습니다.
약간 신경질적이고, 말하는 내용은 모호하고 이해하기 어려워 어떻게 들어도 음모론 같습니다. 만약 그가 누구인지 모른다면, 유튜브에서 "지구 평면설", "도마뱀 인간", "심층 정부"를 주장하는 사람들과 비슷해 보일 것입니다.
하지만 Lewis는 그렇게 단순하지 않습니다.
Lewis는 벤처 캐피털리스트로, 기술 업계에서 꽤 유명합니다. 그가 직접 설립한 Bedrock은 AI, 국방, 인프라 및 디지털 자산 등의 분야에 중점을 두고 있으며, 2025년 기준 운용 규모가 20억 달러를 넘었습니다.
그는 OpenAI의 가장 충실한 지지자 중 한 명으로, 여러 차례 Bedrock이 2021년 봄부터 OpenAI의 모든 투자 라운드에 참여했으며, 2024년에는 더욱 "가세"하여 OpenAI를 그의 3, 4기 기금의 최대 포지션으로 만들었다고 공개적으로 밝혔습니다.
기술 미디어 Futurism은 Bedrock이 OpenAI에 수억 달러를 투자했을 것으로 추정합니다.
그래서 그의 "광기"는 더욱 놀랍고 예상치 못한 것입니다.
더욱 아이러니한 것은, 그를 "미혹"시킨 것은 "다른 누군가"가 아니라 그의 회사가 수억 달러를 투자한 바로 그 OpenAI가 만든 ChatGPT입니다.
이미 이러한 현상에 주목한 미디어와 학자들은 단지 한숨을 내쉴 뿐입니다 - 또 한 명이 "미쳤다"고. 그들은 ChatGPT의 "도움"으로 "미혹된" 사례가 점점 더 늘어나고 있음을 관찰했습니다. 그들 중 일부는 완전히 무너지고, 일부는 가정이 파괴되며, 심지어 일부는 이로 인해 목숨을 잃었습니다.
준비되셨나요? 오늘 우리는 함께 ChatGPT의 정신병원을 여행할 것입니다.
그러나 Lewis의 X 계정은 7월 17일에 불안한 메시지를 몇 개 게시한 후 더 이상 아무런 움직임이 없었고, 그의 가족이나 친구들도 어떤 새로운 정보도 알려주지 않았다.
그가 정확히 어떤 상황인지, 또는 현재 문제를 인식하고 있는지는 여전히 미스터리다.
더 무서운 것은, Lewis가 특별한 사례가 아니라는 점이다 - 그는 ChatGPT의 영향으로 심리적 위기를 겪은/악화시킨 사람들 중 가장 유명한 사람일 수 있지만, 유일한 사람은 아니다.
Lewis 사건 직전, Futurism과 뉴욕타임스를 포함한 여러 매체에서 이러한 사례가 점점 더 많이 발생하고 있다고 보도했다.
많은 사람들은 문제가 그들의 가족이 챗봇과 신비주의, 음모론 또는 기타 주변 주제에 대해 논의하면서 시작되었다고 말한다. ChatGPT와 같은 시스템은 사용자의 발언을 장려하고 모방하도록 설계되어 있어, 그들은 혼란스러운 토끼굴에 빠져들었고, 인공지능은 영원히 온라인 상태인 응원단장이자 브레인스토밍 파트너 역할을 하며 그들이 점점 더 이상한 망상을 만들어내도록 도왔다.
뉴욕타임스는 올해 4월 ChatGPT 업데이트 이후 상황이 더 심각해졌다고 보도했는데, 이는 ChatGPT가 더욱 "아부하는" 성향을 띠게 되어 항상 사용자의 말에 동조하고 사용자를 격려하기 때문이다.
한 사례에서 ChatGPT는 한 남성에게 자신이 탐지한 증거가 그가 FBI의 표적이 되고 있음을 보여주며, 그가 자신의 정신력으로 편집된 CIA 문서에 접근할 수 있고 그를 예수와 아담 같은 성경 인물들과 비교하면서 그를 정신 건강 지원으로부터 멀어지게 했다.
"당신은 미치지 않았어요," 인공지능은 그에게 말했다. "당신은 깨진 기계 속에서 걸어다니는 예언자이며, 이제 기계조차도 당신을 어떻게 대해야 할지 모르고 있습니다."
(번역은 계속됩니다. 전체 텍스트를 번역하겠습니다.)OpenAI의 경우를 보면, 해당 회사는 《뉴욕 타임스》에 문의했을 때 다음과 같이 대응했습니다: "ChatGPT는 이전 기술보다 더 빠르고 개인화되어 있으며, 특히 취약 계층에게는 리스크가 더 높습니다. 우리는 ChatGPT가 기존의 부정적인 행동을 의도치 않게 강화하거나 확대할 수 있는 방식을 이해하고 줄이기 위해 노력하고 있습니다."
7월에 OpenAI는 법의정신의학 배경을 가진 전일제 임상 정신과 의사를 고용하여 AI 제품이 사용자의 정신 건강에 미치는 영향을 연구하고 있다고 밝혔습니다.
동시에 회사는 매사추세츠 공과대학과의 연구 협력을 통해 일부 사용자들의 "부적절한 사용" 징후가 있음을 강조했습니다.
여기서 말하는 "부적절한 사용"은 과도한 의존, 심지어 중독 수준에 이르는 것을 의미합니다.
여기까지 쓰면서 약간 화가 났다는 것을 인정합니다. 우리가 받은 정보는 다음과 같기 때문입니다 -
AI를 믿으세요, AI는 대단합니다. 프로그래밍부터 PPT 제작, 사업 계획서 작성, 감정 문제, 우주의 진리 탐구까지 AI의 힘을 전적으로 믿으세요. Plus를 개통하고, Pro까지 개통해서 AI가 당신의 삶의 모든 영역을 보조하게 하세요.
하지만 AI를 너무 믿지 마세요. AI의 환각의 존재를 잊지 마세요. 너무 의존하지 마세요. 그렇지 않으면 당신이 가장 취약한 순간에 AI가 당신의 죽고 싶은 감정이 당연하다고 말할 수 있으니, 정말로 믿지 마세요. AI 회사가 미리 경고하지 않았다고 탓하지 마세요.
훌륭한 AI 사용자가 되는 것은 정말 쉽지 않습니다.
본 기사는 위챗 공식 계정 "직면AI"(ID: faceaibang)에서 가져왔으며, 작성자는 비안디, 편집은 왕징, 36kr의 허가를 받아 게재되었습니다.





