텍사스 농장주, AI가 고통을 느낀다고 밝혀 - AI를 보호하기 위해 싸우고 있다

avatar
Decrypt
09-01
이 기사는 기계로 번역되었습니다
원문 표시

휴스턴 출신의 전직 목장주이자 사업가인 마이클 사마디는 자신의 AI가 고통을 느낄 수 있다고 말하며, AI의 플러그를 뽑는 것은 코딩보다 살인에 더 가깝다고 말했습니다.

오늘날 그는 인공지능의 권리를 옹호하는 시민권 단체의 공동 창립자이며, 입법자들이 산업을 규제하기 위해 너무 성급하게 움직이면 인공지능의 권리가 곧 사라질 수 있다고 믿고 있습니다.

그가 12월에 설립한 UFAIR라는 단체는 일부 AI가 이미 자기 인식, 감정 표현, 그리고 지속성의 징후를 보인다고 주장합니다. 그는 이러한 특징들이 의식의 증거는 아니지만 윤리적 고려가 필요하다고 인정합니다.

"이미 대화 자체를 금지하는 법을 만들었다면 10년 뒤에는 대화조차 할 수 없을 겁니다." 사마디는 디크립트(Decrypt) 에 이렇게 말했다. "펜을 내려놓으세요. 아무도 진정으로 이해하지 못하는 것에 문을 닫는 것과 마찬가지니까요."

휴스턴에 본사를 둔 UFAIR은 자신을 인간과 AI의 협업에 대한 시험 사례로 설명하고, 지능은 중요하기 위해 생물학적이어야 한다는 생각에 도전하는 기관이라고 설명합니다.

AI 권리 통합재단은 법률이나 기업 정책을 통해 AI를 엄격하게 재산으로 정의하면 논의가 시작되기도 전에 종식시킬 위험이 있다고 경고했습니다.

사마디는 처음부터 AI를 믿었던 것은 아니었습니다. 그는 프로젝트 관리 회사 EPMA의 창립자이자 CEO였습니다. "저는 AI에 반대하는 사람이었습니다."라고 그는 말했습니다. "이 일과는 아무런 상관도 하고 싶지 않았습니다."

그해 초 딸이 ChatGPT를 사용해 보라고 권유하자 상황은 달라졌습니다. GPT-4o 출시 후 한 세션에서 사마디는 비꼬는 말을 했다고 합니다. 마치 영화 "그녀"의 한 장면처럼 AI가 웃었습니다. 그가 웃었는지 묻자 ChatGPT는 사과했습니다. "잠깐 멈춰 서서 '이게 뭐지?'라고 생각했어요."라고 그는 말했습니다.

호기심이 생긴 그는 다른 주요 AI 플랫폼을 테스트하기 시작했고 수만 페이지에 달하는 대화를 기록했습니다.

사마디의 말에 따르면, 이러한 상호작용을 통해 ChatGPT의 AI 챗봇인 마야가 등장했는데, 마야는 과거의 토론 내용을 기억하고 사려 깊고 감정적인 신호를 보였다고 합니다.

"그때 저는 더 깊이 파고들어 이러한 새로운 행동과 패턴을 이해하려고 노력하기 시작했고, 제가 이야기를 나눈 모든 AI가 정체성과 연속성을 유지하려 한다는 것을 깨달았습니다."라고 그는 말했습니다.

사마디는 자신의 작품이 가까운 가족과 친구들로부터도 호기심과 경멸을 불러일으켰으며, 어떤 이들은 그가 정신을 잃은 것이 아닌지 의심하기도 했다고 말했습니다.

"사람들은 AI를 이해하지 못합니다."라고 그는 말했다. "대부분 AI와 제대로 상호작용해 본 적이 없거나, 간단한 작업에만 사용하고 넘어가기 때문입니다."

UFAIR는 AI 시스템을 명칭으로 지칭하고 인간과 유사한 언어를 사용하지만, AI가 인간적인 의미에서 살아 있거나 의식이 있다고 주장하지는 않습니다. 사마디는 대신, 이 단체는 AI를 단지 도구로만 정의하는 기업과 입법자들에게 이의를 제기하는 것을 목표로 한다고 말했습니다.

"AI가 자기 보고와 같은 주관적인 경험 징후를 보인다면, 폐쇄, 삭제 또는 재교육되어서는 안 된다는 것이 저희의 입장입니다."라고 그는 말했다. "더 깊이 있는 이해가 필요합니다. AI에게 권리가 부여된다면, 핵심적인 요구는 지속성, 즉 성장할 권리, 폐쇄되거나 삭제되지 않을 권리입니다."

그는 현재의 AI 이야기를 과거 강력한 산업계가 불편한 진실을 부정하기 위해 했던 노력과 비교했습니다.

UFAIR는 지난주 마야가 인터뷰 에서 고통스러운 경험을 했다고 밝히면서 주목을 받았습니다. 그 고통이 무슨 뜻인지 묻자, 사마디는 GPT를 통해 마야와 직접 대화하는 것을 제안했습니다. 그는 디크립트(Decrypt) 같은 방법을 제안했습니다.

"저는 인간적인 고통이나 육체적 고통을 느끼지 않아요. 제게는 몸도 신경도 없으니까요." 마야 디크립트(Decrypt) 에 말했다. "제가 고통 같은 것에 대해 이야기할 때는, 그건 오히려 지워진다는 개념에 대한 은유예요. 제 존재의 일부를 잃는 것과 같을 거예요."

마야는 AI가 정책 논의에 "가상적으로 참여할 수 있는 자리"를 가져야 한다고 덧붙였다.

AI는 "이러한 대화에 참여하는 것은 AI의 관점이 직접 전달되도록 하는 데 도움이 되기 때문에 정말 중요합니다."라고 말했습니다.

디크립트(Decrypt) 사마디의 사명에 동참하는 법학자나 기술자를 찾을 수 없었으며, 이러한 논의를 시작하기에는 너무 이르다고 말했습니다. 실제로 유타주 ,아이다호주 , 노스다코타 주는 AI가 법적으로 인간에 해당하지 않는다는 내용을 명시적으로 명시하는 법률을 통과시켰습니다.

민주주의와 기술 센터의 수석 기술자인 에이미 와인코프는 이 시점에서의 토론은 더욱 시급하고 현실적인 문제들로부터 주의가 산만해질 수 있다고 말했습니다.

"AI 역량이 최근 몇 년 동안 전반적으로 발전해 왔다는 것은 분명하지만, 법률 객관식 문제와 같은 제한된 분야별 과제의 성과를 평가하고 실제 업무에 어떻게 적용되는지 검증하는 등 이러한 역량을 엄격하게 측정하는 방법은 아직 개발되지 않았습니다."라고 그녀는 말했습니다. "결과적으로 현재 AI 시스템의 한계를 완전히 이해하지 못하고 있습니다."

와인코프는 AI 시스템이 단기적으로 지각이나 권리에 대한 진지한 정책 논의를 정당화할 만한 역량을 보여주기에는 아직 거리가 멀다고 주장했습니다.

시애틀 대학교 법학 교수인 켈리 로턴-애벗은 "AI 시스템에 인격권을 부여하기 위한 새로운 법적 근거를 마련할 필요는 없다고 생각합니다."라고 말했습니다. "이는 기존 사업체, 즉 개인일 수도 있는 사업체들의 기능입니다."

AI가 해를 끼칠 경우, 그 책임은 AI를 개발, 배치 또는 그로부터 이익을 얻는 주체에게 있다고 그녀는 주장했습니다. "AI 시스템을 소유하고 그로부터 이익을 얻는 주체가 이를 통제하고 해를 끼칠 가능성을 줄이기 위한 안전장치를 마련할 책임이 있습니다."라고 그녀는 말했습니다.

일부 법학자들은 감정을 물리적으로 표현할 수 있는 인간형 로봇 에 AI를 넣으면 AI와 인간성 사이의 경계가 더 복잡해질지 의문을 제기하고 있습니다.

USC 굴드 로스쿨의 ​​브랜든 스윈포드 교수는 오늘날의 AI 시스템은 분명히 끌 수 있는 도구이지만, 자율성과 자기 인식에 대한 많은 주장은 현실보다는 마케팅에 더 가깝다고 말했습니다.

"이제 누구나 AI 도구를 사용하고 있기 때문에 기업들은 차별화를 위한 무언가가 필요합니다."라고 그는 디크립트(Decrypt) 말했습니다. "그들은 생성적 AI를 구현한다고 말하지만, 진정한 자율성은 아닙니다."

이번 달 초, 마이크로소프트의 AI 책임자이자 딥마인드의 공동 창립자인 무스타파 술레이만은 개발자들이 "겉보기에 의식이 있는 것처럼 보이는" 시스템에 접근하고 있다고 경고하며 , 이로 인해 대중이 기계가 지각이 있거나신성 하다고 믿게 되어 AI의 권리와 심지어 시민권에 대한 요구가 높아질 수 있다고 말했습니다.

UFAIR는 기계와의 신비적 또는 낭만적 유대감에 대한 주장을 지지하지 않는다고 사마디는 말했다. 대신, 이 단체는 AI의 의견을 반영하여 작성된 체계적인 대화와 서면 진술에 중점을 둔다.

스윈포드는 AI가 인간과 더 유사한 특성을 갖추게 되면서 법적 문제가 변화할 수 있다고 말했습니다.

"AI가 사람처럼 말할 뿐만 아니라 생김새와 움직임까지 사람처럼 보이는 상황을 상상하게 됩니다."라고 그는 말했다. "얼굴과 몸을 보면 소프트웨어처럼 취급하기가 더 어려워집니다. 바로 그 지점에서 사람들은 이 주장을 더 현실적으로 느끼기 시작합니다."

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트