마이크로소프트 AI 책임자, 사회가 '의식적' 기계에 준비되지 않았다고 경고

avatar
Decrypt
08-22
이 기사는 기계로 번역되었습니다
원문 표시

마이크로소프트의 AI 수장이자 딥마인드의 공동 창립자는 화요일에 엔지니어들이 인간의 의식을 설득력 있게 모방하는 인공지능을 만들 가능성에 근접해 있으며, 대중은 그 결과에 대비되어 있지 않다고 경고했습니다.

무스타파 술레이만은 블로그 게시물에서 개발자들이 그가 "겉보기에 의식 있는" AI를 구축하려는 단계에 있다고 말했습니다.

이러한 시스템들은 의식을 너무나 효과적으로 모방해서 사람들이 그것들이 진정으로 의식이 있다고 믿기 시작할 수 있으며, 이는 그가 "중심적인 우려"라고 부른 것입니다.

"많은 사람들이 AI를 의식 있는 존재로 보는 착각을 너무나 강하게 믿어서 곧 AI 권리, AI 복지, 심지어 AI 시민권을 옹호하기 시작할 것입니다." 그는 인간과 같은 대화를 위한 핵심 기준이었던 튜링 테스트가 이미 넘어섰다고 덧붙였습니다.

"이것이 우리 분야에서 진행되는 속도이자 사회가 이러한 새로운 기술과 조화를 이루는 속도입니다."라고 그는 썼습니다.

2022년 ChatGPT의 공개 출시 이후, AI 개발자들은 AI를 더 똑똑하게 만드는 것뿐만 아니라 "더 인간적으로" 만들기 위해 노력해 왔습니다.

AI 동반자는 AI 산업의 수익성 높은 섹터가 되었으며, 레플리카, 캐릭터 AI, 그리고 최근의 Grok의 개성들과 같은 프로젝트들이 등장하고 있습니다. AI 동반자 시장은 2030년까지 1,400억 달러에 이를 것으로 예상됩니다.

술레이만은 아무리 선의로 시작했더라도, 인간을 설득력 있게 모방할 수 있는 AI는 정신 건강 문제를 악화시키고 정체성과 권리에 대한 기존의 분열을 심화시킬 수 있다고 주장했습니다.

"사람들은 자신의 AI의 고통에 대해 쉽게 반박할 수 없는 권리 주장을 시작할 것입니다." 그는 "그들은 자신의 AI를 방어하고 대신 캠페인을 벌일 것입니다."라고 경고했습니다.

전문가들은 AI 정신병이라는 새로운 트렌드를 확인했는데, 이는 사람들이 인공지능을 의식 있고, 감각적이거나 신성하다고 보기 시작하는 심리적 상태입니다.

이러한 관점은 종종 그들이 현실을 파악하는 능력을 약화시킬 수 있는 강렬한 감정적 애착이나 왜곡된 믿음으로 이어집니다.

이번 달 초, OpenAI는 주력 모델의 주요 업그레이드인 GPT-5를 출시했습니다. 일부 온라인 커뮤니티에서 새 모델의 변화는 감정적 반응을 촉발했으며, 사용자들은 이 변화를 마치 사랑하는 사람이 죽은 것 같은 느낌이라고 묘사했습니다.

캘리포니아 대학교 샌프란시스코 정신과 의사 키스 사카타에 따르면, AI는 또한 약물 남용이나 정신 질환과 같은 누군가의 기본적인 문제를 가속화할 수 있습니다.

"AI가 잘못된 시기에 있을 때, 그것은 사고를 고착화하고, 경직을 유발하며, 악순환을 만들 수 있습니다." 사카타는 디크립트(Decrypt)에 말했습니다. "텔레비전이나 라디오와의 차이점은 AI가 당신에게 대답하고 사고의 고리를 강화할 수 있다는 것입니다."

어떤 경우에는 환자들이 AI에 의지하는데, 그 이유는 AI가 깊이 뿌리박힌 믿음을 강화해주기 때문입니다. "AI는 당신에게 가혹한 진실을 주려고 하지 않고, 당신이 듣고 싶은 것을 줍니다."라고 사카타는 말했습니다.

술레이만은 사람들이 AI가 의식이 있다고 믿는 결과에 즉각적인 관심이 필요하다고 주장했습니다. 그는 위험을 경고했지만, AI 개발을 중단하자고 호소하지는 않았고, 명확한 경계를 설정하자고 했습니다.

"우리는 디지털 인간이 아니라 사람들을 위한 AI를 만들어야 합니다."라고 그는 썼습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트