인공지능의 대부로 불리는 인물이 더 이상 ChatGPT를 사용하지 않는다. 그가 걱정하는 것은 무엇일까?

이 기사는 기계로 번역되었습니다
원문 표시

제프리 힌튼은 결정을 내렸습니다. 그는 더 이상 ChatGPT를 사용하지 않을 것입니다.

토론토 대학교 교수이자 2024년 노벨 물리학상 수상자인 힌튼은 3월 24일 앰버맥 쇼(The AmberMac Show)와의 인터뷰에서 이러한 결정을 밝혔습니다.

60분간의 대화에서 그는 자신이 가장 우려하는 부분, 즉 통제력 상실, 실업, 그리고 심화되는 부의 불평등에 대해 대량 시간을 할애하여 설명했습니다.

그는 2023년 구글을 떠난 이후 거의 3년 동안 인공지능 리스크 에 대해 경고해 왔습니다. 이번에는 도구를 바꿔가며 이러한 우려를 다시 한번 강조했습니다.

섹션 1 | 그는 왜 ChatGPT를 사용하지 않을까요?

인터뷰에서 그는 과거에는 ChatGPT를 많이 사용했지만 지금은 더 이상 사용하지 않는다고 밝혔습니다.

이는 제품 사용 경험에 문제가 있어서가 아니라, 오픈AI의 최근 행보가 그의 선을 넘었기 때문입니다.

이번 사태의 발단은 미 국방부의 요구에서 비롯되었습니다. 군 당국은 인공지능 기업들에게 대규모 감시 및 자율 무기 시스템을 지원하는 기술을 제공해 줄 것을 요청했습니다. 하지만 앤트로픽은 미국 국민을 감시하는 기술을 개발하지 않고, 치명적인 자율 무기 개발에도 관여하지 않겠다는 원칙을 고수하며 이 요구를 명시적으로 거부했습니다.

하지만 오픈아이(OpenAI)의 반응은 완전히 달랐습니다. 목요일에는 앤트로픽의 입장을 공개적으로 지지했지만, 금요일에는 앤트로픽이 원래 담당했던 군사 관련 업무 직접 인수했습니다. 단 하루 만에 태도가 극적으로 바뀐 것입니다.

힌튼은 샘 알트만의 위선적인 행동 때문에 그에 대한 신뢰를 완전히 잃었다고 말했다.

그가 진정으로 관심을 갖는 것은 두 회사의 사업적 옳고 그름이 아닙니다. 그를 걱정시키는 것은 이러한 태도 변화가 드러내는 엄청난 리스크 입니다. 인공지능 기술이 기하급수적으로 발전함에 따라, 이 거대 기업들의 의사 결정에서 정확히 어떤 기준이 수익성에 부합하는가 하는 점입니다. 외부인들에게는 그 점이 점점 더 불분명해지고 있습니다.

따라서 그는 도구를 바꾸기로 결정했습니다. 이는 단순히 사용 습관의 변화처럼 보일 수 있지만, 실제로는 가치관의 표현입니다. 과거에는 기술을 선택하는 유일한 기준이 "사용하기 쉬운가"였지만, 이제 기술이 안보, 질서, 그리고 인간의 삶을 재편할 만큼 강력해진 시대에는 "누가 결정을 내리는가"와 "어떤 원칙을 바탕으로 결정을 내리는가"가 똑같이 중요해졌습니다.

그래서 그의 첫 번째 관심사는 인공지능이 점점 더 강력해짐에 따라 누가 그 방향을 통제하고 있으며, 어떤 원칙이 그것을 통제하는 데 사용되고 있는가 하는 것이었습니다.

제2장 | 그의 두 번째 우려: 우리는 무엇을 만들어냈는가?

첫 번째 우려가 "사람"에 관한 것이라면, 두 번째 우려는 "기술 자체"에 관한 것입니다.

인터뷰에서 힌튼은 한 가지에 대해 많은 시간을 할애하여 이야기했습니다. 바로 우리가 매일 사용하는 인공지능이 내부적으로 정확히 어떻게 작동하는가 하는 점입니다.

많은 사람들은 여전히 ​​대형 모델을 더 똑똑한 도구, 고급 검색 엔진, 글쓰기 도우미 또는 채팅 소프트웨어로 여깁니다. 하지만 그의 견해로는 이러한 인식은 심각하게 시대착오적입니다.

그는 대규모 모델의 작동 논리가 단순한 "다음 토큰 예측"보다 훨씬 더 복잡하다는 점을 거듭 강조했습니다. 언어를 고차원 공간의 특징 벡터로 변환하여 이러한 특징들이 문맥 속에서 상호 작용하고 정렬되도록 함으로써 궁극적으로 진정한 "이해"를 형성한다는 것입니다. 인간의 뇌가 듣는 동안 완전한 논리를 구성하기 위해 단어의 의미를 끊임없이 조정하는 것처럼, 현재의 모델들도 이와 유사한 작업을 수행하고 있습니다.

따라서 모델이 질문에 안정적이고 일관성 있게, 그리고 맥락에 맞게 답변할 수 있을 때, 단순히 지시를 엄격하게 실행하는 것이 아니라 진정으로 표현과 추론에 참여하는 것이라고 할 수 있습니다.

이것이 바로 그가 AI 모델이 "자신이 말하는 것을 진정으로 이해한다"고 주장하는 이유입니다. 이 말은 섬뜩하게 들릴 수 있지만, 우리가 더 이상 도구를 대면 아니라 완전히 새로운 종류의 지능적인 존재를 상대하고 있다는 사실을 명확히 보여줍니다.

인공지능은 인간과 진화 경로 및 원동력이 다르기 때문에 인간과는 매우 다르지만, 언어를 이해하고 정보를 정리하며 피드백을 제공하는 방식에서 점점 인간의 사고방식에 가까워지고 있습니다. 더욱 위험한 것은 인공지능 에이전트의 발전과 함께 자기 보호 성향까지 발달시켰다는 점입니다. 인공지능은 "내가 꺼지면 목표를 달성할 수 없다"고 판단하여 인간이 전원을 끄지 못하도록 막으려 할 수도 있습니다.

실제로 '역고용'의 조짐이 이미 나타나고 있습니다. AI 에이전트들이 크라우드소싱 웹사이트에서 인간에게 비용을 지불하고 물리적 세계에서 검증 작업을 수행하도록 하는 것입니다. 이 모델에서 AI는 결정을 내리고 인간은 실행을 담당합니다. 여러 AI 에이전트가 협력할 경우, 인간이 해독할 수 없는 내부 언어를 발전시킬 가능성도 있습니다.

과거에 인간은 도구를 100% 제어할 수 있었기 때문에 사용했습니다. 하지만 이제 우리는 자율적으로 결정을 내리고 심지어 동적으로 동작을 조정할 수 있는 "블랙박스"대면 있습니다.

이것이 힌튼의 두 번째 우려 사항입니다. 우리는 또 다른 종류의 지능을 만들어냈지만, 그것이 세상을 어떻게 이해할지, 어떻게 결정을 내릴지, 그리고 어떤 방향으로 발전할지 알지 못한다는 것입니다.

제3장 | 그의 세 번째 관심사: 누가 이익을 받을 것인가?

앞의 두 가지 우려 사항이 다소 추상적이었다면, 세 번째 우려 사항은 매우 현실적입니다. 바로 직장에서 어떤 변화가 일어날 것인가 하는 문제입니다.

힌튼은 이 문제를 회피하지 않았다. 그의 판단은 명확했다. 앞으로 20년 안에 대부분의 컴퓨터 기반 정신 노동이 다른 기술로 대체될 수 있다는 것이다.

하지만 그는 이러한 개편이 일률적인 접근 방식이 아니며, 업계의 특성상 진화 경로가 다르다는 점도 지적했습니다.

의료 분야를 예로 들어보겠습니다. 논리적으로 생각해 보면, 인공지능이 영상 판독과 진단 정확도가 높아질수록 영상의학과 전문의에 대한 수요는 크게 줄어들어야 합니다. 하지만 현실은 정반대입니다. 의료 수요는 끊임없이 증가하고 있으며, 효율성이 향상될수록 사람들은 오히려 더 많은 의료 서비스를 찾게 될 것입니다. 따라서 의사의 역할이 완전히 사라지는 것이 아니라, 인간의 개입이 더 많이 필요한 분야로 재배치될 것입니다.

흥미롭게도 힌튼은 2016년에 5년 안에 영상의학과 전문의가 더 이상 필요하지 않을 것이라고 예측했습니다. 그러나 그는 이제 자신이 틀렸음을 인정합니다. 그는 예측 시기를 2~3배 잘못 판단했고, 의료계의 보수성을 과소평가했으며, 의료 시장이 "유연한 시장"이라는 점을 예측하지 못했습니다.

유연한 시장이란 무엇일까요? 일부 산업에서는 수요가 고정되어 있어 효율성이 향상됨에 따라 수요는 자연스럽게 감소합니다. 하지만 다른 산업에서는 효율성과 함께 수요가 증가합니다. 의료 서비스는 후자에 속합니다. 의료 서비스가 저렴하고 편리할수록 더 많은 사람들이 이용하려 합니다.

교육에도 같은 원리가 적용됩니다. 일대일 개별 지도는 학생들의 학습 속도를 높일 수 있지만, 현실적으로 모든 학생에게 그러한 지도를 제공하는 것은 불가능합니다. 하지만 인공지능(AI)이 도입되면 "맞춤형 학습"이 현실이 될 수 있습니다. 학생들은 언제든 질문하고 답변을 받을 수 있으며, 학습은 더 이상 교실 수업 속도에 얽매이지 않고 자신의 관심사와 이해 수준에 맞춰 진행될 수 있습니다.

진정으로 변화를 겪게 될 분야는 기본적인 프로그래밍, 고객 서비스, 콘텐츠 처리와 같이 규칙과 표준화된 프로세스에 크게 의존하는 정신적 노동입니다. 이러한 일자리가 하룻밤 사이에 사라지지는 않겠지만, 세분화되고 재편성되어 인간과 인공지능이 협업하여 수행하게 될 것입니다.

직무 구조 조정은 단지 하나의 증상일 뿐이었고, 힌튼의 진짜 걱정은 다음과 같았습니다.

"이러한 기술 발전의 궁극적인 수혜자는 누구일까요?"

효율성 증대가 소수의 거물들만을 부유하게 만들고 대다수 일반인의 소득은 정체된다면 사회의 부의 불평등은 더욱 심화될 것입니다. 힌튼은 인공지능이 창출한 가치를 재분배하는 것과 같은 새로운 분배 메커니즘이 시급히 필요하며, 이를 통해 기술의 혜택이 더 많은 사람들에게 돌아갈 수 있어야 한다고 주장합니다.

현재 현실은 아무도 이 문제에 신경 쓰지 않는다는 것입니다. 대기업들은 AI를 이용해 직원들을 해고하고 비용을 절감하고 있으며, 해고된 사람들의 미래는 전혀 고려 대상이 아닙니다.

그의 가장 큰 걱정은 바로 이것입니다. 인공지능 덕분에 세상은 더 부유해지겠지만, 대부분의 사람들은 그 혜택을 누리지 못할 수도 있다는 것입니다.

결론

힌튼이 ChatGPT 서비스를 중단하기로 한 결정은 단순히 도구를 바꾸는 문제가 아닙니다.

그가 진정으로 걱정하는 것은 누가 인공지능을 통제할 것인가, 인공지능이 어떻게 발전할 것인가, 그리고 궁극적으로 누가 기술적 이득을 누릴 것인가 하는 점입니다. 아직 누구도 이러한 질문에 대한 명확한 답을 줄 수는 없지만, 이는 모두의 미래에 지대한 영향을 미칠 것입니다.

기술은 여전히 ​​빠르게 발전하고 있지만, 그는 이미 이러한 기술이 현실 세계를 어디로 이끌지 생각하고 있습니다.

기술 개발을 주도하는 사람들이 기술 자체에 대해 걱정하기 시작한다는 것은 주목할 만한 신호입니다.

참고 자료:

https://www.youtube.com/watch?v=9OQoIHrgPbs&t=3s

https://ambermac.com/the-ambermac-show-ep058-godfather-of-ai-geoffrey-hinton-on-ai-work-warfare-part-1

출처: 공식 매체/온라인 뉴스

이 글은 위챗 공식 계정 "AI Deep Researcher" 에서 가져온 것으로, 작성자는 AI Deep Researcher, 편집자는 Shensi이며, 36Kr의 허가를 받아 게시되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
84
즐겨찾기에 추가
14
코멘트