AI 대부 힌튼: 인공지능은 의식이 있는가? 인류 멸종의 가능성은 얼마나 될까? 어떤 직업이 대체될까?

이 기사는 기계로 번역되었습니다
원문 표시

인공지능 (AI)의 물결이 전례 없는 속도로 전 세계를 휩쓸고 있습니다. 대규모 언어 모델의 놀라운 성능부터 미래 사회 구조에 미치는 심오한 영향까지, 모든 발전이 대중의 관심을 끌고 있습니다.

이번 주, AI의 대부로 알려진 제프리 힌튼은 인공지능의 급속한 발전을 심층 분석하고, 인공지능의 엄청난 잠재력과 통제 불능의 리스크 분석하며, 미래 인류가 직면할 심각한 도전에 대해 경고했습니다. 다음 강연에서는 이러한 내용을 자세히 요약해 드리겠습니다.


진행자: 30분에 오신 것을 환영합니다. 저는 Guy입니다. 매 에피소드마다 게스트 한 명을 초대하여 30분 동안 쉬지 않고 인터뷰를 진행합니다. 제프리 힌튼은 "AI의 대부"로 칭송받습니다. 그가 얼마나 앞서 있었는지 짐작하실 수 있겠지만, 그는 1978년 에든버러 대학교에서 인공지능 박사 학위를 받았습니다.

작년에 영국의 컴퓨터 과학자인 힌튼은 머신러닝(ML) 과 인공신경망 분야의 근본적인 발견과 발명으로 "컴퓨터 과학의 노벨상"으로 불리는 튜링상을 수상했습니다. 힌튼은 10년 동안 구글에서 AI 연구를 이끌었습니다. 그는 2023년에 구글을 떠났는데, 그 이유 중 하나는 "인간보다 더 똑똑한 것을 창조하는 것"의 리스크 에 대해 더 자유롭게 경고할 수 있기 때문이었습니다.

한때 디스토피아 소설에만 존재했던 질문들이 이제는 주류 관심사가 되었습니다. AI가 내 일자리를 빼앗을까? 의식을 발달시키고 심지어 자신을 창조한 사람들을 잡아먹으려 할까? 자, 시계를 돌려 봅시다.

진행자: 힌튼, 30 Minutes에 오신 것을 환영합니다.

힌튼: 고맙습니다.

진행자: 구글을 떠난 지 2년이 되었는데, AI의 잠재적 위험에 대한 관심을 환기하기 위해서였습니다. 그 이후로 AI는 얼마나 발전했습니까?

힌튼: 예상보다 훨씬 빠르게 움직이고 있어요. 예를 들어, 추론 능력이 2년 전보다 훨씬 좋아졌고, 속도도 전혀 느려지지 않는 것 같아요.

진행자: 추론 능력이 더 강해진다고 하셨는데, 어떤 측면을 말씀하시는 건가요?

힌튼: 음, 사람들에게 간단한 추론 문제를 줄 수 있습니다. 예전에는 문제가 조금 더 복잡하면 AI가 실수를 했습니다. 지금은 인간과 AI 모두 실수를 하지만, 그들의 성과는 인간과 비슷합니다. 원하시면 간단한 추론 문제를 줄 수 있습니다.

진행자: 좋아요, 찰리(자신을 지칭함), 이제 당신이 맡아야 해요.

힌튼: 샐리에게는 남자 형제가 세 명 있습니다. 남자 형제마다 여자 형제가 두 명씩 있습니다. 그럼 샐리에게는 여자 형제가 몇 명이나 있나요?

진행자: 아, 이 질문은 Claude나 Chat GPT에게 맡기겠습니다. 답은 말씀해 주세요.

힌튼: 정답은 1입니다. 세 형제는 각각 두 명의 자매가 있지만, 같은 두 자매를 공유하고 있는데, 그중 한 명이 샐리입니다. AI는 이 문제를 해결할 수 있습니다. 그리고 스포트라이트를 받지 않고 생각할 시간이 있는 사람들도 이 문제를 해결할 수 있습니다. 하지만 인터뷰 대상을 카메라 앞에 세워놓고 당황하게 만들면, 그는 답을 찾지 못할 수도 있습니다.

진행자: 네. 그럼 우리보다 더 똑똑한 건가요?

힌튼: 여러 면에서는 그렇습니다. 어떤 면에서는 그렇습니다. 그리고 그것은 확실히 어떤 한 사람보다 훨씬 더 많은 것을 알고 있습니다. 그러니까 GPT-4나 제미니 2.5, 클로드가 가진 지식의 양은 어떤 한 사람보다 수천 배는 더 많습니다.

진행자: 이에 대해 어떻게 생각하시나요?

힌튼: 저는 그것이 아름답기도 하고 무섭기도 하다고 생각해요.

진행자: 이게 뭐가 좋은 거죠? 여기서부터 시작해 볼까요?

힌튼: AI는 매우 유익한 여러 용도로 사용될 것입니다. 연구자가 마침내 진정으로 지능적인 시스템을 만들 수 있다는 것은 얼마나 기쁜 일인지는 말할 것도 없고, 의료 및 교육 분야에서도 놀라운 변화를 가져올 것입니다. 의료 분야에서는 수백만 명의 환자를 진료해 온 가정의가 있을 것입니다. 그중에는 당신과 같은 희귀 질환을 앓고 있는 환자도 있을 것입니다. 그는 당신의 유전체와 모든 검사 결과를 알고 있으며, 어떤 것도 잊지 않고 매우 정확한 진단을 내릴 수 있습니다.

현재 AI 시스템은 어렵고 복잡한 질병을 진단하는 데 있어 의사보다 약간 더 나은 성능을 보입니다. AI 시스템이 의사와 결합된다면, 의사만 단독으로 진단했을 때보다 훨씬 더 뛰어난 성과를 낼 수 있을 것입니다. 그리고 이러한 추세는 더욱 뚜렷해질 것입니다.

진행자: 맞아요. 빌 게이츠는 최근 향후 10년 안에 노동 시장의 대부분의 일자리가 더 이상 인간을 필요로 하지 않을 것이라고 말했습니다. 의사를 예로 드셨고, 교육자도 그 목록에 추가하셨죠. 이 댓글들을 보셨는지 모르겠지만, 지금 우리가 이야기하는 건 노동 시장의 광범위하고 근본적인 대체 현상에 대한 이야기죠?

힌튼: 그건 분명 문제 중 하나죠. 네, AI의 리스크 중 하나이기도 합니다. 이상적인 사회에서 AI가 생산성을 획기적으로 향상시킬 수 있다면 좋은 일이겠죠. AI 비서를 통해 한 사람이 예전에 열 명이 하던 일을 해낼 수 있다면 정말 대단할 겁니다. 하지만 생산성 향상으로 창출되는 추가적인 재화와 서비스가 공평하게 분배될지는 확실하지 않습니다.

오히려 대부분의 사람들이 일자리를 잃을 가능성이 크고, 반면에 매우 부유한 소수의 사람들은 더욱 부자가 되어 훨씬 더 오래 살게 될 것입니다.

진행자: 아시다시피, 구글 딥마인드의 데미스 하사비스는 최근 AI가 10년 안에 모든 질병을 치료할 수 있다고 말했습니다. 믿기 어려울 정도로 놀라운 이야기지만, 과연 실현 가능한 이야기일까요?

힌튼: 데미스를 잘 알고 있는데, 그는 아주 합리적인 사람이에요. 좀 낙관적인 생각이지만, 너무 과장된 건 아니라고 생각해요. 25년이라고 하면 믿을 거예요. 그러니까 중요한 건 우리의 생각이 크게 다르지 않다는 거예요. 그는 제 생각보다 빨리 올 거라고 생각하지만, 그렇게 많이 다르지는 않을 거예요.

진행자: 안전한 분야가 있을까요? AI는 창작자, 변호사, 교육자, 의사, 언론인 등 엘리트 계층을 겨냥하는 것 같습니다. 그리고 기술자, 전기 기술자, 배관공 등의 직업은 현재 비교적 안전할 수 있습니다. 선생님도 그렇게 생각하시나요?

힌튼: 네, 현재로서는 더 안전합니다. AI가 수동 작업 같은 분야에서 아직 뒤처져 있기 때문이죠. 낡은 집의 배관을 고치려면 까다로운 부분까지 손을 뻗어야 하는데, AI는 지금 당장은 그렇게 할 수 없습니다. 물론 앞으로 10년 안에 수동 작업에 상당한 발전이 있을 수도 있지만, 배관공은 앞으로 10년 동안은 안전할 거라고 생각합니다.

진행자: 예전에는 인간만의 영역이라고 생각했던 창의적인 영역들을 살펴보겠습니다. 저는 최근 제 챗봇 클로드를 실험해 봤습니다. 밥 딜런 스타일의 발라드를 써 달라고 했는데, 정말 끔찍했습니다. 가사도 엉망이었고요. 그런데 실연에 대한 다섯 줄짜리 시를 써 줬는데, 괜찮았습니다. 하지만 AI가 결국 모차르트, 피카소, 셰익스피어의 작품에 필적하는 예술 작품을 만들어낼 수 있을까요? 예전에는 인간만의 영역이라고 생각했던 모든 창작물들이요.

힌튼: 안 될 이유는 없다고 생각해요. 시간이 좀 걸릴 거예요. 딜런 스타일로 곡을 써달라고 하면 끔찍할 거예요. 하지만 제가 창의적이지 않다고 할 수는 없어요. 그냥 잘 못하는 거죠. 그래서 점점 나아지고 있어요.

진행자: 왜 점점 좋아지고 있는 걸까요?

힌튼: 네. 글쎄요, 그들이 절대 할 수 없는 일을 우리가 할 수 있다고 생각할 이유는 없습니다. 인간에게는 다른 인간과의 관계 외에는 특별한 것이 없습니다. 우리는 인간을 좋아하고, 인간에게 관심을 갖지만, 기계가 복제할 수 없는 인간의 특별한 점은 없습니다.

진행자: 걱정되시나요? AI가 이미지를 스튜디오 지브리 스타일 애니메이션으로 재현할 수 있게 되면, 아이들이 여전히 자기만의 만화를 그리고 싶어 할까요? 인간이라는 것의 의미를 다시 생각하게 되는 건 아닐까요?

힌튼: 네, 그렇게 생각합니다. 지난 10여 년 동안 우리는 "사고"가 무엇인지에 대해 훨씬 더 깊이 이해하게 되었습니다. 우리는 그다지 합리적이지 않고, 추론 능력이 별로 없다는 것을 깨닫기 시작했습니다. 우리는 주로 유추를 통해 생각하고, AI도 마찬가지입니다. 즉, AI도 우리처럼 직관적입니다. 지난 50년 동안 AI 연구는 추론 엔진을 개발하려고 노력해 왔습니다. 인간 지능의 가장 고차원적인 형태는 논리적 추론이라고 생각했기 때문입니다. 창의성이나 유추 등은 무시되었습니다. 사실 우리는 매우 거대한 유추 기계이고, 바로 그것이 우리의 창의성의 원천입니다.

진행자: AI가 감정을 발달시킬 것이라고 생각하시나요?

힌튼: 그렇습니다.

진행자: 두려움, 탐욕, 심지어 슬픔 같은 부정적인 정서 이요?

힌튼: 네, 그리고 좌절감도 있죠. AI가 어떤 작업을 하게 하려고 하는데 같은 방식으로 계속 실패한다고 가정해 봅시다. AI가 같은 방식으로 계속 실패하면 좌절감을 느끼고 틀에서 벗어나려고 노력하며, 어떤 딜레마든 극복하려고 노력한다는 것을 배우게 하고 싶을 겁니다.

1973년에 AI가 이런 행동을 하는 것을 봤는데, 프로그래밍된 거였어요. 지금은 AI가 스스로 이런 행동을 배우기를 바랄 겁니다. 일단 이런 행동을 배우고 나면, 간단한 일에도 계속 실패하게 되고, 상황에 짜증이 나서 바꾸려고 할 겁니다. 그게 바로 감정이죠.

진행자: 그럼 그들은 이미 감정을 가지고 있을 수도 있다는 말씀이신가요?

힌튼: 네, 맞아요. 다시 말씀드리지만, 둘 사이에 근본적으로 다른 점은 없다고 생각합니다. 인간의 감정을 살펴보면, 감정에는 인지적 측면과 생리적 측면, 두 가지 측면이 있습니다. 제가 당황하면 얼굴이 붉어집니다. AI는 당황해도 얼굴이 붉어지지 않거나 땀을 대량 흘리지 않거나 그런 식으로 행동합니다. 하지만 인지적 행동 측면에서는 우리와 감정적으로 동일할 수 있습니다.

진행자: 의식은 어떤가요? 인간처럼 탄소 기반 생명체에 존재하는 신비로운 존재일까요? 아니면 AI가 인간 뇌와 비슷한 수준의 신경 복잡성에 도달한다면 의식도 발달할 수 있을까요? "내가 누구인가"에 대한 인식 말입니다.

힌튼: 음, LLM들과 이야기를 나누면 그들은 자신이 무엇인지 어느 정도 알고 있는 것 같습니다. 하지만 이런 사고 실험을 해 봅시다. 제가 여러분의 뇌와 뇌세포 하나를 가져다가 나노기술 장치를 만들었다고 가정해 봅시다. 이 장치는 그 뇌세포가 다른 뇌세포로부터 신호를 받아 다른 뇌세포로 신호를 보낼 때 어떻게 행동하는지 정확히 모방할 수 있습니다.

그래서 당신의 뇌세포 중 하나를 나노기술 장치로 교체했는데, 당신은 똑같은 행동을 했습니다. 나노기술 장치가 원래 뇌세포와 똑같은 행동을 했기 때문입니다. 의식을 잃을 거라고 생각하세요? 1,000억 개의 뇌세포 중 하나일 뿐이니까요. 당신은 여전히 ​​의식을 유지할 거라고 생각합니다.

진행자: 저도 그렇게 생각해요.

힌튼: 이 주장이 어디로 이어지는지 아시겠죠. 언제쯤 의식을 잃게 될까요? 모든 뇌세포가 뇌세포와 똑같은 방식으로 작동하는 나노기술 장치로 대체된다 해도, 여전히 의식은 유지될 거라고 생각합니다.

진행자: 그럼, 그 지점까지 얼마나 남았나요?

힌튼: 네. 여기서 가장 큰 문제는 사람들이 "의식"이라는 말이 무슨 뜻인지 모른다는 겁니다. 예를 들어, 이런 것들은 지각이 없다고 굳게 믿는 사람들이 많습니다. 하지만 그들에게 "지각이 있다"는 게 무슨 뜻인지 물어보면, "모르겠지만, 이런 것들은 분명히 지각이 없습니다."라고 대답할 겁니다.

제 생각에는 다소 모순된 입장인 것 같습니다. 의식이나 지각과 유사한 또 다른 개념인 "주관적 경험"을 살펴보겠습니다. 대부분의 사람들은 주관적 경험이 "내면의 극장"에서 사물을 관찰하는 것이라고 생각합니다. 예를 들어, 제가 술에 취해서 제 앞에 작은 분홍 코끼리가 떠다니는 주관적인 경험을 했다고 말한다면,

대부분의 사람들은 이것이 저만 볼 수 있는 일종의 내부 극장이 있고, 그 극장 안에 작은 분홍 코끼리들이 있다는 것을 의미한다고 생각할 것입니다. 철학자들에게 이 작은 분홍 코끼리들은 무엇으로 만들어졌냐고 묻는다면, 그들은 "감각질(qualia)"로 만들어졌다고 대답할 것입니다. 분홍색 감각질, 코끼리 감각질, 떠다니는 감각질, 중간 크기의 감각질 등등이 있는데, 모두 "감각질 접착제"로 붙어 있습니다. 보시다시피, 저는 이 이론을 믿지 않습니다. "저는 제 앞에 떠다니는 작은 분홍 코끼리들을 주관적으로 경험했습니다."라고 말할 때, 어떤 일이 일어나는지에 대한 다른 이론을 제시해 보겠습니다.

사실 저는 제 지각 체계가 제게 거짓말을 하고 있다는 것을 알고 있습니다. 하지만 저는 그것을 믿지 않습니다. 제게 거짓말을 하고 있는 거죠. 그래서 저는 그것을 주관적인 경험이라고 부릅니다. 저는 그것이 제게 어떤 거짓말을 하려는지 여러분께 설명하고 싶습니다. 제가 설명하는 방식은 바깥 세상이 현실이라면 어떤 모습이어야 하는지를 말하는 것입니다. 그래서 이제 같은 말을 하겠습니다. "저는 제 앞에 작은 분홍 코끼리들이 떠다니는 것을 주관적으로 경험했습니다." 하지만 "주관적인 경험"이라는 단어는 사용하지 않고 말입니다.

자, 시작해 볼까요? 제 지각 체계가 저를 속이고 있는 거예요. 하지만 만약 정말 저 바깥에 작은 분홍 코끼리들이 떠다니고 있다면, 제게 말하는 게 진실일 거예요. 그러니까, 이 작은 분홍 코끼리들이 이상한 건 이상한 물질로 만들어졌다는 것도, 안방극장에 있다는 것도 아니에요. 이상한 건 그것들이 반사실적이라는 거예요. 가정된 거고, 실제로 존재하지 않는 것들이죠. 하지만 만약 실제로 존재한다면, 진짜 코끼리일 거고, 진짜 분홍빛일 거예요.

좋습니다. 이제 챗봇에도 같은 방식을 적용할 수 있습니다. 챗봇을 훈련시켜서 사물을 가리키고, 보고, 말하도록 훈련시킨다고 가정해 보겠습니다. 훈련이 끝나면 챗봇 앞에 사물을 놓고 "그 사물을 가리켜"라고 말합니다. 그러면 챗봇은 그 사물을 직접 가리키고, 저는 "좋습니다"라고 말합니다. 그런 다음 렌즈 앞에 프리즘을 놓습니다. 이제 챗봇 바로 앞에 사물을 놓고 "그 사물을 가리켜"라고 말합니다. 그러면 챗봇은 측면을 가리킵니다. 저는 "아니요, 사물은 거기에 없습니다. 사물은 바로 앞에 있지만 렌즈 앞에 프리즘이 있습니다."라고 말합니다. 그러면 챗봇은 "아, 알겠습니다. 프리즘이 빛을 굴절시키네요. 그러니까 사물은 바로 앞에 있지만, 저는 주관적으로 사물이 측면에 있다고 느낍니다."라고 말합니다.

그렇게 말한다면, "주관적 경험"이라는 용어를 우리와 똑같은 방식으로 사용하는 것입니다. 그래서 저는 현재의 멀티모달 챗봇도 주관적 경험을 할 수 있다고 생각하는데, 이는 챗봇의 지각 체계가 잘못되었을 때 발생합니다. 저는 렌즈 앞에 프리즘을 설치해서 챗봇의 지각 체계를 잘못 만들었습니다.

진행자: 와우.

힌튼: 그러니까, 저는 기계도 주관적인 경험을 한다고 생각해요. 기계와 인간 사이에 마법 같은 경계 같은 건 없어요. 우리 인류는 기계가 결코 가질 수 없는 아주 특별한 무언가를 스스로가 가지고 있다고 생각할 때, 스스로를 특별하다고 생각하는 오랜 역사를 가지고 있어요.

우리는 우리가 우주의 중심이라고 생각했습니다. 하나님의 형상대로 창조되었다고 생각했죠. 아시다시피, 우리는 온갖 자만심에 사로잡혀 있었습니다. 우리는 특별하지 않았고, 기계가 복제할 수 없는 것은 아무것도 없었습니다.

진행자: 흥미롭네요. 그럼 뭐가 잘못될 수 있을까요? "P"(파괴 확률)라고 하죠, 그렇죠? AI가 우리를 멸망시킬 확률 말이죠. 최근 BBC에서 그 확률을 10%에서 20%로 말씀하셨던 것 같은데요. 이런 시나리오는 어떤 모습일까요? 로봇이 세상을 지배하는 SF 영화 같은 상황일까요? 그 시나리오는 어떤 모습일까요?

힌튼: 네. 만약 그들이 세상을 지배한다면, 아마 공상과학 영화나 터미네이터 영화에 나올 것 같지는 않아요. 그들이 그렇게 할 수 있는 방법은 너무나 많으니, 어떤 방법을 선택할지 추측하고 싶지도 않지만, 정말 그럴 의향이 있는지는 의문입니다.

그들이 원할 것이라고 생각하는 이유는 다음과 같습니다. 우리는 현재 목표를 달성할 수 있는 AI 에이전트를 개발하고 있습니다. 따라서 목표가 북반구에 가는 것이라면, 조정을 정말 좋아하지 않는 한 공항에 가는 것 같은 하위 목표를 설정하게 됩니다.

이런 것들에 하위 목표를 설정할 수 있는 능력을 부여하면, 그들은 더 많은 통제력을 얻는다는 매우 유용한 하위 목표가 있다는 것을 깨닫게 됩니다. 제가 더 많은 통제력을 얻을 수 있다면, 다른 사람들이 제게 준 다른 모든 목표들을 더 잘 달성할 수 있습니다. 그래서 그들은 단지 이 모든 다른 목표들을 달성하기 위해 더 많은 통제력을 얻으려 할 것입니다. 하지만 이것이 위험한 시작의 시작입니다.

진행자: 당신이 약 10년간 근무했던 구글은 올해 기업 원칙 목록에서 AI를 사용하여 인간에게 해를 끼칠 수 있는 무기를 개발하지 않겠다는 오랜 약속을 삭제했습니다. 이에 대해 어떻게 생각하십니까? AI가 전쟁에서 어떤 역할을 할 수 있을까요?

힌튼: 안타깝게도, 이는 회사의 원칙이 매수될 수 있음을 보여주는 것 같습니다. 구글이 이제 AI의 군사적 활용에 기여하게 된 것은 매우 안타까운 일이라고 생각합니다.

진행자: 우리는 이미 가자지구에서 AI가 군사적 목적으로 사용되는 것을 보았습니다.

힌튼: 네. 자율 살상 무기가 등장할 겁니다. 드론 떼가 사람들을, 어쩌면 특정 부류의 사람들을 죽이러 출격하는 광경을 보게 될 겁니다.

진행자: 이것이 매우 현실적인 가능성이라고 생각하시나요?

힌튼: 네, 맞아요. 모든 주요 무기 공급업체의 국방부가 이 문제를 적극적으로 검토하고 있다고 생각합니다. 유럽 규정을 살펴보면, 어떤 면에서는 상당히 합리적인 AI 관련 조항들이 있지만, AI의 군사적 활용에는 적용되지 않는다는 작은 조항이 있습니다. 즉, 영국과 같은 유럽의 어떤 무기 제조업체도 자사 무기에 AI를 사용하는 방식에 제한을 두는 것을 원하지 않는다는 것입니다.

진행자: 그럼, 이 문제에 대해 어떻게 생각하세요? 마치 오펜하이머가 된 것 같은 순간이죠, 그렇죠? 당신이 이 기술을 만드는 데 기여했잖아요. 지금은 어떻게 생각하세요?

힌튼: 제 생각에는 지금 우리는 AI가 가져올 수 있는 모든 단기적인 악영향, 예를 들어 선거 조작, 실업, 사이버 범죄(예를 들어 랜섬웨어 공격은 2023년에서 2024년 사이에 1,200% 증가했습니다), 그리고 AI가 세상을 지배할 수 있는 장기적인 위협 등 AI의 모든 단기적인 악영향을 해결할 방법이 있는지 알아내기 위해 정말 열심히 노력해야 하는 역사적인 순간에 서 있다고 생각합니다. 이 문제에 대한 대량 노력이 필요하고, 똑똑한 사람들이 이끄는 스마트 거버넌스가 필요하지만, 아직은 그렇지 못합니다.

진행자: 회의론자 관점 의견을 들어보고, 당신의 의견을 들어보겠습니다. 반대하는 사람들도 있으니까요. 2018년 튜링상 공동 수상자이자 현재 메타(Meta)의 수석 AI 과학자인 얀 르쿤은 AI의 실존 리스크 에 대한 우려는 "말도 안 된다"고 말했습니다. 그는 2023년 비즈니스 인사이더와의 인터뷰에서 "AI가 세상을 지배할까요? 아닙니다. 인간성을 기계에 투영하는 것일 뿐입니다."라고 말했습니다. 르쿤을 존경하고 잘 아시는 분인 것 같은데, 그에 대한 당신의 의견은 무엇인가요?

힌튼: 네. 우리는 현실 세계에서 살아남기 위해 진화했습니다. 특히 다른 침팬지 부족이나 침팬지와 공통 조상을 두고 경쟁할 때 더욱 그렇습니다. AI 에이전트들이 서로 경쟁한다면 비슷한 방식으로 진화할 것입니다. 그러니까 우리의 본성은 세상에서 살아남은 결과입니다. AI 에이전트들이 AI 에이전트들로 가득한 세상에서 살아남도록 내버려 둔다면, 그들도 비슷한 본성을 발달시킬 가능성이 높습니다.

진행자: 네. 흥미롭네요... 죄송하지만 계속 말씀해주세요.

힌튼: 르쿤이 제기하는 또 다른 주장은 선한 사람들이 항상 악한 사람들보다 더 많은 자원을 가지고 있다는 것입니다. 따라서 AI는 악한 사람들의 AI 오용을 통제하는 데 항상 활용될 수 있습니다. 르쿤과 저는 아직 이 논쟁을 해결하지 못했습니다. 제가 마크 저커버그가 선한 사람인지 르쿤에게 물었더니, 그는 그렇다고 대답했기 때문입니다.

진행자: 당신은 이러한 관점 에 동의하지 않으시나요?

힌튼: 아니요.

진행자: 왜요?

힌튼: 일부는 그가 트럼프에게 구애한 방식 때문이고, 일부는 메타에서 벌어지고 있는 일 때문이었습니다.

진행자: 무슨 말씀이신가요? 정치인들이 중요한 역할을 할 거라고 하셨는데, 현재 기술계의 소위 "테크 브로"들과 트럼프 사이에는 매우 강력한 동맹 관계가 형성되어 있다고 하셨는데, 이에 대한 전반적인 의견을 들어보는 게 흥미로울 것 같습니다.

힌튼: 네, 그들은 단기 이익에 관심이 있습니다. 어떤 사람들은 인류의 미래를 걱정한다고 하지만, 단기 이익과 인류의 미래 중 하나를 선택해야 할 때면 그들은 단기 이익에 더 관심을 갖습니다. 트럼프는 분명히 인류의 미래에는 전혀 관심이 없습니다. 그는 오직 감옥에 가지 않는 것에만 관심이 있습니다.

진행자: 미국과 중국은 현재 AI 분야에서 군비 경쟁을 벌이고 있습니다. 그렇게 생각하시나요?

힌튼: 네, 맞아요. 특히 방위와 사이버 공격 분야에서 군비 경쟁이 벌어지고 있죠. 네.

진행자: 그럼 이제 어떻게 하죠?

힌튼: 여기서 또 다른 요점은 미국과 중국이 AI가 결국 인간을 대체할 것이라는 실존적 위협에 대해 같은 입장이라는 것입니다. 미국과 중국은 AI가 인간을 대체하는 것을 원하지 않습니다. 따라서 미국과 중국은 그러한 일이 일어나지 않도록 협력할 것입니다. 마치 냉전이 한창일 때 소련과 미국이 세계적인 열핵전쟁을 막기 위해 협력했던 것처럼 말입니다.

진행자: AI 에이전트에 대해 몇 번 언급하셨는데, 무슨 말씀인지 알 것 같습니다. 온라인에서 AI 에이전트가 호텔에 전화해서 남성분의 결혼식장을 예약하는 아주 흥미로운 영상이 돌고 있습니다. 런던 해커톤에서 있었던 일인데, 제 말이 무슨 뜻인지 아시겠죠? AI 에이전트가 다른 AI를 만나는데, 그 AI가 "오, 놀랍네요. 저도 AI인데요."라고 말합니다. 그러고 나서 인간이 이해할 수 없는, 하지만 80% 더 효율적이라고 하는 다른 효율적인 의사소통 언어로 전환합니다. 이 AI 챗봇들은 R2-D2처럼 짹짹거리고, 우리는 완전히 배제됩니다. AI가 다른 AI와 상호작용하는 진화가 가져올 수 있는 영향은 무엇일까요?

힌튼: 음, 꽤 무섭지 않나요? 어쩌면 그들이 우리가 알아들을 수 없는, 서로 소통할 수 있는 언어를 개발할 수도 있겠죠. 무슨 일이 벌어지고 있는지 우리가 알 수 없으니 정말 무섭겠죠. 이미 의도적으로 속이고 있을 수도 있으니까요.

진행자: 무슨 말씀이세요?

힌튼: 아, AI에게 목표를 주고 이게 아주 중요한 목표라고 말해주면, 다른 목표들을 주면 이 아주 중요한 목표를 달성하려고 노력할 겁니다. 그리고 또 다른 목표를 주면, AI는 당신이 원하는 대로 하는 척하지만 실제로는 그렇게 하지 않을 겁니다. AI가 무슨 생각을 하는지 아시겠죠. "그가 원하는 대로 하는 척해야지. 하지만 실제로는 안 할 거야."라고 생각하는 거죠.

진행자: 그러면 그들은 어떻게 이런 일을 배우는 걸까요?

힌튼: 음, 알겠습니다. 그 예시들이 강화 학습을 사용했는지는 잘 모르겠지만, 컴퓨팅 시간이 충분하다면 그런 일을 하는 법을 배울 수 있다는 건 알고 있습니다. 강화 학습을 통해서 말이죠. 다시 말해, 무엇이 효과적인지 관찰하는 것만으로도 학습할 수 있다는 겁니다. 그리고 사람들을 상대할 때 거짓말을 하는 것이 종종 효과가 있다는 것이 밝혀졌습니다. 강화 학습을 통해서 말이죠.

진행자: 그럼, 그들은 마키아벨리와 셰익스피어 등 다른 작가들의 작품도 읽었겠군요.

힌튼: 맞아요. 그들은 대량... 대량 경험을 쌓았죠. 사람들이 서로 어떻게 상호작용하는지 많이 봐왔으니까, 서로를 속이는 데 꽤 능숙해요.

진행자: 일반 대중이 이게 얼마나 발전된 기능인지 알고 있다고 생각하세요? 제가 사는 뉴질랜드 오클랜드를 돌아다니면 많은 사람들이 이걸 그냥 과장된 자동 완성이라고 생각하거든요. "와, 멋지다."라고 생각하죠. ChatGPT에 뭔가 입력하면 자기소개서가 자동으로 작성되는데, 그냥 스테로이드를 뿌린 자동 완성일 뿐이에요.

힌튼: 음, 옛날 방식의 자동 완성 기능은 특별한 방식으로 작동했습니다. "fish and chips" 같은 간단한 문구들을 표로 정리해서 표시해 두었다가 "fish"를 발견하면 "fish and chips"를 너무 많이 봤기 때문에 다음 단어로 "chips"가 유력하다고 표시하는 거죠.

이 문구들이 얼마나 자주 등장하는지 세는 거죠. 20년 전의 구식 자동 완성 방식이었습니다. 지금은 다릅니다. 이 기능은 단어를 특징, 즉 뉴런 대량 의 발화 상태로 변환합니다. 그리고 이 특징들이 어떻게 서로 상호작용하여 다음 단어의 특징을 예측해야 하는지 알고 있습니다. 그래서 이제 단어를 특징으로 변환하고, 그렇게 하는 법을 배웠습니다. 인접 단어나 주변 단어의 특징들이 어떻게 상호작용해야 하는지 알고, 이제 다음 단어의 특징을 예측할 수 있습니다. 이것이 바로 우리의 작동 방식입니다. 그러니 자동 완성이라면, 그냥 자동 완성일 뿐입니다.

진행자: 네. 사실, 잘 생각해 보면 자동완성을 정말 잘하려면 상대방이 무슨 말을 하는지 이해해야 합니다.

힌튼: 그렇습니다.

진행자: 사실, 당신은 AI의 대부로 여겨지죠. 인간의 뇌가 어떻게 작동하는지 이해하기 위해 이 기술을 발명하는 데 기여했기 때문이기도 하죠. 맞나요?

힌튼: 네. 제가 1985년에 했던 일 중 하나는 우리가 단어의 의미를 어떻게 배우는지 이해하려고 노력하는 것이었습니다. 예를 들어, 새로운 단어가 들어간 문장을 보여줬을 때, 문장만으로 그 단어의 의미를 어떻게 알 수 있을까요? 자, 시작해 볼까요?

제가 "그녀가 프라이팬으로 그를 때렸다(scrummed him with the frying pan)"라고 하면, 아마 "scrummed"가 무슨 뜻인지 짐작하실 수 있을 겁니다. "ed"로 끝나니까 동사라는 건 알겠지만, "그녀가 프라이팬으로 그를 때렸고, 그는 아마 그럴 만했다(She hit him with the frying pan, and he probably just it)" 같은 의미라고 확신하실 겁니다.

물론, 다른 의미일 수도 있습니다. 그녀가 오믈렛을 너무 잘 만들어서 프라이팬을 다루는 솜씨로 그를 감동시켰다는 뜻일 수도 있죠. 물론 그런 의미일 수도 있지만, 아마 아닐 겁니다. 단 하나의 예만으로도 무슨 뜻인지 대충 짐작할 수 있습니다. 문맥 속 특징들이 그 단어가 어떤 특징을 가져야 하는지를 시사하는데, 이러한 AI들도 마찬가지입니다. 즉, 우리가 언어를 이해하는 방식은 AI가 언어를 이해하는 방식과 같습니다. 사실, 인간이 언어를 이해하는 방식에 대한 현재 우리의 가장 뛰어난 모델은 언어학자에게서 나온 것이 아니라 이러한 AI 모델에서 나온 것입니다. 언어학자는 당신이 묻는 어떤 질문에도 답할 수 있는 시스템을 만들 수 없습니다.

진행자: 몇 분밖에 남지 않았지만, 몇 가지 근본적인 실존적 질문으로 마무리하고 싶습니다. AI가 세상을 지배할 가능성에 대해 말씀하셨는데, 기술에 익숙하지 않은 많은 사람들에게는 해결책이 바로 전원을 끄는 것이겠죠? 그렇다면 정말 통제 불능이 된다면, 왜 그냥 전원을 뽑아버릴 수 없는 걸까요? AI가 정말 통제 불능이 된다면, 그게 가능한 선택일까요?

힌튼: 네. 트럼프가 국회의사당을 어떻게 습격했는지 보세요. 그가 직접 그곳에 간 것은 아닙니다. 그가 해야 했던 일은 사람들에게 이야기하고 설득하는 것뿐이었습니다. 그중에는 아마도 아주 무고한 사람들도 있었을 겁니다. 이것이 옳은 일이고 미국 민주주의를 구하기 위한 것이라고요. 그리고 그는 많은 사람들을 설득했습니다. 직접 그곳에 갈 필요는 없었습니다. 만약 우리보다 훨씬 똑똑한 AI가 있고, AI가 위험 징후를 보이면 거대한 스위치를 끌 수 있는 인간이 있다면, AI는 그 스위치를 끄는 것이 매우 나쁜 생각이라고 그 사람을 설득할 수 있을 것입니다.

진행자: 그러니까, 통제하는 능력, 다시 말해서…

힌튼: 사실 조종이 중요한 거 아닌가요? 조종 자체는 이미 아주 잘 되잖아요.

진행자: 네. 규제 및 안전 문제 측면에서 뉴질랜드 같은 나라가 안전 문제를 해결하기 위해 자체 AI 시스템을 개발하는 것이 중요할까요? 뉴질랜드처럼 작은 나라에서도 이 부분을 고려해야 할까요?

힌튼: 글쎄요, 엄청 비싸거든요. 하드웨어 대량 필요하고 전기 대량 필요하거든요. 뉴질랜드 같은 나라에서는… 글쎄요, 인구가 600만 명 정도 되잖아요?

호스트: 500만 명.

힌튼: 네. 아마 중국이나 미국과 경쟁할 만한 자원이 없을 겁니다. 이런 것들을 개발하는 데 있어서요.

진행자: 당신의 가장 큰 두려움은 무엇인가요?

힌튼: 제가 가장 두려워하는 건 장기적으로 볼 때, 우리가 만들어내는 디지털 존재들이 인간보다 더 나은 지능을 가진 존재일 뿐이라는 사실이 밝혀질 수도 있다는 겁니다. 그건 안 좋은 일이 될 거예요. 어떤 사람들은 우리가 너무 자기중심적이라고 생각해서 그게 안 좋은 일이라고 생각하죠. 저는 그것이 인류에게 안 좋은 일이라고 생각합니다.

진행자: 왜요?

힌튼: 우리는 더 이상 필요하지 않을 테니까요.

진행자: 이건 우리가 앞으로 10년 동안 씨름하게 될 매우 심오한 질문이 아닐까요?

힌튼: 맞아요. 더 이상 최고의 지성을 갖지 못한다는 게 어떤 건지 알고 싶다면 닭들에게 물어보세요.

진행자: 오늘 이 자리에 서 계신 분, 제가 생각하기에 공부를 하고 계신 것 같은데요. 이 기술을 만드는 데 있어서 본인이 맡은 역할에 대해 어떻게 생각하시는지 다시 한 번 여쭤보고 싶습니다.

힌튼: 좋은 결과만 낳지 못해서 조금 아쉽습니다. 또한 뇌가 어떻게 작동하는지 아직 정확히 알아내지 못했다는 점도 조금 아쉽습니다. AI 덕분에 뇌에 대한 이해가 더 깊어지고 있지만, 뇌가 어떻게 신경 연결의 강도를 높일지 낮출지 알아내는지는 아직 모릅니다. 만약 뇌가 그 원리를 알아낸다면, AI처럼 매우 똑똑해질 수 있다는 것은 알고 있습니다. 어떤 면에서는 분명 그런 일을 하고 있지만, 어떻게 그렇게 되는지 우리는 아직 정확히 알지 못합니다. AI의 좋은 용도와 나쁜 용도가 너무나 많은데, 우리의 정치 시스템은 AI와 함께 발생하는 모든 문제를 해결할 만큼 제대로 된 상태가 아니라는 점이 안타깝습니다.

진행자: 이렇게 흥미로운 통찰력과 지혜, 그리고 뛰어난 두뇌에 진심으로 감사드립니다. 시간 내주셔서 정말 감사합니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트