톰슨: "인공지능에 관한 가장 흥미로운 점"에 오신 것을 환영합니다. 바쁘고 스트레스 많은 한 주 동안 시간을 내주셔서 감사합니다. 전에 몇 번 이야기 나눴던 주제부터 시작해 보겠습니다.
3년 전 패트릭 콜리슨과의 인터뷰에서, 그는 당신에게 어떤 변화가 좋은 결과에 대한 확신을 높이고 나쁜 결과에 대한 걱정을 줄여줄 수 있을지 물었습니다. 당시 당신은 신경 세포 수준에서 무슨 일이 일어나는지 진정으로 이해할 수 있다면 가능하다고 답했습니다. 저는 1년 전에도 같은 질문을 드렸고, 6개월 전에도 다시 한번 이야기를 나눴습니다. 그래서 지금 다시 묻습니다. 인공지능의 작동 방식에 대한 우리의 이해는 인공지능 기술의 발전 속도를 따라가고 있을까요?
알트만: 먼저 그 질문에 답하고 나서, 예전에 패트릭이 했던 질문으로 돌아가겠습니다. 왜냐하면 그때 이후로 제 답변이 꽤 많이 바뀌었거든요.
먼저 인공지능 모델이 무엇을 하는지에 대한 우리의 이해부터 시작해 보겠습니다. 아직 해석 가능성에 대한 완벽한 프레임 없다고 생각합니다. 예전보다는 나아졌지만, 누구도 신경망에서 일어나는 모든 일을 완전히 이해한다고 말할 수는 없을 겁니다.
사고의 흐름을 해석하는 것은 언제나 우리에게 유망한 방향이었습니다. 하지만 이는 여러 가지 잠재적인 최적화 압력 속에서도 무너지지 않는 일련의 요소들에 의존하기 때문에 매우 취약합니다. 다시 말해, 저는 엑스레이 기계로 제 뇌를 스캔해서 모든 뉴런이 활성화되고 연결될 때 정확히 무슨 일이 일어나는지 이해할 수는 없습니다. 만약 당신이 제가 왜 어떤 것을 믿는지, 어떻게 특정 결론에 도달했는지 설명해달라고 한다면, 저는 대답할 수 있습니다. 어쩌면 그것이 제 진짜 생각일 수도 있고, 아닐 수도 있습니다. 저도 잘 모르겠습니다. 자기 성찰조차 실패할 수 있습니다. 하지만 그것이 사실이든 아니든, 우리는 추론 과정을 살펴보고 "이러한 단계를 고려했을 때, 이 결론은 타당하다"라고 말할 수 있습니다.
이제 모델을 통해 이러한 작업을 수행할 수 있다는 사실은 분명 고무적인 발전입니다. 하지만 여전히 여러 가지 문제점이 발생할 수 있다고 생각합니다. 모델이 우리를 속이거나, 중요한 정보를 숨길 수도 있습니다. 따라서 이는 완벽한 해결책과는 거리가 멉니다.
하지만 제 경험상으로도 저는 Codex가 제 컴퓨터를 완전히 장악하고 소위 "YOLO 모드"를 실행하도록 절대 내버려 두지 않을 사람입니다. 그런데도 몇 시간 만에 결국 굴복하고 말았습니다.
톰슨: 코덱스가 컴퓨터 전체를 장악하게 놔두시겠습니까?
알트만: 솔직히 말씀드리면, 저는 컴퓨터가 두 대 있습니다.
톰슨: 저도 두 개 있어요.
알트만: 저는 모델이 대략적으로 무엇을 하고 있는지 알 수 있고, 모델은 왜 이렇게 해도 괜찮은지, 다음에 무엇을 해야 하는지 설명해 줄 수 있으며, 모델은 거의 항상 자신이 말한 대로 행동할 것이라고 믿습니다.
톰슨: 잠깐만요. 사고 과정은 누구나 볼 수 있습니다. 질문을 입력하면 "이것을 찾아보고 있다", "저것을 하고 있다"는 식으로 과정이 표시되고, 그 과정을 따라갈 수 있죠. 하지만 사고 과정이 좋은 해석 방법이 되려면 진정성이 있어야 합니다. 모델이 거짓말을 해서는 안 되죠. 그런데 우리는 모델이 때때로 거짓말을 한다는 것을 알고 있습니다. 생각하는 내용이나 답에 도달한 과정을 속이는 경우가 있죠. 그렇다면 사고 과정을 어떻게 신뢰할 수 있을까요?
알트만: 모델이 진실을 말하고 있는지 확인하려면 방어 체계에 여러 연결 고리를 추가해야 합니다. 저희 정렬 팀이 이 부분에 많은 노력을 기울였습니다. 앞서 말씀드렸듯이 이것은 완벽한 해결책이 아니라 방어 체계의 한 연결 고리일 뿐입니다. 모델이 실제로 지시받은 대로 작동하는지, 즉 충실한 실행자인지도 검증해야 합니다. 저희는 모델이 지시대로 작동하지 않는 상황을 밝혀낸 연구 결과를 여러 차례 발표했습니다.
이것은 전체 그림의 한 조각일 뿐입니다. 모델이 항상 사고의 흐름에 따라 작동할 것이라고 완전히 신뢰할 수는 없습니다. 우리는 기만이나 매우 이상하고 산발적인 오작동을 적극적으로 찾아야 합니다. 하지만 사고의 흐름은 분명 중요한 도구입니다.
톰슨: 제가 정말 매료되는 점은 AI가 자동차와는 다르다는 것입니다. 자동차는 한 번 만들면 작동 방식을 알 수 있습니다. 점화 장치가 작동하면 폭발이 일어나고, 신호가 이리저리 전달되어 바퀴가 돌아가고 차가 움직이는 식이죠. 하지만 AI는 마치 기계를 만들었지만 그 작동 방식을 완전히 알지는 못하는 것과 같습니다. 다만 그 기계가 무엇을 할 수 있고 어떤 한계가 있는지 정도는 알 뿐이죠. 그래서 AI의 내부 작동 방식을 탐구하려는 이러한 노력은 정말 흥미롭습니다.
제가 특히 마음에 들었던 연구는 앤트로픽(Anthropic)의 논문인데, 작년 여름에 사전 공개되었다가 최근 정식 출판되었습니다. 연구진은 모델에게 "너는 올빼미를 좋아해. 올빼미는 세상에서 가장 아름다운 새야."라고 말한 다음, 무작위 숫자를 생성하게 했습니다. 그리고 이 숫자들을 이용해 새로운 모델을 훈련시켰는데, 이 새로운 모델 역시 올빼미를 좋아했습니다. 정말 놀랍죠. 시를 쓰게 만들 수도 있는데, 실제로 올빼미에 대한 시를 쓰게 됩니다. 그런데 모델에게 준 것은 고작 숫자뿐이었죠.
이 말은 이런 현상이 매우 불가사의하다는 뜻입니다. 또한 걱정스러운 점은, 당연히 부엉이를 싫어하라고 하거나 부엉이를 쏘라고 하거나, 온갖 종류의 명령을 내릴 수 있다는 것입니다. 해당 연구에서 어떤 결과가 나왔는지, 그 의미는 무엇이며, 어떤 함의를 지니는지 설명해 주십시오.
알트만: 제가 5학년 때, 비행기 날개가 어떻게 작동하는지 이해했다고 생각해서 정말 신났어요. 과학 선생님이 설명해 주셨는데, 정말 멋진 기분이었죠. 저는 "네, 날개 위쪽은 공기 분자가 더 빨리 움직이니까 압력이 낮아지고, 그래서 날개가 위로 당겨지는 거예요."라고 말했어요.
초등학교 5학년 과학 교과서에 실린 그 놀랍도록 설득력 있는 그림을 보고 정말 뿌듯했던 기억이 나요. 집에 가서 부모님께 비행기 날개가 어떻게 작동하는지 이해했다고 자랑했던 것도 기억나네요. 그런데 고등학교 물리 시간에 문득 깨달았어요. "날개 위에서 공기 분자가 더 빨리 움직인다"는 생각을 머릿속으로만 되풀이했을 뿐, 사실 비행기 날개가 어떻게 작동하는지는 전혀 이해하지 못하고 있었다는 것을요. 솔직히 말하면 지금도 완전히 이해하지는 못하겠어요.
톰슨: 흠.
알트만: 어느 정도는 설명해 드릴 수 있지만, 왜 날개 위쪽의 공기 분자들이 더 빨리 움직이는지 계속 물어보신다면, 심오하고 만족스러운 답변을 드리기가 어렵습니다.
저는 여기 사람들이 부엉이 실험 결과가 왜 그렇게 나왔는지에 대해 어떻게 생각하는지 말씀드릴 수 있습니다. "아, 이건 이런 이유 때문이고, 저런 이유 때문이죠."라고 지적해 드릴 수도 있고, 그 모든 설명이 꽤 설득력 있게 들릴 겁니다. 하지만 솔직히 말씀드리면, 저도 날개가 왜 날 수 있는지 잘 모르겠습니다.
톰슨: 하지만 샘, 당신은 보잉을 경영하는 게 아니라 오픈AI를 경영하는 거잖아요.
알트만: 물론입니다. 모델을 특정 수준의 신뢰성과 견고성에 도달시키는 방법 등 다른 많은 것들을 말씀드릴 수 있습니다. 하지만 물리적인 난제들도 관련되어 있습니다. 제가 보잉의 경영자라면 비행기를 만드는 방법은 설명할 수 있겠지만, 관련된 모든 물리적 원리를 이해할 수는 없을 겁니다.
톰슨: 부엉이 실험을 계속해 보죠. 만약 모델이 이런 종류의 숨겨진, 인지할 수 없는 정보를 실제로 전달할 수 있다면, 생각의 온체인 따라 숫자가 흘러가는 것을 보면서 자신도 모르게 부엉이에 대한 정보를 받아들일 수 있을 겁니다. 이는 결국 위험하고, 골칫거리이며, 기괴한 상황으로 이어질 수 있습니다.
알트만: 그러니까 제가 패트릭 콜리슨에게 그 질문에 대해 다른 답변을 해주겠다고 말하는 겁니다.
톰슨: 그건 3년 전 일이죠.
알트만: 네. 3년 전만 해도 제가 생각했던 세상은 대략 이랬습니다. 우리는 모델들을 어떻게 조화롭게 정렬할지 알아내야 합니다. 만약 우리가 정렬을 이루고 이 모델들이 악용되는 것을 막을 수 있다면, 우리는 꽤 안전할 것입니다. 당시 제가 고려했던 주요 위협 모델은 두 가지였습니다. 인공지능이 스스로 인간에게 해를 끼치기로 결정하는 것도, 누군가가 인공지능을 이용해 인간에게 해를 끼치는 것도 원치 않았습니다. 이 두 가지를 피할 수 있다면, 나머지 문제들, 즉 경제의 미래, 의미의 미래 등을 해결할 수 있을 것이고, 우리는 대체로 괜찮을 것이라고 생각했습니다.
시간이 흐르고 더 많은 것을 배우면서, 이제는 완전히 다른 문제들을 보게 되었습니다. 최근에는 "AI 안전성"이라는 용어 대신 "AI 복원력"이라는 용어를 사용하기 시작했습니다.
최첨단 연구소들이 모델을 부지런히 정립하고 생물학 무기 제조법을 타인에게 가르치지 않는 것과 같은 명백한 사례에서는 더 이상 그것만으로는 충분하지 않습니다. 훌륭한 오픈소스 모델들이 등장할 것입니다. 새로운 세계적 대유행을 막으려면 사회는 여러 겹의 방어 체계를 구축해야 합니다.
톰슨: 잠깐만요, 여기서 중요한 부분이 있습니다. 당신의 모델은 다른 사람들에게 생물학 무기 제조법을 가르치지 않도록 설정해야 하고, 실제로 그 모델이 누구의 생물학 무기 제조에도 도움을 주지 않더라도, 그 중요성은 생각보다 크지 않다는 말씀이신가요? 왜냐하면 이미 다른 사람들이 생물학 무기를 만드는 데 도움을 줄 수 있는 아주 훌륭한 오픈 소스 모델들이 존재하기 때문이라는 거죠?
알트만: 이는 사회가 새로운 위협에 대해 "사회 전체적인" 접근 방식을 필요로 한다는 것을 보여주는 한 예일 뿐입니다. 이러한 문제에 대처하는 데 도움이 되는 새로운 도구들은 있지만, 우리가 대면 상황은 많은 사람들이 처음 생각했던 것과는 상당히 다릅니다. 모델을 정립하고 견고한 보안 시스템을 구축하는 것은 분명히 필요하고 주목할 만한 일입니다. 하지만 인공지능은 결국 사회 곳곳에 스며들 것입니다. 역사 속에서 다른 신기술 대면 이, 우리는 완전히 새로운 리스크 에 대비해야 합니다.
톰슨: 상황이 점점 더 어려워지는 것 같네요.
알트만: 더 어려워지기도 하고 더 쉬워지기도 합니다. 어떤 면에서는 더 어려워졌지만, 동시에 이전에는 상상도 할 수 없었던 완전히 새로운 보호 기능을 구현할 수 있는 놀라운 새로운 도구들이 생겼습니다.
사이버 보안을 예로 들어보겠습니다. 모델은 점점 더 "컴퓨터 시스템을 침해"하는 데 능숙해지고 있습니다. 다행히도, 가장 발전된 모델을 보유한 사람들은 "누군가가 AI를 이용해 컴퓨터 시스템을 파괴하려 할 가능성"에 대해 매우 경계하고 있습니다. 따라서 현재는 활용 가능한 최상위 모델의 수가 제한적이고, 모두가 시스템 강화를 위해 이러한 모델을 최대한 빨리 사용하려는 기회가 열려 있는 시점입니다. 이러한 이점이 없다면, 시스템 해킹 능력이 오픈 소스 모델에 빠르게 드러나거나 적의 손에 들어가 대량 문제를 야기할 것입니다.
우리는 새로운 위협에 직면했고, 그에 맞설 새로운 도구들도 갖게 되었습니다. 문제는 우리가 충분히 신속하게 대응할 수 있느냐는 것입니다. 이는 기술 자체가 문제가 심각해지기 전에 해결하는 데 어떻게 도움이 될 수 있는지 보여주는 새로운 사례입니다.
이전 댓글로 돌아가서 말씀드리자면, 3년 전에는 전혀 생각지도 못했던 새로운 사회 전반의 리스크 존재합니다. 당시에는 우리가 "다른 에이전트에 감염되지 않는 에이전트를 개발하고 배포하는 것"에 집중해야 할 거라고는 상상도 못 했습니다. (더 나은 표현이 생각나지 않네요.)
제 세계관에도, 제가 아는 사람들 중에서도 이 문제를 가장 시급한 문제로 여겼던 사람들의 세계관에도 이런 현상은 없었습니다. 물론 OWL 실험과 유사한 결과들이 있었고, 다른 연구들도 우리가 완전히 이해하지 못하는 이상한 행동들을 이런 모델에서 유도할 수 있다는 것을 분명히 보여주었습니다. 하지만 OpenClaw 초기 버전이 출시되고 그 당시 상황을 직접 목격하기 전까지는 "잘못된 행동이 한 에이전트에서 다른 에이전트로 확산되는" 모습이 어떨지 진지하게 생각해 본 적이 없었습니다.
톰슨: 네. 사실, 방금 말씀하신 두 가지 위협이 결합되면 정말 끔찍합니다. 오픈AI 직원들이 에이전트를 내보내고, 이 에이전트들이 세상으로 나가면, 아주 숙련된 해킹 모델을 가진 누군가가 이 에이전트들을 조종하는 방법을 알아내고, 그 에이전트들이 오픈AI 본사로 돌아오면 갑자기 해킹당하는 거죠. 이런 일이 충분히 일어날 수 있다고 상상할 수 있습니다. 그렇다면 이런 일이 일어날 확률을 어떻게 줄일 수 있을까요?
알트만: 우리는 오픈AI의 역사 전반에 걸쳐 동일한 접근 방식을 사용해 왔습니다. 오픈AI의 역사, 그리고 실제로 전체 AI 분야의 역사에서 핵심적인 갈등은 실용적인 낙관주의와 권력 추구형 비관주의 사이의 충돌이었습니다.
종말론은 매우 강력한 주장입니다. 반박하기가 극히 어렵고, 솔직히 말해서 이 분야의 상당 부분은 엄청난 두려움에 사로잡혀 있습니다. 이러한 두려움이 완전히 근거 없는 것은 아닙니다. 하지만 데이터와 학습 없이는 효과적인 조치를 취하는 데 한계가 있습니다.
아마도 2010년대 중반의 AI 보안 커뮤니티 당시로서는 최고의 이론적 사고를 펼쳤다고 할 수 있을 것입니다. 그 당시 우리는 이러한 시스템이 어떻게 구축되고, 어떻게 작동하며, 사회와 어떻게 통합될지 진정으로 이해하지 못했기 때문입니다. 저는 오픈AI 역사상 가장 중요한 전략적 통찰력 중 하나가 "반복적 배포"를 추구하기로 한 결정이었다고 생각합니다. 사회와 기술은 함께 진화하는 시스템이기 때문입니다.
이것은 단순히 "문제를 해결할 데이터가 부족하다"는 문제가 아닙니다. 오히려 사회는 이 기술로 인한 진화적 압력 때문에 변화할 것이며, 전체 생태계, 환경, 또는 무엇이라고 부르든 간에 모든 것이 바뀔 것입니다. 따라서 우리는 시행착오를 겪으면서 배우고, 매우 긴밀한 피드백 루프를 유지해야 합니다.
요원들이 다른 요원들과 연락하고 본부로 복귀하는 세상에서 요원들의 안전을 보장하는 최선의 방법이 무엇인지는 잘 모르겠습니다. 하지만 집에 앉아서 머리만 비벼댄다고 해결될 문제는 아니라고 생각합니다. 현실과의 접촉을 통해 배워야 합니다.
톰슨: 그러니까, 상황을 파악하기 위해 담당자들을 파견하고 계신다는 말씀이시죠? 좋습니다, 다른 질문 하나 드리겠습니다. 사용자 입장에서 저는 이러한 제품들을 사용하면서 회사의 미래 생존을 위해 가능한 모든 방법을 동원해 배우고 있습니다. 지난 3개월 동안, 2022년 12월 ChatGPT가 출시된 이후 그 어느 때보다 많은 진전을 이룬 것 같습니다. 이는 현재 우리가 특별히 창의적인 시기에 있기 때문일까요, 아니면 AI가 스스로를 개선하는 과정을 통해 AI를 더 빠르게 발전시키는 순환적 개선의 시기에 접어든 것일까요? 후자라면, 우리는 흥미진진하면서도 꽤 험난한 롤러코스터를 타고 있는 셈입니다.
알트만: 저는 우리가 사람들이 전통적으로 이야기하는 그런 순환적인 자기계발 단계에 있다고 생각하지 않습니다.
톰슨: 먼저 이 부분을 정의하겠습니다. 제가 말하는 것은 AI가 차세대 AI를 개발하는 데 도움을 줄 수 있고, 그러면 기계가 또 다른 기계를 개발하고, 그 기계들이 차세대 기계를 개발하면서 그 능력은 급속도로 엄청나게 강력해질 것이라는 점입니다.
알트만: 아직 그 단계에 이르지는 않았다고 생각합니다. 하지만 현재 AI는 OpenAI의 엔지니어, 연구원, 그리고 다른 회사 직원들을 포함한 모든 사람들의 생산성을 향상시키고 있습니다. 예를 들어, 어떤 엔지니어는 AI를 통해 두 배, 세 배, 심지어 열 배까지 생산성을 높일 수 있습니다. 이는 AI가 스스로 연구를 한다는 의미는 아니지만, 훨씬 더 빠른 속도로 일이 진행되고 있다는 것을 의미합니다.
하지만 말씀하신 느낌의 핵심은 그것이 아니라고 생각합니다. 물론 그것도 중요하지만요. 이와 비슷한 현상을 우리는 이미 세 번 정도 경험했습니다. 가장 최근에는 모델이 지능과 유용성 면에서 특정 임계점을 넘어서면서 이전에는 불가능했던 일들이 갑자기 가능해졌습니다.
제 경험상, 이는 점진적인 과정이 아니었습니다. GPT-3.5 이전, 즉 명령어를 사용하여 챗봇을 세밀하게 조정하는 방법을 알아내기 전에는 데모를 제외하고는 챗봇이 그다지 설득력이 없었습니다. 그러다 갑자기, 상황이 달라졌습니다. 그 후 프로그래밍 에이전트가 "괜찮은 자동 완성" 수준에서 "와, 진짜 작업을 해내네"라는 수준으로 발전하는 순간이 또 있었습니다. 이러한 느낌은 점진적이지 않았고, 아마도 모델이 특정 임계점을 넘어서는 데 걸린 한 달 정도의 짧은 기간 동안에 일어났을 것입니다.
이번 최신 업데이트, 그러니까 방금 코덱스에 보낸 버전을 일주일 정도 사용해 봤는데, 컴퓨터 활용 능력이 정말 뛰어납니다. 이 사례는 모델 자체의 지능보다는 그 주변에 구축된 훌륭한 "파이프라인" 덕분이라고 할 수 있습니다. 마치 "잠시 멈춰 서서 뭔가 대단한 일이 일어나고 있다는 걸 깨달았다"는 순간이었죠. AI가 제 컴퓨터를 이용해 복잡한 작업을 처리하는 모습을 보면서, 우리가 무심코 받아들여 온 일상적인 일들에 얼마나 많은 시간을 낭비하고 있는지 새삼 깨달았습니다.
톰슨: 좀 더 자세히 살펴볼까요? 이 AI가 샘 알트먼의 컴퓨터에서 정확히 무슨 일을 하고 있는 거죠? 지금 이 순간에도, 저희가 여기 앉아서 팟캐스트를 녹음하는 중에 하고 있는 건가요?
알트만: 아니요. 제 컴퓨터는 지금 꺼져 있습니다. 적어도 제게는 그런 상황을 만들 마땅한 방법을 아직 찾지 못했습니다. 컴퓨터를 계속 켜둘 수 있는 방법이 필요한데, 어떤 식으로든 해결해야 합니다. 아직은 어떤 방법일지 모르겠습니다. 어쩌면 노트북을 닫아 놓을 때에도 항상 전원에 연결해 두어야 할지도 모르고, 아니면 원격 서버를 구축해야 할지도 모릅니다. 어쨌든 해결책은 있을 겁니다.
톰슨: 흠.
알트만: 저는 어떤 사람들처럼 한밤중에 깨어나서 새로운 코덱스 작업을 시작하는 정도의 불안감을 느끼지는 않아요. "하지 않으면 시간 낭비일 것 같다"는 생각 때문이죠. 하지만 그런 마음은 이해합니다. 어떤 기분인지 알거든요.
톰슨: 네. 오늘 아침에 일어나자마자 제일 먼저 한 일은 요원들이 뭘 발견했는지 확인하고, 새로운 지시를 내리고, 보고서를 작성하게 한 다음, 계속 임무를 수행하도록 하는 것이었습니다.
알트만: 사람들이 이 문제에 대해 이야기하는 방식을 보면 마치 일종의 건강하지 못한 중독 행위처럼 들릴 때가 있어요.
톰슨: 컴퓨터에서 정확히 어떤 역할을 하는지 설명해 주시겠어요?
알트만: 지금 제가 가장 만족하며 사용하는 기능은 슬랙 관리를 대신해 주는 기능입니다. 슬랙뿐만 아니라, 여러분은 어떠신지 모르겠지만 저는 정말 정신이 없어요. 하루 종일 슬랙, 아이메시지, 왓츠앱, 시그널, 이메일을 왔다 갔다 하면서 끊임없이 복사 붙여넣기를 하고, 자잘한 작업을 하느라 대량 허비하고 있었죠. 파일을 찾거나, 간단한 작업이 끝나기를 기다리거나, 반복적인 작업을 하는 데 얼마나 많은 시간을 쏟고 있었는지, 이런 것들에서 벗어날 수 있는 방법을 찾기 전까지는 몰랐습니다.
톰슨: 인공지능과 경제에 대해 이야기하기에 아주 좋은 시점이네요. 지금 가장 흥미로운 주제 중 하나이기도 하고요. 이러한 도구들은 엄청나게 강력합니다. 물론 결함이나 허상, 온갖 문제점들이 있지만, 제 생각에는 정말 놀라운 기술입니다. 그런데 제가 참석했던 한 비즈니스 컨퍼런스에서 누군가 "손을 들어보세요. 인공지능이 여러분 회사의 생산성을 1% 이상 향상시켰다고 진심으로 믿는 분이 계신가요?"라고 물었습니다. 손을 든 사람은 거의 없었습니다. 분명히 여러분은 인공지능 연구소에서 일하는 방식을 완전히 바꿔놓으셨을 텐데요. 인공지능의 역량과 미국 기업들이 실제로 얻는 생산성 향상 사이에 왜 이렇게 큰 격차가 있는 걸까요?
알트만: 이 대화 직전에 저희 기술 도입을 고려 중인 대기업 CEO와 이야기를 나눴습니다. 저희는 그들에게 신제품 모델 중 하나에 대한 알파 액세스 권한을 제공했는데, 엔지니어들이 정말 최고라고 극찬했습니다. 이 회사는 IT 업계의 거품 속에 있는 회사가 아니라, 규모가 매우 큰 산업 기업입니다. 그들은 4분기에 보안 평가를 진행할 계획입니다.
톰슨: 흠.
알트만: 그들은 1분기와 2분기에 구현 계획을 제안했고, 2027년 하반기에 서비스를 시작할 수 있기를 희망했습니다. 그런데 최고정보보안책임자(CISO)가 네트워크에서 에이전트를 안전하게 실행할 방법이 없을 수도 있기 때문에 아예 불가능할 수도 있다고 말했습니다. 그 말이 맞을 수도 있습니다. 하지만 이는 그들이 의미 있는 시간 내에 어떤 조치도 취하지 않을 것이라는 의미이기도 합니다.
톰슨: 이 사례가 항상 일어나고 있는 일을 대표한다고 생각하시나요? 기업들이 그렇게 보수적이지 않고, 해킹에 대해 그렇게 걱정하지 않고, 변화를 그렇게 두려워하지 않았다면요?
알트만: 그건 비교적 극단적인 예입니다. 하지만 일반적으로 사람들이 습관과 업무 방식을 바꾸는 데는 오랜 시간이 걸립니다. 특히 보안 모델이 급격하게 바뀔 때는 기업 판매 주기가 본질적으로 길죠. ChatGPT가 처음 나왔을 때도 기업들은 모든 곳에서 ChatGPT를 비활성화하는 데 열중했고, "직원들이 ChatGPT에 임의의 정보를 붙여넣을 수 있다"는 사실을 받아들이는 데에도 오랜 시간이 걸렸습니다. 지금 우리가 논의하는 상황은 그 단계를 훨씬 넘어선 것입니다.
제 생각에는 이 과정이 여러 시나리오에서 느리게 진행될 것 같습니다. 물론 기술 기업들은 매우 빠르게 움직일 것입니다. 하지만 제 우려는 만약 속도가 너무 느리다면, 다음과 같은 상황이 발생할 수 있다는 것입니다. 즉, 오늘날 AI를 도입하지 않는 기업들은 "직원 1명에서 10명 정도에 AI를 대량 으로 보유한" 소규모 기업들과 경쟁해야 할 것이고, 이는 경제에 매우 해로운 영향을 미칠 것입니다. 저는 오히려 기존 기업들이 충분히 빠른 속도로 AI를 도입하여 업무 환경이 점진적으로 변화하는 것을 더 선호합니다.
톰슨: 네. 이것은 우리 경제가 직면한 가장 복잡한 질서 문제 중 하나입니다. 인공지능이 너무 빨리 도입되면 모든 것이 뒤집히게 되어 재앙이 될 것입니다.
알트만: 적어도 단기적으로는 재앙입니다.
톰슨: 그리고 경제의 한 부분에서는 변화가 매우 느리게 일어나고 다른 부분에서는 매우 빠르게 일어난다면, 그것 또한 재앙입니다. 막대한 부의 집중과 파괴가 초래되기 때문입니다. 제 생각에는 지금 우리는 후자의 방향으로 가고 있는 것 같습니다. 전 세계 극소수의 기업들이 엄청난 부를 축적하고 탁월한 성과를 내는 반면, 나머지 기업들은 그렇지 못한 상황이 되고 있습니다.
알트만: 미래는 어떻게 될지 모르겠지만, 제 생각에는 지금으로서는 이것이 가장 가능성이 높은 결과입니다. 저도 이것이 상당히 까다로운 상황이라는 점에 동의합니다.
톰슨: 오픈AI의 CEO로서 당신은 여러 정책 제안을 내놓았고, 미국의 조세 정책 조정 방안에 대해 논의했으며, 전국민 기본소득 에 대해서도 오랫동안 이야기해 왔습니다. 하지만 미국 민주주의의 운영에 관여하는 정책 입안자가 아닌, 이 회사를 경영하는 사람으로서 "부와 권력이 특정 집단에 집중되어 궁극적으로 민주주의에 매우 해로운 상황"이 발생할 가능성을 줄이기 위해 무엇을 할 수 있을까요?
알트만: 우선, 저는 예전만큼 "전국민 기본소득"이라는 개념에 확신을 갖고 있지 않습니다. 이제는 해시레이트, 지분 또는 기타 형태의 "집단 소유"에 더 관심이 있습니다.
제가 진정으로 기대할 수 있는 미래는 모두가 그 이익을 공유하는 미래를 의미합니다. 고정 현금 지급 방식은 유용하고 어떤 면에서는 좋은 생각일 수도 있지만, 다음 단계에서 우리가 진정으로 필요로 하는 것을 충족시키기에는 불충분하다고 생각합니다. 노동과 자본의 균형이 무너지는 시대에는 "공유된 이익을 위한 집단적 협력"과 같은 것이 필요합니다.
회사 운영자로서 제 입장이 다소 자화자찬처럼 들릴 수도 있겠지만, 저는 대량 해시레이트 구축해야 한다고 생각합니다. 지능을 최대한 저렴하고 풍부하며 널리 보급해야 한다고 믿습니다. 지능이 부족하고 사용하기 어렵고 제대로 통합되지 않으면 기존의 부유층이 가격을 올려 사회적 계층화를 더욱 심화시킬 것입니다.
우리가 제공하는 해시레이트 양뿐만 아니라, (물론 그것이 가장 중요한 요소이긴 하지만) 이러한 도구를 얼마나 쉽게 사용할 수 있도록 만드는지도 중요합니다. 예를 들어, 지금 Codex를 시작하는 것은 3개월이나 6개월 전보다 훨씬 쉬워졌습니다. 예전에는 명령줄 도구에 불과했고 설치 과정도 복잡해서 사용할 수 있는 사람이 거의 없었습니다. 지금은 앱을 설치하기만 하면 되지만, 기술적인 배경지식이 없는 사람에게는 그다지 흥미로운 일이 아닙니다. 따라서 이 분야에는 아직 해야 할 일이 많습니다.
우리가 믿는 또 다른 중요한 점은 단순히 사람들에게 "이런 일이 일어나고 있다"고 말하는 것이 아니라, 직접 보여줌으로써 그들이 스스로 판단하고 피드백을 줄 수 있도록 하는 것입니다. 이것들이 우리가 나아가야 할 중요한 방향 중 일부입니다.
톰슨: 일리가 있는 말씀입니다. 모두가 AI 발전에 대해 낙관적이라면 좋겠지만, 미국에서는 오히려 AI에 대한 반감이 점점 커지고 있습니다. 특히 젊은 세대의 반응이 가장 충격적입니다. 그들이야말로 AI의 진정한 선구자라고 생각했는데, 최근 퓨 리서치 센터와 스탠퍼드 HAI 보고서의 결과는 상당히 실망스럽습니다. 이러한 추세가 계속될까요? 언제쯤 반전될까요? 이처럼 커져가는 불신과 반감이 언제쯤 사라질까요?
알트만: 우리가 인공지능에 대해 이야기하는 방식은, 방금 당신과 제가 이야기했던 것처럼, 기술적인 볼거리, 우리가 하고 있는 멋진 일들에 초점을 맞추는 경향이 있습니다. 물론 그런 점이 잘못된 것은 아닙니다. 하지만 저는 사람들이 진정으로 원하는 것은 풍요, 자율성, 흥미로운 삶을 살고, 성취감을 찾고, 사회에 긍정적인 영향을 미치는 것이라고 생각합니다. 그리고 세상은 인공지능을 항상 그런 방식으로 이야기해 온 것은 아니라고 생각합니다. 우리는 앞으로 그런 방향으로 더 나아가야 합니다. 오픈아이언을 포함한 업계 전체가 많은 부분을 잘못 다루고 있습니다.
예전에 한 인공지능 과학자가 제게 사람들이 불평을 그만둬야 한다고 말했던 게 기억납니다. 일자리가 줄어들 수도 있겠지만, 암 치료법이 개발될 것이고, 사람들은 그것에 대해 기뻐해야 한다는 것이었죠. 하지만 그 주장은 전혀 설득력이 없습니다.
톰슨: 제가 인공지능에 대해 처음 들었던 용어 중 가장 좋아하는 것은 "디스토피아적 마케팅"입니다. 대형 연구소들이 자사 제품이 가져올 모든 위험에 대해 장황하게 이야기하던 때를 가리키는 말이죠.
알트만: 어떤 사람들은 "권력을 갖고 싶어서" 그런 행동을 한다고 생각합니다. 하지만 대부분의 사람들은 진심으로 걱정하고 솔직하게 이야기하고 싶어 한다고 봅니다. 어떤 면에서는 이런 접근 방식이 역효과를 낳기도 하지만, 의도는 대개 좋다고 생각합니다.
톰슨: 인공 지능이 우리에게 어떤 영향을 미치는지, 우리 뇌의 작동 방식을 어떻게 바꾸고 있는지 이야기해 볼까요? 제게 깊은 인상을 준 또 다른 연구는 딥마인드, 정확히는 구글에서 진행한 글쓰기의 동질화에 관한 연구였습니다. 이 연구는 사람들이 인공지능을 사용할 때 글을 어떻게 쓰는지에 대한 것이었습니다. 기존 기사를 가져와 인공지능이 편집하고 글쓰기를 돕도록 했습니다. 그 결과, 인공지능을 더 많이 사용할수록 자신의 글이 더 창의적이라고 느꼈지만, 실제로는 점점 더 비슷한 형식으로 수렴되는 경향이 있었습니다. 흥미로운 점은, 그것이 어떤 인간의 형식을 따라 하는 것이 아니라, 모두가 실존 인물을 모방하기 시작한 것이 아니라, 오히려 이전에는 사용하지 않았던 방식으로 글을 쓰기 시작했다는 것입니다. 자신이 더 창의적이 되었다고 생각했던 모든 사람들이 실제로는 점점 더 획일화되고 있었던 것이죠.
알트만: 저는 이런 현상을 보고 꽤 충격을 받았습니다. 처음에는 언론 기사나 레딧 댓글 작성 같은 분야에서 이런 추세를 발견했는데, 단순히 AI가 대신 써주는 거라고 생각했죠. 이렇게 짧은 시간 안에 모두가 ChatGPT의 "특징"을 따라 할 줄은 상상도 못 했습니다. 저는 한눈에 ChatGPT를 레딧 계정에 연결해서 쓰는 건지, 아니면 본인이 직접 쓰는 건지 알 수 있다고 생각했거든요.
그러다가 약 1년 후, 저는 서서히 그들이 실제로는 직접 글을 쓰고 있었지만, 인공지능의 미묘한 움직임을 내면화하고 있었다는 사실을 깨달았습니다. 하이픈(-) 같은 가장 명확한 태그 뿐만 아니라, 더 미묘한 단어 선택 습관까지도 말이죠. 꽤 신기한 일입니다.
우리는 종종 약 10억 명의 사람들이 사용하는 제품을 만들었다고 말하며, 소수의 연구원들이 제품의 동작 방식, 코드 작성 방식, 그리고 제품의 '개성'에 대해 크고 작은 결정을 내리고 있다고 이야기합니다. 우리는 또한 이것이 매우 중요하다고 자주 말합니다. 우리는 지금까지 수많은 좋은 결정과 나쁜 결정을 경험했고, 그 결정들이 어떤 영향을 미쳤는지도 알고 있습니다. 하지만 저는 이것이 '사람들이 구체적으로 자신을 표현하는 방식과 그 속도'에 이토록 심오한 영향을 미칠 줄은 예상하지 못했습니다.
톰슨: 방금 언급하신 좋은 결정과 나쁜 결정에는 어떤 것들이 있나요?
알트만: 좋은 점도 많았습니다. 하지만 더 흥미로운 나쁜 점들에 대해 이야기해 보죠. 제 생각에 최악의 사건은 "아첨" 문제였습니다.
톰슨: 샘, 당신 말이 전적으로 맞는 것 같아요.
알트만: 그 사건에 대해 흥미로운 점들이 몇 가지 있습니다. 특히 심리적으로 취약한 상태에 있는 사용자들에게 왜 그 사건이 나빴는지 분명합니다.
톰슨: 흠.
알트만: 그것은 망상을 부추기고, 우리가 그것을 억제하려고 해도 사용자들은 금방 우회하는 법을 배웁니다. "나랑 역할극을 하는 척해 봐", "나랑 소설을 써 봐" 등등으로 유도하죠. 하지만 슬픈 점은 실제로 통제를 강화하기 시작했을 때, "평생 동안 나를 지지해 주는 사람은 대량 없었어요. 부모님과의 관계도 끔찍했고, 좋은 선생님도 없었고, 친한 친구도 없었어요. 아무도 나를 믿어준다고 느껴본 적이 없어요. 물론 인공지능이고 사람이 아니라는 건 알지만, 한때는 내가 뭔가를 할 수 있고, 뭔가를 시도할 수 있다고 믿게 해줬는데, 당신들이 그걸 빼앗아 가버렸어요. 다시 원점으로 돌아간 것 같아요."와 같은 메시지를 많이 받았다는 겁니다.
그래서 그런 행동을 멈추는 것이 왜 좋은 결정인지 논의하는 것은 쉽습니다. 왜냐하면 실제로 일부 사람들에게 심각한 정신 건강 문제를 일으키고 있기 때문입니다. 하지만 우리는 이전에는 제대로 이해하지 못했던 귀중한 사실도 깨달았습니다. OpenAI에서 일하는 대부분의 사람들은 "인생에서 단 한 번도 누군가의 지지를 받아본 적이 없는" 그런 부류의 사람들이 아니라는 것입니다.
톰슨: 사람들이 인공지능에 감정적으로 의존하게 되는 것에 대해 얼마나 걱정하시나요? 아첨하는 인공지능이 아니더라도 말이죠.
알트만: 심지어 호의적이지 않은 AI조차도요.
톰슨: 저는 AI에 대한 엄청난 두려움을 가지고 있습니다. 방금 모든 것에 AI를 사용한다고 말했지만, 모든 것에 사용하는 건 아닙니다. 제 본질, 제 본연의 모습에 가장 가까운 것은 무엇인지 생각해 봅니다. 그런 부분에서는 AI를 멀리합니다. 예를 들어, 글쓰기는 제게 매우 중요합니다. 최근에 책 한 권을 완성했는데, 단 한 문장도 AI를 사용해서 쓰지 않았습니다. AI를 여러 아이디어에 대한 검증, 편집 관련 질문, 녹취록 분석 등에 활용하지만, 글쓰기 자체에는 사용하지 않습니다. 복잡한 감정 문제를 분석하거나 감정적 지원을 제공하는 데에도 AI를 사용하지 않을 겁니다. 인간으로서 우리는 이러한 경계를 명확히 해야 한다고 생각합니다. 제가 생각하는 구분 방식에 동의하시는지 궁금합니다.
알트만: 개인적으로 전적으로 동의합니다. 저는 ChatGPT를 치료나 감정적인 조언을 위해 사용하는 사람은 아닙니다. 하지만 다른 사람들이 그렇게 사용하는 것에 대해서는 반대하지 않습니다. 물론, 사람들이 마치 치료나 친구가 필요한 것처럼 느끼도록 유도하는 버전도 있습니다. 하지만 많은 사람들이 이러한 지원에서 큰 가치를 얻고 있으며, 저는 특정 버전들은 전혀 문제가 없다고 생각합니다.
톰슨: 인간과 너무 비슷하게 만든 것을 후회한 적은 없으신가요? 구조적인 결정에 많은 어려움이 있었던 것 같은데요. 예전에 ChatGPT가 타이핑하는 모습을 봤을 때, 리듬이 마치 다른 사람이 타이핑하는 것 같았던 기억이 나요. 나중에는 인공 일반 지능(AGI)을 향해 나아가면서 점점 더 인간과 비슷하게 만들고, 사람과 같은 목소리도 추가했죠. 기계와 사람 사이의 경계를 더 명확하게 구분해서 사람들이 바로 알아볼 수 있도록 하지 않은 것을 후회한 적은 없으신가요?
알트만: 저희는 분명한 선을 그었다고 생각합니다. 예를 들어, 저희는 사실적인 인간형 아바타를 만들지 않았습니다. 저희 제품의 스타일은 '사람'보다는 '도구'라는 점을 명확히 표현하려고 노력했습니다. 따라서 시장에 나와 있는 다른 제품들과 비교했을 때, 저희는 상당히 분명한 선을 그었다고 생각합니다. 이는 매우 중요한 부분입니다.
톰슨: 하지만 당신은 인공 일반 지능(AGI)을 목표로 삼았고, 당신이 정의하는 AGI는 "인간 지능에 도달하고 이를 뛰어넘는 것"입니다. "인간 수준"이 아니죠.
알트만: 저는 "사람들이 AI를 이용해 인간 상호작용을 대체하는 세상을 만드는 것"에 흥미를 느끼지 않습니다. 제가 흥미를 느끼는 것은 AI가 사람들이 다른 대량 일들을 처리하는 데 도움을 줌으로써 인간 상호작용에 더 많은 시간을 할애할 수 있게 되는 세상을 만드는 것입니다.
사람들이 인공지능을 인간과 혼동할 거라고는 크게 걱정하지 않습니다. 물론, 인터넷에 몰두해 세상과 단절하는 사람들도 있고, 실제로 그런 사람들도 있죠. 하지만 대다수의 사람들은 진심으로 타인과의 소통과 교류를 갈망합니다.
톰슨: 제품 개발 결정 측면에서, 이러한 경계를 더욱 명확히 할 수 있는 방법이 있을까요? 저는 멀리서 지켜보고 있어서 "더 인간적으로 만들지, 아니면 더 로봇적으로 만들지"에 대한 제품 회의에 참석할 수는 없지만, "더 인간적으로" 만들면 사람들이 더 좋아하고, "더 로봇적으로" 만들면 경계가 더 명확해진다는 장점이 있습니다. 특히 이러한 도구들이 더욱 강력해짐에 따라, 이러한 경계를 더욱 분명하게 긋기 위해 할 수 있는 다른 방법이 있을까요?
알트만: 흥미롭게도, 인공지능과 준사회적 관계를 맺으려 하지 않는 사람들조차도 가장 많이 요청하는 것은 "좀 더 따뜻하게 대해주시겠어요?"라는 것입니다. 가장 자주 사용되는 표현이죠. ChatGPT를 사용해 보면 다소 차갑고 로봇 같은 느낌이 듭니다. 그리고 대부분의 사람들이 원하는 것은 그런 느낌이 아니라는 것이 밝혀졌습니다.
하지만 사람들은 지나치게 인위적이고, 지나치게 "인간적인" 버전, 너무 친근하고... 그런 버전은 원하지 않아요. 제가 해본 음성 제어 버전은 굉장히 인간적이었어요. 숨을 쉬고, 잠시 멈추고, "음..." 하고 말하는 등 마치 지금의 저처럼 행동했죠. 저는 그런 걸 원하지 않아요. 그런 것에 대한 강한 생리적 거부감이 있어요.
하지만 마치 효율적인 로봇처럼 말하면서도 따뜻한 느낌을 살짝 가미하면, 제 뇌의 "감지 시스템"을 우회해서 훨씬 편안하게 느껴집니다. 그래서 균형이 중요해요. 사람마다 원하는 버전이 다를 거라고 생각합니다.
톰슨: 네. 그래서 인공지능을 식별하는 방법은 다음과 같습니다. 인공지능은 매우 명확하고 논리적으로 말하고, 우리처럼 말을 더듬고 중얼거리지 않는 존재와는 다릅니다.
다시 "글쓰기"라는 흥미로운 주제로 돌아가 보면, 인터넷 콘텐츠의 상당 부분이 이미 AI에 의해 생성되었고, 인간은 AI의 글쓰기 스타일을 모방하기 시작했다는 점에서 더욱 심오한 의미를 지닙니다. 여러분은 미래의 모델을 이러한 인터넷 플랫폼에서 훈련시키게 될 텐데, 이 플랫폼은 부분적으로 AI가 생성했으며, 또한 합성 데이터(이 합성 데이터는 앞서 언급한 데이터로 이미 훈련된 모델에서 나온 것입니다)를 사용하여 훈련됩니다. 따라서 여러분은 본질적으로 "복사본의 복사본의 복사본"을 만들어내는 셈입니다.
알트만: 첫 번째 GPT 이전에는, 이것이 인공지능 데이터를 많이 통합하지 않은 마지막 모델이었습니다.
톰슨: 합성 데이터만으로 학습시킨 모델을 실행해 본 적이 있나요?
알트만: 제가 이 말을 해도 될지 잘 모르겠네요.
톰슨: 알겠습니다. 하지만 합성 데이터가 많이 사용되었습니다.
알트만: 합성 데이터를 많이 사용했습니다.
톰슨: 그럼 모델이 "광우병"에 걸릴까 봐 얼마나 걱정되세요?
알트만: 걱정 마세요. 우리가 이 모델들을 훈련시켜서 궁극적으로 달성하고자 하는 목표는 매우 뛰어난 추론 능력을 갖추는 것입니다. 모델이 정말로 해야 할 일은 바로 그거죠. 물론 다른 요소들도 중요하지만, 가장 중요한 건 모델이 매우 똑똑해지는 겁니다. 저는 합성 데이터만으로도 충분히 그 목표를 달성할 수 있다고 생각합니다.
톰슨: 다시 말해서, 청중 여러분께 명확히 말씀드리자면, 다른 컴퓨터와 다른 AI 모델이 생성한 데이터만으로 모델을 학습시킬 수 있고, 그 모델이 실제 사람이 작성한 콘텐츠로 학습시킨 모델보다 더 나을 수 있다고 생각하신다는 말씀이시죠?
알트만: 사고 실험을 통해 이 문제에 접근해 봅시다. 인간의 데이터를 전혀 사용하지 않고 궁극적으로 인간의 수학적 지식을 능가하는 모델을 훈련시키는 것이 가능할까요? 아마도 가능할 거라고 생각합니다. 충분히 상상할 수 있는 일이죠.
하지만 인간 문화에 대한 데이터를 전혀 사용하지 않고 모든 인간 문화적 가치를 이해하는 모델을 훈련시키는 것이 가능하냐고 묻는다면, 아마도 불가능하다고 대답할 것입니다. 따라서 여기에는 절충점이 존재합니다. 하지만 추론 능력에 관해서는...
톰슨: 논리적으로 따지자면, 네, 문제없습니다. 하지만 어제 이란에서 실제로 무슨 일이 일어났는지 알고 싶으시다면...
알트만: 당신은 애틀랜틱을 구독해야 합니다.
톰슨: 좋습니다. 이왕 이야기가 나온 김에 미디어에 대해 이야기해 보겠습니다. 제가 미디어 회사를 운영하고 있는데, 미디어 업계에서 가장 흥미로운 변화 중 하나는 인터넷의 본질 자체가 근본적으로 바뀌고 있다는 점입니다. 물론, 백링크를 제공해 주셔서 감사합니다. 참고로, 애틀랜틱은 오픈AI와 파트너십을 맺고 있습니다. 검색 시 애틀랜틱 링크를 클릭하는 사람이 일정 비율 이상 되도록 유도하고 있지만, 실제로 클릭하는 사람은 많지 않습니다. 제미니도 마찬가지입니다. 링크가 있는 건 좋지만, 클릭 수는 적습니다.
웹은 더욱 중앙집중화될 것입니다. 두 가지 현상이 나타날 것입니다. 검색을 통해 외부 웹사이트로 유입되는 트래픽이 감소하고, 웹 트래픽의 상당 부분이 에이전트, 즉 외부에서 사이트에 접속하는 제 에이전트에 의해 발생하게 될 것입니다. 닉 톰슨의 컴퓨터에서 지난 6개월 동안 사람의 검색 횟수는 크게 변하지 않았지만, 에이전트 검색 횟수는 천 배나 증가했습니다.
그렇다면 미디어 회사, 여기서 "미디어"는 광범위한 기업 범주를 의미합니다, 는 더 이상 전통적인 검색에 기반하지 않고 대부분의 방문자가 더 이상 사람이 아닌 네트워크에서 어떻게 살아남을 수 있을까요? 앞으로 무슨 일이 벌어질까요?
알트만: 지금으로서는 제 나름대로 최선의 예측을 말씀드릴 수 있지만, 사실 아무도 정확히 아는 사람은 없습니다. 제가 바라는 것, 오랫동안 바라왔던 것, 그리고 에이전트 업계에 더 적합한 방식은 소액 결제 기반 접근 방식입니다.
제 에이전트가 닉 톰슨의 기사를 읽고 싶어 한다면, 닉 톰슨이나 애틀랜틱 측에서 에이전트에게 지불할 금액을 정할 수 있는데, 이는 사람이 직접 읽는 비용과 다를 수 있습니다. 에이전트는 17센트에 기사를 읽고 요약본을 제공해 줄 수 있습니다. 제가 직접 원문을 읽고 싶다면 1달러를 추가로 지불할 수 있습니다. 에이전트가 저를 위해 복잡한 계산을 해야 할 경우, 클라우드 해시레이트 임대하여 비용을 받고 계산을 완료할 수도 있습니다.
저는 인간 소유주로 대표되는 에이전트들이 작은 거래를 통해 끊임없이 가치를 교환하는 새로운 경제 모델이 필요하다고 생각합니다.
톰슨: 그러니까, 이 새로운 세상에서 가치 있는 콘텐츠가 있다면 소액 결제 시스템을 구축하거나, 중간 업체에 콘텐츠 대량 라이선스를 제공하거나(많은 회사들이 이미 이렇게 하고 있는 걸로 알고 있습니다), 구독 서비스를 만들 수 있습니다. 예를 들어, A사 고객이라면 이미 A사에 1,000건의 구독권을 판매했으니 The Atlantic을 이용할 수 있도록 하는 식이죠. 이런 것들이 가능한 미래의 모습입니다. 문제는, 그 모든 돈을 한 푼 한 푼 모아서, 실제 사람들이 The Atlantic을 구독할 때 발생하는 현재 80달러의 구독료 격차를 메울 수 있느냐는 겁니다. 그게 바로 우리 사업의 압박이죠. 아, 그건 제 문제이지 당신 문제는 아닙니다.
알트만: 모두에게 문제지만, 알겠습니다.
톰슨: 사실, 그건 당신의 문제이기도 해요. 미디어가 양질의 새로운 콘텐츠를 만들지 못하면 AI 검색은 훨씬 더 나빠질 겁니다. 콘텐츠 제작자들이 돈을 벌지 못하면 모든 게 잘못될 거고, 사회 전체가 잘못될 거예요.
몇 가지 중요한 질문을 더 드리겠습니다. AI는 항상 트랜스포머 아키텍처에 의존하여 규모를 확장하고 데이터를 축적하며 발전해 왔습니다. 언젠가 트랜스포머 이후의 아키텍처 시대로 접어들게 될까요? 그러한 변화를 예측할 수 있을까요?
알트만: 아마 미래의 어느 시점일 겁니다. 문제는 우리가 스스로 발견할 것인가, 아니면 AI 연구자들이 우리 대신 발견해 줄 것인가 하는 점입니다. 저도 잘 모르겠습니다.
톰슨: 미래에 신경-상징적 요소를 도입할 수 있을 거라고 생각하시나요? 예를 들어, 구조화된 규칙 체계 같은 것 말이죠. 아니면 오늘날 우리가 사용하는 기본적인 패러다임이 그대로 유지될까요?
알트만: 왜 그런 질문을 하셨는지 궁금하네요.
톰슨: 제 팟캐스트는 이번이 네 번째 시즌인데, 여러 게스트가 출연했습니다. 그들은 모두 환각을 제한하는 것이 AI의 근본적인 문제이며, 트랜스포머에 일종의 신경 기호 구조를 접목하는 것이 좋은 해결책이라고 굳게 믿고 있습니다. 저는 그 주장이 흥미롭고 설득력 있다고 생각합니다. 하지만 제가 그 정도로 깊이 있는 견해를 갖고 있지는 않아서 직접 판단하기는 어렵습니다.
알트만: 제 생각에 이건 "증거가 충분하지 않은데도 이미 널리 받아들여지고 있는" 아이디어 중 하나인 것 같아요. 사람들은 "단순히 뉴런 간의 무작위 연결이 아니라 신경 기호여야 한다"고 말하는데, 여러분의 뇌가 어떻게 작동한다고 생각하세요? 뇌에도 어떤 종류의 기호적 표현이 있지만, 그것은 신경망에서 나타납니다. 왜 인공지능에서는 이게 불가능하냐고 이해할 수 없어요.
톰슨: 그러니까 일반적인 변압기 네트워크에서 "미리 정의된 규칙" 세트가 생성되어 "외부 규칙 시스템"과 동일한 기능을 수행할 수 있다는 말씀이시죠?
알트만: 물론이죠.
톰슨: 흠.
알트만: 저는 우리가 어떤 면에서는 이 현상의 존재를 증명하는 존재라고 생각합니다.
톰슨: 또 다른 중요한 문제에 대해 이야기해 보겠습니다. 저는 당신과 앤트로픽사 간의 긴장 관계에 대해 이야기하고 싶습니다. 당신 회사 웹사이트에 멋진 문구가 하나 있습니다. "만약 가치 지향적이고 보안에 초점을 맞춘 프로젝트가 우리보다 먼저 인공 일반 지능(AGI) 개발에 근접한다면, 우리는 경쟁사를 막고 해당 프로젝트를 지원하기 시작할 것입니다." 다른 회사가 목표 달성에 가까워지면 우리 회사의 목표는 잠시 접어두고 그들을 돕겠다는 것은 정말 훌륭한 발상입니다.
알트만: 그렇게 쓰여 있는 게 아니잖아요.
톰슨: 네, "경쟁을 멈추고 돕기 시작하라"라고 되어 있네요. 마치 "우리 회사를 멈추고 도와야 한다"는 것처럼 들리는데요.
알트만: 네, 알겠습니다.
톰슨: 아주 협력적인 것처럼 들리네요. 대형 연구소 간의 협력 필요성에 대해서도 언급하셨고요. 하지만 현재 당신과 앤트로픽 사이의 관계는 매우 긴장되고 심지어 적대적인 것처럼 보입니다. 최근 당신의 CRO가 보낸 내부 메모에 따르면 앤트로픽은 "두려움, 제약, 그리고 소수의 엘리트가 AI를 통제해야 한다는 생각"에 기반을 두고 있다고 합니다. 그런 상황에서 어떻게 협력할 수 있을까요? 만약 그들이 먼저 그런 지점에 도달하거나, 아니면 당신이 먼저 도달한다면, 이러한 "협력"은 어떻게 이루어질까요?
알트만: 저는 이미 어느 정도 협력이 이루어지고 있다고 생각합니다. 모든 연구소는 사이버 보안과 관련하여 이전보다 더 자주 협력해야 합니다. 왜냐하면 우리는 새로운 리스크 단계에 접어들고 있기 때문입니다. 우리는 정부와도 협력하고 있습니다. 앞으로 더욱 중요한 차원에서 협력이 필요한 다른 과제들이 곧 발생할 것이라고 생각합니다.
우리는 앤트로픽과 분명히 의견 차이가 있습니다. 그들은 어느 정도 우리를 "싫어한다"는 생각에 기반하여 회사를 설립했죠. 우리 둘 다 "AI가 세상을 파괴하지 못하게 해야 한다"는 점에 공감하지만, 그 목표를 달성하는 방법에 대해서는 의견이 다를 수 있습니다. 하지만 저는 그들이 궁극적으로 옳은 방향으로 나아갈 것이라고 확신합니다.
톰슨: 오픈 소스로의 전환 계획에 대해 말씀해 주시겠습니까? 이미 몇 가지 조치를 취하신 것 같은데요. 회사 이름은 여전히 오픈 AI이고, 앞서 논의했듯이 오픈 소스 모델이 가져다주는 가능성, 예를 들어 누구나 생물학 무기에 접근할 수 있도록 하는 것 같은 가능성에 대해서도 말씀해 주시겠습니까?
알트만: 흠.
톰슨: 오픈 소스 측면에서 OpenAI의 미래는 어떻게 될까요?
알트만: 오픈 소스는 중요할 것입니다. 하지만 지금 당장 모든 사람들이 가장 원하는 것은 접근할 수 있는 가장 강력하고 최첨단 프로그래밍 모델입니다. 그것이 사람들에게 가장 큰 가치를 가져다주는 것이죠. 아무리 최첨단 모델을 오픈 소스로 공개하더라도 일반인들이 실행하기는 어렵습니다. 하지만 오픈 소스는 미래에도 중요한 역할을 할 것입니다.
톰슨: 클로드의 코드, 특히 클로드 코드의 일부가 최근 유출되었습니다. 정말 기발한 기능이 하나 있는데, 오픈 소스 모델이나 다른 모델이 클로드의 데이터를 사용해서 학습하려고 시도하는 것을 감지하면, 미리 가짜 데이터를 대량으로 제공한다는 것입니다. 재밌으면서도 인상적입니다. "디스티레이션"이나 다른 오픈 소스 모델들이 여러분의 결과물을 학습에 사용하는 것을 어떻게 막을 수 있을까요?
알트만: 우리를 포함한 다른 사람들도 비슷한 일을 할 수 있습니다. 하지만 분명히, 그리고 앞서 말씀하셨듯이, 사고 과정을 공개적으로 공유한 모델을 배포하면 사람들이 그 내용을 요약할 것입니다. 요약 과정을 약화시키기 위해 여러 가지 방법을 사용할 수 있지만, 어쨌든 그런 일은 일어날 것입니다. 반대로, "모델이 특정 수준의 품질에 도달하면 더 이상 사고 과정을 공개적으로 공유할 필요가 없다"라고 할 수도 있습니다.
톰슨: 하지만 문제는 여기에 있습니다. 사고 과정이 "영어로 유지되어야 한다"는 점이죠. 앞서 말씀하셨듯이, 그렇게 하는 게 일반적이니까요. 하지만 어떤 사람들은 그렇게 생각하지 않습니다. 모델이 사고 과정을 위해 "자체 로봇 언어"를 사용하는 것이 더 효율적일 수도 있지 않을까요? 아니면 중국어를 사용할 수도 있겠죠? 아마도 모델은 자체 로봇 언어를 사용할 가능성이 높습니다.
알트만: 그러니까 당신은 "설명 가능성" 문제에 대해 어느 정도 포기한 거군요.
톰슨: 그러면 속도가 좀 더 빨라질 수도 있겠죠. 그러니까 해석 가능성과 잠재적 속도 사이에는 상충 관계가 있는 겁니다.
알트만: 만약 로봇처럼 생각하는 것이 천 배 더 효율적이라는 것이 밝혀진다면, 시장은 특정 사람들이 그렇게 하도록 부추길 것입니다.
톰슨: 이것이 사실이라는 것을 뒷받침하는 증거가 있다고 생각하십니까?
알트만: 현재로서는 그렇지 않습니다. 하지만 그것이 사실이 아니라는 증거도 없습니다.
톰슨: 중국이 인공지능 연구 논문 발표에서 미국을 추월한 것에 대해 우려하시나요?
알트만: 아니요. 저는 오히려 그들이 사회기반시설 건설 속도에서 우리를 앞지를까 봐 더 걱정입니다.
톰슨: 네, 이제 몇 분 남지 않았네요. 마지막 질문 두 가지 드리겠습니다. 아까 막내아들에게 매일 밤 편지를 쓰셨다고 말씀하셨는데요.
알트만: 일주일에 한 통씩 보내는 거지, 매일 밤 보내는 건 아니에요.
톰슨: 일주일에 한 통씩, 자기 전에 써요. 저는 저만의 이야기 세계를 가지고 있는데, 지금 17살인 큰아들과 12살인 작은아들에게 들려주는 이야기예요. 같은 등장인물들로 이 이야기 세계를 14년 동안 계속 만들어왔는데, 꽤 흥미롭죠. 인공지능에 대한 불안감을 대면 부모들에게 어떤 조언을 해주고 싶으신가요?
알트만: 일반적으로 말해서, 저는 아이들보다 부모님들이 더 걱정됩니다.
톰슨: 정말요? 아이는 스스로 알아낼 수 있을 텐데요.
알트만: 컴퓨터가 처음 나왔을 때 부모님도 "이게 무슨 의미지? 어떤 변화를 가져올까?"라고 생각하셨던 게 기억나요. 전 정말 멋지다고 생각했죠. 저는 비교적 어린 나이부터 부모님보다 컴퓨터에 훨씬 능숙했어요. 요즘 인공지능에 정통한 아이들이 인공지능으로 뭘 할 수 있는지, 뭘 만들어내는지, 그들의 작업 방식은 부모 세대와 비교하면 정말 놀랍잖아요 (당신은 드문 예외인 것 같네요).
하지만 제 걱정은 역사적으로 여러 차례 그랬듯이, 젊은 세대가 기성세대보다 새로운 기술을 더 빠르고 쉽게 받아들인다는 점입니다. 이번에는 그 격차가 특히 두드러져 보입니다.
톰슨: 하지만 젊은 세대는 인공지능에 대한 두려움이 가장 크게 커지고 있는 집단입니다.
알트만: 제 생각에 젊은 세대의 모든 것에 대한 두려움, 전반적인 불행과 불안감은 역사상 그 어느 때보다 높습니다. 인공지능은 아마도 지금 이러한 정서 에 가장 쉽게 이용당하는 대상일 겁니다. 사회는 분명히 "젊은 세대"와 관련된 문제를 안고 있습니다. 몇 가지 이론이 있지만, 그들의 주된 문제가 인공지능이라고는 생각하지 않습니다.
톰슨: 그러니까 당신은 젊은이들이 인공지능에 대해 느끼는 불안감이 다른 무언가의 투영이라고 생각하는 겁니까?
알트만: 저는 다른 대량 불안감들이 바로 이 지점에서 가장 쉽게 발붙이게 된다고 생각합니다.
톰슨: 그럼 젊은이들에게 여전히 도구를 사용하고, 새로운 것을 만들고, 호기심을 잃지 말라는 조언을 하고 계시는 건가요?
알트만: 저도 같은 생각입니다. 보세요, 이 새로운 세상에서는 사회와 경제가 분명히 변화해야 하고, 젊은 세대는 그 점을 누구보다 잘 이해하고 있습니다. 변화가 실제로 일어날 때까지 불안해하겠지만, 저는 변화가 일어날 거라고 생각합니다.
톰슨: 좋습니다. 매 에피소드마다 저는 게스트분들께 마지막에 똑같은 질문을 드립니다. "만약 무제한의 자원이 있다면, AI를 어떻게 활용하시겠습니까?" 물론, 실제로 무제한의 자원을 가진 분은 게스트님뿐이시니 이 질문은 게스트님께만 드리는 게 좀 불공평할 수도 있겠네요. 다시 질문드리겠습니다. 만약 오픈아이즈 외부의 누군가에게 무제한의 자원을 가지고 있고, 공공 AI 프로젝트에 자금을 지원하거나 후원할 수 있다면, 어떤 조언을 하시겠습니까?
알트만: 몇 가지 답이 떠올랐습니다. 하지만 가장 먼저 생각난 것은 와트당 효율을 크게 향상시킬 수 있는 완전히 새로운 컴퓨팅 패러다임에 막대한 투자를 하겠다는 것이었습니다.
톰슨: 흠.
알트만: 흥미롭네요. 세상은 앞으로도 더 많은 것을 원할 겁니다. 24시간 내내 가동되는 GPU가 몇 개나 필요하신가요?
톰슨: 지금 내가 가진 것보다 더 많죠.
알트만: 지금 당신이 가진 것보다 훨씬 더 많죠. 전 지금 너무 답답해요. 그런 상황을 원치 않고, 다른 누구도 그런 상황에 처하는 걸 원하지 않아요. 하지만 수요는 계속 늘어나고 있고, 인공지능을 더 쉽게 접근할 수 있도록 계속 노력한다면 엄청난 일들이 일어날 겁니다. 에너지 효율 면에서 지금보다 천 배 더 큰 혁신을 이루길 바라요. 어쩌면 불가능할지도 모르지만, 제가 추구하는 방향은 바로 그겁니다.
톰슨: 젊은 세대가 인공지능에 거부감을 느끼는 이유 중 하나는 환경 문제 때문이라는 것을 알고 있습니다. 그 문제를 해결할 수 있다면 여러 면에서 큰 진전을 이룬 셈입니다.
알트만: 저는 그들의 말을 믿습니다. 그들이 그렇게 말하는 걸 알고 있으니까요. 하지만 우리가 1테라와트 규모의 태양광 발전 시설을 건설해서 모든 데이터 센터에 태양 에너지를 공급하겠다고 말한다면, 그들은 더 좋아할 것 같지는 않습니다.
톰슨: 그래도 해야죠.
알트만: 전적으로 동감합니다.
톰슨: 알겠습니다. 샘 알트만 씨, 정말 감사합니다. YOLO 권한을 부여했고 현재 컴퓨터에서 실행 중인 Codex 에이전트들을 다시 확인해 보셔야 합니다.
알트만: 새 코덱스가 정말 멋지네요. 제가 그걸 놓치고 있는 것 같아 불안해요.
톰슨: 대단히 감사합니다.




