엔비디아의 GTC 온라인 컨퍼런스에서 회사 창립자 겸 CEO인 젠슨 황과 OpenAI 공동 창립자 겸 수석 과학자 일리아 서트위(Ilya Sutkwi)가 '노변 대화'를 나누는 특별 이벤트가 열렸습니다.
편집: 리 하이단, 저우 샤오얀
출처: 텐센트 테크놀로지

3월 23일 00:00(GMT), 엔비디아의 GTC 온라인 컨퍼런스에서 회사 창립자 겸 CEO인 젠슨 황이 OpenAI 공동 창립자이자 수석 과학자인 일야 수트코비와 '노변 대화'를 나누는 특별 이벤트가 진행되었습니다.
Jen-Hsun Huang에 따르면 ChatGPT는 "AI 세계의 아이폰 같은 순간"이지만 이 순간이 하루아침에 이루어진 것은 아닙니다. OpenAI의 공동 창립자들은 10년 전부터 신경망에 주목하기 시작했고, 생성형 AI를 탐구하는 과정에서 신경망의 깊이와 규모를 결합하는 방법과 기계가 무감독 학습을 할 수 있는 방법을 탐구하는 데 있어 획기적인 발전을 경험하기도 했습니다. 오늘날 ChatGPT는 전 세계의 주목을 받는 '넷플릭스 도구'가 되었습니다. 그간의 개발 과정을 돌이켜보면, 창립자와 팀의 '영감' 속에서 아이디어가 떠오른 것 같습니다. 자연스러워 보이는 혁신의 이면에 있는 '흥미로운 순간'은 무엇이었을까요?

동영상으로 만나보세요:동영상 링크
다음은 대담 내용을 요약한 것입니다:
Jen-Hsun Huang: 최근 ChatGPT 열풍으로 AI가 다시 세상의 주목을 받으면서 OpenAI가 업계에서 많은 주목을 받고 있고, 당신은 업계에서 가장 주목받는 젊은 엔지니어이자 최고의 과학자 중 한 명이 되었습니다. 첫 번째 질문은 AI에 관심을 갖고 집중하게 된 출발점이 무엇인가요? 지금까지처럼 성공할 것이라고 생각했나요?
일야 수트코비: 친절한 초대에 감사드립니다. 인공지능은 지속적인 딥러닝을 통해 세상을 크게 변화시키고 있습니다. 제 개인적으로는 크게 두 가지 측면이 있습니다:
첫째, 제가 인공지능의 딥러닝에 처음 초점을 맞춘 것은 우리 인간이 다양한 문제를 직관적으로 이해하고 있다는 점입니다. 인간 의식의 정의와 인간의 지성이 어떻게 그러한 예후를 달성하는지가 제가 특히 관심을 갖고 있는 부분입니다.
둘째, 2002년부터 2003년까지 저는 '학습'은 인간만이 할 수 있는 일이고 컴퓨터는 할 수 없는 일이라고 생각했습니다. 그래서 컴퓨터가 학습할 수 있다면 인공지능 산업에 변화를 가져올 수 있을 거라는 생각을 했죠.
운 좋게도 당시 저는 대학에 다니고 있었는데, 마침 제가 공부하던 전공이 신경망 학습과 관련된 분야였습니다. 신경망은 AI에서 매우 중요한 발전으로, 신경망을 통해 딥러닝을 연구하는 방법과 신경망이 인간의 뇌처럼 어떻게 작동하는지, 그 논리가 컴퓨터 작동 방식에 어떻게 반영되는지 연구하고 있었죠. 당시에는 이 일이 어떤 진로로 이어질지 잘 몰랐지만 장기적으로 유망한 산업이 될 것이라는 생각만 했어요.
황젠선: 처음 신경망 연구를 시작했을 때 당시 신경망의 규모는 어느 정도였나요?
일리야 수트코비: 당시에는 신경망의 규모에 대한 논의가 없었고, 신경 단위가 수백 개에 불과했으며, 그 당시만 해도 이렇게 많은 신경 단위와 CPU를 개발할 수 있을 거라고는 생각하지 못했죠. 우리는 한정된 예산으로 다양한 실험과 다양한 문제를 모아 정확도를 테스트하는 수학 연구소를 시작했습니다. 우리는 모두 신경망을 훈련시키기 위해 아주 작은 비트를 조금씩 쌓아가는 것부터 시작했습니다. 이것이 최초의 제너레이티브 AI 모델의 시작이기도 합니다.
황젠선: 2012년 이전부터 신경망에 대한 연구를 해오셨는데, 언제부터 컴퓨터 비전과 신경망 및 AI가 앞으로 나아갈 길이라고 생각하셨나요?
일야 수트코비: 2012년 약 2년 전부터 딥러닝이 많은 주목을 받을 것이라는 사실을 점차 깨달았고, 제 직관뿐만 아니라 그 뒤에 매우 탄탄한 이론적 기반이 있다는 것을 알게 되었습니다. 컴퓨터의 신경망이 충분히 깊고 충분히 크면 심도 있는 하드코어 콘텐츠 문제를 해결할 수 있습니다. 핵심은 깊고 큰 신경망을 갖추는 것이므로 충분한 데이터베이스와 컴퓨팅 파워가 있어야 한다는 뜻입니다.
저희는 데이터 모델을 최적화하는 데 많은 노력을 기울였고, 동료 중 한 명이 '초'를 기반으로 신경망 피드백을 만들었으며, 사용자는 신경망을 계속 훈련하여 더 확장하고 더 많은 데이터를 얻을 수 있습니다. 어떤 사람들은 이러한 데이터 세트가 상상할 수 없을 정도로 크다고 생각하는데, 당시의 연산 능력으로 이렇게 많은 양의 데이터를 처리할 수 있다면 분명 혁명을 일으킬 수 있을 것입니다.
젠슨 황: 우리가 처음 만났을 때도 미래에 대한 비전이 서로 교차하는 시기였습니다. 당시 GPU가 다음 몇 세대에 영향을 미칠 것이라고 말씀하셨고, GPU가 딥 러닝 훈련에 유용할 것이라는 직감이 들었다고 하셨죠. 어느 시점에서 이 사실을 깨달으셨는지 말씀해 주시겠어요?
일리아 수트키: 토론토 연구소에서 딥 러닝 훈련에 GPU를 처음 사용하려고 했을 때는 GPU를 정확히 어떻게 사용해야 하는지, 어떻게 하면 실제 주목을 받을 수 있는지 명확하지 않았습니다. 점점 더 많은 데이터 세트를 확보하면서 기존 모델이 가져다줄 수 있는 이점이 명확해졌습니다. 우리는 데이터 처리 프로세스를 가속화하고 과학자들이 과거에는 훈련받지 못했던 것을 훈련시키고자 합니다.
Jen-Hsun Huang: ChatGPT와 OpenAI는 컴퓨터가 이미지를 편집하는 방식에 대한 기존의 틀을 깨뜨렸습니다.
일리아 수트키: 컴퓨터 이미지 편집의 틀을 깼다기보다는 다른 말로 '초월적'이라고 표현하는 것이 맞을 것 같습니다. 대부분의 사람들은 전통적인 사고방식으로 데이터 집합을 다루지만, 저희는 좀 더 발전된 방식으로 작업합니다. 당시 저희도 어려운 일이라고 생각했고, 잘 해낼 수 있다면 사람들이 큰 도약을 할 수 있도록 돕고 있다고 생각했습니다.
황젠선: 실리콘밸리로 가서 Open AI에서 일하게 된 지금, Open AI의 수석 과학자로서 가장 중요한 부분은 무엇이라고 생각하시나요? Open AI는 시기마다 다른 초점을 가지고 있다고 생각하는데, ChatGPT는 "AI의 아이폰 순간"이라고 할 수 있는데, 어떻게 그 혁신적인 순간에 도달하게 되었나요?
일야 수트코비: 처음에는 전체 프로젝트를 어떻게 진행해야 할지 잘 몰랐고, 지금 우리가 도달한 결론은 당시 사용하던 로직과는 완전히 달랐습니다. 지금은 사용자들이 매우 훌륭한 아트와 텍스트 효과를 만들 수 있는 훌륭한 ChatGPT 도구를 가지고 있습니다. 하지만 2015년과 2016년만 해도 지금의 수준에 도달할 수 있을 거라고는 감히 상상도 못했습니다. 당시에는 대부분의 동료들이 구글 딥마인드 출신으로 이 분야에 경험이 있었지만 상대적으로 편협하고 제약이 많았고, 내부적으로 100가지 이상의 다양한 실험과 비교를 해본 상태였기 때문입니다.
그 당시 저는 특히 흥미로운 아이디어를 떠올렸는데, 바로 기계에 비지도 학습 기능을 부여하는 것이었습니다. 지금은 자연어 모델로 모든 것을 학습할 수 있다는 것을 당연하게 여기지만, 당시에는 기계에 비지도 학습 기능을 부여하는 것이었습니다. 하지만 2016년 당시만 해도 비지도 학습 능력은 아직 해결되지 않은 문제였고, 이에 대한 경험이나 통찰력을 가진 과학자는 없었습니다. '데이터 압축'이 기술적 병목 현상이라고 생각했는데, 이 용어는 흔하지 않은 용어이지만 실제로 ChatGPT는 우리의 훈련 데이터 세트를 압축했습니다. 하지만 결국 지속적인 훈련을 통해 데이터를 압축할 수 있는 수학적 모델을 찾을 수 있었고, 이는 실제로 데이터 세트에 대한 도전이었습니다. 이것은 제가 특히 흥미를 느꼈던 아이디어 중 하나이며, 이 아이디어는 Open AI에서 결실을 맺었습니다.
사실 이러한 결과 중 일부는 머신러닝 외부에서는 잘 받아들여지지 않을 수도 있지만, 제가 이룬 것은 신경망 훈련이라고 말하고 싶습니다.
우리는 신경망을 훈련시켜 다음 단어를 예측할 수 있게 되기를 원합니다. 다음 뉴런의 단위가 전체 시각 신경망과 밀접하게 관련되어 있다는 점이 흥미롭고, 이는 우리가 검증한 접근 방식과도 일치합니다. 다음 문자에 대한 예측, 다음 데이터에 대한 예측이 기존 데이터의 논리를 밝혀내는 데 도움이 될 수 있다는 것을 다시 한 번 증명한 것이며, 이것이 바로 ChatGPT 훈련의 로직입니다.
황젠선: 데이터 확장은 AI 기능의 성능 향상에 도움이 되고 있으며, 더 많은 데이터, 더 큰 데이터 세트는 제너레이티브 AI가 더 나은 결과를 얻는 데 도움이 될 수 있습니다. GPT-1, GPT-2, GPT-3의 발전이 무어의 법칙에 부합한다고 생각하시나요?
일리야 수트키: OpenAI의 목표 중 하나는 데이터 세트 확장 문제를 해결하는 것이지만, 초기에 직면했던 문제인 데이터의 높은 정확도를 어떻게 개선하여 모델이 정확한 예측을 할 수 있도록 하느냐가 매우 중요했습니다. 오픈 AI 프로젝트를 진행할 때 우리는 충분히 빠르고 똑똑해야 하며 다른 팀과 경쟁해야 하는 스포츠 경기와 같은 전략적인 게임을 실시간으로 수행할 수 있기를 바랐습니다. AI 모델로서 실제로 인간의 피드백을 기반으로 이러한 강화 학습 과정을 계속 반복합니다.
젠선 황: 인간의 피드백을 제공하는 강화 학습을 어떻게 정확하게 조절하나요? ChatGPT의 성능을 지원하기 위해 특정 지식 배경을 제공하는 다른 보조 시스템이 있나요?
일리야 수트키: 저희는 신경망 시스템을 지속적으로 훈련시켜 다음 단어를 예측하는 방식으로 작동한다고 설명할 수 있습니다. 과거에 수집한 텍스트를 기반으로 ChatGPT는 피상적으로 자가 학습하는 것이 아니라 현재 예측되는 단어와 과거 단어 사이에 일정한 논리적 합의에 도달할 수 있기를 원합니다. 실제로 과거 텍스트는 다음 단어의 예측에 투영되는 데 사용됩니다.
신경망의 관점에서 보면 사람들의 희망, 꿈, 동기를 바탕으로 세상의 다양한 측면을 바탕으로 결론에 도달하는 것과 비슷합니다. 예를 들어, 인터넷에서 무작위로 몇 개의 문장을 서문으로 가져와 이를 바탕으로 추가 학습 없이도 ChatGPT가 논리적인 논문을 작성할 수 있도록 하는 등 아직 저희 모델이 원하는 만큼 완벽하지는 않습니다. 단순히 인간의 경험을 바탕으로 AI 학습을 완료하는 것이 아니라, 인간의 피드백을 기반으로 강화 학습을 하고자 합니다. 사람의 피드백은 중요하며, 더 많은 피드백을 받을수록 AI의 신뢰도가 높아집니다.
황젠선: AI에게 특정 작업을 수행하라는 지시를 내릴 수 있지만, 특정 작업을 수행하지 말라고 말할 수도 있나요? 예를 들어 AI에게 경계가 어디인지 알려줄 수 있나요?
일리야 수트키: 네, 가능합니다. 두 번째 훈련 단계는 AI, 즉 신경망과 소통하는 것으로, AI를 더 많이 훈련할수록 AI가 더 정확해지고 우리의 의도와 더 많이 일치한다고 생각합니다. AI의 충성도와 정확성을 계속 개선해 나가면 AI는 점점 더 신뢰할 수 있고, 점점 더 정확해지고, 점점 더 인간 사회의 논리와 일치하게 될 것입니다.
Jen-Hsun Huang: 몇 달 전에 출시된 ChatGPT는 인류 역사상 가장 빠르게 성장하는 소프트웨어이자 애플리케이션이기도 합니다. 많은 사람들이 다양한 설명을 할 것이고, 어떤 사람들은 지금까지 사용하기 가장 간단한 애플리케이션이라고 말할 것입니다. 예를 들어, 매우 간단한 상호작용 모델을 가지고 있으며 모든 사람의 기대를 뛰어넘었습니다. 사람들은 ChatGPT 사용법을 배울 필요 없이, ChatGPT에 명령을 내리고 다양한 종류의 프롬프트를 제시하기만 하면 됩니다. 프롬프트가 충분히 명확하지 않은 경우 ChatGPT가 프롬프트를 더 명확하게 만든 다음 이를 검토하고 원하는지 묻습니다. 저는 이러한 딥러닝 프로세스에 특히 놀랐습니다.
며칠 전에 GPT-4의 성능을 봤는데, 많은 영역에서 얼마나 잘 작동하는지, 수능과 변호사 시험, 변호사 협회의 변호사 시험에 얼마나 잘 합격하는지, 그리고 매우 높은 인간 수준에 도달할 수 있는지 매우 놀라웠습니다. 제 질문은 GPT-4에 어떤 개선이 이루어졌는지 궁금합니다. 그리고 어떤 방식과 영역에서 사람들이 더 발전하는 데 도움이 될 것이라고 생각하시나요?
일리야 수트키: GPT-4는 과거 ChatGPT의 성능을 기반으로 많은 개선이 이루어졌습니다. 저희는 약 6~8개월 전부터 GPT-4를 훈련하기 시작했으며, GPT-4와 이전 버전의 GPT의 가장 중요한 차이점은 예측에 도움이 되는 더 나은 신경망이 있기 때문에 훨씬 더 정확한 정확도로 다음 단어를 예측한다는 점입니다.
혼자 추리 소설을 읽고 있는데 소설에 다양한 인물과 줄거리가 있고, 비밀의 방이 있고, 미스터리가 있으며, 추리 소설을 읽는 동안 다음에 무슨 일이 일어날지 전혀 모른다고 가정해 봅시다. 소설의 다양한 캐릭터와 플롯을 통해 살인범이 얼마나 많은 가능성을 가지고 있는지 예측할 수 있고, GPT-4가 하는 일은 추리 소설과 비슷합니다.
황젠선: 많은 사람들이 딥러닝이 추론으로 이어진다고 말하지만, 딥러닝이 학습으로 이어지지는 않습니다. 언어 모델은 어떻게 추론과 논리를 학습하나요? ChatGPT와 GPT-3에는 부족하고 GPT-4가 더 잘하는 작업이 몇 가지 있는데, 현재 GPT-4에는 어떤 결함이 있으며 다음 버전에서 통합될 수 있을까요?
일리야 수트키: 이제 ChatGPT는 로직과 추론을 더 정확하게 정의할 수 있으며, 더 나은 로직과 추론을 통해 다음 암호 해독 과정에서 더 나은 답을 얻을 수 있습니다. 신경망은 고유의 사고 패턴에서 벗어나게 하는 것과 같은 몇 가지 문제에 직면할 수 있으며, 이는 신경망이 얼마나 멀리 갈 수 있는지, 즉 잠재력이 얼마나 있는지 생각해야 한다는 것을 의미합니다.
GPT의 추론 능력은 우리가 기대했던 수준에 도달하지 못했다고 생각하며, 데이터베이스를 더욱 확장하고 과거의 상업적 운영 모델을 유지한다면 추론 능력은 더욱 향상될 것이며, 저는 이에 대해 더욱 확신합니다.
황젠선: 또 하나 흥미로운 점은 ChatGPT에게 질문을 하면 과거의 지식과 경험을 바탕으로 답을 알려주는데, 이 역시 과거의 지식과 데이터베이스의 요약과 사용자에 대한 이해를 바탕으로 한 답변이며 어느 정도 논리를 갖추고 있다는 점입니다. ChatGPT는 이해를 계속할 수 있는 타고난 속성을 가지고 있다고 생각합니다.
일리야 수트키: 네, 신경망에는 이러한 기능이 있지만 때로는 신뢰성이 떨어지는 경우가 있는데, 이것이 신경망이 직면하는 가장 큰 장애물입니다. 많은 경우 신경망은 과장되거나 실수를 많이 할 수 있으며 심지어 인간은 전혀 할 수 없는 실수를 할 수도 있습니다. 이제 이러한 '불안정성'을 해결하기 위해 더 많은 연구가 필요합니다.
현재 공개된 GPT-4의 모델은 데이터 모델을 추적하는 기능은 없고 텍스트를 기반으로 다음 단어를 예측하는 기능만 있기 때문에 한계가 있습니다. 일부 사람들은 GPT-4에 일부 데이터의 출처를 물어보고 데이터의 출처에 대해 더 심층적인 조사를 할 수도 있다고 생각합니다.
전반적으로 GPT-4는 내부 데이터 수집을 지원하지는 않지만, 데이터를 계속 깊이 파고들수록 더 정확해질 것이며, 이미 이미지에서 학습하고 이미지와 콘텐츠의 입력에 따라 피드백을 제공할 수 있습니다.
황젠선: 멀티모달 학습은 어떻게 GPT-4의 세계 이해를 심화하나요? 멀티모달 학습이 GPT와 OpenAI를 정의하는 이유는 무엇인가요?
일리아 수트코비: 멀티모달은 매우 흥미롭습니다:
첫째, 멀티모달리티는 시각과 이미지 인식에 특히 유용합니다. 전 세계가 그림으로 구성되어 있고, 사람은 시각 동물이고, 동물은 시각 동물이며, 인간 뇌의 회백질의 1/3이 이미지를 처리하는 데 사용되기 때문에 GPT-4는 이러한 이미지를 이해할 수 있습니다.
둘째, 그림이나 말을 통해 세상을 이해하는 것은 동일하며, 이 또한 우리의 주장 중 하나입니다. 인간은 일생 동안 10억 개의 단어만 말할 수 있습니다.
황젠선: 10억 개의 단어라는 이미지가 머릿속에 스쳐 지나갔는데, 단어가 정말 많나요?
일리야 서트위: 네, 사람의 일생이 얼마나 되는지, 1초에 처리할 수 있는 단어 수는 얼마나 되는지 계산할 수 있고, 그 사람이 일생에서 잠자는 시간을 빼면 일생 동안 얼마나 많은 단어를 처리했는지 파악할 수 있습니다. 인간과 신경망의 차이점은 우리가 이해할 수 없는 수십억 개의 단어가 있다면 과거에는 텍스트에 불과했던 단어 중 일부를 수조 개의 단어로 이해할 수 있다는 것입니다. 세상에 대한 우리의 지식과 정보는 텍스트를 통해 AI의 신경망에 서서히 침투할 수 있습니다. 시각적 이미지와 같은 요소를 더 추가하면 신경망은 더 정확하게 학습할 수 있습니다.
황젠선: 텍스트와 그림에 대한 딥러닝의 경우, AI 지능이 그 이면의 논리를 이해하거나 과장해서 세상의 근본을 이해하기를 원한다면, 예를 들어 우리 인간이 일상에서 문장을 표현하는 방식, 예를 들어 실제로 두 가지 의미를 가진 단어가 있고 목소리의 높낮이 변화가 실제로 모두 두 가지 다른 목소리 톤을 나타냅니다. 언어와 목소리 톤이 AI가 텍스트를 이해하는 데 도움이 되나요?
일리야 수트키: 네, 말씀하신 시나리오는 매우 중요합니다. 목소리의 크기와 어조를 포함한 말투와 억양은 매우 중요한 정보 소스입니다.
Jen-Hsun Huang: GPT-4가 GPT-3에 비해 개선된 점을 예로 들어주실 수 있나요?
Ilya Sutkwi: 예를 들어 고등학교 수학 경시대회와 같은 일부 수학 경시대회에서는 도표를 보고 답해야 하는 문제가 많은데, GPT-3.5는 도표를 해석하는 능력이 매우 떨어지는 반면, GPT-4는 텍스트만으로 해석할 수 있어 정확도가 크게 향상되었습니다.
황젠선: AI가 다른 AI를 학습시키기 위해 다른 텍스트를 생성할 수 있다고 말씀하셨는데, 예를 들어 언어 모델을 학습시키기 위해 모든 언어에는 20조 개의 언어 계산 단위가 있는데, 어떤 종류의 언어 모델 학습인지, AI가 스스로 학습하기 위해 AI에게만 속하는 데이터를 생성할 수 있는지 궁금합니다. 인간이 외부 세계에 대한 학습, 자기 성찰, 문제 해결을 통해 두뇌를 훈련시키는 것처럼 폐쇄 루프 모델인 것 같습니다. 이러한 합성 생성 과정과 AI의 자가 학습 및 자가 훈련에 대해 어떻게 생각하시나요?
일리야 수트키: 저는 이 세상에 이미 존재하는 데이터를 과소평가하지 않을 것이며, 심지어 우리가 생각하는 것보다 더 많은 데이터가 존재한다고 생각합니다.
Jen-Hsun Huang: 네, 그리고 언젠가는 AI가 스스로 콘텐츠를 생성하고 스스로 학습하며 스스로 개선할 수 있게 될 것이라는 믿음으로 미래를 바라보며 계속 생각하고 있는 부분입니다. 현재 어느 단계에 와 있다고 요약할 수 있나요? 그리고 가까운 미래에 생성형 AI는 어디까지 발전하게 될까요? 빅 언어 모델링의 미래는 어떻게 될까요?
일야 수트코비: 미래를 예측하는 것은 어려운 일입니다. 우리가 할 수 있는 일은 이 작업을 계속 진행하면서 더 놀라운 버전의 시스템을 선보이는 것입니다. 데이터의 신뢰성을 향상시켜 시스템이 실제로 사람들의 신뢰를 얻을 수 있도록 하고 싶습니다. 생성형 AI에게 어떤 텍스트를 요약하고 결론을 내려달라고 요청한다고 가정해 보겠습니다. 중요한 점은 AI가 텍스트를 해석하는 과정에서 아직 텍스트의 진위 여부와 정보의 출처를 완전히 검증하지 못했다는 점입니다. 앞으로의 비전은 신경망이 모든 데이터 소스의 진위 여부를 인식하여 모든 단계에서 사용자의 요구를 파악할 수 있도록 하는 것입니다.
Jen-Hsun Huang: 이러한 기술이 사람들에게 더 많은 신뢰성을 제공할 수 있기를 바랍니다. 마지막으로 한 가지 질문이 있는데요, ChatGPT-4를 처음 사용했을 때 놀랍고 충격적이었던 성능에는 어떤 것이 있었나요?
일리야 수트키: 이전 버전의 ChatGPT에서는 신경망이 질문에 대한 답변만 하고 때로는 잘못 해석하는 경우가 있어 답변 성능이 매우 떨어졌습니다. 하지만 GPT-4는 기본적으로 더 이상 질문을 잘못 해석하지 않고 훨씬 더 빠른 방식으로 퍼즐을 풀고 복잡하고 어려운 작업도 처리할 수 있어 특히 의미가 있습니다. 예를 들어, 많은 사람들이 ChatGPT가 시를 쓸 수 있다는 것을 알고 있는데, 예를 들어 시작 부분의 운율이 맞는 시를 쓸 수 있고 끝 부분의 운율이 맞는 시를 쓸 수 있습니다. 또한 농담을 설명할 수 있고 농담의 의미를 이해할 수 있습니다. 요컨대, 더 신뢰할 수 있습니다.
저는 거의 20년 동안 이 업계에 종사해 왔는데, '와우'라고 생각하게 만드는 특징은 그 자체로 인류에게 도움이 되기 위해 존재한다는 것입니다. 눈에 띄지 않는 업무 영역에서 미미하게 시작하여 점점 더 강해지기까지 천천히 성장해 왔습니다. 두 가지 다른 방식으로 훈련된 동일한 신경망도 점점 더 강해질 수 있습니다. 저는 종종 이런 신경망이 어떻게 그렇게 빨리 성장할 수 있는지에 대해 궁금해하고 한탄하곤 했습니다. 더 많은 훈련이 필요할까요? 인간의 뇌처럼 계속 성장하는 걸까요? 이런 점들이 신경망의 위대함이나 특히 놀랍게 느껴지는 부분입니다.
젠슨 황: 돌이켜보면 우리는 오랫동안 서로를 알고 지냈고, 평생을 이 일에 헌신해 왔으며, GPT와 AI에 변화를 가져오는 것을 지켜봐 왔습니다. 오늘 여러분과 이야기를 나누면서 ChatGPT의 작업 논리를 더 명확하게 이해할 수 있었고, ChatGPT와 OpenAI에 대해 가장 심도 있고 예술적으로 설명해 주셨습니다. 오늘 다시 만나 뵙게 되어 반갑습니다, 감사합니다!





