집중하다
OpenAI는 GPT-5에 대해 두 차례에 걸쳐 대규모 교육을 진행했으며 현재 개발 진행 상황은 원래 계획보다 반년 정도 늦어졌습니다.
GPT-5 교육의 각 라운드는 몇 주 또는 몇 달이 걸리며 6개월 컴퓨팅 비용은 5억 달러에 달할 수 있습니다.
OpenAI는 o1 모델을 활용하여 합성 데이터를 생성하여 GPT-5 교육에 사용되는 데이터 세트를 더욱 풍부하게 만들고 있습니다.
OpenAI 연구자들은 대규모 언어 모델이 "추론"을 통해 "생각"하는 방법을 배우게 하면 모델이 더 똑똑해질 것이라는 사실을 발견했습니다.
22일 뉴스에 따르면 오픈AI는 높은 컴퓨팅 비용과 고품질 훈련 데이터 부족으로 인해 차세대 플래그십 모델인 GPT-5 개발을 추진하던 당초 계획보다 늦어지고 있다. 지금까지 OpenAI는 대규모 데이터 리소스의 도움으로 모델 성능을 최적화하는 것을 목표로 GPT-5에 대해 최소 두 차례의 대규모 교육을 구현했습니다. 그러나 첫 번째 훈련의 실제 실행 속도는 예상 표준을 충족하지 못하여 더 큰 규모의 훈련을 시도하는 데 시간이 오래 걸릴 뿐만 아니라 비용도 많이 들었습니다. GPT-5는 이전 모델에 비해 성능이 향상되었지만 이러한 개선만으로는 모델을 유지하는 데 드는 막대한 비용을 완전히 정당화하기에는 충분하지 않습니다.
데이터 수집 측면에서 OpenAI는 공공 데이터 자원과 라이선스 계약에 의존하는 것뿐만 아니라 코드 작성이나 수학적 문제 해결을 통해 새로운 데이터 자원을 혁신적으로 생성할 인력을 적극적으로 채용하는 등 다양한 전략을 채택했습니다. 또한 회사는 데이터 세트를 더욱 풍부하게 하기 위해 o1이라는 또 다른 모델의 도움으로 합성 데이터를 생성합니다. GPT-5가 이전 버전에서 달성한 중요한 성능 혁신을 복제하는 데 어려움을 겪을 수 있다는 점을 고려하여 OpenAI는 현재 적극적으로 새로운 전략적 방향을 모색하고 탐색하고 있습니다.
01 개발계획은 이미 예정보다 반년, 6개월, 5억달러 지출
OpenAI의 새로운 인공지능 프로젝트의 정식 명칭은 GPT-5이며, 내부 코드는 'Orion'이다. 회사는 18개월 동안 이를 개발해 왔으며 ChatGPT 기술의 큰 도약을 목표로 하고 있다. 이 문제에 정통한 사람들에 따르면 OpenAI의 파트너이자 주요 투자자인 Microsoft는 원래 2024년 중반에 새로운 모델이 출시될 것으로 예상했습니다.
OpenAI는 Orion의 지능을 향상시키기 위해 엄청난 양의 데이터를 처리하는 데 수개월이 걸리는 Orion을 위해 최소 2번의 대규모 교육을 수행했습니다. 그러나 프로젝트 내부인사 에 따르면 각 교육 세션은 새로운 어려움에 직면하여 소프트웨어의 지능 수준이 연구원의 기대에 도달하지 못했습니다.
연구원들은 최적의 상황에서도 OpenAI의 현행 모델에 비해 오리온의 성능이 향상됐지만, 그 개선이 높은 운영 비용을 충분히 정당화하기에는 부족했다고 밝혔습니다. 훈련의 다양한 측면에 대한 공공 및 민간 추정에 따르면, 단 6개월의 훈련 주기 동안 계산 비용은 약 5억 달러에 달할 수 있습니다.
2년 전, OpenAI와 CEO인 Sam Altman은 ChatGPT를 출시하여 실리콘 밸리에 큰 반향을 일으켰고 인공 지능 분야가 계속해서 놀라운 발전을 보이고 모든 측면에서 우리 삶에 중대한 영향을 미칠 것이라고 예고했습니다. 분석가들은 거대 기술 기업들이 향후 몇 년 안에 인공 지능 프로젝트에 최대 1조 달러를 투자할 것이라고 예측합니다.
참고: OpenAI의 공동 창립자이자 CEO인 Altman은 GPT-5가 "큰 도약"을 나타낼 것이라고 예측합니다.
이러한 높은 기대는 주로 인공지능 열풍을 선도하고 있는 스타트업 OpenAI에 집중된다. 올해 10월 투자자들은 OpenAI의 가치를 최대 1,570억 달러로 평가했습니다. 이는 GPT-5가 다양한 분야와 작업에서 "상당한 도약"을 달성할 것이라는 Altman의 예측에 기반한 평가입니다.
GPT-5는 새로운 과학적 발견을 주도하고 약속이나 항공편 예약과 같은 일상적인 인간 작업을 수행하도록 설계되었습니다. 연구원들은 이 시스템이 현재 AI 시스템보다 실수를 덜 하거나 최소한 답변에 대한 의구심을 인정할 수 있기를 바라고 있습니다. 이는 때때로 소위 "환각"을 생성하기 때문에 현재 모델에는 어려운 일입니다.
AI 챗봇은 LLM(대형 언어 모델)이라는 기본 기술을 기반으로 실행됩니다. 소비자, 기업 및 정부 기관은 이미 컴퓨터 코드 작성부터 마케팅 카피 완성, 파티 기획에 이르기까지 모든 작업에 이 제품을 사용하고 있습니다. OpenAI의 현재 프로젝트는 회사가 2015년 창립 이후 개발한 네 번째 대형 언어 모델인 GPT-4입니다.
전직 OpenAI 임원에 따르면 GPT-4는 똑똑한 고등학생만큼 성능을 발휘했지만 그 결과 GPT-5는 실제로 일부 작업에서 박사 학위 수준의 기능에 도달할 수 있었습니다. 올해 초 알트만은 스탠포드 대학에서 열린 강연에서 OpenAI가 GPT-5가 현재 모델보다 훨씬 더 똑똑할 것이라는 점을 "고도로 과학적으로 결정할 수 있다"고 학생들에게 말했습니다.
하지만 GPT-5라는 이름이 붙을 만큼 스마트해진 모델에 대해서는 정해진 기준이 없습니다. OpenAI는 수학 및 코딩과 같은 영역에서 대규모 언어 모델을 테스트할 수 있습니다. 그러나 모델이 GPT-5라고 불릴 만큼 똑똑한지 여부는 주로 회사 경영진의 직감, 또는 많은 기술 전문가가 말하는 "느낌"에 달려 있습니다.
현재까지 상황은 낙관적이지 않습니다. OpenAI와 Microsoft는 논평을 거부했습니다. 올해 11월 알트만은 스타트업이 2024년에는 GPT-5라는 제품을 출시하지 않을 것이라고 밝혔습니다.
02 새로운 모델을 훈련하려면 비용이 최대 10배까지 들고 몇 달이 걸릴 수 있습니다.
OpenAI는 2023년 3월 GPT-4가 출시된 이후 GPT-5의 연구 개발에 참여해 왔습니다. 오랫동안 인공지능 연구에 참여해 온 전문가들은 대규모 언어 모델과 같은 시스템을 개발하는 것은 과학적 탐구이자 예술적 창작이라고 지적합니다.
훈련 단계에서 모델은 지속적인 테스트를 거칩니다. 이 긴 프로세스 동안 모델은 "토큰"이라고 불리는 수조 개의 단어 조각으로부터 입력을 받습니다. 대규모 교육 세션은 대개 Nvidia에서 공급하는 수천 개의 값비싸고 수요가 많은 컴퓨터 칩을 갖춘 데이터 센터에서 몇 달이 걸릴 수 있습니다.
교육 세션에서 연구원들은 몇 주 또는 몇 달 동안 컴퓨터 앞에서 일하면서 원격 데이터 센터에 있는 가장 비싼 기계에 의존하는 인공 지능 시스템에 전 세계의 많은 지식을 공급하려고 노력합니다.
범례: OpenAI GPT 모델 반복 매개변수 변경. 그 중 GPT-1 매개변수는 1억 1,700만 개, GPT-2는 15억 개, GPT-3은 1,750억 개, GPT-4는 1조 7,600억 개로 증가
알트만은 GPT-4의 훈련 비용이 1억 달러를 넘어선다고 공개적으로 밝혔으며, 향후 인공지능 모델 훈련 비용은 10억 달러 이상으로 오를 것으로 예상된다. 실패한 훈련은 이륙 직후 공중에서 폭발하는 우주 로켓과 같아서 그 손실은 엄청나고 가슴 아프다.
이러한 실패의 리스크 줄이기 위해 연구자들은 대규모 실험에 앞서 파일럿 실험이나 소규모 파일럿 실행을 수행하는 보다 신중한 전략을 채택했습니다.
그러나 GPT-5는 프로젝트 시작부터 많은 어려움에 직면했습니다.
2023년 중반, OpenAI는 새로운 Orion 디자인의 첫 번째 실제 전투 테스트이기도 한 훈련 세션을 시작했습니다. 그러나 훈련 과정이 극도로 느리기 때문에 더 큰 규모의 훈련에는 시간이 매우 오래 걸리고 이로 인해 비용이 엄청난 수준으로 치솟을 수 있습니다. 아라키스(Arrakis)로 알려진 이 프로젝트는 좋은 성과를 거두지 못했고, GPT-5를 만드는 과정도 기대만큼 순조롭지 않을 것임을 보여준다.
이러한 딜레마 대면 OpenAI의 연구원들은 성능을 향상시키기 위해 Orion에 몇 가지 기술적 조정을 하기로 결정했습니다. 동시에, 모델의 정확성과 일반화 능력을 향상시키기 위해서는 보다 다양하고 고품질의 데이터를 수집해야 한다는 사실도 깨닫고 있습니다. 그들의 견해로는 공용 인터넷의 데이터에만 의존하는 것만으로는 충분하지 않습니다.
전설: 대부분의 인공지능 훈련 칩을 생산하는 Nvidia의 CEO Jensen Huang
일반적으로 AI 모델이 처리하는 데이터의 양이 많을수록 그 성능은 더욱 강력해집니다. 대규모 언어 모델의 경우 이 데이터는 주로 서적, 학술 출판물 및 기타 공개 교육 리소스에서 가져옵니다. 이러한 자료는 모델이 자신을 보다 정확하게 표현하고 다양한 작업을 수행하는 데 도움이 됩니다.
이전 모델을 구축할 때 OpenAI는 주로 뉴스 기사, 소셜 미디어 게시물, 과학 논문 등 인터넷에서 스크랩한 데이터를 사용했습니다. 하지만 오리온의 지능 수준을 더욱 향상시키기 위해서는 OpenAI가 이를 더 큰 규모로 만들어야 하는데, 이는 이를 지원하기 위해 더 많은 데이터가 필요하다는 것을 의미하지만 현재의 데이터 양은 턱없이 부족합니다.
데이터 선택을 최적화하기 위한 도구를 개발하는 스타트업인 DatologyAI의 CEO인 Ari Morcos는 "프로세스 비용이 매우 많이 들고 동일한 품질의 데이터를 찾기가 어려웠습니다."라고 말했습니다. Mokos는 더 적지만 더 높은 품질의 데이터를 사용하여 모델을 구축하려고 노력하고 있습니다. 그는 이 접근 방식이 OpenAI와 같은 모든 최고 AI 회사가 사용하는 전략보다 현재 AI 시스템에 이점을 제공할 것이라고 믿습니다.
OpenAI의 솔루션은 처음부터 데이터를 생성하는 것입니다. 그들은 Orion이 배울 수 있도록 새로운 소프트웨어 코드를 작성하거나 수학 문제를 해결하기 위해 사람들을 고용하고 있습니다. 소프트웨어 엔지니어, 수학자 등이 다수인 이들 직원은 오리온과 작업 아이디어 및 문제 해결 방법도 공유할 예정이다. 많은 연구자들은 소프트웨어 언어로서의 코드가 대규모 언어 모델이 아직 직면하지 않은 문제를 해결하는 데 도움이 된다고 믿습니다.
캡션: OpenAI 사무실 공간에서는 직원들이 몇 주 또는 몇 달 동안 인공 지능 교육에 몰두하는 경우가 많습니다.
사람들이 자신의 사고 과정을 명확하게 표현하도록 장려하면 새로 생성된 데이터의 가치가 크게 높아질 수 있습니다. 대규모 언어 모델은 풍부한 언어 자료를 지속적으로 흡수해야 하며, 이는 향후 유사한 문제를 해결하는 데 중요한 참고 자료이자 기반이기도 합니다.
Turing은 인공지능 인프라에 주력하는 회사로 OpenAI, Meta 등 거대 기술 기업과 긴밀한 협력 관계를 유지하고 있습니다. 이 회사의 CEO이자 공동 창업자인 조나단 시드하스(Jonathan Siddharth)는 "우리는 인간의 지능을 두뇌에서 기계 두뇌로 옮기기 위해 노력하고 있습니다."라고 말했습니다.
Turing 경영진에 따르면, 인공 지능 훈련 과정에서 소프트웨어 엔지니어는 복잡한 논리 문제를 효율적으로 해결하기 위한 프로그램을 작성하도록 요청받을 수 있으며, 수학자에게는 피라미드가 만들 수 있는 최대 높이를 계산하라는 요청이 있을 수 있습니다. 도달하다. 이러한 질문에 대한 답변과 결정적으로 이를 얻는 방법은 AI 교육 자료에 통합됩니다.
또한 OpenAI는 이론 물리학 및 기타 분야의 전문가들과 협력하여 각자의 분야에서 가장 어려운 문제를 해결하는 방법을 묻기도 합니다. 이러한 협업은 오리온이 더욱 똑똑해지는 데도 도움이 됩니다.
그러나 이 프로세스는 매우 느립니다. GPT-4는 약 13조 개의 토큰에 대해 교육을 받았습니다. 1,000명이 매일 5,000단어를 쓴다면 10억 개의 토큰을 모으는 데 몇 달이 걸릴 것입니다.
훈련 과정의 속도를 높이기 위해 OpenAI는 소위 '합성 데이터', 즉 Orion 훈련을 지원하기 위해 인공 지능 방법을 사용하여 생성된 데이터를 개발하기 시작했습니다. 그러나 연구에 따르면 AI가 AI 훈련을 위한 데이터를 생성하는 이러한 피드백 루프는 종종 결함을 일으키거나 터무니없는 답변을 생성하는 것으로 나타났습니다.
OpenAI 과학자들은 o1이라는 회사의 다른 인공지능 모델에서 생성된 데이터를 활용하여 이러한 문제를 피할 수 있다고 믿고 있습니다. 그러나 OpenAI의 이미 어려운 작업은 내부 혼란과 경쟁사에 의한 계속되는 최고 연구원의 밀렵으로 인해 복잡해졌습니다. 이러한 경쟁업체는 때때로 OpenAI 연구원에게 최대 수백만 달러의 연봉을 제안하기도 합니다.
작년에 Altman은 OpenAI 이사회에서 해고되었으며, 이 사건으로 인해 많은 연구자들은 OpenAI의 미래를 의심하게 되었습니다. 그러나 다행스럽게도 Altman은 곧 CEO 자리를 재개하고 OpenAI의 거버넌스 구조를 개혁하는 작업에 착수했습니다.
OpenAI는 올해 공동 창립자이자 최고 과학자인 Ilya Sutskever와 최고 기술 책임자인 Mira Mulati Murati를 포함하여 20명 이상의 핵심 임원, 연구원 및 오랜 직원을 잃었습니다. 목요일, 존경받는 연구원이자 OpenAI의 많은 과학 논문의 주요 저자인 Alec Radford도 OpenAI에서 약 8년간 근무한 후 사임을 발표했습니다.
03 GPT-5, 대내외 경쟁에 직면하고 2차 대규모 훈련에서 또 다른 좌절에 직면
2024년 초부터 OpenAI 경영진은 전례 없는 압박감을 느끼기 시작했습니다. GPT-4가 출시된 지 1년이 되었고 경쟁자들이 빠르게 다가오고 있습니다. 앤트로픽이 출시한 신모델은 업계에서 높은 평가를 받으며 GPT-4를 능가한다는 평가까지 받고 있다. 몇 달 뒤, 구글은 올해 많은 주목을 받은 새로운 인공지능 애플리케이션인 NotebookLM을 출시했습니다.
Orion의 개발에 병목 현상이 발생하자 OpenAI는 간소화된 버전의 GPT-4 및 인공 지능 생성 비디오 도구 Sora 출시와 같은 다른 프로젝트 및 애플리케이션에 에너지를 전환해야 했습니다. 이 문제에 정통한 소식통에 따르면 이로 인해 신제품을 개발하는 팀과 제한된 컴퓨팅 리소스를 두고 오리온 연구원 사이에 경쟁이 벌어지고 있다고 합니다.
참고: Google은 인공 지능 분야에서 우위를 차지하기 위해 경쟁하는 OpenAI의 강력한 경쟁자 중 하나입니다.
동시에, 여러 AI 연구실 간의 경쟁이 너무 치열해져서 대규모 기술 회사가 최신 발견이나 혁신에 관해 과학 분야 평균보다 훨씬 적은 수의 논문을 출판합니다. 2년 전 시장에 대량 쏟아지면서 기술 회사들은 이러한 발견을 철저히 보호되는 영업 비밀로 취급하기 시작했습니다. 일부 연구자들은 이 문제를 매우 심각하게 여기기 때문에 비행기나 커피숍 또는 누군가가 자신의 작업을 염탐할 수 있는 곳에서는 절대 작업하지 않습니다.
이러한 비밀스러운 태도는 Meta의 수석 AI 과학자인 Yann LeCun을 포함하여 오랫동안 AI 연구자들을 실망시켰습니다. Yang Likun은 OpenAI와 Anthropic의 작업이 더 이상 순수한 연구가 아니라 "고급 제품 개발"이라고 믿습니다. 그는 최근 인공지능 컨퍼런스에서 "상업적 시간의 압박 속에서 하는 일이라면 연구가 아니다. 비밀리에 한다면 그것도 연구가 아니다"라고 말했다.
2024년 초 OpenAI는 Orion을 다시 훈련시키고 더 나은 데이터를 갖추기 위한 노력을 준비하고 있습니다. 연구원들은 자신감을 키우기 위해 올해 첫 몇 달 동안 여러 차례 소규모 교육 세션을 실시했습니다. 5월까지 OpenAI의 연구원들은 11월까지 지속될 것으로 예상되는 Orion에 대한 또 다른 대규모 훈련 실행을 준비하기로 결정했습니다.
그러나 훈련이 시작된 지 얼마 되지 않아 OpenAI 연구진은 난감한 문제에 직면했습니다. 데이터가 예상만큼 다양하지 않아 오리온의 학습 능력이 크게 제한될 수 있다는 사실을 발견했습니다. 이 문제는 소규모 훈련 단계에서는 뚜렷하지 않지만 대규모 훈련이 진행됨에 따라 점차 표면화됩니다. 이미 대량 시간과 돈을 투자한 OpenAI는 쉽게 다시 시작할 수 없습니다.
이러한 문제를 해결하기 위해 연구자들은 모델에 대한 더 풍부한 정보를 제공하기 위해 훈련 과정에서 더 넓은 범위의 데이터 소스를 긴급하게 찾고 있습니다. 그러나 이 전략이 의미 있는 성과를 거둘지는 아직 확실하지 않다. OpenAI 내에서 어떤 사람들은 Orion의 문제를 OpenAI의 초기 성공을 이끈 '더 많은 것이 더 많은 것' 전략이 쇠퇴하고 있다는 신호로 봅니다.
실제로 기술 발전에 따른 병목 현상을 걱정하는 회사는 OpenAI뿐만이 아닙니다. 인공지능(AI) 업계 전반에서는 인공지능(AI) 발전이 정체기에 들어섰는지를 두고 논쟁이 격화되고 있다.
참고: Ilya Sutskvi는 올해 OpenAI의 수석 과학자직을 사임했습니다.
Suzkovi는 최근 SSI(Safe Superintelligence)라는 새로운 인공 지능 회사를 공동 설립했습니다. 최근 인공지능 컨퍼런스에서 그는 데이터 극대화 시대는 끝났다고 선언했다. 그는 참석한 연구원, 정책 전문가 및 과학자들에게 “우리에게는 인터넷이 하나뿐이기 때문에 데이터가 무한히 증가하지 않을 것입니다. 심지어 데이터가 인공 지능의 화석 연료라고 말할 수도 있습니다. 말려라."
04 추론 모델이 새로운 희망을 가져오다, 애플 연구진 질문
Orion 프로젝트가 진행됨에 따라 OpenAI 연구원들은 대규모 언어 모델을 더욱 스마트하게 만드는 새로운 방법인 추론을 탐구했습니다. 그들은 대규모 언어 모델에 "생각"할 수 있는 시간을 더 오래 제공함으로써 모델이 특별히 훈련되지 않은 문제를 해결할 수 있다는 것을 발견했습니다.
OpenAI 내에서 o1 모델은 핵심적인 역할을 합니다. 각 질문에 대해 여러 가지 가능한 답변을 제공하고 이러한 답변에 대한 심층 분석을 수행하여 최적의 솔루션을 찾습니다. o1은 사업 계획 작성이나 크로스워드 퍼즐 디자인과 같은 복잡한 작업을 수행할 수 있을 뿐만 아니라 모델이 각 답변에서 지식을 끌어내는 데 도움이 되는 추론 프로세스도 설명할 수 있습니다.
그러나 Apple 연구진의 최근 논문은 추론 모델에 의문을 제기했습니다. 그들은 o1을 포함한 추론 모델이 실제로 새로운 문제를 해결할 수 있는 능력을 갖기보다는 훈련 중에 노출되는 데이터를 대부분 모방한다고 믿습니다. 애플은 관련 없는 세부 사항을 추가하는 등 문제가 약간 수정되면 이들 모델의 성능이 "치명적으로 저하된다"고 지적한다. 예를 들어, 키위와 관련된 수학 문제를 조정할 때 모델은 일부 과일이 다른 과일보다 작다는 세부 사항을 알아차리지 못할 수 있습니다.
그럼에도 불구하고 OpenAI는 올해 9월 o1 추론 모델의 프리뷰 버전을 출시했고, 이달 초에는 o1 정식 버전을 출시했습니다. 그러나 이러한 추가 컴퓨팅 및 처리 성능에는 비용이 더 많이 든다는 점을 언급할 가치가 있습니다. OpenAI는 이제 하나의 쿼리가 아닌 단일 쿼리에 대해 여러 답변을 생성해야 하므로 운영에 재정적 부담이 가중됩니다.
최근 TED 강연에서 OpenAI의 선임 연구원인 Noam Brown은 추론의 중요한 이점을 설명했습니다. 그는 “로봇에게 포커를 하면서 20초 동안 생각하라고 하면 모델 크기를 10만 배 늘리고 훈련 시간을 10만 배 연장하는 것과 동일한 성능 향상을 얻을 수 있다는 것을 발견했다”고 말했다.
보다 발전되고 효율적인 추론 모델이 오리온 프로젝트의 핵심 기반이 될 가능성은 충분히 있습니다. OpenAI 연구원들은 이 방향을 탐구하고 있으며 이 추론 방법을 더 많은 데이터를 얻는 전통적인 방법과 결합하기를 희망합니다. 이러한 새로운 데이터는 부분적으로 OpenAI의 다른 인공 지능 모델에서 나올 수 있습니다. OpenAI는 또한 인간이 생성한 데이터를 활용하여 이러한 결과를 최적화하고 개선할 계획입니다.
미국 현지 시간으로 12월 20일 기자간담회에서 알트만은 새로운 추론 모델 계획을 발표했다. 그에 따르면, 이 새로운 모델은 OpenAI가 이전에 출시한 어떤 모델보다 더 똑똑할 것이라고 합니다. 그러나 그는 새 모델이 언제 출시될지, 이름이 GPT-5인지 여부는 밝히지 않았습니다. (Jinlu가 특별히 편집한 Tencent Technology)
이 기사는 WeChat 공개 계정 "Tencent Technology" 에서 가져온 것입니다. 작성자: Tencent Technology, 36 Krypton은 승인을 받아 게시되었습니다.