GPT-5의 핵심 인물이 갑자기 회사를 떠났고, 앤트로픽 CEO는 직원 유지율이 오픈AI를 넘어섰다고 자랑하며 '최고의 AI 기업'이라는 명성에 먹구름이 드리워졌다는 주장이 제기되고 있다.

이 기사는 기계로 번역되었습니다
원문 표시

알리바바의 자회사인 큐엔의 기술 책임자 린쥔양의 퇴사 소식이 중국 기술 업계의 헤드라인을 장식하는 동안, 실리콘밸리의 인사 변동은 이례적으로 조용하게 진행되었다.

오픈AI의 후처리 책임자이자 GPT-5 시리즈 개발의 핵심 인물인 맥스 슈바르처가 앤트로픽에 합류하여 현장 연구원으로 활동할 예정이라고 발표했습니다.

이번 퇴사의 시점은 특히 민감합니다. 이전에도 OpenAI와 Anthropic은 권력 다툼을 벌였는데, OpenAI가 Anthropic이 명시적으로 회피했던 미 국방부 계약을 따냈기 때문입니다. 이 소식은 강력한 여론의 반발을 불러일으켰고, ChatGPT의 삭제율은 단기간에 295%나 급증했습니다.

상업적 확장과 윤리적 논란이 공존하는 갈림길에서, 모델의 효과를 좌우하는 핵심 인물이었던 맥스 슈바르처는 연구 부사장으로 승진한 지 불과 7개월 만에 회사를 떠났습니다. 이는 오픈AI가 상업적 미래를 향해 빠르게 나아가고 있으며, 더 이상 순수 연구자들에게 이상적인 환경이 아닐 수도 있음을 시사하는 강력한 신호입니다.

맥스 슈바르처의 퇴사는 단지 한 가지 사례에 불과합니다. 그녀는 사임 성명에서 자신이 존경하는 많은 동료들이 이미 앤스로픽에 재직 중이라는 사실을 솔직하게 인정했습니다.

예를 들어, 오픈AI 공동 창립자이자 학습 후 처리 책임자이며 ChatGPT의 "대화 기능"을 개발한 존 슐만, 인간의 능력을 뛰어넘는 AI 안전장치를 구축하려 했던 슈퍼 얼라인먼트 팀의 책임자 얀 라이케, 그리고 오픈AI 공동 창립자이자 알고리즘 과학자인 더크 킹마 등이 있습니다.

이는 기술 분야의 리더들이 샌프란시스코 미션 지구에 있는 오픈AI 본사를 떠나 "헌법적 AI"와 안보 연구에 더 큰 비중을 두는 앤스로픽으로 이동하는 새로운 "인재 이동 흐름"을 보여줍니다.

맥스 슈바르처는 앤트로픽에서 강화 학습(RL)에 집중할 예정이며, 이는 그녀가 GPT-o1 개발을 주도했을 당시 이끌었던 핵심 분야로, 논리적 추론을 강조하고 모델 사고의 한계를 뛰어넘는 것을 목표로 합니다. 이러한 역량의 한계를 확장하려는 노력은 오픈아이즈의 현재 제품 전략과는 극명한 대조를 이룹니다.

최근 GPT-5 시리즈의 개발 과정을 되돌아보면, 중요한 변화는 OpenAI의 연구 개발 초점이 단순히 모델의 매개변수 범위를 확장하는 것에서 상용화의 "마지막 단계" 문제를 해결하는 것으로 옮겨가고 있다는 점입니다.

추론 최적화, 착각 감소, 에이전트 기능 내장 및 엔터프라이즈급 배포 등 GPT-5 시리즈는 "제어 가능성, 신뢰성 및 확장성"을 목표로 합니다. 이러한 경향은 특히 사용자 경험 최적화와 감성 지능 강화에 중점을 둔 최신 모델인 GPT-5.3 Instant에서 두드러지게 나타납니다. 분명히 "사용자 경험"을 둘러싼 새로운 경쟁 구도가 조용히 시작되었습니다.

시야를 넓혀 미 국방부 계약 체결부터 GitHub를 대체할 코드 호스팅 플랫폼 출시, 모델 제공업체에서 개발자 도구 생태계로의 확장까지 OpenAI의 최근 행보를 살펴보면 모두 같은 이야기를 들려줍니다.

OpenAI는 전략적 전환의 중요한 기로에 서 있으며, 기업 및 정부 시스템에 깊숙이 자리 잡은 글로벌 AI 플랫폼 거대 기업으로 도약하는 것을 목표로 하고 있습니다.

제품 전략의 변화: "매개변수 경쟁"에서 "경험 우위 확보"로

GPT-4 시리즈에서 GPT-5 시리즈로의 발전은 오픈 AI가 "AI를 더 똑똑하게 만드는 것"에서 "AI를 더 신뢰할 수 있게 만드는 것"으로 전환하고 있음을 분명히 보여줍니다.

이러한 변화는 우연이 아니었습니다. 2년간의 "매개변수 경쟁" 끝에 OpenAI는 단순히 모델의 크기를 늘리는 것만으로는 한계 효용 체감의 법칙에 직면한다는 사실을 깨달았습니다.

OpenAI의 전 수석 과학자였던 일리야 수츠케버는 "확장 법칙에만 의존하던 시대는 끝났습니다. 우리는 탐색과 발견의 단계로 돌아왔습니다."라고 말했습니다.

과거에는 모델 크기를 두 배로 늘리면 성능이 크게 향상되었지만, 이제는 모델 크기를 10배로 늘려도 성능 향상 폭이 10% 미만일 수 있습니다. 매개변수 개수를 무작정 늘리는 것은 매우 비효율적이며, 오히려 학습 및 추론 단계의 최적화가 훨씬 높은 투자 수익률을 가져올 수 있습니다.

하지만 여기에는 큰 역설이 있습니다. "사후 학습"이 OpenAI의 새로운 전략적 요충지가 되었는데, 왜 막스 슈바르처와 같은 사후 학습 분야의 최고 권위자들이 떠나기로 결정했을까요?

이는 OpenAI 내부에서 "사후 학습"의 정의에 대한 근본적인 의견 차이를 명확히 보여줍니다. 사후 학습은 "진실성을 위한 것"인가, 아니면 "제품을 위한 것"인가? 과학자들은 사후 학습을 인공 일반 지능(AGI)으로 가는 마지막 안전장치로 보고 있습니다. 그러나 상용화를 가속화하는 OpenAI 경영진의 시각에서는 사후 학습이 "고급 고객 서비스 교육"으로 재정의되고 있습니다.

이전에 GPT-5.2는 지나치게 교훈적인 어조와 쉽게 발동되는 보안 방어 체계로 인해 대량 사용자를 불쾌하게 만들었고, 소셜 미디어에서 구독 취소가 급증하는 결과를 초래했습니다. 이를 통해 OpenAI는 사용자 경험이 좋지 않으면 모델 지능의 장점이 상쇄된다는 사실을 절실히 깨달았습니다.

따라서 새롭게 출시된 GPT-5.3 Instant에서는 막대한 해시레이트 능력이 "논리적 추론"에서 보다 실용적인 "공학적 개선"으로 전환되었습니다. 즉, 어떻게 하면 어조를 더 부드럽게 만들 수 있을까? 어떻게 하면 감성 지능을 높일 수 있을까? 어떻게 하면 대화를 더 유창하게 만들 수 있을까? 더 이상 "전지전능한 신"이 되려 하지 않고, "당신의 숨겨진 의도까지 이해하는 존재"가 되려고 노력합니다.

따라서 OpenAI의 사후 학습 목표는 "AI가 세상을 파괴하는 것을 막는 것"에서 "AI가 소송에 휘말리는 것을 막는 것"으로 축소되었습니다.

OpenAI의 상용화로의 전환은 업계 전체의 평가 기준을 재정립하는 것과 맥락을 같이합니다.

올해 초 앤드류 응은 인공지능이 "문제를 해결할 수 있는지" 여부가 아니라 통제 불가능한 상황에서 실제로 작업을 완료할 수 있는지에 초점을 맞춘 "튜링 인공 일반 지능(AGI) 테스트"를 제안했습니다. 스탠포드 대학교의 "2026 AI 예측 보고서"와 구글 클라우드의 투자 수익률(ROI) 보고서 또한 같은 추세를 보여줍니다. 모델 지능의 상한선에 대해 이야기하기보다는 기업에서 실현 가능한 실질적인 이점에 대해 이야기해야 한다는 것입니다.

기업 고객의 경우, 계산은 명확합니다. 만점을 받지만 때때로 장황하게 말하는 천재는 90점을 받지만 정서 안정되고 논리적으로 일관성 있는 비서보다 훨씬 가치가 떨어집니다. 규정 준수 리스크 줄이는 것이 기업 수준 구현의 핵심 과제입니다.

애플이 하드웨어 사양을 과도하게 높이지 않고도 사용자를 확보하는 것처럼, 오픈AI 또한 극도의 엔지니어링 정교화를 통해 비즈니스 세계에서 "경험이 승리한다"는 것이 "매개변수 쌓기"보다 고객 유지에 훨씬 효과적이라는 것을 입증하려 하고 있으며, 이는 오픈AI의 상용화 전략 전환의 핵심 논리이기도 합니다.

가속화된 상업적 및 정치적 책략: 연구 기관에서 "인프라 수준 플랫폼"으로의 진화

오픈AI의 기술적 변화는 빙산의 일각에 불과하며, 그 이면에는 샘 알트먼이 정치와 사업 분야에서 펼치는 이중 전략이 숨겨져 있습니다.

"오픈 소스, 공익, 인류에게 유익한 인공 일반 지능(AGI) 개발"이라는 이상에서 탄생한 이 회사는 해시레이트, 데이터, 자본을 맹렬하게 흡수하고 있습니다. 그들의 모든 행동의 핵심에는 "통제"라는 단어가 자리 잡고 있습니다.

더 인포메이션(The Information)에 따르면, 오픈아이언(OpenAI)은 마이크로소프트의 깃허브(GitHub)를 직접 대체하고 세계 차세대 코드 호스팅 및 생성 센터가 되기 위해 코드 호스팅 플랫폼을 비밀리에 개발하고 있다고 합니다.

OpenAI 엔지니어들은 최근 깃허브의 잦은 서비스 중단에 대한 불만 때문이라고 주장했지만, 이번 조치는 소프트웨어 업계의 "근본적인 정의권"을 둘러싼 투쟁으로 더 보인다.

현재 OpenAI의 Copilot은 IDE의 "부가 기능"에 불과하며, 항상 Microsoft의 개발자 생태계에 의존합니다. OpenAI가 진정으로 원하는 것은 AI를 프로그래밍을 위한 "네이티브 환경"으로 만드는 것입니다.

개발자는 코드 호스팅, 생성, 디버깅 및 배포의 전체 프로세스를 플랫폼에서 완료합니다. OpenAI는 이러한 폐쇄 루프를 제어함으로써 가장 최신의 핵심 엔지니어링 데이터를 수집하고 "데이터-모델-애플리케이션"의 자체 순환 시스템을 구축합니다.

OpenAI는 또한 AI 모델 제공업체에서 개발자 도구 생태계로의 확장을 완료했습니다.

더욱 논란이 된 것은 오픈AI가 미 국방부에 대해 정치적인 "충성 맹세"를 한 것이었다.

2024년 초, OpenAI는 이용 정책을 업데이트하여 이전에 "군사 및 전시 용도"를 명시적으로 금지했던 조항을 삭제했습니다. 이 변경 사항은 공식적으로 발표되지 않았지만 여러 언론 매체에서 이를 알아챘습니다.

이후 OpenAI는 전 NSA 국장인 폴 나카소네를 이사회에 임명하고 "보안 및 보증 위원회"를 설립했습니다.

이러한 조치들은 오픈AI가 미국 국가 안보 시스템과의 협력을 심화하고 있다는 신호로 널리 해석되고 있다.

최근 미 국방부 명령 사건에서 앤트로픽은 "헌법적 수준의 AI"라는 기준을 고수하며 자사의 AI 모델이 대규모 국내 감시나 완전 자동화 무기에 사용되는 것을 허용하지 않았고, 결국 "국가 안보 공급망 리스크"으로 분류되었습니다. 반면 오픈AI는 국방부와 신속하게 합의에 도달하여 "관련 법률이 적용되는 한 사용"이라는 국방부의 핵심 프레임 수용했습니다. 비록 세 가지 보안 레드라인을 추가하고 "클라우드 배포 및 보안 스택의 자율 제어"에 대한 기술 보호 권리를 확보했지만, 합의서의 문구는 잠재적 감시와 관련하여 여전히 해석의 여지를 남겼습니다.

OpenAI의 인수 행위는 단순한 상업적 강탈을 넘어 정치적인 전략이기도 합니다. 이는 OpenAI가 "국가 차원의 AI 인프라" 역할을 수행하는 데 따르는 복잡한 책임을 감당할 준비가 되어 있음을 보여줍니다.

어쨌든 국방 예산이 2억 달러에 불과한 상황에서 기업용 SaaS에서 발생하는 수익은 미미합니다. 미군에 제품을 공급하는 업체가 됨으로써 그들은 "너무 커서 망할 수 없는" 정치적 면책권을 얻게 됩니다.

최근 융자 융자 에서 오픈AI는 무려 1,100억 달러를 유치하며 AI 역사상 최대 규모의 융자 받았습니다. 투자 유치 후 오픈AI의 기업 가치는 8,400억 달러에 육박하며 1조 달러 클럽 진입을 눈앞에 두고 있습니다.

OpenAI는 이 자금을 인공지능 인프라 확장에 활용하여 경쟁업체가 넘을 수 없는 해시레이트 장벽을 구축할 계획입니다. 이는 플랫폼 경제에서 '네트워크 효과'가 극대화된 사례입니다. 해시레이트 와 데이터 같은 핵심 자원을 독점함으로써 '사용자 집적 - 자원 강화 - 더 많은 사용자 유입'이라는 선순환 구조를 만들어내고, 궁극적으로 시장 독점을 달성하는 것입니다. 이는 OpenAI가 '통제'를 추구하는 핵심 논리 중 하나이기도 합니다.

하지만 겉보기에 화려해 보이는 이 급속한 확장의 이면에는 다모클레스의 검과 같은 치명적인 위험이 도사리고 있습니다. 바로 극도로 빠른 현금 소진 속도와 아직 완성되지 않은 비즈니스 모델이 오픈AI의 가장 큰 숨겨진 위험 요소입니다.

OpenAI는 현재 정부의 안보 우려, 윤리적 리스크, 그리고 상업적 이익이라는 삼자 싸움에 휘말려 있습니다. 자금 조달망이 무너지기 전에 상업적 폐쇄형 시스템을 강제로 구축하려는, 인류 상업 역사상 전례 없는 도박을 감행하고 있습니다.

인재 이동성과 문화적 마찰: 전략적 초점의 변화 속에서 필연적으로 발생하는 차별화 요소

기업에 유전자 변이가 일어나면 필연적으로 세포 대사가 활성화됩니다. 오픈AI의 고위 경영진 개편은 전략적 변화와 그에 따른 차별화의 자연스러운 결과입니다.

ChatGPT가 수억 명의 사용자를 보유한 슈퍼 앱으로 성장하면서 OpenAI 내부의 중심축이 근본적으로 바뀌었습니다. 엔지니어링과 제품화가 의사 결정의 주도권을 잡게 되었고, 순수 연구와 탐구는 후퇴할 수밖에 없었습니다.

최근 몇 년 동안 CTO, 후처리 책임자, 연구 책임자를 포함한 여러 OpenAI 임원과 연구 책임자들이 회사를 떠났습니다. 존 슐만이나 맥스 슈워처와 같은 기술 순수주의자들에게는 해시레이트 자원이 최첨단 연구보다 제품 배포를 우선시하기 시작하고, 보안 팀의 권한이 상용 배포 노드에 의해 제한될 때 회사를 떠나는 것이 유일한 선택이 됩니다.

앤스로픽은 이러한 "추방자"들에게 안식처가 되었습니다. 2019년 이전의 오픈아이얼과 더 비슷했습니다. 느린 출시 속도, 엄격한 보안 검토, 그리고 확장성 법칙에 대한 더 큰 집착이 특징이었습니다.

리스크 캐피털 회사인 시그널파이어는 최신 2025년 인재 트렌드 보고서에서 앤스로픽이 최고 AI 인재 유지율 80%를 기록하고 있으며, 오픈AI에서 앤스로픽으로 이직하는 엔지니어는 앤스로픽에서 오픈AI로 이직하는 엔지니어보다 이직할 가능성이 8배 더 높다고 밝혔습니다.

앤스로픽의 CEO 다리오 아모데이는 자사가 경쟁사의 인재 빼가기 시도를 막아낼 수 있다고 자랑했습니다. 메타가 10배 높은 연봉을 제시하며 직원을 유인하려는 등의 전략에도 불구하고, 대부분의 직원이 '사명감' 때문에 자발적으로 회사에 남기 때문에 앤스로픽은 이를 무시한다는 것입니다. 소식통에 따르면, 이러한 인센티브에도 불구하고 단 두 명의 직원만이 메타로 이직했으며, 이는 오픈AI보다 훨씬 높은 직원 유지율을 보여줍니다.

이러한 인재 이동은 OpenAI가 "순수 연구원"을 걸러내고 "제품 관리자"와 "엔지니어"를 유지하고 있음을 보여줍니다. OpenAI는 기술 수익화에 능숙하고 ChatGPT와 같이 세상을 바꾸고 경험을 혁신하는 제품을 만들어내는 최고의 제품 개발 인재들을 모았습니다. OpenAI는 AI 시대의 마이크로소프트로 거듭나고 있습니다.

앤스로픽은 가장 순수한 "과학자"와 "보안 전문가"들을 끌어들이고 있습니다. 인공 일반 지능(AGI)의 이론적 한계와 보안 기반을 탐구하는 데 헌신하는 인재들을 한데 모아, 인공지능 시대의 벨 연구소로 거듭나고 있는 듯합니다.

이것은 단순히 두 회사 간의 경쟁이 아니라, 두 기술적 방향 사이의 도박과도 같습니다. OpenAI는 "폭넓은 영향력과 시장 침투력"을 택하여 필수적인 인프라를 구축하고 시장 점유율 확보하는 것을 목표로 합니다. Anthropic은 "심층적인 전문성과 경계 구축"을 선택하여 미래와 견고한 기반에 투자합니다.

최근 OpenAI는 미묘한 행보를 이어가고 있습니다. 한편으로는 ChatGPT를 확장 가능한 "엔터프라이즈급 기본 진입점"으로 개선하여, 허위 정보 유포나 답변 거부, 공격적인 상호작용을 줄이고 있습니다. 다른 한편으로는 코드 호스팅, 정부 계약, 보안 관리 분야로 영향력을 확대하며, 더욱 견고한 운영 시스템과 국가 기관에 자리매김하고 있습니다. 이는 "모범 기업"에서 "인프라 기업"으로의 변모를 의미합니다.

이러한 방식의 대가는 신뢰와 문화의 재분배입니다. 연구자들은 발길을 돌릴 것이고, 사용자들은 앱을 삭제함으로써 불만을 표출할 것이며, 경쟁사들은 "더 윤리적인" 담론을 내세워 사용자들의 마음을 사로잡을 것입니다.

참고 링크:

https://x.com/max_a_schwarzer

https://www.theinformation.com/articles/openai-developing-alternative-microsofts-github

https://www.reuters.com/business/openai-is-developing-alternative-microsofts-github-information-reports-2026-03-03/

https://openai.com/zh-Hant/index/gpt-5-3-instant/

이 글은 위챗 공식 계정 "AI 프론트라인"(ID: ai-front) 의 윤이(Yunyi) 님의 글을 36Kr의 허가를 받아 게재한 것입니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트