OpenClaw는 최근 중국에서 엄청난 인기를 얻고 있습니다. 주요 업체들은 모두 자사 모델이 Crayfish를 지원한다고 주장하지만, ChatGPT를 추천하는 업체는 없는 것 같습니다.
실제로 OpenAI는 최근 OpenClaw를 인수했습니다.
이유는 간단합니다. 비싸기 때문입니다.
AI를 활용하여 고객 이메일 일괄 처리 자동화와 같은 다소 복잡한 작업을 완료해 보세요. 백그라운드에서 모델은 의도 파악, 정보 검색, 초안 생성, 교정 및 다듬기, 이메일 개별 발송 등 수십 번, 심지어 수백 번 호출될 수 있습니다. 모든 단계에서 GPT-5.4의 완전한 버전이 호출된다면, 한 번의 작업에 필요한 피드(토큰) 비용이 새우 가격보다 더 비싸질 수 있습니다.
특히 OpenClaw와 같은 에이전트 프레임 의 등장으로 AI의 작동 방식은 근본적으로 바뀌었습니다. 과거에는 AI에 질문을 하면 AI가 오랫동안 질문을 응시한 후 긴 답변을 내놓았습니다. 하지만 이제 AI는 복잡한 작업을 대면 이를 작은 단계로 나누어 단계적으로 진행해야 합니다. 각 단계마다 대규모 모델이 호출되는데, 이는 답답한 지연 시간을 초래할 뿐만 아니라 엄청나게 높은 비용을 발생시킵니다.
이러한 배경 속에서 OpenAI는 GPT-5.4 mini와 nano라는 두 가지 소형 모델을 공식 출시하며, 이를 자사에서 "현재까지 개발한 소형 모델 중 가장 강력한 모델"이라고 주장했습니다.
크기는 작지만, 이 두 기기는 완벽합니다. 결코 과소평가하지 마세요. GPT-5.4 코어의 장점과 기능을 계승했을 뿐만 아니라, 더 빠르고 자원 효율도 뛰어나 대규모 고빈도 AI 작업 호출에 적합합니다.
OpenAI는 미니가 충분히 작지 않다고 생각했는지, 훨씬 더 가벼운 나노를 만들었습니다.
nano는 GPT-5.4의 가장 가볍고 빠른 버전으로, 매우 높은 속도와 비용 효율성이 요구되는 작업을 위해 설계되었습니다.
사실, 모든 작업을 하나의 모델로 처리하는 것은 비효율적이며, 종종 작은 문제를 해결하기 위해 무모한 방법을 사용하는 결과를 낳습니다. 오히려 큰 모델이 작업 방향을 정하고, 작은 모델이 대규모의 신속한 실행을 담당하는 방식으로 조정하는 것이 더 나은 해결책입니다.
OpenAI 자체의 Codex가 바로 그러한 역할을 합니다.
메인 모델은 작업 의도를 파악하고, 단계를 세분화한 다음, 특정 코드 수정, 테스트 실행 및 결과 검증을 수행할 미니/나노 수준의 하위 에이전트를 스케줄링하는 역할을 담당합니다. 각 하위 작업은 매우 낮은 비용을 소모합니다.
대형 모델은 마치 군대의 중심에 앉아 전략을 세우고 모든 자원을 지휘하는 총사령관과 같습니다. 소형 모델은 마치 수많은 정예 경기병 부대처럼 민첩하고 신속하며, 특정 임무를 완수하기 위해 최전선에 대규모로 배치됩니다.
OpenAI가 이렇게 한 이유는 무엇일까요?
미니 모델과 나노 모델은 이름 그대로 가격도 "미니"와 "나노"입니다. OpenAI가 경량 설계에 집중하는 이유를 이해하려면 먼저 이 두 모델의 가격이 얼마나 저렴한지 살펴보겠습니다.
미니 버전과 나노 버전 모두 40만 토큰의 컨텍스트 창을 지원합니다. 입력 비용 측면에서 보면, GPT-5.4 플래그십 버전은 백만 토큰당 2.5달러이고, 미니 버전은 백만 토큰당 0.75달러이며, 나노 버전은 백만 토큰당 0.2달러로 더욱 인상적입니다. 이는 플래그십 GPT-5.4 모델의 8%에 불과한 입력 비용입니다.
출력 가격 측면에서 GPT-5.4는 백만 토큰당 15달러이고, 미니 버전은 그 약 1/3(4.50달러), 나노 버전은 그 약 1/12(1.25달러)입니다.
다시 말해, OpenAI 사용자들의 요금은 거의 무료에 가깝게 대폭 인하되었습니다.
가격은 표면적인 요소일 뿐입니다. OpenAI가 이러한 움직임을 보이는 진정한 이유는 업계 전반에 걸친 사용 추세의 근본적인 변화 때문입니다.
경량 소형 모델은 호출 비용이 낮고 응답 속도가 빠르다는 특징이 있습니다. 소형 모델이 AI 구현에 있어 가장 비용 효율적이고 성장 잠재력이 큰 옵션이 되었다는 상당한 증거가 있습니다.
이번 달 OpenRouter의 가장 인기 있는 LLM(로컬 러닝 모델) 상위 10위 중 6개가 경량 모델입니다. 이 모델들의 파라미터 수는 일반적으로 수십억에서 수백억 정도에 불과하며, 이는 수천억 또는 수조 개의 파라미터를 가진 Claude Opus와 같은 대표적인 모델과는 확연히 대조적입니다.
상위 두 자리는 경량 소형 모델이 차지했습니다. MiniMax M2.5는 8.29조 토큰의 통화량으로 1위를 차지하며 전체 목록에서 압도적인 차이로 선두를 달렸고, 월간 증가율은 476%에 달했습니다. Google Gemini 3 Flash Preview는 4.24조 토큰의 통화량으로 2위를 기록하며 대부분의 일반적인 플래그십 대형 모델을 크게 앞질렀습니다.
Hugging Face Hub의 모델 다운로드 통계 또한 이러한 추세를 뒷받침합니다. 다운로드의 92.48%는 파라미터 수가 10억 개 미만인 모델에서, 86.33%는 5억 개 미만인 모델에서, 그리고 69.83%는 2억 개 미만인 모델에서 발생했습니다.
대규모 생산 또한 낮은 수익률과 높은 판매량이라는 시대에 접어들었다.
매개변수가 10억 개 이상인 모델(인기 있는 오픈소스 모델 몇 개를 포함하더라도)은 전체 다운로드의 7.52% 점유비율, 이는 경량 모델의 10분의 1에도 미치지 못하는 수치입니다. 이는 대규모 모델에 대한 높은 관심이 실제 구현 및 채택으로 이어지지 않았음을 시사합니다.
OpenAI의 사업적 관점에서 볼 때, 소규모 모델을 만드는 것은 필수적인 작업입니다.
올해 2월 말, OpenAI는 ChatGPT의 전 세계 주간 활성 사용자 수가 9억 명을 돌파했으며, 그중 약 5천만 명이 유료 사용자라고 발표했습니다. 유료 전환율은 약 5%에 불과하여 대다수의 사용자가 무료 버전을 계속 사용하고 있음을 의미합니다. 이는 향후 상용화를 위한 핵심 성장 잠재력을 보여줍니다.
대다수의 C등급 유료 사용자는 일상적인 대화, 카피라이팅, 정보 검색 및 간단한 코드 작성과 같이 빈번하고 가벼운 작업에 주로 서비스를 이용합니다.
이러한 시나리오에서는 GPT-5.4와 같은 플래그십 대형 모델의 극도로 복잡한 추론 능력이 필요하지 않습니다. 100억 미만의 처리 용량을 가진 경량 소형 모델로도 대부분의 요구 사항을 충족할 수 있으며, 밀리초 수준의 응답 속도와 대기열 없는 사용자 경험을 제공하여 대다수 사용자의 핵심 요구 사항에 완벽하게 부합합니다.
"왜"라는 질문을 많이 했으니, 이제 이 두 모델이 실제로 어떤 결과를 가져오는지 살펴보겠습니다. 결국 사료 가격이 저렴해졌는데 새우 크기가 줄어든다면, 그것은 비용 절감이나 효율성 향상이 아니라 편법일 뿐입니다.
미니 모델과 나노 모델의 기능은 무엇인가요?
미니 및 나노 제품의 장점은 단지 크기가 작고 가격이 저렴하다는 것뿐일까요?
아니오 아니오 아니오
OpenAI 웹사이트에서 실시한 일련의 벤치마크 테스트에 따르면, 이들의 성능은 상당히 뛰어납니다.
업계에서 가장 권위 있는 AI 프로그래밍 테스트인 SWE-bench Pro에서 GPT-5.4 mini는 54.4%의 정확도를 달성했는데, 이는 매우 인상적인 수치이며 정식 버전인 GPT-5.4의 57.7% 정확도에 근접한 결과입니다.
52.4%의 정확도와 매우 낮은 비용을 고려할 때, GPT-5.4 nano는 빠른 반복 코드 검토 및 보조 하위 에이전트로 이상적입니다.
다음 두 차트는 보다 직관적인 이해를 돕습니다. 가로축은 모델의 응답 시간과 비용을 각각 나타내고, 세로축은 모델의 작업 정확도를 나타냅니다.
GPT-5.4는 정확도 면에서 꾸준히 1위를 차지하지만, 그래프가 가로축에서 너무 멀리 뻗어 있어 데이터 처리 시간이 오래 걸릴 뿐만 아니라 비용도 더 많이 든다는 것을 의미합니다. 반면, 나노 및 미니 모델의 그래프 선은 일반적으로 그래프의 왼쪽에 위치하여 비용 효율성이 매우 높다는 것을 보여줍니다.
그들은 극도로 빠른 응답 속도와 극도로 낮은 비용을 얻기 위해 궁극적인 논리적 한계를 아주 조금 희생했을 뿐입니다.
이에 많은 네티즌들은 "드디어 가재 사료 가격이 내려갔네"라며 농담을 던졌다.
실제로 미니 및 나노 모델은 향후 새우 양식에서 주류 API 선택지가 될 가능성이 있습니다.
OSWorld-Verified(실제 컴퓨터 환경 작동 테스트)에서 GPT-5.4 mini는 72.1%의 정확도를 달성하여 정식 플래그십 버전의 75% 정확도에 거의 근접했습니다.
이 테스트의 주요 목적은 AI가 모니터를 보고, 마우스를 움직이고, 키보드를 사용하는 등 실제 컴퓨터를 사람처럼 사용할 수 있도록 하는 것입니다. 여기에는 Chrome, Office, VS Code와 같은 소프트웨어 사용도 포함됩니다.
이는 OpenClaw를 비롯한 에이전트 업계 관계자들이 가장 중요하게 여기는 지표입니다.
과거에는 AI가 컴퓨터를 제어할 때 무작위로 클릭하거나 반응 속도가 느린 경우가 많았습니다. 하지만 미니 버전에서 높은 점수를 받았다는 것은 버튼, 슬라이더, 입력 상자를 인식하는 정확도가 매우 높아 작업 자동화에 훨씬 능숙하다는 것을 의미합니다.
하지만 소형 모델은 모든 시나리오에 적합한 것은 아닙니다.
나노 모델은 OSWorld-Verified에서 39.0%라는 저조한 점수를 기록했는데, 이는 이전 세대 GPT-5 mini의 42.0%보다도 낮은 수치입니다.
이는 나노가 컴퓨터 인터페이스를 정밀하게 조작해야 하는 복잡한 작업에서는 여전히 부족하다는 것을 의미합니다.
마찬가지로, 심층적인 추론과 긴 논리적 연결 고리가 필요한 매우 복잡한 작업의 경우, GPT-5.4의 플래그십 버전은 여전히 대체 불가능합니다.
소형 모델의 가치는 대형 모델을 대체하는 데 있는 것이 아니라 대형 모델과 함께 사용하는 데 있습니다. 즉, 적절한 모델을 적재적소에 배치하는 것이 서브 에이전트 아키텍처의 진정한 핵심입니다.
나노와 미니 출시의 진정한 의미는 바로 여기에 있습니다. 이 제품들은 플래그십 버전의 인기를 뺏으려는 것이 아니라, "대포로 모기를 잡는 격"인 플래그십 버전의 부담을 덜어주기 위해 나온 것입니다.
대형 모델이 더 이상 모든 사소한 단계를 직접 처리할 필요가 없어지면 전체 시스템의 효율성과 비용 구조에 질적인 변화가 일어날 것입니다.
OpenAI의 의도는 단순한 가격 경쟁이 아닙니다. OpenAI는 속으로 "토큰당 수익은 줄어들겠지만, 여러분이 내 소형 모델을 더 많이 사용해서 총수익이 늘어나길 바란다"라고 생각합니다.
수익률은 낮고 판매량은 많은 전형적인 사례입니다.
과거에는 "저렴함"이 국내 생산 모델을 보호하는 해자 역할을 했지만, 이 해자는 점차 무너지고 있습니다. 일반 개발자와 기업 사용자에게 AI는 머지않아 다양한 산업 분야에서 새롭고 저렴하며 손쉽게 이용 가능한 인프라가 될 것입니다.
가재 사료 가격이 하락하면서 가재 양식업의 진입 장벽이 서서히 낮아지고 있습니다. 이제 남은 질문은 누가 가장 살찐 가재를 키울 수 있느냐는 것입니다.
이 글은 위챗 공식 계정 "Alphabet AI" 의 글이며, 작성자는 류이쥔(Liu Yijun)이고, 36Kr의 허가를 받아 게재되었습니다.




