OpenAI, Gpt-oss-120b 및 Gpt-oss-20b 출시, 최첨단 모델을 로컬 기기에 제공

이 기사는 기계로 번역되었습니다
원문 표시
OpenAI, Gpt-oss-120b 및 Gpt-oss-20b 출시, 최첨단 모델을 로컬 기기에 제공

인공지능 연구 기관 OpenAI는 gpt-oss-120b와 gpt-oss-20b라는 두 가지 고급 개방형 가중치 언어 모델을 출시했습니다. 이 모델들은 낮은 운영 비용을 유지하면서도 실용적인 애플리케이션에서 강력한 성능을 제공합니다. 유연한 Apache 2.0 라이선스로 출시된 이 모델들은 추론 작업에서 유사한 규모의 다른 개방형 모델들을 능가하고, 강력한 도구 활용 기능을 제공하며, 소비자용 하드웨어에서 효율적으로 작동하도록 최적화되어 있습니다. 학습 과정에는 o3를 비롯한 OpenAI의 최첨단 내부 모델에서 도출된 인사이트와 강화 학습 기법이 결합되었습니다.

gpt-oss-120b 모델은 기본 추론 벤치마크에서 OpenAI의 o4-mini 모델과 거의 동등한 성능을 보이며, 단일 80GB GPU에서 효율적으로 실행됩니다. 한편, gpt-oss-20b 모델은 일반적인 벤치마크에서 OpenAI의 o3-mini와 유사한 결과를 달성하며, 16GB 메모리만 사용하는 엣지 디바이스에서도 작동할 수 있어 고가의 인프라 없이도 온디바이스 애플리케이션, 로컬 추론 또는 신속한 테스트에 적합합니다. 두 모델 모두 도구 사용, 퓨샷 함수 호출, Tau-Bench 에이전트 평가 및 HealthBench에서 입증된 사고 연쇄(CoT) 추론에서 뛰어난 성능을 보여주며, 때로는 OpenAI o1 및 GPT-4o와 같은 독점 모델보다 우수한 성능을 보입니다.

이 모델은 Responses API와 호환되며 에이전트 워크플로에 통합되도록 설계되어 고급 지시 수행, 웹 검색 및 Python 코드 실행을 포함한 도구 사용, 그리고 추론 기능을 제공합니다. 여기에는 복잡한 추론이 필요하지 않거나 최종 출력에서 낮은 지연 시간을 우선시하는 작업에 최적화하기 위한 조정 가능한 추론 노력이 포함됩니다. 두 모델 모두 완벽하게 사용자 정의가 가능하며, 완전한 사고 연쇄 추론을 지원하고 구조화된 출력 형식을 지원합니다.

이러한 모델 출시에는 안전성 고려 사항이 핵심이며, 특히 개방형 모델이라는 점을 고려할 때 더욱 그렇습니다. 포괄적인 안전 교육 및 평가와 더불어, OpenAI의 준비 프레임워크(Preparedness Framework)에 따라 적대적으로 미세 조정된 gpt-oss-120b 버전을 통해 추가적인 테스트가 수행되었습니다. gpt-oss 모델은 OpenAI의 최신 독점 모델과 유사한 안전성 벤치마크 성능을 달성하여 개발자에게 유사한 안전성 보장을 제공합니다. 자세한 결과 및 추가 정보는 연구 논문과 모델 카드에서 확인할 수 있으며, 방법론은 외부 전문가의 검토를 거쳤습니다. 이는 개방형 가중치 모델에 대한 새로운 안전 표준 수립의 진전을 보여줍니다.

OpenAI는 AI Sweden, Orange, Snowflake와 같은 초기 파트너들과 협력하여 데이터 보안을 위한 온프레미스 호스팅 및 특수 데이터 세트 미세 조정을 포함하여 이러한 개방형 모델의 실제 활용 방안을 모색해 왔습니다. 이러한 개방형 모델의 제공은 개인 개발자부터 대기업, 정부 기관에 이르기까지 다양한 사용자가 자체 인프라에서 AI를 실행하고 맞춤 설정할 수 있도록 지원하는 것을 목표로 합니다. OpenAI API를 통해 접근 가능한 다른 모델과 결합하면 개발자는 성능, 비용, 지연 시간의 균형을 고려하여 다양한 AI 워크플로우를 지원하는 다양한 옵션을 선택할 수 있습니다.

gpt-oss는 정말 대단한 제품입니다. o4-mini와 견줄 만큼 강력한 실제 성능을 제공하는 최첨단 개방형 가중치 추론 모델로, 컴퓨터(또는 더 작은 용량의 휴대폰)에서 로컬로 실행할 수 있습니다. 저희는 이것이 현재 가장 뛰어나고 활용도가 높은 개방형 모델이라고 생각합니다.

— 샘 알트만(@sama) 2025년 8월 5일

Gpt-oss-120b 및 Gpt-oss-20b가 광범위한 플랫폼 및 하드웨어 지원과 함께 무료로 제공됩니다.

gpt-oss-120b와 gpt-oss-20b의 가중치는 Hugging Face에서 공개적으로 다운로드할 수 있으며, MXFP4 형식의 네이티브 양자화 기능이 포함되어 있습니다. 이를 통해 gpt-oss-120b 모델은 80GB 메모리 용량 내에서 작동할 수 있는 반면, gpt-oss-20b 모델은 16GB만 필요합니다. 두 모델 모두 하모니 프롬프트 형식을 사용하여 사후 학습을 거쳤으며, Python과 Rust에서 오픈소스 하모니 렌더러를 제공하여 도입을 용이하게 합니다. 또한, PyTorch와 Apple의 Metal 플랫폼을 사용하여 추론을 실행하기 위한 참조 구현과 실제 적용을 위한 다양한 예제 도구가 제공됩니다.

이러한 모델은 유연성과 사용 편의성을 고려하여 설계되었으며, 로컬, 기기 내 또는 타사 추론 제공업체를 통한 배포를 지원합니다. 접근성 향상을 위해 Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare, OpenRouter 등 주요 배포 플랫폼과 출시 전 파트너십을 구축했습니다. 또한 NVIDIA, AMD, Cerebras, Groq 등 하드웨어 제조업체와 협력하여 다양한 시스템에서 최적의 성능을 보장했습니다.

Microsoft는 이번 릴리스와 함께 Windows 기기용 gpt-oss-20b 모델의 GPU 최적화 버전을 제공합니다. ONNX 런타임으로 구동되는 이 버전은 로컬 추론을 지원하고 Foundry Local 및 VS Code용 AI 툴킷을 통해 액세스할 수 있어 Windows 플랫폼 개발자의 통합 프로세스를 간소화합니다.

자체 환경 내에서 미세 조정 및 배포가 가능한 완벽한 맞춤형 모델을 원하는 개발자에게 gpt-oss 모델은 적합한 솔루션을 제공합니다. 반대로, 멀티모달 기능, 내장 도구, 그리고 원활한 플랫폼 통합을 원하는 개발자에게는 API 플랫폼을 통해 제공되는 모델이 여전히 선호됩니다. 개발자 피드백을 지속적으로 모니터링하고 있으며, 향후 gpt-oss 모델에 대한 API 지원도 검토될 예정입니다.

gpt-oss-120b와 gpt-oss-20b의 도입은 개방형 가중치 모델 분야에서 주목할 만한 진전을 나타내며, 추론 능력과 안전성을 대폭 향상시켜 대규모 환경에서의 성능을 향상시킵니다. 이러한 개방형 모델은 개발자에게 최첨단 연구를 촉진하고, 혁신을 촉진하며, 다양한 애플리케이션에서 더욱 안전하고 투명한 AI 개발을 촉진하는 더욱 광범위한 도구를 제공함으로써 독점 호스팅 모델을 보완합니다.

더욱이, 이러한 개방형 모델은 신흥 시장, 자원이 제한된 분야, 그리고 독점 솔루션 도입에 제약을 받을 수 있는 소규모 조직의 진입 장벽을 낮추는 데 도움이 됩니다. 접근성이 뛰어나고 강력한 도구를 제공함으로써 전 세계 사용자는 새로운 기회를 개발하고, 혁신하고, 창출할 수 있습니다. 미국에서 개발된 이러한 유능한 개방형 모델의 광범위한 가용성은 공평한 AI 접근성 확대에 기여합니다.

개방형 모델의 안정적인 생태계는 광범위하고 포괄적인 AI 접근성을 증진하는 데 필수적인 요소입니다. 개발자와 연구자들은 이러한 모델을 활용하여 실험, 협업, 그리고 달성 가능한 한계를 확장하는 데 적극 활용할 것을 권장합니다. 이 분야의 지속적인 발전은 큰 관심을 가지고 있습니다.

OpenAI가 Gpt-oss-120b와 Gpt-oss-20b를 출시하여 최첨단 모델을 로컬 기기에 제공한다는 게시물이 Metaverse Post 에 처음 게재되었습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트