
人工智能研究组织OpenAI宣布发布两个名为gpt-oss-120b和gpt-oss-20b的先进开放权重语言模型。这些模型在实际应用中表现出色,同时保持低运营成本。在灵活的Apache 2.0许可下发布,它们在推理任务中超越了同等大小的其他开放模型,展现出强大的工具使用能力,并针对消费级硬件进行了优化。训练过程涉及强化学习技术,并结合了OpenAI最先进的内部模型(包括o3和其他尖端系统)的见解。
gpt-oss-120b模型在基本推理基准测试中几乎与OpenAI的o4-mini模型持平,并可在单个80 GB GPU上高效运行。与此同时,gpt-oss-20b模型在常见基准测试中取得了与OpenAI的o3-mini相当的结果,并能在仅有16 GB内存的边缘设备上运行,使其适用于设备上应用、本地推理或快速测试,无需昂贵的基础设施。两个模型都在工具使用、少样本函数调用、思维链(CoT)推理方面表现出强大能力,如Tau-Bench代理评估和HealthBench所示,有时甚至超越了OpenAI o1和GPT-4o等专有模型。
这些模型与Responses API兼容,旨在集成到代理工作流中,提供高级指令跟随、工具使用(包括网页搜索和Python代码执行)以及推理能力。这包括可调节的推理工作,以优化不需要复杂推理或优先考虑最终输出低延迟的任务。两个模型都完全可自定义,支持完整的思维链推理,并支持结构化输出格式。
安全考虑是这些模型发布的核心,尤其是考虑到它们的开放性质。除了全面的安全训练和评估外,还通过OpenAI的准备框架下经过对抗性微调的gpt-oss-120b版本进行了额外的测试。gpt-oss模型在安全基准性能上可与OpenAI最新的专有模型相媲美,为开发者提供类似的安全保证。详细结果和进一步信息可在研究论文和模型卡片中找到,其方法已由外部专家审查,代表了为开放权重模型建立新安全标准的进展。
OpenAI已与AI Sweden、Orange和Snowflake等早期合作伙伴合作,探索这些开放模型的实际应用,包括出于数据安全考虑的本地托管和在专门数据集上的微调。这些开放模型的可用性旨在赋能从个人开发者到大型企业和政府实体的广泛用户群,使他们能在自己的基础设施上运行和定制人工智能。结合通过OpenAI API可访问的其他模型,开发者可以选择在性能、成本和延迟之间平衡的各种选项,以支持多样的人工智能工作流。
gpt-oss是个大事件;这是一个最先进的开放权重推理模型,具有与o4-mini相当的强大实际性能,你可以在自己的电脑(或对于较小尺寸的模型,在手机)上本地运行。我们认为这是最好且最易用的开放模型……
— Sam Altman (@sama) 2025年8月5日





