在Sam Altman鸽了多次之后,OpenAI的开源模型终于到来!本次发布包含两个尺寸的推理模型,可用于生产的120B gpt-oss-120b和桌面级的20B模型gpt-oss-20b,采用Apache 2许可协议授权,可商用可自由构建,可微调,无任何风险。
gpt-oss-120b具有117B参数量和5.1B激活参数,可部署在单台H100。而后者20b具有21B参数和3.6B激活参数,可以运行本地设备。
120B可以认为是一个全新的生态位,原来的70B生态位势必会被取代,不论是国内还是国外,LLM提供商也将会很快推出这一API。话不多说,我们先看看性能如何。
看起来120b要比o4-mini要稍好点,比o3不分伯仲。
同一时间,Anthropic发布了Claude Opus 4.1。对比一下?
GPQA钻石级同样80.9,AIME25 OpenAI的开源模型完胜!更多的不好比较了,但Claude优势还是在于编程,而OpenAI胜在通用,编程能力应该是比较菜的,毕竟4.1也很一般。
接下来看看部署,这两个模型一上线,各家llm推理服务就上线了。桌面级ollama,可以通过如下命令运行:
ollama pull gpt-oss:20b
ollama run gpt-oss:20b
如果是生产部署,则一般采用vLLM,可采用如下命令:
uv pip install --pre vllm==0.10.1+gptoss \
--extra-index-url https://wheels.vllm.ai/gpt-oss/ \
--extra-index-url https://download.pytorch.org/whl/nightly/cu128 \
--index-strategy unsafe-best-match
vllm serve openai/gpt-oss-120b
其他诸如使用pytorch,lm studio和transformer则不再赘述。
另外,我们知道Open AI的推理模型是分为low,medium和high的,这可以通过设置System Prompt,添加Reasoning: high即可。
实测,群友供图,关于编程,确实一如既往拉垮,没有超出预期。侵必删。
我自己在他们官网https://gpt-oss.com,测了一个经典问题,可惜没能回答正确,根本没有意识到这个问题的生物学逻辑。
最后,模型下载地址:
https://huggingface.co/openai/gpt-oss-120b
https://huggingface.co/openai/gpt-oss-20b