首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >重磅!OpenAI开源模型正式推出!Claude4.1也同步来袭!

重磅!OpenAI开源模型正式推出!Claude4.1也同步来袭!

作者头像
AgenticAI
发布2025-08-06 10:35:11
发布2025-08-06 10:35:11
34200
代码可运行
举报
文章被收录于专栏:AgenticAIAgenticAI
运行总次数:0
代码可运行

在Sam Altman鸽了多次之后,OpenAI的开源模型终于到来!本次发布包含两个尺寸的推理模型,可用于生产的120B gpt-oss-120b和桌面级的20B模型gpt-oss-20b,采用Apache 2许可协议授权,可商用可自由构建,可微调,无任何风险。

gpt-oss-120b具有117B参数量和5.1B激活参数,可部署在单台H100。而后者20b具有21B参数和3.6B激活参数,可以运行本地设备。

120B可以认为是一个全新的生态位,原来的70B生态位势必会被取代,不论是国内还是国外,LLM提供商也将会很快推出这一API。话不多说,我们先看看性能如何。

看起来120b要比o4-mini要稍好点,比o3不分伯仲。

同一时间,Anthropic发布了Claude Opus 4.1。对比一下?

GPQA钻石级同样80.9,AIME25 OpenAI的开源模型完胜!更多的不好比较了,但Claude优势还是在于编程,而OpenAI胜在通用,编程能力应该是比较菜的,毕竟4.1也很一般。

接下来看看部署,这两个模型一上线,各家llm推理服务就上线了。桌面级ollama,可以通过如下命令运行:

代码语言:javascript
代码运行次数:0
运行
复制
ollama pull gpt-oss:20b
ollama run gpt-oss:20b

如果是生产部署,则一般采用vLLM,可采用如下命令:

代码语言:javascript
代码运行次数:0
运行
复制
uv pip install --pre vllm==0.10.1+gptoss \
    --extra-index-url https://wheels.vllm.ai/gpt-oss/ \
    --extra-index-url https://download.pytorch.org/whl/nightly/cu128 \
    --index-strategy unsafe-best-match

vllm serve openai/gpt-oss-120b

其他诸如使用pytorch,lm studio和transformer则不再赘述。

另外,我们知道Open AI的推理模型是分为low,medium和high的,这可以通过设置System Prompt,添加Reasoning: high即可。

实测,群友供图,关于编程,确实一如既往拉垮,没有超出预期。侵必删。

我自己在他们官网https://gpt-oss.com,测了一个经典问题,可惜没能回答正确,根本没有意识到这个问题的生物学逻辑。

最后,模型下载地址:

https://huggingface.co/openai/gpt-oss-120b

https://huggingface.co/openai/gpt-oss-20b

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-08-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AgenticAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档