支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


刚刚!OpenAI开源了2个模型,附部署教程

发布日期:2025-08-06 04:57:26 浏览次数: 2162
作者:沃垠AI

微信搜一搜,关注“沃垠AI”

推荐语

OpenAI时隔6年再次开源,重磅发布两款高性能模型,让开发者轻松部署AI应用!

核心内容:
1. 开源模型gpt-oss-120b和gpt-oss-20b的性能特点与硬件要求
2. 模型在推理、函数调用等方面的优异表现
3. 详细的本地部署教程与主流平台支持情况

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

是的,你没有看错,这家叫OpenAI的公司,这回终于Open一回了。

时隔6年后,OpenAI再次开源,一口气开源了2款模型,gpt-oss-120bgpt-oss-20b

简单说:gpt-oss-120b性能接近o4-mini,在单张80GB GPU上可跑,1张H100即可部署;gpt-oss-20b性能类似o3-mini,只需16GB GPU即可,基本上4080的消费级显卡就可以跑。

模型下载:https://huggingface.co/openai/gpt-oss-120b

https://huggingface.co/openai/gpt-oss-20b

GitHub:https://github.com/openai/gpt-oss

在线体验:www.gpt-oss.com


1、开源了什么?

这次开源的两个模型,都是基于o系列微调的纯文本推理模型,不含多模态。

在工具使用、少样本函数调用、CoT推理(如Tau-Bench代理评估套件中的结果所示)和HealthBench方面表现出色,甚至优于o1和GPT-4o等专有模型。

OpenAI这回确实是真开源,真可用。

如果觉得自部署麻烦,OpenAI也提供了在线网页,供大家体验。

在线体验:

www.gpt-oss.com

本次开源采用Apache 2.0协议开源,这是开源协议中最开放、最自由的模式,不仅有专利授权,还可以免费商用。

可见,OpenAI这回真是铁了心开源。不管谁来开源,都值得沃垠AI吼两嗓子。

不仅如此,开源的模型还能看到完整的CoT思维链(需要开发者提前打开)。要知道,在GPT在使用o3、o4推理模型,都是看不到思维链的。

不过,OpenAI还是建议开发者不要随意展示CoT思维链,这有点不够自信啊。

关于部署平台,基本上主流的它都支持,比如Azure、Hugging Face、vLLM、Ollama、llama.cpp、LM Studio、AWS、Fireworks、Together AI、Baseten、Databricks、Vercel、Cloudflare 和 OpenRouter等。

对于Windows系统,微软还对gpt-oss-20b模型提供了GPU优化。由ONNX Runtime提供支持,模型支持本地推理,可接入Foundry Local和VS Code中进行使用。

为什么要开源?OpenAI表示,“开源模型为开发者提供了更广泛的选择,加速AI前沿研究,促进创新,并在广泛的用例中实现更安全、更透明的AI开发”。

当然,对阿美莉卡的表扬是少不了的。


2、如何在本地部署?

可以通过Ollama方式进行部署。

我们以小模型gpt-oss-20b为例。前提,你需要有一台≥16GB显存的电脑或MAC。

首先,下载安装Ollama。

下载地址:

https://ollama.com/download

然后,拉取你想要的模型。

# For 20Bollama pull gpt-oss:20b
# For 120Bollama pull gpt-oss:120b

模型安装好后,就可以在电脑终端中与模型聊天了。

输入启动命令:

ollama run gpt-oss:20b

Ollama默认了聊天模板,模仿OpenAI的窗口,输入消息即可与模型对话。

当然,也可以通过Ollama API的方式使用OpenAI SDK。这是一个Python示例:

from openai import OpenAIclient = OpenAI(    base_url="http://localhost:11434/v1",  # Local Ollama API    api_key="ollama"                       # Dummy key)response = client.chat.completions.create(    model="gpt-oss:20b",    messages=[        {"role": "system", "content": "You are a helpful assistant."},        {"role": "user", "content": "Explain what MXFP4 quantization is."}    ])print(response.choices[0].message.content)

Ollama部署详情:

https://cookbook.openai.com/articles/gpt-oss/run-locally-ollama


写在最后

有谁还记得?其实OpenAI最早是开源的。

但自从2019年3月转成盈利实体(capped-profit)后,OpenAI在GPT-2后就再也没有开源过了。包括模型权重、代码和训练数据,都通通转向闭源。

“开源模型是一种智商税,闭源一定比开源更强大。”所以,你会在一年前看到这样的观点。

但今年以来,以DeepSeek、Qwen、GLM、Kimi、MiniMax、Hunyuan为首的中国模型,硬生生凭借自己的力量扭转了世人的观点,不仅百度开源了,就连OpenAI都来开源了。

这怎个,天道好轮回。

对于OpenAI来说,这次放出了2个模型,不意味着它就会全力转向开源路线。这其实有点像是过去单位捐款你也不得不捐点的意思,至于是真捐还是假捐,没有人知道。

但总归来说,开源总是好的。Way to AGI的路还很长,需要大家齐心协力,而非各自为营。OpenAI这回终于可以去掉“CloseAI”的名称了。

今晚,就容许Sam Altman夸张一下吧。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询