微信扫码
添加专属顾问
我要投稿
OpenAI时隔6年再次开源,重磅发布两款高性能模型,让开发者轻松部署AI应用! 核心内容: 1. 开源模型gpt-oss-120b和gpt-oss-20b的性能特点与硬件要求 2. 模型在推理、函数调用等方面的优异表现 3. 详细的本地部署教程与主流平台支持情况
是的,你没有看错,这家叫OpenAI的公司,这回终于Open一回了。
时隔6年后,OpenAI再次开源,一口气开源了2款模型,gpt-oss-120b和gpt-oss-20b。
简单说:gpt-oss-120b性能接近o4-mini,在单张80GB GPU上可跑,1张H100即可部署;gpt-oss-20b性能类似o3-mini,只需16GB GPU即可,基本上4080的消费级显卡就可以跑。
模型下载:https://huggingface.co/openai/gpt-oss-120b
https://huggingface.co/openai/gpt-oss-20b
GitHub:https://github.com/openai/gpt-oss
在线体验:www.gpt-oss.com
1、开源了什么?
这次开源的两个模型,都是基于o系列微调的纯文本推理模型,不含多模态。
在工具使用、少样本函数调用、CoT推理(如Tau-Bench代理评估套件中的结果所示)和HealthBench方面表现出色,甚至优于o1和GPT-4o等专有模型。
OpenAI这回确实是真开源,真可用。
如果觉得自部署麻烦,OpenAI也提供了在线网页,供大家体验。
在线体验:
www.gpt-oss.com
本次开源采用Apache 2.0协议开源,这是开源协议中最开放、最自由的模式,不仅有专利授权,还可以免费商用。
可见,OpenAI这回真是铁了心开源。不管谁来开源,都值得沃垠AI吼两嗓子。
不仅如此,开源的模型还能看到完整的CoT思维链(需要开发者提前打开)。要知道,在GPT在使用o3、o4推理模型,都是看不到思维链的。
不过,OpenAI还是建议开发者不要随意展示CoT思维链,这有点不够自信啊。
关于部署平台,基本上主流的它都支持,比如Azure、Hugging Face、vLLM、Ollama、llama.cpp、LM Studio、AWS、Fireworks、Together AI、Baseten、Databricks、Vercel、Cloudflare 和 OpenRouter等。
对于Windows系统,微软还对gpt-oss-20b模型提供了GPU优化。由ONNX Runtime提供支持,模型支持本地推理,可接入Foundry Local和VS Code中进行使用。
为什么要开源?OpenAI表示,“开源模型为开发者提供了更广泛的选择,加速AI前沿研究,促进创新,并在广泛的用例中实现更安全、更透明的AI开发”。
当然,对阿美莉卡的表扬是少不了的。
2、如何在本地部署?
可以通过Ollama方式进行部署。
我们以小模型gpt-oss-20b为例。前提,你需要有一台≥16GB显存的电脑或MAC。
首先,下载安装Ollama。
下载地址:
https://ollama.com/download
然后,拉取你想要的模型。
# For 20B
ollama pull gpt-oss:20b
# For 120B
ollama pull gpt-oss:120b
模型安装好后,就可以在电脑终端中与模型聊天了。
输入启动命令:
ollama run gpt-oss:20b
Ollama默认了聊天模板,模仿OpenAI的窗口,输入消息即可与模型对话。
当然,也可以通过Ollama API的方式使用OpenAI SDK。这是一个Python示例:
from openai import OpenAIclient = OpenAI( base_url="http://localhost:11434/v1", # Local Ollama API api_key="ollama" # Dummy key)response = client.chat.completions.create( model="gpt-oss:20b", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Explain what MXFP4 quantization is."} ])print(response.choices[0].message.content)
Ollama部署详情:
https://cookbook.openai.com/articles/gpt-oss/run-locally-ollama
写在最后
有谁还记得?其实OpenAI最早是开源的。
但自从2019年3月转成盈利实体(capped-profit)后,OpenAI在GPT-2后就再也没有开源过了。包括模型权重、代码和训练数据,都通通转向闭源。
“开源模型是一种智商税,闭源一定比开源更强大。”所以,你会在一年前看到这样的观点。
但今年以来,以DeepSeek、Qwen、GLM、Kimi、MiniMax、Hunyuan为首的中国模型,硬生生凭借自己的力量扭转了世人的观点,不仅百度开源了,就连OpenAI都来开源了。
这怎个,天道好轮回。
对于OpenAI来说,这次放出了2个模型,不意味着它就会全力转向开源路线。这其实有点像是过去单位捐款你也不得不捐点的意思,至于是真捐还是假捐,没有人知道。
但总归来说,开源总是好的。Way to AGI的路还很长,需要大家齐心协力,而非各自为营。OpenAI这回终于可以去掉“CloseAI”的名称了。
今晚,就容许Sam Altman夸张一下吧。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-06
Agent应用爆发,谁成为向上托举的力量?
2025-08-06
在笔记本上,部署 gpt-oss-120b 模型
2025-08-06
WeKnora:基于大模型的新一代文档理解与检索框架
2025-08-06
OpenAI 为什么要开源大模型 gpt-oss?
2025-08-06
Coze Studio 快速上手指南
2025-08-06
本地部署了一个 gpt-oss:20b,实测同级别感觉还不如deepseek-R1:14b
2025-08-06
企业级 AI 编程神器上线!MonkeyCode:私有部署、安全编程,研发团队加速利器
2025-08-06
OpenAI开源模型一手简单实测
2025-07-23
2025-06-17
2025-06-17
2025-07-23
2025-07-14
2025-07-27
2025-07-12
2025-07-29
2025-07-29
2025-05-29