支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


本地部署了一个 gpt-oss:20b,实测同级别感觉还不如deepseek-R1:14b

发布日期:2025-08-06 18:15:22 浏览次数: 1514
作者:实实在

微信搜一搜,关注“实实在”

推荐语

实测对比多款开源大模型,发现Gemma3:27b表现最佳,而GPT-OSS:20b推理逻辑存在明显缺陷。

核心内容:
1. 四款开源大模型在数值比较任务中的表现对比
2. 本地部署模型并集成到Shell环境的实用技巧
3. 自定义helpme函数实现多模型快速切换的方法

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家


 

What is OpenAI’s New GPT OSS: Free, Open-Source & Powerful – But What’s ...

直接上图了,看下面的效果,我的问题是让模型来比较 9.11 和 9.8 的大小。

可以看到 gemma3:27b 完胜啊,回答清晰,逻辑清楚。

gpt-oss:20b
gpt-oss:20b

gpt-oss 推理逻辑有点问题,注意看,他说 ,9.11 只比 9.00 小 0.11。很明显是大 0.11 吧。不过他结论倒是对的。

gemma3:27b
gemma3:27b

完美,逻辑清晰。

<a href=DeepSeek-r1:14b" class="rich_pages wxw-img" data-ratio="0.7601851851851852" data-type="png" data-w="1080" style='box-sizing: border-box;border-width: 0px;border-style: solid;border-color: rgb(229, 229, 229);display: block;vertical-align: middle;max-width: 100%;text-align: left;line-height: 1.75;font-family: Menlo, Monaco, "Courier New", monospace;font-size: 16px;margin: 0.1em auto 0.5em;border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 8px;height: auto !important;' title="null" data-imgfileid="100000271" src="https://api.ibos.cn/v4/weapparticle/accesswximg?aid=120700&url=aHR0cHM6Ly9tbWJpei5xcGljLmNuL3N6X21tYml6X3BuZy9ZQ2RudDNtNjZMbXI0MlhHSGhLaWFweG1sTWVHdjFuaE91TzRYaWNoalB4RU8zSUxSaWE5eFpPdjBpYnlhOUp6RlExMk9rWVpHVjhNQndpYXFrTzBIV1pyTlRRLzY0MD93eF9mbXQ9cG5nJmFtcA==;from=appmsg">
deepseek-r1:14b

也能够清晰的拆解出比较整数部分和小数部分,还算清晰。

qwen3:30b
qwen3:30b

也能够说出,就是思考太啰嗦了。不过他考虑了日期的情况,考虑得还全面。

我的本地就部署了这么多模型了,你可能很好奇,为什么我可以

helpme d 问一个问题

就可以让 deepseek-r1:14 模型就会回答我问题了呢?因为我在本地写了一个 shell 脚本,把他注册到我的shell 环境中啦,脚本如下。

# 自定义的 AI 助手函数
functionhelpme() {

# 临时禁用 glob 扩展,避免中文标点符号被当作通配符
setopt local_options
setopt no_glob

# 检查是否有参数
if [[ $# -eq 0 ]]; then
    echo"用法: helpme [g|o|d] <你的问题>"
    echo"  g - 使用 gemma3:27b"
    echo"  o - 使用 gpt-oss:20b"
    echo"  d - 使用 deepseek-r1:14b"
    echo"  q - 使用 qwen3:30b"
    echo""
    echo"示例: helpme g 如何使用 Docker?"
    echo"示例: helpme o 什么是机器学习?"
    echo"示例: helpme d 解释一下这段代码"
    echo"示例: helpme q 写一个快速排序"
    return 1
fi

local model=""
local first_arg="$1"

# 根据第一个参数选择模型
case"$first_arg"in
    "g")
      model="gemma3:27b"
      shift
      ;;
    "o")
      model="gpt-oss:20b"
      shift
      ;;
    "d")
      model="deepseek-r1:14b"
      shift
      ;;
    "q")
      model="qwen3:30b"
      shift
      ;;
    *)
      # 如果第一个参数不是 g/o/d/q,则默认使用 gpt-oss,并且不移除第一个参数
      model="gpt-oss:20b"
      ;;
esac

# 检查是否还有问题内容
if [[ $# -eq 0 ]]; then
    echo"请输入你的问题。"
    echo"用法: helpme [g|o|d|q] <你的问题>"
    return 1
fi

# 将剩下的所有参数作为问题
local question="$*"

# 提示用户,并调用 Ollama
echo"🤖 正在向 $model 请教: $question"
echo"---"
  ollama run "$model""$question"
}

这样,我就可以在本地方便调用我的模型啦,平常在 shell 命令中直接问。比如我忘记了怎么创建软链接了,我可以直接

helpme d 建立软连接的命令是啥?

然后直接在命令行下就给我巴拉巴拉了,我都不用切到其他地方去了。岂不是很爽 YY?

 

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询