微信扫码
添加专属顾问
我要投稿
实测对比多款开源大模型,发现Gemma3:27b表现最佳,而GPT-OSS:20b推理逻辑存在明显缺陷。核心内容: 1. 四款开源大模型在数值比较任务中的表现对比 2. 本地部署模型并集成到Shell环境的实用技巧 3. 自定义helpme函数实现多模型快速切换的方法
直接上图了,看下面的效果,我的问题是让模型来比较 9.11 和 9.8 的大小。
可以看到 gemma3:27b 完胜啊,回答清晰,逻辑清楚。
gpt-oss 推理逻辑有点问题,注意看,他说 ,9.11 只比 9.00 小 0.11。很明显是大 0.11 吧。不过他结论倒是对的。
完美,逻辑清晰。
也能够清晰的拆解出比较整数部分和小数部分,还算清晰。
也能够说出,就是思考太啰嗦了。不过他考虑了日期的情况,考虑得还全面。
我的本地就部署了这么多模型了,你可能很好奇,为什么我可以
helpme d 问一个问题
就可以让 deepseek-r1:14 模型就会回答我问题了呢?因为我在本地写了一个 shell 脚本,把他注册到我的shell 环境中啦,脚本如下。
# 自定义的 AI 助手函数
functionhelpme() {
# 临时禁用 glob 扩展,避免中文标点符号被当作通配符
setopt local_options
setopt no_glob
# 检查是否有参数
if [[ $# -eq 0 ]]; then
echo"用法: helpme [g|o|d] <你的问题>"
echo" g - 使用 gemma3:27b"
echo" o - 使用 gpt-oss:20b"
echo" d - 使用 deepseek-r1:14b"
echo" q - 使用 qwen3:30b"
echo""
echo"示例: helpme g 如何使用 Docker?"
echo"示例: helpme o 什么是机器学习?"
echo"示例: helpme d 解释一下这段代码"
echo"示例: helpme q 写一个快速排序"
return 1
fi
local model=""
local first_arg="$1"
# 根据第一个参数选择模型
case"$first_arg"in
"g")
model="gemma3:27b"
shift
;;
"o")
model="gpt-oss:20b"
shift
;;
"d")
model="deepseek-r1:14b"
shift
;;
"q")
model="qwen3:30b"
shift
;;
*)
# 如果第一个参数不是 g/o/d/q,则默认使用 gpt-oss,并且不移除第一个参数
model="gpt-oss:20b"
;;
esac
# 检查是否还有问题内容
if [[ $# -eq 0 ]]; then
echo"请输入你的问题。"
echo"用法: helpme [g|o|d|q] <你的问题>"
return 1
fi
# 将剩下的所有参数作为问题
local question="$*"
# 提示用户,并调用 Ollama
echo"🤖 正在向 $model 请教: $question"
echo"---"
ollama run "$model""$question"
}
这样,我就可以在本地方便调用我的模型啦,平常在 shell 命令中直接问。比如我忘记了怎么创建软链接了,我可以直接
helpme d 建立软连接的命令是啥?
然后直接在命令行下就给我巴拉巴拉了,我都不用切到其他地方去了。岂不是很爽 YY?
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-06
Agent应用爆发,谁成为向上托举的力量?
2025-08-06
在笔记本上,部署 gpt-oss-120b 模型
2025-08-06
WeKnora:基于大模型的新一代文档理解与检索框架
2025-08-06
OpenAI 为什么要开源大模型 gpt-oss?
2025-08-06
Coze Studio 快速上手指南
2025-08-06
企业级 AI 编程神器上线!MonkeyCode:私有部署、安全编程,研发团队加速利器
2025-08-06
OpenAI开源模型一手简单实测
2025-08-06
OpenAI被开源倒逼,一口气开源2个超级重磅模型GPT-OSS
2025-07-23
2025-06-17
2025-06-17
2025-07-23
2025-07-14
2025-07-27
2025-07-12
2025-07-29
2025-07-29
2025-05-29