微信扫码
添加专属顾问
我要投稿
想在Mac Mini上轻松部署本地大模型?OpenClaw结合模型量化技术,让AI高效运行且100%保护隐私!核心内容: 1. 安装Ollama本地AI引擎的详细步骤 2. 根据内存大小选择合适的量化模型 3. 两种获取模型的方式及配置指南
在 Mac Mini 上部署本地大模型(LLM)时,新手往往会遇到两个拦路虎:一是原始模型对电脑内存的巨大消耗,二是复杂的代码环境配置。
别担心!OpenClaw 为你提供了极佳的图形化交互体验,而模型量化(Quantization)技术则是让它在普通家用电脑上“起飞”的秘密武器,能在几乎不损失 AI 智商的前提下,将模型体积压缩至原来的 1/4 甚至更小,大幅降低内存需求。
本文档是一份纯“保姆级”的操作指南。跟着步骤走,完全不需要编程基础,就能把你的 Mac 变成一台高效、绝对保护隐私的 AI 工作站!
🛠️ 第一步:安装 Ollama(本地 AI 引擎)
Ollama 是目前最简单、最高效的本地 AI 运行工具。你可以把它想象成一个“万能播放器”,专门用来加载和运行各种 AI 模型。
1. 打开 Mac 的 终端 (Terminal)(在“启动台”里搜索即可),复制并粘贴以下命令,然后按回车:
curl -fsSL https://ollama.com/install.sh | sh(注:安装过程中如果提示输入密码,请输入你的 Mac 开机密码。输入时屏幕上不会显示字符,这是正常的,输完直接按回车即可。)
2. 验证是否成功: 安装完成后,在终端输入以下命令并回车:
ollama --version
如果屏幕上显示类似 ```ollama version is 0.18.2```(或更高版本),恭喜你,第一步大功告成!
🏗️ 第二步:获取量化模型
原始的 AI 模型体型巨大,我们需要根据你 Mac Mini 的内存大小,选择合适的“压缩版”(即 4-bit 量化版)模型。
📊 内存选型参考表(4-bit 压缩标准下)
Mac Mini 内存 |
建议部署的模型大小 (参数量) |
16 GB |
推荐 7B - 14B 级别的模型 |
32 GB |
推荐 15B - 35B 级别的模型 |
💡 实战演示: 本教程将以 32GB 内存的 Mac Mini 部署 Qwen3.5-35B 模型为例。
获取模型有两种方式,请任选其一:
最简单的方法是直接下载 AngelSlim 团队已经为你压缩打包好的 .gguf 模型文件。
1. 新建文件夹: 在终端中输入以下命令,在你的用户目录下创建一个名为 Models 的专用文件夹并进入该文件夹:
mkdir -p ~/Models && cd ~/Models
2. 下载文件:访问 魔搭社区 https://modelscope.cn/models/AngelSlim/Qwen3.5-35B-Q4_K_M/files,找到名为 Qwen3.5-35B-Q4_K_M.gguf 的文件(约 22GB)并下载。
3. 存放位置: 将下载好的 .gguf 文件直接拖入刚才创建的 Models 文件夹中。
如果你在魔搭社区或者其他开源站点上有心仪的模型,可以通过以下步骤将模型手动压缩。我们同样以魔搭社区 上的Qwen3.5-35B模型为例
1. 准备环境并下载原模型: (一行一行复制运行)
# 安装环境/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"brew install cmake git python@3.11pip install modelscope# 下载原始未量化的庞大模型到 Models 文件夹mkdir -p ~/Models && cd ~/Modelsmodelscope download Qwen/Qwen3.5-35B-A3B --local_dir ~/Models/Qwen3.5-35B-Raw
未被量化的Qwen3.5-35B 模型会被下载到 ~/Models/Qwen3.5-35B-Raw 文件夹
2. 编译量化工具 (llama.cpp):
cd ~/Modelsgit clone https://github.com/ggerganov/llama.cpp
如果git clone 命令较慢或出现网络问题,可使用国内镜像源加速下载:
git clone https://gitee.com/limoncc/llama.cpp.git
下载完成后对llama.cpp进行编译
cd llama.cppcmake -B buildcmake --build build --config Release
3. 执行格式转换与 4-bit 终极压缩:
# 1. 安装依赖并转换格式pip install -r requirements.txtpython convert_hf_to_gguf.py ~/Models/Qwen3.5-35B-Raw --outfile ~/Models/qwen3.5-f16.gguf# 执行量化 (从 60GB 压缩至约 22GB)./build/bin/llama-quantize ~/Models/qwen3.5-f16.gguf ~/Models/qwen3.5-35B-Q4_K_M.gguf Q4_K_M
完成后,你可以把中间文件 qwen3.5-f16.gguf 和庞大的 Qwen3.5-35B-Raw 文件夹都删除以节省硬盘空间。
📑 第三步:在 Ollama 中“注册”模型
模型文件下载好了,现在我们要给 Ollama 写一份“说明书”,告诉它怎么运行这个模型。
1. 创建配置文件:
打开 Mac 自带的“文本编辑”应用,新建一个文档,转换为纯文本格式(在菜单栏点击“格式” -> “制作纯文本”),粘贴以下内容:
# 指向你刚才下载/生成的模型文件名(确保在这个文件同一目录下执行)FROM ./qwen3.5-35B-Q4_K_M.gguf# 上下文长度PARAMETER num_ctx 32768# Prompt 模版TEMPLATE {{ .Prompt }}RENDERER qwen3.5PARSER qwen3.5# 一些超参数PARAMETER top_p 0.95PARAMETER presence_penalty 1.5PARAMETER temperature 1PARAMETER top_k 20
将这个文件保存到 ```Models``` 文件夹下,命名为 Modelfile(注意:不要有 .txt 后缀,如果系统自动加了,请右键重命名删掉后缀)。
2. 生成大模型:
在终端中确保你处于 ```Models``` 文件夹,然后运行注册命令:
cd ~/Modelsollama create myqwen -f Modelfile
看到屏幕最后显示 success 了吗?太棒了!你现在拥有了一个代号为 myqwen 的专属本地大模型。
🚀 第四步:启动 OpenClaw
接下来,我们就要开始部署Openclaw 了。 OpenClaw 是你的本地智能助手,负责连接模型并执行具体的电脑操作任务。
1. 启动 OpenClaw: 在终端输入以下命令
ollama launch openclaw2. 连接模型: 在弹出的启动界面或设置菜单中,找到模型选择选项,选中咱们刚才创建的 myqwen。(如果是首次使用,按提示选择 Yes 同意安装)
3. 确认运行:看到 OpenClaw is running 字样,说明部署大功告成!
4. 图形化界面: 点击终端记录中生成的本地网络链接,即可进入网页管理界面,随时随地与它交互。
🧪 第五步:自动化能力测试(Agent Test)
在 OpenClaw 的对话框中,输入以下指令:
“帮我在桌面创建一个名为 hello.txt 的文件,内容写上:Hello OpenClaw, this is my local AI!”
如果Openclaw表示愿意创建,且Mac桌面上出现了这个 hello.txt 文件,说明OpenClaw部署成功。
⚠️ 权限提示: 如果 AI 抱歉地告诉你它无法操作,请进入 OpenClaw Settings 的 Tools -> Tool Profile,将权限等级设置为 Full(全权限),然后再试一次。
✅ 使用检查清单与温馨提示
💻 内存监控: 运行 35B 这样的大模型时,它会占用较多内存。建议在使用时关掉 Chrome 浏览器等“内存刺客”软件,体验会更流畅。
🔒 绝对隐私: 你可以大胆尝试断开 Mac 的 WiFi 网络,你会发现 OpenClaw 依然可以正常跟你对话、推理甚至写代码。你的数据 100% 留存在本地,再也不用担心隐私泄露。
⚡ 硬件加速: Ollama 已经默默为你开启了 Mac 的 Metal API 硬件加速,充分调用了 Apple Silicon 的 GPU 核心,感受飞一般的推理速度吧!
关于AngelSlim 团队
腾讯 AngelSlim 团队,致力于打造更易用、更全面和更高效的大语言模型压缩工具,将开源量化、投机采样、稀疏化和蒸馏等压缩算法,覆盖主流最前沿的大模型,并且端到端打通从压缩到部署的全流程。
敬请期待后续的高压缩率模型发布!
👇点击关注ModelScope公众号获取 更多技术信息~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-28
刚刚,飞书CLI开源,Claude Code也可以丝滑操控飞书了。
2026-03-28
掀开 OpenClaw 的神经中枢:Gateway 架构全解析。
2026-03-28
在树莓派上玩转OpenClaw,每月费用仅仅低于10美元!
2026-03-28
OpenClaw 技能注册与新增完全指南:从“会说话”到“会干活”
2026-03-28
OpenClaw 3.24发布:彻底解决最重要的Skills安装障碍!
2026-03-28
OpenClaw 核心命令速查手册 (2026 增强版)
2026-03-27
WSL2 安装OpenClaw与配置指南(实操篇)
2026-03-26
Harness 驾驭工程是 AI 平权的必经之路?
2026-02-17
2026-03-03
2026-03-05
2026-02-06
2026-02-03
2026-02-16
2026-02-10
2026-03-09
2026-03-09
2026-02-06
2026-03-26
2026-03-24
2026-03-24
2026-03-23
2026-03-21
2026-03-20
2026-03-16
2026-03-14