微信扫码
添加专属顾问
我要投稿
让你的Mac成为AI服务器!轻松部署Gemma 4模型并通过OpenClaw实现跨设备调用,打造私有AI助手。 核心内容: 1. 本地AI服务器架构解析:Mac运行LM Studio提供API,OpenClaw通过局域网调用 2. Gemma 4版本选择指南:从E2B到31B的性能与资源需求对比 3. 详细部署步骤:模型下载、API服务开启、局域网配置与OpenClaw接入
如果你平时就在 Mac 上用 LM Studio跑本地模型,又希望让另一台电脑上的 OpenClaw直接调用这个模型,那么这篇文章就是写给你的。
整套方案并不复杂:
这样做的好处很直接:模型推理留在本地,链路清晰,部署成本低,后续也方便继续扩展成你自己的私有 AI 助手。
Google 官方已经把 LM Studio列为 Gemma 的本地运行方案之一;LM Studio 官方也支持把本地模型以 API 形式跑起来,并提供 OpenAI-compatible endpoints;而 OpenClaw 官方则明确支持通过 models.providers接入这类本地 OpenAI-compatible provider。
你可以把它理解成下面这个结构:
另一台电脑上的 OpenClaw
│
│ 通过局域网访问 LM Studio API
▼
Mac 上的 LM Studio Server
(默认常见端口 1234)
│
▼
Gemma 4 模型这里最关键的一点是:
Gemma 4 当前主线有四个版本:
Google 官方写得很清楚:小模型是 128K 上下文,中大模型是 256K 上下文;同时,Gemma 4 还强化了 system role 支持、function calling、Agent 能力。
如果你是第一次在 Mac 上部署,我的建议很直接:
原因很现实。Google 官方给出的推理内存参考里,Gemma 4 E2B、E4B、26B A4B、31B 的资源需求跨度很大;而且这些数值还会随量化方式和环境变化。对于普通 Mac 用户来说,先跑通、先稳定,比一开始就冲大模型更重要。
顺带一提,LM Studio 模型目录也已经收录了 Gemma 4 家族,并把它定位为支持视觉输入、可本地部署的模型系列。
LM Studio 安装完成后,到 Discover页搜索模型并下载。Gemma 4 已经在 LM Studio 的模型目录中。
你可以优先搜索并下载:
Gemma 4 E4BGemma 4 E2B第一次部署,建议先从 E4B开始。
下载完成,不等于模型已经可以被 API 调用。
LM Studio 官方区分了“模型已下载”和“模型已加载”这两个状态;只有模型加载到内存里,才能真正参与推理。
如果你主要用 GUI,操作上很简单:
如果你习惯命令行,也可以使用 lmsCLI。LM Studio 官方文档列出了 lms ls、lms ps、lms load等命令来查看和管理本地模型。
这一步是整个链路能否打通的关键。
你可以在 Developer页打开 Start server,
也可以在终端里执行:
lms server start
这条命令会启动 LM Studio 的本地 HTTP API 服务。
LM Studio 官方提供了 OpenAI-compatible 接口,其中一个最直接的测试入口是:
curl http://localhost:1234/v1/models
官方文档说明,GET /v1/models会返回当前服务器可见的模型列表。
如果你能看到模型列表,说明服务已经正常启动。
接着再做一次聊天测试:
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "把这里替换成你在 /v1/models 里看到的模型 ID",
"messages": [
{"role": "user", "content": "请用三句话介绍一下你自己"}
],
"temperature": 0.7
}'默认情况下,很多人只在本机调用模型。
但如果你要让 另一台电脑上的 OpenClaw也能用,就必须让 LM Studio 的 API 服务对局域网可见。
启用 Serve on Local Network后,LM Studio 的 API server 就会对同一局域网内的其他设备开放访问。启用之后,服务会绑定到你的局域网 IP,而不再只是 localhost。
操作上就是:
这一步做完之后,你这台 Mac 就不只是“本机能聊”,而是已经开始具备“局域网模型服务器”的角色了。
或者在 Mac 终端里执行:
ipconfig getifaddr en0
如果你当前连接的是常规 Wi-Fi,通常会得到一个类似这样的地址:
192.168.1.23
那么这台机器的 LM Studio 接口地址通常就会变成:
http://192.168.1.23:1234/v1
基准地址是 http://localhost:1234/v1;打开局域网服务后,只是把 localhost换成你的局域网 IP。
在另一台电脑上执行:
curl http://192.168.1.23:1234/v1/models
只要它能返回模型列表,说明网络已经打通。
这一步非常重要,因为它能帮你在接 OpenClaw 之前,先把“网络问题”和“OpenClaw 配置问题”分开。
在另一台电脑上执行:
curl -fsSL https://openclaw.ai/install.sh | bash
安装完成后,执行初始化:
openclaw onboard --install-daemon
这一步主要是把 OpenClaw 的基础运行环境装好。
如果你已经熟悉 OpenClaw,也可以直接进入配置阶段。
OpenClaw 连接 LM Studio 时,应该按 OpenAI-compatible provider 来配置:
baseUrl指向 http://192.168.1.23:1234/v1apiKey可以写占位值api使用 openai-responsesmodel.primary写成 lmstudio/你的模型ID这一点不要偷懒,最好以实际接口返回结果为准。
执行:
curl http://192.168.1.23:1234/v1/models
然后找到你的 Gemma 4 模型对应的 实际模型 ID。
~/.openclaw/openclaw.json你只需要把 YOUR_LMSTUDIO_MODEL_ID替换成实际模型 ID,把 IP 换成你的 Mac 地址即可。
{
"agents": {
"defaults": {
"model": {
"primary": "lmstudio/YOUR_LMSTUDIO_MODEL_ID"
},
"models": {
"lmstudio/YOUR_LMSTUDIO_MODEL_ID": {
"alias": "Gemma 4 Local"
}
}
}
},
"models": {
"mode": "merge",
"providers": {
"lmstudio": {
"baseUrl": "http://192.168.1.23:1234/v1",
"apiKey": "lmstudio",
"api": "openai-responses",
"models": [
{
"id": "YOUR_LMSTUDIO_MODEL_ID",
"name": "Gemma 4 Local",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 131072,
"maxTokens": 8192
}
]
}
}
}
}这里最重要的是四件事:
primary写成 lmstudio/模型IDbaseUrl指向你的 Mac:http://局域网IP:1234/v1api写成 openai-responsesid要和 /v1/models返回的真实模型 ID 一致context Length怎么写?如果你用的是:
因为 Google 官方给 Gemma 4 的上下文说明就是:小模型 128K,中大模型 256K。
执行:
openclaw models list
如果你的 provider 配置无误,它应该能识别出刚才配置的本地模型。OpenClaw 的模型体系支持通过 models.providers注入自定义 provider 和模型元数据。
如果需要,也可以把默认模型切过去:
openclaw models set lmstudio/YOUR_LMSTUDIO_MODEL_ID
你可以直接在命令行里测试:
openclaw agent --message "请用中文介绍一下 Gemma 4 的主要特点"
或者打开 OpenClaw 的 Dashboard 进行可视化测试。
只要能正常回复,就说明整条链路已经通了:
OpenClaw(另一台电脑) → LM Studio(Mac) → Gemma 4(本地运行)
这是最常见的问题之一。
下载成功 ≠ 可被 API 调用。
如果 /v1/models看不到它,先回到 LM Studio 确认模型是否已经加载。
如果你没打开这个选项,另一台电脑基本连不上。
因为默认情况下,服务可能只对本机可见。LM Studio 官方明确说明,开启后才会绑定到局域网地址。
/v1这里和 Ollama 正好相反。
LM Studio 这条路,OpenClaw 应该对接的是 OpenAI-compatible /v1接口,所以地址要写成:
http://192.168.1.23:1234/v1
而不是只写到 :1234。
最稳妥的做法只有一个:
curl http://192.168.1.23:1234/v1/models
然后以实际返回值为准。
OpenClaw 官方示例里的 my-local-model只是占位写法,不是固定字符串。
Google 官方给出的内存需求表已经说明了,Gemma 4 不同版本的资源需求差异很大。
对大多数人来说,E4B 是更适合拿来先跑通链路的版本。
如果你现在的目标是:
那我更建议你这样起步:
Mac: LM Studio + Gemma 4 E4B
另一台电脑: OpenClaw
连接方式: 局域网 / Tailscale
Provider: OpenAI-compatible /v1等你确认这套方案已经稳定,再逐步升级到 26B A4B。
这个顺序更务实,也更符合本地部署的真实体验:
先稳定,再变强。
很多人折腾本地模型,最终都会遇到同一个问题:
“我不只是想在这台电脑上聊几句,我是想把它变成我自己的 AI 基础设施。”
而 LM Studio + Gemma 4 + OpenClaw,刚好就是一个很适合入门、同时也有升级空间的组合:
它不一定是“最极致”的方案,但它很可能是最适合个人和小团队上手的一条路。
如果你更看重的是:
那这套方案,值得你认真搭一次。
如果你也在用 LM Studio 跑本地模型,不妨照着这篇把链路打通一次。当你的 Mac 不再只是“本地聊天工具”,而是开始变成一台可被其他设备调用的 AI 服务器。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-08
用JVS小龙虾审计18个skills,百项检查,10分钟跑完
2026-04-08
Harness Engineering: 让 Coding Agent 可靠完成长程任务
2026-04-08
Mythos 全面解读:Anthropic 最强模型发布
2026-04-08
MCP 与 CLI 之争,本质是一场速度博弈
2026-04-08
刚刚,Anthropic祭出最强Claude Mythos!暴击Opus 4.6,跪求千万别用
2026-04-08
用了半年 Claude Code,你可能只用了它 20% 的功能
2026-04-08
Anthropic 的 Harness,已经进入新阶段:只用三招,开始从“补”转向“删”
2026-04-08
Anthropic宣布练出神话级模型:Claude Mythos,代码和黑客能力吊打opus4.6,不向公众开放!
2026-01-24
2026-01-10
2026-01-26
2026-01-09
2026-01-09
2026-01-23
2026-01-14
2026-03-31
2026-03-13
2026-01-21
2026-04-07
2026-04-01
2026-03-31
2026-03-31
2026-03-22
2026-03-22
2026-03-21
2026-03-20