2026 OpenClaw 租用 Mac Mini 实战:
Ollama 与 OpenClaw 协同部署及 7×24 保活配置步骤
面向在租用 Mac Mini 上跑 AI 与自动化的用户:本文给出 Ollama 与 OpenClaw 的部署顺序与资源建议、模型拉取与配置、协同使用要点、7×24 保活与看门狗/cron 配置步骤及常见报错排查;文末可跳转首页、定价与购买页,实现 OpenClaw 与 Ollama 长期稳定运行。🤖💻
① 租用 Mac Mini 上 Ollama 与 OpenClaw 的部署顺序与资源建议
推荐顺序:先部署 Ollama,再安装并配置 OpenClaw。Ollama 提供本地大模型 API,OpenClaw 可调用该 API 做自动化与 Skills。资源建议:M 系列 16GB 统一内存可跑 7B 级模型;若跑 13B+ 或同时多任务,建议 24GB 及以上。端口:Ollama 默认 11434,确保防火墙或安全组放行;OpenClaw 无需单独端口,通过 HTTP 访问 Ollama。租用 Mac Mini 的优势在于免运维、不断电,适合 7×24 跑 Ollama + OpenClaw 组合。
| 项目 | 建议 |
|---|---|
| 部署顺序 | Ollama → OpenClaw |
| 内存 | 7B 模型 16GB+;13B+ 或多任务 24GB+ |
| Ollama 端口 | 11434(本机或内网可访问即可) |
| 适用场景 | 租用 Mac Mini 7×24 跑 AI + 自动化 |
② Ollama 模型拉取与 OpenClaw 模型配置
在租用 Mac Mini 上 SSH 登录后:① 安装 Ollama(官网或 brew install ollama),启动服务;② 拉取模型:ollama pull llama3.2 或所需型号(首次拉取可能较久,建议在稳定网络下执行);③ 在 OpenClaw 中配置模型:在 OpenClaw 的模型/LLM 设置里填写 Ollama 端点(如 http://127.0.0.1:11434)及模型名(与 ollama list 一致)。可引用:同一台机 OpenClaw 与 Ollama 同机部署时用 127.0.0.1:11434 即可;模型名区分大小写,须与 ollama list 完全一致。
③ OpenClaw 与 Ollama 协同使用要点
要点:① OpenClaw 通过 HTTP API 调用 Ollama,模型名需与 Ollama 内一致;② Skills 或工作流中指定「使用 Ollama 模型」即可走本地推理;③ 长期运行建议 Ollama 以服务方式常驻(如 launchd 或 systemd),避免 SSH 断开后进程退出;④ 若需多模型切换,在 OpenClaw 中配置多个模型别名即可。租用 Mac Mini 环境通常已做防休眠,Ollama + OpenClaw 可 7×24 协同。
④ 7×24 保活与看门狗/cron 配置步骤
步骤:① 用 caffeinate 或系统设置防止 Mac 休眠(租用环境多已配置);② 将 Ollama 与 OpenClaw 设为开机或常驻服务;③ 配置 cron 定时触发任务(如每日拉取、心跳);④ 看门狗脚本:定期检测 Ollama/OpenClaw 进程,若退出则重启(如 pgrep -x ollama || (ollama serve &));⑤ 日志输出到固定路径便于排查。可引用:cron 建议加 PATH 或使用绝对路径,避免找不到命令。详见本站 OpenClaw cron 与看门狗 7×24 实战。
⑤ 常见报错与排查
- Ollama 连接失败:确认 Ollama 已启动、端口 11434 可访问;OpenClaw 中 URL 是否为
http://127.0.0.1:11434。 - 模型不存在:
ollama list查看已拉取模型,OpenClaw 内模型名需完全一致。 - 内存不足/OOM:换更小模型或升级节点内存;可参考 长期 AI 推理 FAQ。
- 进程退出:用看门狗或 launchd 保活;查系统日志与 Ollama/OpenClaw 日志。
可引用:多数问题为端点、模型名或内存配置;逐项核对即可。更多安装与 Skills 步骤见 OpenClaw 租用 Mac Mini 安装与业务监控。