2026 OpenClaw 租用 Mac Mini 實戰:
Ollama 與 OpenClaw 協同部署及 7×24 保活配置步驟
在租用 Mac Mini 上跑 AI 與自動化的用戶,常需 OpenClaw 與 Ollama 長期穩定運行。本文提供部署順序與資源建議、Ollama 模型拉取與 OpenClaw 模型配置、協同使用要點、7×24 保活與看門狗/cron 配置步驟及常見報錯排查;可操作、可複現,體現本站租用 Mac Mini 在 OpenClaw 落地中的價值。文末引導至部落格、首頁與購買頁。🤖💻
① 租用 Mac Mini 上 Ollama 與 OpenClaw 的部署順序與資源建議
建議先部署 Ollama、再部署 OpenClaw,避免 OpenClaw 呼叫本地模型時連線失敗。資源建議:Ollama 依模型大小預留記憶體(如 8GB 機型建議先跑 7B 級模型);磁碟預留至少 20GB 給模型與日誌。下表為簡要對照。
| 項目 | Ollama | OpenClaw |
|---|---|---|
| 部署順序 | 先安裝並啟動 | 後安裝,依賴 Ollama API |
| 記憶體建議 | 依模型(7B 約 8GB、13B 約 16GB) | 建議 2GB+ 常駐 |
| 磁碟 | 模型與快取約 10–30GB | 日誌與資料約 5–10GB |
② Ollama 模型拉取與 OpenClaw 模型配置
① 安裝 Ollama 後執行 ollama pull <模型名>(如 llama3.2、qwen2.5:7b)。② 確認服務:curl http://localhost:11434/api/tags 可列出已拉取模型。③ 在 OpenClaw 後端設定中填寫 Ollama API 位址(預設 http://127.0.0.1:11434)與模型名稱,與 ollama list 顯示之名稱一致。可引用:模型名區分大小寫;首次拉取依網路與模型大小需數分鐘至數十分鐘。
③ OpenClaw 與 Ollama 協同使用要點
① API 位址:OpenClaw 與 Ollama 同機時使用 http://127.0.0.1:11434,確保防火牆不擋本機 11434。② 模型名:OpenClaw 設定的模型名須與 ollama list 完全一致。③ 並發與資源:同一台 Mac Mini 上 Ollama 推理會佔用 CPU/記憶體,建議依節點規格控制並發任務數,避免 OOM。可引用:Ollama 預設不開外網,僅本機存取;需遠端呼叫時再改綁定位址並注意安全。
④ 7×24 保活與看門狗/cron 配置步驟
- 確認 Ollama 以服務方式常駐(如
launchd或後台執行),重開機後自動啟動。 - OpenClaw 以 systemd/launchd 或 nohup 常駐,並寫入日誌到固定路徑(如
~/openclaw/logs)。 - 以 cron 定時觸發任務:
crontab -e加入例如每小時執行一次的心跳或業務指令。 - 看門狗腳本:每 5–10 分鐘檢查 Ollama 與 OpenClaw 進程是否存在,若不存在則重啟並寫入日誌。
- 將看門狗腳本加入 crontab,形成「定時任務 + 進程保活」雙重保障。可引用:日誌輪轉建議保留至少 7 天;看門狗重啟後可發送簡單通知以便維運。
⑤ 常見報錯與排查
- Connection refused(Ollama):確認 Ollama 已啟動(
curl http://127.0.0.1:11434);檢查是否綁定 127.0.0.1 或 0.0.0.0。 - OpenClaw 無法連到模型:核對 API 位址與模型名稱是否與
ollama list一致;檢查防火牆。 - OOM 或程序被殺:降低並發或換用較小模型;增加節點記憶體或選用更高規格租用方案。
- 定時任務未執行:確認 crontab 路徑與環境變數(如 PATH);看門狗日誌是否顯示重啟記錄。