2026 OpenClaw 租用 Mac Mini 實戰: Ollama 與 OpenClaw 協同部署及 7×24 保活配置步驟

2026年3月14日
RunMini 技術團隊
閱讀時間:約 7 分鐘

在租用 Mac Mini 上跑 AI 與自動化的用戶,常需 OpenClaw 與 Ollama 長期穩定運行。本文提供部署順序與資源建議、Ollama 模型拉取與 OpenClaw 模型配置、協同使用要點、7×24 保活與看門狗/cron 配置步驟及常見報錯排查;可操作、可複現,體現本站租用 Mac Mini 在 OpenClaw 落地中的價值。文末引導至部落格首頁購買頁。🤖💻

① 租用 Mac Mini 上 Ollama 與 OpenClaw 的部署順序與資源建議

建議先部署 Ollama、再部署 OpenClaw,避免 OpenClaw 呼叫本地模型時連線失敗。資源建議:Ollama 依模型大小預留記憶體(如 8GB 機型建議先跑 7B 級模型);磁碟預留至少 20GB 給模型與日誌。下表為簡要對照。

項目OllamaOpenClaw
部署順序先安裝並啟動後安裝,依賴 Ollama API
記憶體建議依模型(7B 約 8GB、13B 約 16GB)建議 2GB+ 常駐
磁碟模型與快取約 10–30GB日誌與資料約 5–10GB

② Ollama 模型拉取與 OpenClaw 模型配置

① 安裝 Ollama 後執行 ollama pull <模型名>(如 llama3.2qwen2.5:7b)。② 確認服務:curl http://localhost:11434/api/tags 可列出已拉取模型。③ 在 OpenClaw 後端設定中填寫 Ollama API 位址(預設 http://127.0.0.1:11434)與模型名稱,與 ollama list 顯示之名稱一致。可引用:模型名區分大小寫;首次拉取依網路與模型大小需數分鐘至數十分鐘。

③ OpenClaw 與 Ollama 協同使用要點

① API 位址:OpenClaw 與 Ollama 同機時使用 http://127.0.0.1:11434,確保防火牆不擋本機 11434。② 模型名:OpenClaw 設定的模型名須與 ollama list 完全一致。③ 並發與資源:同一台 Mac Mini 上 Ollama 推理會佔用 CPU/記憶體,建議依節點規格控制並發任務數,避免 OOM。可引用:Ollama 預設不開外網,僅本機存取;需遠端呼叫時再改綁定位址並注意安全。

④ 7×24 保活與看門狗/cron 配置步驟

  1. 確認 Ollama 以服務方式常駐(如 launchd 或後台執行),重開機後自動啟動。
  2. OpenClaw 以 systemd/launchd 或 nohup 常駐,並寫入日誌到固定路徑(如 ~/openclaw/logs)。
  3. 以 cron 定時觸發任務:crontab -e 加入例如每小時執行一次的心跳或業務指令。
  4. 看門狗腳本:每 5–10 分鐘檢查 Ollama 與 OpenClaw 進程是否存在,若不存在則重啟並寫入日誌。
  5. 將看門狗腳本加入 crontab,形成「定時任務 + 進程保活」雙重保障。可引用:日誌輪轉建議保留至少 7 天;看門狗重啟後可發送簡單通知以便維運。

⑤ 常見報錯與排查

  • Connection refused(Ollama):確認 Ollama 已啟動(curl http://127.0.0.1:11434);檢查是否綁定 127.0.0.1 或 0.0.0.0。
  • OpenClaw 無法連到模型:核對 API 位址與模型名稱是否與 ollama list 一致;檢查防火牆。
  • OOM 或程序被殺:降低並發或換用較小模型;增加節點記憶體或選用更高規格租用方案。
  • 定時任務未執行:確認 crontab 路徑與環境變數(如 PATH);看門狗日誌是否顯示重啟記錄。

小結與選購

依上述部署順序、模型配置、協同要點與 7×24 保活步驟,可在租用 Mac Mini 上穩定運行 Ollama 與 OpenClaw。RunMini 提供 7×24 線上 Mac Mini 節點,適合需要長期跑 AI 與自動化的用戶;下單即得 SSH/VNC,搭配本站部落格幫助中心可快速落地。歡迎至定價頁購買頁選擇節點並立即租用。✅

選擇您的 Mac 節點與訪問方式

7×24 長期跑 Ollama 與 OpenClaw 首選:租用 Mac Mini 可穩定跑 AI 與自動化;下單即得 SSH/VNC。查看定價、立即租用或前往幫助中心與部落格取得更多配置說明。

立即租用