2026 OpenClaw sur Mac Mini loué :
Ollama et OpenClaw en déploiement commun et maintien 7×24
Les utilisateurs qui font tourner de l’IA et de l’automatisation sur un Mac Mini loué ont besoin d’OpenClaw et d’Ollama stables en continu (7×24). Ce guide donne l’ordre de déploiement, les conseils ressources, la configuration des modèles, le maintien en vie avec cron et watchdog, ainsi que les erreurs courantes pour une configuration reproductible. Public visé : toute personne louant un Mac Mini pour l’IA et l’automatisation long terme. Vous y trouverez : ordre de déploiement et ressources, téléchargement des modèles Ollama et configuration OpenClaw, points clés d’usage commun, étapes de maintien 7×24 et dépannage, avec CTA vers accueil, tarifs, achat et centre d’aide.
Ordre de déploiement Ollama et OpenClaw sur Mac Mini loué et conseils ressources
Installez d’abord Ollama, puis OpenClaw. Ollama fournit l’API LLM locale ; OpenClaw l’appelle pour les tâches. Inverser l’ordre ou omettre Ollama provoque des erreurs de modèle.
- Étape 1 : Connexion SSH au nœud loué. Installer Ollama (ex.
curl -fsSL https://ollama.com/install.sh | sh). Démarrer le service et vérifier qu’il écoute surlocalhost:11434. - Étape 2 : Installer OpenClaw (npm ou Docker selon le guide d’installation OpenClaw). Vérifier que les versions Node et npm respectent les exigences OpenClaw.
| Composant | RAM min. | Recommandé |
|---|---|---|
| Ollama (petit modèle) | 8 Go | 16 Go mémoire unifiée (M-series) |
| OpenClaw | 2 Go | 4 Go libres pour Skills et cache |
| 7×24 les deux | — | Cron + watchdog ; éviter la veille |
À retenir : port par défaut Ollama 11434. Un Mac Mini M2/M4 loué avec 16 Go ou plus de mémoire unifiée convient pour Ollama + OpenClaw en 7×24.
Téléchargement des modèles Ollama et configuration OpenClaw
Téléchargez le modèle dont vous avez besoin sur le Mac Mini, puis pointez OpenClaw vers le même nom de modèle.
- Sur le serveur :
ollama pull <modèle>(ex.ollama pull llama3.2ouollama pull qwen2.5:7b). Attendre la fin du téléchargement. - Lister les modèles :
ollama list. Noter le tag exact (ex.qwen2.5:7b). - Dans la config ou les variables d’environnement OpenClaw, définir l’URL de base Ollama sur
http://127.0.0.1:11434et le nom du modèle sur le même tag. Un nom différent provoque « modèle introuvable ».
À retenir : l’API Ollama est sur http://127.0.0.1:11434/api/generate. OpenClaw utilise en général le même hôte et le même nom de modèle dans les réglages du fournisseur LLM.
Points clés pour utiliser OpenClaw avec Ollama
OpenClaw envoie les requêtes à Ollama ; Ollama exécute le modèle et renvoie le flux. Gardez les deux actifs pour des tâches 7×24.
- Faire tourner Ollama en service (ou processus persistant) pour qu’il écoute toujours sur 11434.
- Lancer OpenClaw avec vos Skills et planifications ; il appellera Ollama lorsque une tâche nécessite le LLM.
- Si vous utilisez plusieurs modèles, définir le bon nom de modèle par tâche ou Skill dans OpenClaw pour qu’il corresponde à un modèle Ollama téléchargé.
Pour plus de scénarios et d’orchestration, voir Orchestration multi-scénarios et le blog.
Maintien 7×24 et configuration cron / watchdog
Pour garder Ollama et OpenClaw actifs et les redémarrer en cas de plantage, utilisez cron pour des vérifications planifiées et un script watchdog simple.
- Désactiver la veille du Mac : Réglages système → Énergie (ou Batterie) → empêcher la veille écran et disque si possible ; ou utiliser
caffeinateen session longue. - Démarrer Ollama au boot ou via un gestionnaire de processus pour qu’il soit toujours disponible. Idem pour OpenClaw si vous le lancez en démon.
- Ajouter une tâche cron (ex. toutes les 5–10 min) qui exécute un script : vérifier si Ollama répond sur 11434 et si le processus OpenClaw tourne ; redémarrer si besoin. Logger dans un fichier (ex.
/tmp/ollama-openclaw-watchdog.log). - Exemple de script watchdog :
curl -s http://127.0.0.1:11434/api/tagspour Ollama ;pgrep -f openclaw(ou le nom de votre processus) pour OpenClaw. Redémarrer le composant en défaut et logger l’événement. - Pour les schémas complets cron et watchdog, voir OpenClaw cron et watchdog 7×24.
À retenir : syntaxe cron « toutes les 10 minutes » : */10 * * * * /chemin/vers/watchdog.sh. Rendre le script exécutable et donner à cron le bon PATH ou les chemins complets vers curl et vos binaires.
Erreurs courantes et dépannage
Problèmes fréquents et corrections :
- OpenClaw « modèle introuvable » ou connexion refusée : vérifier qu’Ollama tourne (
curl http://127.0.0.1:11434/api/tags) et que le nom de modèle dans OpenClaw correspond exactement à un modèle deollama list. - Ollama OOM ou très lent : utiliser un modèle plus petit ou un nœud avec plus de mémoire unifiée. Voir la FAQ inférence IA pour VRAM et reprise.
- Processus s’arrête après déconnexion SSH : faire tourner Ollama et OpenClaw sous un gestionnaire de processus (ex. launchd, script type systemd, ou
nohup+ watchdog). Cron plus watchdog est la solution minimale 7×24. - Cron n’exécute pas le script : utiliser des chemins complets dans le script et dans cron ; vérifier
crontab -let la sortie mail ou log pour les erreurs.
Si les problèmes persistent, consulter le centre d’aide ou le support fournisseur avec l’ID du nœud et les logs d’erreur.
Synthèse et suite
Déployez d’abord Ollama, puis OpenClaw ; alignez les noms de modèles et l’URL de base. Utilisez cron et un watchdog pour maintenir les deux en 7×24 sur votre Mac Mini loué. Un nœud loué offre un hôte stable sans gérer le matériel ; combinez-le à cette configuration pour l’IA et l’automatisation long terme.
Choisissez une offre sur les tarifs, finalisez l’achat, puis suivez ce guide et les articles OpenClaw liés pour faire tourner Ollama et OpenClaw en 7×24.
Choisir votre nœud Mac pour OpenClaw et Ollama
Faites tourner Ollama et OpenClaw 7×24 sur un Mac Mini loué dédié. Commencez par l’accueil ou les tarifs, puis louer maintenant. Plus de guides : blog et centre d’aide.