Comment déployer OpenClaw : configuration d’assistant IA en un clic

Déploiement d’OpenClaw – Le guide ultime pour un assistant IA en un clic

OpenAI, Anthropic, Google Gemini, Groq, Mistral, Ollama – tous les grands LLM peuvent désormais communiquer avec vous via la même passerelle légère. OpenClaw, un projet open‑source publié sous licence MIT, regroupe la passerelle, une interface en ligne de commande riche, et un gestionnaire de bureau facultatif alimenté par Tauri. Le dépôt OpenClawInstaller sur GitHub vous fournit un script prêt à l’emploi qui détecte votre système d’exploitation, installe les dépendances, télécharge les derniers binaires OpenClaw, configure votre modèle préféré et vos canaux de discussion, et lance le service.

Pourquoi OpenClaw ? * Installation CLI en un clic sur macOS, Linux et même Windows via WSL * Prise en charge plug‑and‑play des canaux Telegram, Discord, WhatsApp, WeChat, Slack, Feishu, iMessage – pas besoin de code côté serveur * Exécute presque n’importe quel grand LLM, localement avec Ollama ou via API, avec support de proxy personnalisé * Mémoire persistante à long terme, tâches planifiées, exécution de commandes distantes et extensions basées sur des compétences écrites en Markdown * Convient à Docker pour containeriser la passerelle afin d’isoler et d’évoluer facilement

Vous trouverez ci‑dessous un parcours pas à pas, des prérequis à la configuration avancée.


1. Prérequis

Exigence Minimum Recommandation
OS macOS 12+, Ubuntu 20.04, Debian 11, CentOS 8
Node.js v22+
RAM 2 GB 4 GB+
Espace disque 1 GB
Réseau HTTPS/HTTP

Astuce : Si vous utilisez une instance cloud gérée, envisagez un VM 2‑CPU, 4 GB RAM. Docker ajoute ~500 MB de surcharge.

2. Installation en ligne de commande en un clic

curl -fsSL https://raw.githubusercontent.com/miaoxworld/OpenClawInstaller/main/install.sh | bash

Le script effectuera : 1. La détection de votre OS et l’installation des paquets requis (Node, Docker si besoin). 2. Le téléchargement des binaires pré‑construits pour la dernière version d’OpenClaw. 3. L’exécution de l’assistant config‑menu.sh pour vous guider dans : * La sélection du fournisseur LLM et du modèle * La saisie des clés API ou le choix d’un modèle local (Ollama) * La configuration de vos canaux de message 4. Optionnellement, le lancement de la passerelle en tant que service en arrière‑plan.

Remarque de sécurité : Si vous rencontrez des erreurs de permission sur macOS, essayez d’exécuter sudo ou accordez à Terminal un accès disque complet.

3. Clonage manuel & configuration

Si vous préférez examiner le code source ou utiliser un Docker Compose personnalisé, suivez ces commandes :

# Cloner le dépôt
git clone https://github.com/miaoxworld/OpenClawInstaller.git
cd OpenClawInstaller

# Rendre les scripts exécutables
chmod +x install.sh config-menu.sh

# Exécuter l’installateur
./install.sh

Déploiement Docker optionnel :

docker compose up -d

L’image Docker télécharge le binaire openclaw et expose le port 8000 pour l’API de la passerelle.

4. Configuration rapide

Après l’installation, l’installateur demande généralement s’il faut démarrer immédiatement la passerelle. Si vous avez choisi oui, vous verrez une page de statut : openclaw gateway status. Sinon, démarrez-la manuellement avec :

# En avant‑plan (pour le débogage)
openclaw gateway

# Ou en tant que démon
openclaw gateway start

Configuration des canaux de messagerie

L’assistant config‑menu.sh expose un menu sous Canaux de message :

Canal Étapes de configuration
Telegram Créez un bot via @BotFather, copiez le token, récupérez votre ID utilisateur avec @userinfobot ; entrez le token et l’ID dans OpenClaw.
Discord Créez un bot, activez Message Content Intent, invitez le bot au serveur ; copiez le token et l’ID du canal.
WhatsApp Scannez le QR code dans le terminal – pas besoin d’API Business.
WeChat / iMessage Utilisez l’application Tauri pour macOS ou le terminal.
Slack / Feishu Fournissez les jetons d’application ou les clés secrètes.

Après configuration, redémarrez la passerelle :

openclaw gateway restart

5. Paramètres avancés

La configuration globale d’OpenClaw se trouve dans ~/.openclaw/openclaw.json et .openclaw/env. Pour la plupart des utilisateurs, l’assistant gère tout automatiquement. Si vous souhaitez ajuster certains aspects :

  • Points de terminaison LLM personnalisés – Pour les proxy Anthropic ou OpenAI, définissez ANALPHA_BASE_URL et OPENAI_BASE_URL. Le script ajoutera un fournisseur custom au fichier JSON.
  • Mémoire & Accès fichiers – Par défaut, enable_shell_commands et enable_file_access sont false. Vous pouvez les activer dans la section security pour permettre à l’assistant d’exécuter des commandes shell ou lire/écrire des fichiers.
  • Mode bac‑sable – Activer sandbox_mode: true restreint toutes les appels externes dans un environnement sécurisé.

Utilisez l’outil en ligne de commande pour ajuster :

openclaw config set security.enable_shell_commands true
openclaw config set sandbox_mode true

6. Gestion des données & sauvegarde

# Exporter l’historique des discussions au format JSON
openclaw export --format json > conversations.json

# Effacer la mémoire à long terme
openclaw memory clear

# Sauvegarder la configuration complète et les logs
openclaw backup

Les sauvegardes sont stockées dans ~/.openclaw/backups/. Vous pouvez également versionner le répertoire de sauvegarde si vous souhaitez un historique.

7. Désinstallation

Si vous devez nettoyer :

# Arrêter le service
openclaw gateway stop

# Désinstaller le paquet npm global
npm uninstall -g openclaw

# Supprimer les fichiers de configuration
rm -rf ~/.openclaw

8. Checklist de dépannage

Symptom Probable cause Solution
Node.js trop ancien node -v < 22 Installez Node 22 via nvm ou le gestionnaire de paquets de votre OS
La passerelle ne peut pas se connecter à l’API Clé API incorrecte ou URL de base personnalisée Vérifiez les clés et l’URL ; exécutez openclaw doctor
Bot de messagerie silencieux Token bot mal saisi ou non autorisé Réexécutez la configuration du canal, assurez‑vous que le bot est invité au serveur
Conteneur Docker plante Limites de ressources trop basses Allouez plus de RAM ou limitez avec -m
“Permission denied” pendant l’installation Gatekeeper macOS Accordez à Terminal un accès disque complet ou utilisez sudo

9. Récapitulatif

OpenClawInstaller transforme une machine bare metal ou une VM Dockerisée en un assistant IA complet en quelques minutes. Avec une installation en un clic, une configuration guidée et le support de pratiquement chaque LLM et canal, vous pouvez remplacer les plateformes bot externes tout en gardant le contrôle total de vos données et de votre performance.

Prochaines étapes : explorez l’application de bureau OpenClaw Manager pour une vue graphique ou plongez dans le système de compétences d’OpenClaw en ajoutant des fichiers Markdown personnalisés dans ~/.openclaw/skills/.


Bon hacking et profitez de votre assistant IA personnel !

Original Article: Voir l’original

Partager cet article