OpenClaw Docker CN‑IM : Déployer une passerelle IA de messagerie chinoise
OpenClaw Docker CN‑IM : Déployer une passerelle IA pour la messagerie chinoise
Si vous créez un assistant IA qui interagit avec les principaux services de messagerie chinois — Feishu, DingTalk, QQ, WeCom — vous avez besoin d'une architecture robuste et modulaire. OpenClaw‑Docker‑CN‑IM offre exactement cela : une image Docker à clic unique qui regroupe une passerelle IA, des plug‑ins pour chaque plateforme majeure, et une assistance au code IA prête à l’emploi.
Pourquoi OpenClaw‑CN‑IM ?
- Zero‑configuration, basé sur Docker : Tirez l'image, lancez
docker-compose up -d, et vous êtes presque prêts. - Plug‑ins tout‑en‑un : Feishu, DingTalk, QQ, WeCom sont pré‑installés et activés automatiquement.
- IA d’abord : Remplacez un modèle compatible OpenAI/Claude par une variable d'environnement.
- Stockage persistant : Les configurations et l'espace de travail sont conservés dans des volumes Docker ; pas de perte de données au redémarrage.
- Open source : Licence GPL‑3.0, contributions de la communauté bien accueillies.
Prérequis
- Docker et Docker‑Compose (v1+).
- Une clé API d'un fournisseur d'IA (OpenAI, Gemini, Claude, etc.).
- Facultatif : identifiants pour toute plateforme de messagerie cible que vous prévoyez d'utiliser.
Installation pas à pas
-
Clonez le dépôt (vous pouvez aussi utiliser
wgetpour télécharger directementdocker‑compose.yml).git clone https://github.com/justlovemaki/OpenClaw-Docker-CN-IM.git cd OpenClaw-Docker-CN-IM -
Copiez le modèle d'environnement et modifiez-le pour votre environnement :
Au minimum, définissez votre modèle IA.cp .env.example .env nano .envMODEL_ID=gemini-3-flash-preview BASE_URL=https://api.gemini.google/v1 API_KEY=sk-… API_PROTOCOL=openai-completions CONTEXT_WINDOW=1000000 MAX_TOKENS=8192 -
Ajoutez les identifiants IM (facultatif mais recommandé si vous voulez un support multi‑plateforme). Par exemple, Feishu :
Répétez pour DingTalk, QQ, WeCom si nécessaire.FEISHU_APP_ID=your-app-id FEISHU_APP_SECRET=your-app-secret -
Démarrez la stack :
La première exécution généreradocker compose up -d~/.openclaw/openclaw.jsonà partir de votre.env. -
Vérifiez la passerelle :
Vous devriez voir OpenClaw démarrer et écouter sur le port de la passerelle (18789 par défaut). Ouvrez votre navigateur surdocker compose logs -fhttp://<your-host>:18789pour tester la connectivité.
Configuration des clients IA
OpenClaw prend en charge les styles de protocole OpenAI et Claude. Si vous utilisez Gemini, choisissez le protocole OpenAI :
API_PROTOCOL=openai-completions
BASE_URL=https://api.gemini.google/v1
Pour Claude :
API_PROTOCOL=anthropic-messages
BASE_URL=http://localhost:3000
Le champ API_KEY transmet simplement la clé à votre fournisseur IA ; vous pouvez également configurer un service AIClient-2-API local si vous souhaitez éviter les appels externes.
Conservation des données
Les volumes Docker exposent deux dossiers clés :
/home/node/.openclaw– configuration et données des plug‑ins./home/node/.openclaw/workspace– espace de travail pour OpenCode IA et autres services.
Si vous avez besoin de tout réinitialiser, supprimez les volumes hôtes et redémarrez :
docker compose down -v
Conseils de dépannage
| Problème | Cause probable | Solution |
|---|---|---|
docker-compose logs indique “permission refusée” |
Permissions de volume incompatibles | Assurez‑vous que les dossiers hôtes sont possédés par l'utilisateur node à l'intérieur du conteneur ou utilisez le drapeau --user |
| Aucun message reçu dans Feishu | Identifiants IM manquants OU abonnement d'événement non configuré | Vérifiez à nouveau FEISHU_APP_ID/SECRET et activez im.message.receive_v1 dans le tableau de bord de l'application Feishu |
| Erreur 401 lors de l'appel de l'API IA | API_KEY incorrect ou autorisations manquantes |
Vérifiez la clé ; assurez‑vous que votre fournisseur autorise le modèle choisi |
| Conflit de port de passerelle | Port 18789/18790 déjà en usage | Changez les variables d'environnement OPENCLAW_GATEWAY_PORT / OPENCLAW_BRIDGE_PORT |
Aller au-delà des bases
- AIClient‑2‑API : Lancez un agrégateur d'API local pour ne pas exposer votre clé IA sur Internet.
- Intégration Playwright : Utilisez les outils Playwright intégrés pour automatiser les actions du navigateur et ajouter des fonctionnalités IA plus riches.
- TTS : Activez la synthèse vocale chinoise pour des bots prêts à parler.
- Plug‑ins personnalisés : OpenClaw vous permet d'ajouter de nouveaux canaux en déposant un package Node‑JS sous
/pluginset en mettant à jouropenclaw.json.
Conclusion
OpenClaw‑Docker‑CN‑IM transforme une passerelle IA multi‑plateforme complexe en une seule commande docker-compose. Que vous soyez un hobbyiste ajoutant l'IA à votre espace de travail Feishu ou une petite entreprise déployant un assistant inter‑plateforme, cette solution réduit drastiquement la barrière d'entrée.
Bon déploiement — n’hésitez pas à soumettre des PR ou des problèmes sur le dépôt GitHub pour aider la communauté à grandir !