OpenClaw Docker CN-IM: Despliega un portal de IA para mensajería china
OpenClaw Docker CN-IM: Despliega un portal de IA para mensajería china
Si estás desarrollando un asistente de IA que se comunica a través de los principales servicios de mensajería de China—Feishu, DingTalk, QQ y WeCom—necesitas un backend sólido y modular. OpenClaw‑Docker‑CN‑IM ofrece exactamente eso: una imagen Docker de un solo clic que incluye un portal AI, complementos para cada plataforma principal y asistencia de código AI opcional de inmediato.
¿Por qué OpenClaw‑CN‑IM?
- Sin configuración, con Docker: Descarga la imagen, ejecuta
docker-compose up -dy casi estarás listo. - Complementos completos: Feishu, DingTalk, QQ y WeCom están preinstalados y habilitados automáticamente.
- IA primero: Cambia cualquier modelo compatible con OpenAI/Claude con una variable de entorno.
- Almacenamiento persistente: Configuraciones y espacios de trabajo se guardan en volúmenes Docker; no hay pérdida de datos al reiniciar.
- Código abierto: Licencia GPL‑3.0, contribuciones de la comunidad bienvenidas.
Requisitos previos
- Docker y Docker‑Compose (v1+).
- Una clave API de un proveedor de IA (OpenAI, Gemini, Claude, etc.).
- Opcional: credenciales para cualquier plataforma de mensajería objetivo que planees usar.
Instalación paso a paso
-
Clona el repositorio (también puedes usar
wgetpara descargardocker‑compose.ymldirectamente):git clone https://github.com/justlovemaki/OpenClaw-Docker-CN-IM.git cd OpenClaw-Docker-CN-IM -
Copia la plantilla de entorno y edítala para tu entorno:
Por lo menos, establece tu modelo de IA:cp .env.example .env nano .envMODEL_ID=gemini-3-flash-preview BASE_URL=https://api.gemini.google/v1 API_KEY=sk-… API_PROTOCOL=openai-completions CONTEXT_WINDOW=1000000 MAX_TOKENS=8192 -
Añade credenciales de IM (opcional, pero recomendado si deseas soporte multi‑plataforma). Por ejemplo, Feishu:
Repite para DingTalk, QQ, WeCom según sea necesario.FEISHU_APP_ID=tu-id-de-aplicación FEISHU_APP_SECRET=tu-secreto-de-aplicación -
Inicia la pila:
La primera ejecución generarádocker compose up -d~/.openclaw/openclaw.jsona partir de tu.env. -
Verifica el portal:
Deberías ver que OpenClaw se lanza y escucha en el puerto del portal (por defecto 18789). Abre tu navegador endocker compose logs -fhttp://<tu-host>:18789para comprobar la conectividad.
Configuración de clientes de IA
OpenClaw admite estilos de protocolo OpenAI y Claude. Si usas Gemini, selecciona el protocolo OpenAI:
API_PROTOCOL=openai-completions
BASE_URL=https://api.gemini.google/v1
Para Claude:
API_PROTOCOL=anthropic-messages
BASE_URL=http://localhost:3000
El campo API_KEY simplemente pasa a la plataforma IA; también puedes configurar un servicio local AIClient-2-API si deseas evitar llamadas externas.
Persistencia de datos
Los volúmenes Docker exponen dos carpetas clave:
/home/node/.openclaw– configuración y datos de complementos./home/node/.openclaw/workspace– espacio de trabajo para OpenCode AI y otros servicios.
Si alguna vez necesitas reiniciar todo, elimina los volúmenes locales y reinicia:
docker compose down -v
Tips de resolución de problemas
| Problema | Causa probable | Solución |
|---|---|---|
docker-compose logs muestra “permission denied” |
Permisos de volumen incompatibles | Asegúrate de que los directorios locales pertenezcan al usuario node dentro del contenedor o usa la bandera --user |
| No se reciben mensajes en Feishu | Credenciales de IM faltantes O suscripción a eventos no configurada | Revisa FEISHU_APP_ID/SECRET y habilita im.message.receive_v1 en el panel de la aplicación Feishu |
| Error 401 al llamar a la API IA | API_KEY incorrecto o con alcance insuficiente |
Verifica la clave; comprueba que tu proveedor permita el modelo seleccionado |
| Conflicto de puerto del portal | Puerto 18789/18790 ya en uso | Cambia las variables de entorno OPENCLAW_GATEWAY_PORT / OPENCLAW_BRIDGE_PORT |
Más allá de lo básico
- AIClient‑2‑API: Ejecuta un agregador API local para evitar exponer tu clave IA a Internet.
- Integración Playwright: Usa las herramientas integradas para automatizar acciones de navegador y añadir capacidades AI más ricas.
- TTS: Habilita texto a voz en chino para bots con voz activa.
- Complementos personalizados: OpenClaw permite añadir nuevos canales colocando un paquete Node‑JS bajo
/pluginsy actualizandoopenclaw.json.
Conclusión
OpenClaw‑Docker‑CN‑IM convierte un portal AI multi‑plataforma complejo en una sola línea docker-compose. Ya sea que seas un aficionado que añade IA a tu espacio de trabajo Feishu o una pequeña empresa que despliega un asistente interplataforma, esta solución reduce drásticamente la barrera de entrada.
¡Feliz despliegue—y si lo deseas, envía PRs o issues en el repositorio GitHub para ayudar a la comunidad a crecer!