OpenClaw Docker CN-IM: Despliega un portal de IA para mensajería china

OpenClaw Docker CN-IM: Despliega un portal de IA para mensajería china

Si estás desarrollando un asistente de IA que se comunica a través de los principales servicios de mensajería de China—Feishu, DingTalk, QQ y WeCom—necesitas un backend sólido y modular. OpenClaw‑Docker‑CN‑IM ofrece exactamente eso: una imagen Docker de un solo clic que incluye un portal AI, complementos para cada plataforma principal y asistencia de código AI opcional de inmediato.

¿Por qué OpenClaw‑CN‑IM?

  • Sin configuración, con Docker: Descarga la imagen, ejecuta docker-compose up -d y casi estarás listo.
  • Complementos completos: Feishu, DingTalk, QQ y WeCom están preinstalados y habilitados automáticamente.
  • IA primero: Cambia cualquier modelo compatible con OpenAI/Claude con una variable de entorno.
  • Almacenamiento persistente: Configuraciones y espacios de trabajo se guardan en volúmenes Docker; no hay pérdida de datos al reiniciar.
  • Código abierto: Licencia GPL‑3.0, contribuciones de la comunidad bienvenidas.

Requisitos previos

  1. Docker y Docker‑Compose (v1+).
  2. Una clave API de un proveedor de IA (OpenAI, Gemini, Claude, etc.).
  3. Opcional: credenciales para cualquier plataforma de mensajería objetivo que planees usar.

Instalación paso a paso

  1. Clona el repositorio (también puedes usar wget para descargar docker‑compose.yml directamente):

    git clone https://github.com/justlovemaki/OpenClaw-Docker-CN-IM.git
    cd OpenClaw-Docker-CN-IM
    

  2. Copia la plantilla de entorno y edítala para tu entorno:

    cp .env.example .env
    nano .env
    
    Por lo menos, establece tu modelo de IA:
    MODEL_ID=gemini-3-flash-preview
    BASE_URL=https://api.gemini.google/v1
    API_KEY=sk-…
    API_PROTOCOL=openai-completions
    CONTEXT_WINDOW=1000000
    MAX_TOKENS=8192
    

  3. Añade credenciales de IM (opcional, pero recomendado si deseas soporte multi‑plataforma). Por ejemplo, Feishu:

    FEISHU_APP_ID=tu-id-de-aplicación
    FEISHU_APP_SECRET=tu-secreto-de-aplicación
    
    Repite para DingTalk, QQ, WeCom según sea necesario.

  4. Inicia la pila:

    docker compose up -d
    
    La primera ejecución generará ~/.openclaw/openclaw.json a partir de tu .env.

  5. Verifica el portal:

    docker compose logs -f
    
    Deberías ver que OpenClaw se lanza y escucha en el puerto del portal (por defecto 18789). Abre tu navegador en http://<tu-host>:18789 para comprobar la conectividad.

Configuración de clientes de IA

OpenClaw admite estilos de protocolo OpenAI y Claude. Si usas Gemini, selecciona el protocolo OpenAI:

API_PROTOCOL=openai-completions
BASE_URL=https://api.gemini.google/v1

Para Claude:

API_PROTOCOL=anthropic-messages
BASE_URL=http://localhost:3000

El campo API_KEY simplemente pasa a la plataforma IA; también puedes configurar un servicio local AIClient-2-API si deseas evitar llamadas externas.

Persistencia de datos

Los volúmenes Docker exponen dos carpetas clave:

  • /home/node/.openclaw – configuración y datos de complementos.
  • /home/node/.openclaw/workspace – espacio de trabajo para OpenCode AI y otros servicios.

Si alguna vez necesitas reiniciar todo, elimina los volúmenes locales y reinicia:

docker compose down -v

Tips de resolución de problemas

Problema Causa probable Solución
docker-compose logs muestra “permission denied” Permisos de volumen incompatibles Asegúrate de que los directorios locales pertenezcan al usuario node dentro del contenedor o usa la bandera --user
No se reciben mensajes en Feishu Credenciales de IM faltantes O suscripción a eventos no configurada Revisa FEISHU_APP_ID/SECRET y habilita im.message.receive_v1 en el panel de la aplicación Feishu
Error 401 al llamar a la API IA API_KEY incorrecto o con alcance insuficiente Verifica la clave; comprueba que tu proveedor permita el modelo seleccionado
Conflicto de puerto del portal Puerto 18789/18790 ya en uso Cambia las variables de entorno OPENCLAW_GATEWAY_PORT / OPENCLAW_BRIDGE_PORT

Más allá de lo básico

  • AIClient‑2‑API: Ejecuta un agregador API local para evitar exponer tu clave IA a Internet.
  • Integración Playwright: Usa las herramientas integradas para automatizar acciones de navegador y añadir capacidades AI más ricas.
  • TTS: Habilita texto a voz en chino para bots con voz activa.
  • Complementos personalizados: OpenClaw permite añadir nuevos canales colocando un paquete Node‑JS bajo /plugins y actualizando openclaw.json.

Conclusión

OpenClaw‑Docker‑CN‑IM convierte un portal AI multi‑plataforma complejo en una sola línea docker-compose. Ya sea que seas un aficionado que añade IA a tu espacio de trabajo Feishu o una pequeña empresa que despliega un asistente interplataforma, esta solución reduce drásticamente la barrera de entrada.

¡Feliz despliegue—y si lo deseas, envía PRs o issues en el repositorio GitHub para ayudar a la comunidad a crecer!

Artículo original: Ver original

Compartir este artículo