Entradas etiquetadas con: GGUF

Content related to GGUF

ComfyUI‑GGUF: Ejecuta Modelos de Baja Resolución en Tu GPU

January 20, 2026

Aprende a aprovechar ComfyUI‑GGUF, una extensión de código abierto que añade soporte de cuantificación GGUF al popular flujo de trabajo de ComfyUI. Al cargar modelos cuantizados en el ligero formato GGUF, puedes ejecutar recientes arquitecturas de difusión como Flux 1‑Dev o Stable Diffusion 3.5 en GPUs modestas mientras reduces drásticamente el uso de VRAM. Este artículo explica los requisitos previos de instalación, cómo clonar el repositorio en tu carpeta custom_nodes, instalar la dependencia gguf y reemplazar el cargador de modelos estándar con el cargador Unet GGUF. También aborda modelos pre‑cuantizados, soporte experimental de LoRA y matices específicos de cada plataforma. Al final, estarás listo para ejecutar modelos de IA de vanguardia a una fracción del coste.