Entradas etiquetadas con: Quantization
Content related to Quantization
ComfyUI‑GGUF: Ejecuta Modelos de Baja Resolución en Tu GPU
Aprende a aprovechar ComfyUI‑GGUF, una extensión de código abierto que añade soporte de cuantificación GGUF al popular flujo de trabajo de ComfyUI. Al cargar modelos cuantizados en el ligero formato GGUF, puedes ejecutar recientes arquitecturas de difusión como Flux 1‑Dev o Stable Diffusion 3.5 en GPUs modestas mientras reduces drásticamente el uso de VRAM. Este artículo explica los requisitos previos de instalación, cómo clonar el repositorio en tu carpeta custom_nodes, instalar la dependencia gguf y reemplazar el cargador de modelos estándar con el cargador Unet GGUF. También aborda modelos pre‑cuantizados, soporte experimental de LoRA y matices específicos de cada plataforma. Al final, estarás listo para ejecutar modelos de IA de vanguardia a una fracción del coste.