标记为: ComfyUI

Content related to ComfyUI

ComfyUI‑GGUF:让低位模型在您的 GPU 上运行

January 20, 2026

学习如何使用 ComfyUI‑GGUF——一个为流行的 ComfyUI 工作流添加 GGUF 量化支持的开源扩展。通过加载轻量级 GGUF 格式的量化模型,您可以在中低端 GPU 上运行 Flux 1‑Dev 或 Stable Diffusion 3.5 等最新扩散架构,并显著降低显存使用。本篇文章详细介绍了安装前置条件、如何将仓库克隆到 custom_nodes 文件夹、安装 gguf 依赖,以及如何将标准模型加载器替换为 GGUF Unet 加载器。文中还涵盖预量化模型、实验性 LoRA 支持以及针对不同平台的细节。到最后,您将能够以更低成本运行前沿 AI 模型。