Catégories
- Toutes les publications 549
- Projets Open Source Pratiques 478
- Articles Tutoriels 22
- Utilitaires en ligne 13
- Actualités IA 7
- Tiny Startups Showcase 7
- Claude Code Skills 6
- Modèles d'Invites 5
- Espaces Hugging Face 3
- OpenClaw Use Cases 3
- LLM Learning Resources 1
- Online AI Image Tools 1
- OpenClaw Master Skills Collection 1
- Rust Training Resources 1
- AI Short Drama Tools 1
- Mes favoris 0
Publications marquées avec: Quantization
Content related to Quantization
ComfyUI‑GGUF : Exécuter des modèles à faible nombre de bits sur votre GPU
Apprenez à exploiter ComfyUI‑GGUF, une extension open-source qui ajoute le support de quantification GGUF au workflow populaire ComfyUI. En chargeant des modèles quantifiés dans le format léger GGUF, vous pouvez exécuter des architectures de diffusion récentes telles que Flux 1‑Dev ou Stable Diffusion 3.5 sur des GPU modestes tout en réduisant considérablement l’utilisation de VRAM. Cet article décrit les prérequis d’installation, comment cloner le dépôt dans votre dossier custom_nodes, installer la dépendance gguf et remplacer le chargeur de modèle standard par le chargeur Unet GGUF. Il aborde également les modèles pré-quantifiés, le support expérimental de LoRA et les spécificités propres à chaque plateforme. À la fin, vous serez prêt à exécuter des modèles d'IA de pointe à une fraction du coût.