LLaMA-Factory: Ajuste Fino Unificado para más de 100 LLM y VLM

LLaMA-Factory: Ajuste Fino Unificado para más de 100 LLM y VLM

El panorama de los Grandes Modelos de Lenguaje (LLM) y los Modelos de Lenguaje Visual (VLM) está evolucionando a un ritmo sin precedentes. A medida que estos modelos aumentan en complejidad y capacidad, la necesidad de soluciones de ajuste fino eficientes y accesibles se vuelve primordial. Aquí es donde entra LLaMA-Factory, un aclamado proyecto de código abierto que está redefiniendo cómo desarrolladores e investigadores abordan la personalización de modelos.

¿Qué es LLaMA-Factory?

LLaMA-Factory es un marco integral y unificado para el ajuste fino, diseñado para simplificar el proceso de adaptación de más de 100 LLM y VLM diferentes. Publicado como un artículo en ACL 2024 y acumulando más de 53.000 estrellas en GitHub, proporciona un sólido conjunto de herramientas para moldear eficientemente modelos preentrenados a tareas o conjuntos de datos específicos. Su principal fortaleza reside en abstraer gran parte de la complejidad subyacente, ofreciendo tanto una interfaz de línea de comandos (CLI) sin código como una interfaz de usuario web (UI web) intuitiva (LlamaBoard) impulsada por Gradio.

Características y Beneficios Clave

LLaMA-Factory se distingue por un rico conjunto de características adaptadas a diversas necesidades de desarrollo de IA:

  • Amplio soporte de modelos: La plataforma es compatible con una vasta gama de modelos populares, incluyendo LLaMA, LLaVA, Mistral, Mixtral-MoE, Qwen, Gemma, ChatGLM, Phi y muchos más. Esta amplia compatibilidad garantiza que los usuarios puedan trabajar con sus modelos preferidos o más adecuados.

  • Enfoques de entrenamiento unificados: Desde el preentrenamiento continuo y el ajuste fino supervisado (SFT) hasta métodos avanzados de aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) como PPO, DPO, KTO y ORPO, LLaMA-Factory integra múltiples paradigmas de entrenamiento. Esta flexibilidad permite una profunda personalización y optimización del rendimiento.

  • Escalado eficiente de recursos: Aborda las limitaciones de memoria y computacionales con técnicas sofisticadas como el ajuste completo de 16 bits, freeze-tuning y métodos de ajuste fino eficiente en parámetros (PEFT) como LoRA y varias optimizaciones QLoRA de 2/3/4/5/6/8 bits a través de AQLM/AWQ/GPTQ/LLM.int8/HQQ/EETQ. Esto hace que el ajuste fino de modelos grandes sea accesible incluso en hardware más modesto.

  • Algoritmos avanzados y trucos prácticos: El marco incorpora algoritmos de vanguardia como GaLore, BAdam, APOLLO, DoRA, LongLoRA y PiSSA, junto con optimizaciones prácticas como FlashAttention-2, Unsloth, Liger Kernel y NEFTune, asegurando un rendimiento y eficiencia de primer nivel.

  • Manejo de tareas versátil: LLaMA-Factory no se limita a la generación de texto simple. Soporta una amplia gama de tareas, incluyendo diálogo de múltiples turnos, uso de herramientas, comprensión de imágenes, anclaje visual y reconocimiento de audio, lo que lo hace ideal para aplicaciones de IA multimodal.

  • Interfaces fáciles de usar: Ya sea que prefieras la programación (scripting) o una interfaz gráfica, LLaMA-Factory te ofrece opciones. El llamafactory-cli proporciona potentes comandos de terminal, mientras que la UI web impulsada por Gradio ofrece una experiencia visual e interactiva para el entrenamiento, la evaluación y la inferencia.

  • Inferencia acelerada: Despliega tus modelos afinados con facilidad utilizando trabajadores de vLLM o SGLang integrados, permitiendo una inferencia más rápida y concurrente a través de APIs estilo OpenAI e interfaces de usuario de Gradio.

  • Monitoreo exhaustivo de experimentos: Mantén un seguimiento exhaustivo de tus experimentos con el soporte para herramientas de monitoreo populares como LlamaBoard, TensorBoard, Wandb, MLflow y SwanLab.

  • Validación en la industria: Su adopción por parte de actores importantes como Amazon, NVIDIA y Aliyun dice mucho sobre la fiabilidad y la utilidad práctica de LLaMA-Factory en escenarios del mundo real.

Cómo Empezar con LLaMA-Factory

Configurar LLaMA-Factory es sencillo. Los usuarios pueden instalarlo directamente desde la fuente, aprovechar imágenes Docker preconstruidas para un despliegue rápido, o incluso ejecutarlo en entornos de nube gratuitos como Google Colab y PAI-DSW. El proyecto proporciona documentación clara y guías de inicio rápido que demuestran cómo realizar el ajuste fino de LoRA, la inferencia y la fusión de modelos con solo unos pocos comandos.

llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml
llamafactory-cli chat examples/inference/llama3_lora_sft.yaml
llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml

Para aquellos que prefieren una GUI, simplemente ejecutar llamafactory-cli webui inicia el intuitivo LLaMA Board.

Conclusión

LLaMA-Factory empodera a la comunidad de IA al democratizar el acceso al sofisticado ajuste fino de modelos grandes. Su combinación de características completas, diseño fácil de usar y rendimiento robusto lo convierte en una herramienta indispensable para cualquiera que busque liberar todo el potencial de los LLM y VLM. Ya seas un profesional de IA experimentado o si recién estás empezando, LLaMA-Factory ofrece un camino potente, eficiente y accesible para construir modelos de IA personalizados y de alto rendimiento.

Artículo original: Ver original

Compartir este artículo