FastSAM: Modelo Segment Anything 50x Más Rápido
FastSAM: La Revolución Segment Anything 50x Más Rápida
Rendimiento Relámpago con Resultados de Calidad SAM
FastSAM de CASIA-LMC-Lab redefine la segmentación de imágenes. Entrenado con solo el 2% del dataset SA-1B, este modelo basado en CNN iguala el rendimiento de Segment Anything (SAM) de Meta mientras se ejecuta 50x más rápido.
Estadísticas Clave: - 68M parámetros (vs 0.6G de SAM-H) - Inferencia de 40ms independientemente del número de prompts - 2608MB de memoria GPU (vs 7060MB de SAM-H)
🚀 4 Modos de Prompt Potentes
# Modo everything - segmenta todo
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg
# Prompt de texto
python Inference.py --img_path ./images/dogs.jpg --text_prompt "the yellow dog"
# Prompt de caja [x,y,w,h]
python Inference.py --box_prompt "[[570,200,230,400]]"
# Prompt de puntos
python Inference.py --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]"
🛠️ Inicio Rápido (5 Minutos)
git clone https://github.com/CASIA-LMC-Lab/FastSAM.git
cd FastSAM
conda create -n FastSAM python=3.9
conda activate FastSAM
pip install -r requirements.txt
# Descargar checkpoint FastSAM.pt
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg
🌐 Demos en Vivo Disponibles
- Espacio HuggingFace - Modo Everything + Puntos
- Demo Replicate - Todos los modos soportados
- Interfaz Gradio - Interfaz web local
- Notebook Colab - Pruebas sin configuración
📊 Resultados de Benchmark
| Método | Parámetros | 1pt | 10pts | 100pts | E(64x64) |
|---|---|---|---|---|---|
| SAM-H | 0.6G | 446 | 464 | 627 | 6972 |
| SAM-B | 136M | 110 | 125 | 230 | 5417 |
| FastSAM | 68M | 40 | 40 | 40 | 40 |
🔬 Aplicaciones en el Mundo Real
- Detección de Bordes - BSDS500: ODS 0.750 (vs SAM 0.768)
- Propuestas de Objetos - COCO AR@1000: 63.7 (vs SAM-H 67.7)
- Segmentación de Instancias - COCO AP: 0.379
- Tareas Downstream: Detección de Anomalías, Detección de Objetos Salientes, Extracción de Edificios
🎯 ¿Por Qué Elegir FastSAM?
✅ Listo para Producción - Integración en YOLOv8 Model Hub
✅ Amigable para Desarrolladores - API de Python + demos web
✅ Eficiente en Hardware - Funciona en GPUs de consumo
✅ Extensible - Código de entrenamiento liberado
✅ Impulsado por la Comunidad - 8.3k estrellas, 26 colaboradores
Actualizaciones Recientes (Junio 2024)
- Mejoras en calidad de bordes fusionadas en Ultralytics YOLOv8
- Demo de HuggingFace actualizada
- Optimización TensorRT disponible
- Extensión Semantic FastSAM
FastSAM demuestra que no necesitas modelos ViT masivos para segmentación de vanguardia. Perfecto para aplicaciones en tiempo real donde la velocidad importa más.