FastSAM : Modèle Segment Anything 50x plus rapide
FastSAM : La révolution Segment Anything 50x plus rapide
Performances fulgurantes avec des résultats de qualité SAM
FastSAM de CASIA-LMC-Lab redéfinit la segmentation d'images. Entraîné sur seulement 2 % du dataset SA-1B, ce modèle basé sur CNN égalise les performances de Segment Anything (SAM) de Meta tout en étant 50x plus rapide.
Stats clés : - 68M paramètres (contre 0,6G pour SAM-H) - Inférence 40ms indépendamment du nombre d'invitations - 2608MB mémoire GPU (contre 7060MB pour SAM-H)
🚀 4 Modes d'invite puissants
# Mode tout - segmente tout
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg
# Invite texte
python Inference.py --img_path ./images/dogs.jpg --text_prompt "the yellow dog"
# Invite boîte [x,y,w,h]
python Inference.py --box_prompt "[[570,200,230,400]]"
# Invite points
python Inference.py --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]"
🛠️ Démarrage rapide (5 minutes)
git clone https://github.com/CASIA-LMC-Lab/FastSAM.git
cd FastSAM
conda create -n FastSAM python=3.9
conda activate FastSAM
pip install -r requirements.txt
# Télécharger le checkpoint FastSAM.pt
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg
🌐 Démonstrations en direct disponibles
- HuggingFace Space - Mode Tout + Points
- Replicate Demo - Tous les modes supportés
- Gradio UI - Interface web locale
- Colab Notebook - Test sans configuration
📊 Résultats de benchmarks
| Méthode | Params | 1pt | 10pts | 100pts | E(64x64) |
|---|---|---|---|---|---|
| SAM-H | 0.6G | 446 | 464 | 627 | 6972 |
| SAM-B | 136M | 110 | 125 | 230 | 5417 |
| FastSAM | 68M | 40 | 40 | 40 | 40 |
🔬 Applications réelles
- Détection de contours - BSDS500 : ODS 0.750 (contre SAM 0.768)
- Propositions d'objets - COCO AR@1000 : 63.7 (contre SAM-H 67.7)
- Segmentation d'instances - COCO AP : 0.379
- Tâches en aval : Détection d'anomalies, Détection d'objets saillants, Extraction de bâtiments
🎯 Pourquoi choisir FastSAM ?
✅ Prêt pour la production - Intégration au Model Hub YOLOv8
✅ Amical pour les développeurs - API Python + démos web
✅ Efficace en matériel - Fonctionne sur GPU grand public
✅ Extensible - Code d'entraînement publié
✅ Dirigé par la communauté - 8.3k étoiles, 26 contributeurs
Mises à jour récentes (juin 2024)
- Améliorations de la qualité des contours fusionnées dans Ultralytics YOLOv8
- Démo HuggingFace mise à jour
- Optimisation TensorRT disponible
- Extension Semantic FastSAM
FastSAM prouve qu'il n'est pas nécessaire d'avoir des modèles ViT massifs pour une segmentation de pointe. Parfait pour les applications en temps réel où la vitesse est primordiale.