FastSAM : Modèle Segment Anything 50x plus rapide

FastSAM : La révolution Segment Anything 50x plus rapide

Performances fulgurantes avec des résultats de qualité SAM

FastSAM de CASIA-LMC-Lab redéfinit la segmentation d'images. Entraîné sur seulement 2 % du dataset SA-1B, ce modèle basé sur CNN égalise les performances de Segment Anything (SAM) de Meta tout en étant 50x plus rapide.

Stats clés : - 68M paramètres (contre 0,6G pour SAM-H) - Inférence 40ms indépendamment du nombre d'invitations - 2608MB mémoire GPU (contre 7060MB pour SAM-H)

🚀 4 Modes d'invite puissants

# Mode tout - segmente tout
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg

# Invite texte
python Inference.py --img_path ./images/dogs.jpg --text_prompt "the yellow dog"

# Invite boîte [x,y,w,h]
python Inference.py --box_prompt "[[570,200,230,400]]"

# Invite points
python Inference.py --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]"

🛠️ Démarrage rapide (5 minutes)

git clone https://github.com/CASIA-LMC-Lab/FastSAM.git
cd FastSAM
conda create -n FastSAM python=3.9
conda activate FastSAM
pip install -r requirements.txt
# Télécharger le checkpoint FastSAM.pt
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg

🌐 Démonstrations en direct disponibles

📊 Résultats de benchmarks

Méthode Params 1pt 10pts 100pts E(64x64)
SAM-H 0.6G 446 464 627 6972
SAM-B 136M 110 125 230 5417
FastSAM 68M 40 40 40 40

🔬 Applications réelles

  1. Détection de contours - BSDS500 : ODS 0.750 (contre SAM 0.768)
  2. Propositions d'objets - COCO AR@1000 : 63.7 (contre SAM-H 67.7)
  3. Segmentation d'instances - COCO AP : 0.379
  4. Tâches en aval : Détection d'anomalies, Détection d'objets saillants, Extraction de bâtiments

🎯 Pourquoi choisir FastSAM ?

Prêt pour la production - Intégration au Model Hub YOLOv8
Amical pour les développeurs - API Python + démos web ✅ Efficace en matériel - Fonctionne sur GPU grand public ✅ Extensible - Code d'entraînement publié ✅ Dirigé par la communauté - 8.3k étoiles, 26 contributeurs

Mises à jour récentes (juin 2024)

  • Améliorations de la qualité des contours fusionnées dans Ultralytics YOLOv8
  • Démo HuggingFace mise à jour
  • Optimisation TensorRT disponible
  • Extension Semantic FastSAM

FastSAM prouve qu'il n'est pas nécessaire d'avoir des modèles ViT massifs pour une segmentation de pointe. Parfait pour les applications en temps réel où la vitesse est primordiale.

Repo GitHub | Essayer la démo maintenant →

Article original: Voir l'original

Partager cet article