FastSAM: Segment Anything Modelを50倍高速化したモデル

FastSAM: Segment Anythingを50倍高速化した革命

SAM品質の結果を雷のような速さで

FastSAMはCASIA-LMC-Labによるもので、画像セグメンテーションを再定義します。SA-1Bデータセットのわずか2%で訓練されたこのCNNベースのモデルは、MetaのSegment Anything (SAM)と同等の性能を50倍高速で実現します。

主なスペック: - 6800万パラメータ (SAM-Hの0.6Gに対して) - プロンプト数に関係なく40ms推論 - 2608MB GPUメモリ (SAM-Hの7060MBに対して)

🚀 4つの強力なプロンプトモード

# Everythingモード - すべてをセグメント
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg

# テキストプロンプト
python Inference.py --img_path ./images/dogs.jpg --text_prompt "the yellow dog"

# ボックスプロンプト [x,y,w,h]
python Inference.py --box_prompt "[[570,200,230,400]]"

# ポイントプロンプト
python Inference.py --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]"

🛠️ クイックスタート (5分)

git clone https://github.com/CASIA-LMC-Lab/FastSAM.git
cd FastSAM
conda create -n FastSAM python=3.9
conda activate FastSAM
pip install -r requirements.txt
# FastSAM.ptチェックポイントをダウンロード
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg

🌐 ライブデモ利用可能

📊 ベンチマーク結果

Method Params 1pt 10pts 100pts E(64x64)
SAM-H 0.6G 446 464 627 6972
SAM-B 136M 110 125 230 5417
FastSAM 68M 40 40 40 40

🔬 実世界アプリケーション

  1. エッジ検出 - BSDS500: ODS 0.750 (SAM 0.768に対して)
  2. オブジェクト提案 - COCO AR@1000: 63.7 (SAM-H 67.7に対して)
  3. インスタンスセグメンテーション - COCO AP: 0.379
  4. 下流タスク: 異常検出、顕著物体検出、建物抽出

🎯 FastSAMを選ぶ理由は?

本番環境対応 - YOLOv8 Model Hub統合
開発者フレンドリー - Python API + ウェブデモ ✅ ハードウェア効率的 - コンシューマGPUで動作 ✅ 拡張可能 - 訓練コード公開 ✅ コミュニティ駆動 - 8.3kスター、26人のコントリビューター

最近の更新 (2024年6月)

  • エッジ品質改善がUltralytics YOLOv8にマージ
  • HuggingFaceデモ更新
  • TensorRT最適化利用可能
  • Semantic FastSAM拡張

FastSAMは、最先端のセグメンテーションに巨大なViTモデルは不要であることを証明します。速度が最も重要なリアルタイムアプリケーションに最適です。

GitHub Repo | 今すぐデモを試す →

オリジナル記事: オリジナルを表示

この記事を共有