FastSAM: Segment Anything Modelを50倍高速化したモデル
April 09, 2026
カテゴリ:
実用的なオープンソースプロジェクト
FastSAM: Segment Anythingを50倍高速化した革命
SAM品質の結果を雷のような速さで
FastSAMはCASIA-LMC-Labによるもので、画像セグメンテーションを再定義します。SA-1Bデータセットのわずか2%で訓練されたこのCNNベースのモデルは、MetaのSegment Anything (SAM)と同等の性能を50倍高速で実現します。
主なスペック: - 6800万パラメータ (SAM-Hの0.6Gに対して) - プロンプト数に関係なく40ms推論 - 2608MB GPUメモリ (SAM-Hの7060MBに対して)
🚀 4つの強力なプロンプトモード
# Everythingモード - すべてをセグメント
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg
# テキストプロンプト
python Inference.py --img_path ./images/dogs.jpg --text_prompt "the yellow dog"
# ボックスプロンプト [x,y,w,h]
python Inference.py --box_prompt "[[570,200,230,400]]"
# ポイントプロンプト
python Inference.py --point_prompt "[[520,360],[620,300]]" --point_label "[1,0]"
🛠️ クイックスタート (5分)
git clone https://github.com/CASIA-LMC-Lab/FastSAM.git
cd FastSAM
conda create -n FastSAM python=3.9
conda activate FastSAM
pip install -r requirements.txt
# FastSAM.ptチェックポイントをダウンロード
python Inference.py --model_path ./weights/FastSAM.pt --img_path ./images/dogs.jpg
🌐 ライブデモ利用可能
- HuggingFace Space - Everything + Pointsモード
- Replicate Demo - すべてのモード対応
- Gradio UI - ローカルウェブインターフェース
- Colab Notebook - セットアップ不要のテスト
📊 ベンチマーク結果
| Method | Params | 1pt | 10pts | 100pts | E(64x64) |
|---|---|---|---|---|---|
| SAM-H | 0.6G | 446 | 464 | 627 | 6972 |
| SAM-B | 136M | 110 | 125 | 230 | 5417 |
| FastSAM | 68M | 40 | 40 | 40 | 40 |
🔬 実世界アプリケーション
- エッジ検出 - BSDS500: ODS 0.750 (SAM 0.768に対して)
- オブジェクト提案 - COCO AR@1000: 63.7 (SAM-H 67.7に対して)
- インスタンスセグメンテーション - COCO AP: 0.379
- 下流タスク: 異常検出、顕著物体検出、建物抽出
🎯 FastSAMを選ぶ理由は?
✅ 本番環境対応 - YOLOv8 Model Hub統合
✅ 開発者フレンドリー - Python API + ウェブデモ
✅ ハードウェア効率的 - コンシューマGPUで動作
✅ 拡張可能 - 訓練コード公開
✅ コミュニティ駆動 - 8.3kスター、26人のコントリビューター
最近の更新 (2024年6月)
- エッジ品質改善がUltralytics YOLOv8にマージ
- HuggingFaceデモ更新
- TensorRT最適化利用可能
- Semantic FastSAM拡張
FastSAMは、最先端のセグメンテーションに巨大なViTモデルは不要であることを証明します。速度が最も重要なリアルタイムアプリケーションに最適です。
オリジナル記事:
オリジナルを表示