Tokscale: 複数プラットフォームで AI トークン使用量を追跡する CLI ツール

Tokscale: 複数プラットフォームで AI トークン使用量を追跡する CLI ツール

AI支援コーディングが至る所に広がる時代、トークン は生産性の新しい通貨となっている。Claude、Gemini、Codex など、LLM ベースのアシスタントに送るプロンプトは文字を消費し、実際に金銭が発生する。使用量を追跡しない開発者は、予想外の請求書に直面することが多い。

ここで登場するのが Tokscale である―軽量でオープンソースのコマンドラインユーティリティ。OpenCode、Claude Code、Codex CLI、Gemini CLI、Cursor IDE、AmpCode、Factory Droid、OpenClaw といった幅広いツールからトークン使用量を自動で集約する。単一コマンドで Tokscale はローカルセッションフォルダからデータを取得し、LiteLLM の価格データベースを照会し、整ったレポートと美しい可視化を生成する。

Tokscale を選ぶ理由

  • GitHub 上で 20 名以上のサポーター
  • ⭐ 508
  • LiteLLM から取得した 7 日以上のリアルタイム価格情報
  • インタラクティブ端末 UI (OpenTUI)
  • リーダーボードとソーシャルプラットフォーム
  • ネイティブ Rust コア (10 倍速いパーシング)
  • ダッシュボード用 JSON 出力

使い始め

Tokscale は Bun で配布される――ビルトインパッケージマネージャ付きの高速 JavaScript/TypeScript ランタイム。Bun をまだ導入していない場合、以下で簡単にインストールできる。

curl -fsSL https://bun.sh/install | bash

1. Tokscale をインストール

bunx tokscale@latest

Tip: bunx はパッケージを直接実行し、プロジェクトに追加することなく一回限りで使用できる。

2. インタラクティブ TUI を実行

tokscale

インタラクティブダッシュボードが表示され、以下の項目が確認できる。

  • 概要: 合計トークン数、コスト概要、最も使用頻度の高いモデルのクイックビュー。
  • モデル: モデル別のコストとトークン数。
  • 日次: 日ごとの内訳。
  • 統計: GitHub 風の貢献グラフ。

キーボード(1–4 でタブ移動、矢印キーでナビゲート)またはマウス(タブクリック)を使用する。軽量で非対話型バージョンは --light フラグを付けて起動。

tokscale --light

3. フィルタリングと日付範囲

Tokscale はデータを切り分けるときに威力を発揮する。

# 直近一週間の Claude Code 使用量のみ表示
tokscale --claude --week

# カスタム日付範囲で制限
tokscale --since 2024-01-01 --until 2024-12-31

# コスト出力と組み合わせる
tokscale models --month --github --json > monthly.json

CLI は各データソースに短いフラグ (--opencode, --codex, --cursor など) を受け付け、単一プラットフォームまたは混合の比較を簡単に行える。

4. リアルタイム価格検索

tokscale pricing "claude-3-5-sonnet"

Tokscale の主な価格情報は Litellm から取得し、新規/ニッチモデルについては OpenRouter にフォールバックする。出力には USD での 入力・出力・キャッシュ トークン料金が表示される。

5. ソーシャル機能 ― リーダーボードとプロファイル

Tokscale はローカル統計だけでなく、Web ベースのプラットフォームも提供。これにより以下が可能になる。

  • GitHub OAuth でログイン。
  • 集計データを全世界のリーダーボードへ送信。
  • 他の開発者のプロファイルを閲覧し、トークン使用量を比較、傾向を確認。
  • 「Wrapped」年次レビュー画像をカスタムで表示。
tokscale login          # GitHub 認証のためブラウザを開く
tokscale submit          # データをリーダーボードへプッシュ
tokscale wrapped         # Spotify 風画像を生成

プラットフォーム上で古いデータを アーカイブ したり、送信するデータポイントを細かく設定したりもできる。

CI/CD での統合

Tokscale のヘッドレスモードは、JSON を stdout に出力するツールからトークン使用量を取得できるので、継続的インテグレーションパイプラインに最適。例えば:

- name: Run AI check
  run: |
    mkdir -p ~/.config/tokscale/headless/codex
    codex exec --json "review code changes" > ~/.config/tokscale/headless/codex/pr-123.jsonl
- name: Collect usage
  run: tokscale --json > report.json

生成された JSON ファイルはダッシュボードや CI バッジに活用できる。

コントリビュート

Tokscale は、AI ツールのサポート追加、Rust コアの改善、UI の微調整など、いずれの貢献も歓迎する。レポジトリは標準的な GitHub ワークフローに従う:

  1. レポジトリをフォーク。
  2. フィーチャーブランチで作業。
  3. テスト実行 (bun run test:all)。
  4. プルリクエストの送信。

コミュニティはバグ報告や機能リクエストを歓迎するので、issue を開けばOK。

TL;DR

  • 何? 何千もの LLM アシスタントからトークン使用量を追跡する CLI。
  • なぜ? トークン=コスト。リアルタイムで流れを把握する。
  • どうやる? Bun でインストールし、 tokscale を実行。フィルタやエクスポートも自在。
  • CLI 以外 ― リーダーボード、グラフ、CI 連携。
  • オープンソース ― MIT ライセンス、活発なコミュニティ。

最後に

Tokscale は単なるメトリクスツールではなく、AI コストを意識した状態でコーディングし、サービス間での生産性をベンチマークできる道具である。ネイティブ Rust バックエンドとインタラクティブ TUI によって、ターミナル上で IDE 拡張のような感覚を味わえる。AI の最前線にいる方は、ぜひ Tokscale を試し、リーダーボードで成果を共有してみてください。

この記事を共有