Tokscale : Suivi de l'utilisation des tokens d'IA sur plusieurs plateformes – Outil CLI
Tokscale : Suivi de l'utilisation des tokens d'IA sur plusieurs plateformes – Outil CLI
À l'heure où la programmation assistée par l'IA est omniprésente, les tokens sont devenus la nouvelle monnaie de la productivité. Chaque invite que vous envoyez à Claude, Gemini, Codex ou tout autre assistant alimenté par un LLM consomme des caractères, et ces caractères coûtent de l'argent réel. Les développeurs qui ne suivent pas l'utilisation finissent rapidement par être confrontés à des factures inattendues.
Entrez Tokscale – un utilitaire en ligne de commande léger et open‑source qui agrège automatiquement l'utilisation des tokens à partir d'une large gamme d'outils : OpenCode, Claude Code, Codex CLI, Gemini CLI, Cursor IDE, AmpCode, Factory Droid, et OpenClaw. En une seule commande, Tokscale extrait les données de vos dossiers de session locaux, interroge la base de données tarifaire de LiteLLM et produit des rapports propres et de belles visualisations.
✅ Pourquoi Tokscale ?
- 20+ soutiens sur GitHub
- 508 ⭐
- 7 jours+ de tarification en temps réel de LiteLLM
- UI terminale interactive (OpenTUI)
- Leaderboard & plateforme sociale
- Cœur natif Rust (10× plus rapide en analyse)
- Export vers JSON pour les tableaux de bord
Comment démarrer
Tokscale est distribué via Bun – un environnement d'exécution JavaScript/TypeScript rapide qui intègre un gestionnaire de paquets. Si vous n'êtes pas encore sur Bun, installez-le rapidement avec :
curl -fsSL https://bun.sh/install | bash
1. Installer Tokscale
bunx tokscale@latest
⚡ Astuce :
bunxexécute le paquet directement sans l'ajouter à votre projet – idéal pour une utilisation ponctuelle.
2. Lancer l'interface TUI interactive
tokscale
Vous serez accueilli par un tableau de bord accrocheur présentant :
- Vue d'ensemble : tokens totaux, répartition des coûts, et aperçu rapide des modèles les plus utilisés.
- Modèles : coût et nombre de tokens par modèle.
- Journalier : répartition jour par jour.
- Statistiques : graphique de contribution à la manière de GitHub.
Utilisez le clavier (1–4 pour sauter entre les onglets, touches fléchées pour naviguer) ou la souris (onglets cliquables). Pour une version légère et non interactive, ajoutez le drapeau --light :
tokscale --light
3. Filtrage et plages de dates
Tokscale brille lorsque vous souhaitez découper vos données :
# Afficher uniquement l'utilisation du code de Claude de la dernière semaine
tokscale --claude --week
# Restreindre à une plage de dates personnalisée
tokscale --since 2024-01-01 --until 2024-12-31
# Combiner avec la sortie de coût
tokscale models --month --github --json > monthly.json
Le CLI accepte des drapeaux courts pour chaque source de données (--opencode, --codex, --cursor, etc.), ce qui facilite la comparaison d'une seule plateforme ou d'un mélange.
4. Recherche de tarification en temps réel
tokscale pricing "claude-3-5-sonnet"
Tokscale utilise Litellm comme source primaire et passe à OpenRouter pour tout nouveau modèle ou modèle niche. La sortie montre les tarifications entrée, sortie et cachées en USD.
5. Fonctionnalités sociales – Leaderboard & Profil
Tokscale n'est pas seulement un outil statistique local. Il inclut une plateforme web qui vous permet :
- Se connecter via GitHub OAuth.
- Soumettre vos données agrégées à un leaderboard global.
- Parcourir les profils d'autres développeurs, comparer l'utilisation des tokens et observer les tendances.
- Voir des images personnalisées "Wrapped" récapitulant l'année.
tokscale login # Ouvre le navigateur pour l'authentification GitHub
tokscale submit # Pousse les données vers le leaderboard
tokscale wrapped # Génère l'image inspirée de Spotify
Une fois sur la plateforme, vous pouvez également archiver les anciennes données ou affiner les points de données à soumettre.
Intégration CI/CD
Le mode sans tête de Tokscale capture l'utilisation des tokens des outils qui sortent du JSON vers stdout—idéal pour les pipelines d'intégration continue. Par exemple :
- name: Run AI check
run: |
mkdir -p ~/.config/tokscale/headless/codex
codex exec --json "review code changes" > ~/.config/tokscale/headless/codex/pr-123.jsonl
- name: Collect usage
run: tokscale --json > report.json
Le fichier JSON peut être alimenté dans des tableaux de bord métriques ou des badges CI.
Contribution
Tokscale est ouvert aux contributions – que vous souhaitiez ajouter le support d'un nouvel outil IA, améliorer le cœur Rust ou ajuster l'UI. Le dépôt suit les workflows standard GitHub :
- Forkez le dépôt.
- Créez une branche de fonctionnalité.
- Exécutez les tests (
bun run test:all). - Soumettez une pull request.
La communauté accepte les rapports de bugs et les demandes de fonctionnalités – ouvrez simplement une issue.
TL;DR
- Que ? CLI pour suivre l'utilisation des tokens depuis de nombreux assistants LLM.
- Pourquoi ? Tokens = coût ; voyez où ils vont en temps réel.
- Comment ? Installez via Bun, lancez
tokscale, filtrez ou exportez. - Au-delà du CLI – Leaderboard, graphiques, intégration CI.
- Open source – Licence MIT, communauté active.
Réflexions finales
Tokscale est plus qu'un outil de métriques ; c'est un moyen de rester conscient des coûts IA tout en codant, et de mesurer la productivité entre services. Avec son backend Rust natif et son TUI interactif, c'est comme une extension de productivité IDE dans le terminal. Si vous êtes à la pointe de l'IA, essayez Tokscale et partagez votre utilisation sur le leaderboard.