KarpathyのAutoresearch:AIエージェントが一晩でLLMをトレーニング
KarpathyのAutoresearch:AIエージェントがモデルトレーニングを革新します
手動AI研究の時代は終わりを迎えました。Andrej Karpathyのautoresearchリポジトリ(20.6kスター)は画期的なアプローチを導入:AIエージェントが人間の介入なしにLLMを一晩で自律的に改善します。
革新的なコンセプト
研究者が手動でハイパーパラメータ、アーキテクチャ、オプティマイザを調整する代わりに、autoresearchは制御をAIエージェントに委ねます。ワークフロー:
- エージェントが
train.pyを編集(GPTモデル、Muon+AdamWオプティマイザ、トレーニングループ) - 5分間のトレーニングを実行(固定の壁時計予算)
- val_bpbで評価(バイトあたりのビット、低いほど良い)
- 改善を保持、失敗を破棄
- 一晩で~100回繰り返す
最適化されたモデルと詳細な実験ログで目を覚ましましょう。
最小4ファイルセットアップ
uv sync
uv run prepare.py # データダウンロード + トークナイザートレーニング
uv run train.py # 手動テスト(~5分)
コアファイル:
- prepare.py – データ準備 + ユーティリティ(固定)
- train.py – エージェントの遊び場(モデル + トレーニング)
- program.md – エージェントの指示(人間が編集可能)
プロダクション対応の設計選択
✅ 単一の編集可能ファイルで差分レビューが可能 ✅ 固定5分予算 = 公平なアーキテクチャ比較 ✅ 自己完結型 – PyTorch + 最小依存 ✅ ボキャブラリ非依存のメトリクス(val_bpb)
H100ユーザー向けクイックスタート
# 1. インストール(Python 3.10+)
curl -LsSf https://astral.sh/uv/install.sh | sh
uv sync
# 2. データ準備(~2分)
uv run prepare.py
# 3. テスト実行(~5分)
uv run train.py
Claude/Codexを起動:
「こんにちは、program.mdを読んで新しい実験を開始して!」
小規模ハードウェア?これらのフォークを試す
- MacOS: miolini/autoresearch-macos
- MacOS MLX: trevin-creator/autoresearch-mlx
- Windows RTX: jsegov/autoresearch-win-rtx
低計算リソース向けプロTips: TinyStoriesデータセット、vocab_size=1024、DEPTH=4、MAX_SEQ_LEN=256。
これがすべてを変える理由
- 研究の民主化: 単一GPU → 最先端進展
- プラットフォーム最適化: あなたのハードウェアに最適なモデルを発見
- エージェントプログラマブル:
program.mdを編集してマルチエージェントスウォームを追加 - MITライセンス: フォーク、拡張、貢献
GitHub Repo (20.6k ⭐) – AI研究の未来が到来しました。
元の記事:
オリジナルを見る