KarpathyのAutoresearch:AIエージェントが一晩でLLMをトレーニング

KarpathyのAutoresearch:AIエージェントがモデルトレーニングを革新します

手動AI研究の時代は終わりを迎えました。Andrej Karpathyのautoresearchリポジトリ(20.6kスター)は画期的なアプローチを導入:AIエージェントが人間の介入なしにLLMを一晩で自律的に改善します。

革新的なコンセプト

研究者が手動でハイパーパラメータ、アーキテクチャ、オプティマイザを調整する代わりに、autoresearchは制御をAIエージェントに委ねます。ワークフロー:

  1. エージェントがtrain.pyを編集(GPTモデル、Muon+AdamWオプティマイザ、トレーニングループ)
  2. 5分間のトレーニングを実行(固定の壁時計予算)
  3. val_bpbで評価(バイトあたりのビット、低いほど良い)
  4. 改善を保持、失敗を破棄
  5. 一晩で~100回繰り返す

最適化されたモデルと詳細な実験ログで目を覚ましましょう。

最小4ファイルセットアップ

uv sync
uv run prepare.py  # データダウンロード + トークナイザートレーニング
uv run train.py    # 手動テスト(~5分)

コアファイル: - prepare.py – データ準備 + ユーティリティ(固定) - train.py – エージェントの遊び場(モデル + トレーニング) - program.md – エージェントの指示(人間が編集可能)

プロダクション対応の設計選択

単一の編集可能ファイルで差分レビューが可能 ✅ 固定5分予算 = 公平なアーキテクチャ比較 ✅ 自己完結型 – PyTorch + 最小依存 ✅ ボキャブラリ非依存のメトリクス(val_bpb)

H100ユーザー向けクイックスタート

# 1. インストール(Python 3.10+)
curl -LsSf https://astral.sh/uv/install.sh | sh
uv sync

# 2. データ準備(~2分)
uv run prepare.py

# 3. テスト実行(~5分)
uv run train.py

Claude/Codexを起動:

「こんにちは、program.mdを読んで新しい実験を開始して!」

小規模ハードウェア?これらのフォークを試す

低計算リソース向けプロTips: TinyStoriesデータセット、vocab_size=1024、DEPTH=4、MAX_SEQ_LEN=256。

これがすべてを変える理由

  • 研究の民主化: 単一GPU → 最先端進展
  • プラットフォーム最適化: あなたのハードウェアに最適なモデルを発見
  • エージェントプログラマブル: program.mdを編集してマルチエージェントスウォームを追加
  • MITライセンス: フォーク、拡張、貢献

GitHub Repo (20.6k ⭐) – AI研究の未来が到来しました。

この記事を共有