MIT、余剰リソースの活用でLLM学習を2倍速に
2026年2月26日 (木)
- •新システム「TLT」が待機中のプロセッサを活用し、推論モデルの学習速度を倍増させた。
- •適応型ドラフターモデルがLLMの出力を予測し、強化学習時の計算負荷を大幅に軽減する。
- •モデルの精度を完全に維持したまま、学習速度を70%から最大210%向上させることに成功した。
複雑な数学の解法や計画立案を行う高度な推論モデルの学習には、膨大なエネルギーが必要とされる。MITの研究チームは、ハードウェアのアイドル状態(待機時間)という大きなボトルネックを解消する「Taming the Long Tail(TLT)」システムを発表した。学習プロセスでは、一部のプロセッサが他のユニットより早く処理を終えてしまい、遅いユニットを待つ間に貴重な計算資源が浪費されることが課題となっていた。
TLTはこの待機時間を利用して、軽量な「ドラフター」モデルを動的に学習させる。この小型モデルが、いわば「下書き」として大型の推論モデルが次に生成する内容を先んじて予測する仕組みだ。大型モデルはその予測をバッチ処理で一括検証するだけで済むため、一からすべての単語を生成する手間が省ける。これは投機的デコーディングと呼ばれる手法で、モデルが試行錯誤から学ぶために膨大な回答案を生成する「ロールアウト」フェーズの劇的な高速化を実現した。
実際のテストにおいて、この適応的なアプローチは精度を一切落とすことなく、学習速度を最大210%向上させた。ドラフトプロセスを動的に調整することで、学習が進みメインモデルが進化しても常に最適な予測を維持できる。MITのソン・ハン(Song Han)准教授らが率いるこのプロジェクトは、次世代AI開発におけるコスト削減とカーボンフットプリントの抑制に大きく貢献するだろう。