巨大1TBモデルをH200一基で:INT4量子化の革新
2026年1月27日 (火)
- •SGLangチームが、1TB規模の巨大モデルに対応したINT4量子化訓練(QAT)パイプラインを実装
- •新たな圧縮技術によりH200一基での運用が可能になり、高コストなノード間通信のボトルネックを解消
- •INT4 QATは、フル精度(BF16)と遜色ないパフォーマンスと訓練の安定性を実現
SGLangの強化学習(RL)チームが、エンドツーエンドのINT4量子化訓練パイプラインを構築し、ハードウェア効率を劇的に向上させた。この手法は、約1TB規模の巨大モデルを圧縮し、NVIDIA H200一基のビデオメモリに収めることで、現代のAIが直面する膨大なメモリ要件を解決するものだ。 革新の核となるのは、訓練フェーズに導入された「擬似量子化」である。モデルは高精度な重みを保持しつつ、計算時に4ビット整数のノイズや精度低下をシミュレートする。 強化学習を活用することで、モデルが低精度という制約に適応することを可能にした。これにより、訓練と実際の運用(デプロイ)の間で高い精度と一貫性を維持することに成功したのだ。 訓練時のシミュレーションと、推論時の実際の量子化(データの精度を下げて容量を削減する処理)を一致させることで、システムは驚異的な安定性を発揮する。 このアプローチにより、複数GPU間の遅いデータ転送が不要になり、超巨大モデルの実行効率を実質的に倍増させた。 広範なテストの結果、この手法はフル精度で訓練されたモデルと同等の推論能力を維持していることが証明された。このオープンソースのリファレンスは、巨大な計算クラスタを必要とせず、研究者が低コストで最先端モデルを訓練・展開するための新たな道を切り拓くものである。