NVIDIAがNemotron 3 Superを発表
2026年3月11日 (水)
- •NVIDIAが、マルチエージェント・システム向けに最適化された1,200億パラメータのハイブリッドMoEモデル「Nemotron 3 Super」をリリースした。
- •100万トークンのコンテキストウィンドウとTransformer-Mambaハイブリッド構成により、従来比5倍のスループットを実現している。
- •SGLangがDay-0サポートを提供し、NVIDIA H200およびB200 GPUへの迅速なデプロイが可能となった。
NVIDIAは、複雑なマルチエージェント・エコシステムの基盤として設計された1,200億パラメータのモデル「Nemotron 3 Super」を発表した。このモデルは単一の巨大な構造ではなく、推論ごとに120億パラメータのみを活性化させる混合エキスパート(MoE)設計を採用している。このアーキテクチャの選択により、通常の計算コストの数分の一で高度な推論を可能にし、エージェント・ワークフローに不可欠な大量のトークン生成に最適な環境を実現した。
このモデルは、標準的なTransformerブロックと、線形スケーリングと効率性に優れたシーケンスモデリング手法であるMambaを組み合わせたハイブリッド構成を導入している。さらにパフォーマンスを向上させるため、NVIDIAは複数の単語を同時に予測するマルチトークン予測(MTP)を統合した。このアプローチによって生成時のレイテンシを削減し、同時に100万トークンの巨大なコンテキストウィンドウによって、エージェントが過去のやり取りを見失うことなく広範な多段階の計画タスクを遂行できるよう支援する。
SGLangは同モデルへの即時対応(Day-0サポート)を表明し、H200やB200といった最新GPU上での合理的なデプロイパスを提供した。NVIDIAはオープンウェイトとレシピを公開することで、Nemotron 3 Superをクローズドソースの巨大モデルに対する透明性の高い選択肢として位置づけている。「Thinking Budget(思考バジェット)」による推論の深さの調整機能も含め、自律型AIシステムのための柔軟なインフラ構築へと舵を切る構えだ。