NVIDIA、推論特化モデル「Nemotron 3 Super」を発表
2026年3月11日 (水)
- •NVIDIAが、1200億パラメータを備えたMambaとTransformerのハイブリッド推論モデル「Nemotron 3 Super」をリリースした。
- •新アーキテクチャの採用により、既存のオープンウェイトモデルと比較してGPUあたりの処理効率が11%向上している。
- •学習データや手法を完全に公開しており、高い透明性とオープン性を備えたモデルとして評価されている。
NVIDIAは、高度な推論能力と圧倒的な効率性を両立させた1200億パラメータの最新モデル「Nemotron 3 Super」を発表した。このモデルは、MambaとTransformerを組み合わせたハイブリッド設計を採用しており、従来のAIが持つ強力なパターン認識能力と最新設計による高速な処理を高い次元で融合させている。Nemotron 3シリーズの中で、この「Super」版は、エッジ向けモデルと大規模データセンター向けシステムの中間を担う強力なラインナップとして位置づけられている。
技術面でのハイライトは、Mixture of Experts (MoE) の統合だ。これはモデル全体のパラメータ(1206億)のうち、特定の処理には一部(127億)のみを稼働させる仕組みである。これにより、大規模な知見を維持しながら、大規模システムに特有の膨大な計算コストを大幅に削減することに成功した。実際の性能テストでは、同等のオープンウェイトモデルと比較して極めて高いスループットを実証しており、コスト効率を重視する開発者にとって非常に魅力的な選択肢となっている。
また、NVIDIAはモデルの重みだけでなく、学習データや詳細な手法も公開することで透明性を高めた。この徹底したオープンアプローチにより、研究者はAIがどのように構築されたのかを正確に把握することが可能だ。さらに、100万トークンという膨大なコンテキストウィンドウをサポートしており、大量の文書や複雑なコードを一括で処理できるため、自律型エージェントや高度な産業利用において真価を発揮するだろう。