NVIDIA、SageMakerで軽量・高性能なNemotron 3 Nanoを公開
- •NVIDIAの混合専門家モデル (MoE) である「Nemotron 3 Nano 30B」が、Amazon SageMaker JumpStartで利用可能になった。
- •トランスフォーマーとMambaを組み合わせたハイブリッド構成により、30億の有効パラメータで高い処理効率を実現している。
- •コーディングや推論能力に優れ、100万トークンという膨大なコンテキストウィンドウを備えているのが特徴だ。
NVIDIAは、最新の小規模言語モデル (SLM) である「Nemotron 3 Nano 30B」をAmazon SageMaker JumpStartに統合した。このモデルは、300億パラメータ規模の膨大な知識ベースを持ちながら、極めて効率的な実行スタイルを両立させている。特に注目すべきは、混合専門家モデル (MoE) 構造を採用している点だ。これにより、総パラメータ数は300億だが、特定のタスク実行時に稼働する「有効パラメータ」は30億に抑えられている。これは、特定のクエリに対して最適な専門家だけを招集する専門家チームのような仕組みであり、計算に必要なエネルギーと時間を劇的に削減することに成功した。
アーキテクチャ面では、標準的なトランスフォーマーと、従来のモデルよりも情報処理効率に優れた新しいシステム「Mamba」を融合させている。このハイブリッド構成により、AIの「短期記憶」にあたるコンテキストウィンドウを最大100万トークンまで拡大した。この圧倒的な容量により、法的契約書や複雑なコードベースといった大規模なドキュメントを、文脈を見失うことなく一度に読み解き、分析することが可能になった。
また、NVIDIAはモデルの重みを公開(オープンウェイト)することで、アクセシビリティも重視している。これにより開発者はAIの内部設定を確認し、AWSの安全なクラウド環境内で独自のプライベートデータを用いてファインチューニングを行うことができる。実際に、ソフトウェア・エンジニアリング能力を測定する「SWE-bench」などの技術ベンチマークでも高い評価を得ており、Nemotron 3 Nanoは、特定の用途に特化したAIエージェントを低コストで大規模に構築するための強力なツールとなるだろう。