Amazon、カスタムNovaモデルの推論管理を開始
2026年2月17日 (火)
- •Amazon SageMakerがNova Micro、Lite、2 Liteの推論管理に対応した。
- •GPU制御、オートスケーリング、コンテキスト長設定などの実運用向け機能が追加された。
- •Amazon HyperPod等で学習したモデルのシームレスなデプロイが可能になった。
アマゾン ウェブ サービス(AWS)は、SageMaker AIエコシステムにおいて、カスタマイズされたAmazon Novaモデルの推論管理サポートを開始した。このアップデートは、モデルの学習と運用のギャップを埋めるものであり、企業は独自のNova MicroやNova Liteをプロフェッショナル級の信頼性で拡張できる。これまで、開発者は実験から大規模な実運用への移行に多くの課題を抱えていたが、今後は自動スケーリングと最適化されたハードウェアにより、応答性とコスト効率を両立できるようになる。
特に、ビジネス運営に不可欠なデプロイ設定を細かく制御できる点が大きな特徴だ。ユーザーは同時実行リクエスト数を調整したり、特定の文書処理ニーズに合わせてコンテキスト長を変更したりできる。また、教師あり微調整や強化学習を施したモデルにも対応しており、特定の業界知識を持つ専門モデルを世界中のリージョンで効率的に提供できる体制が整った。
効率性の向上も今回のリリースの核心である。利用状況に即座に反応するオートスケーリング・ポリシーと、多様なNVIDIA GPUインスタンスのサポートにより、処理速度を犠牲にすることなく、待機リソースの無駄を最小限に抑えられる。この一連のワークフローは、現代のエンタープライズ環境における高度な推論モデルの複雑なライフサイクルを劇的に簡素化するだろう。