AWS、自律型AI向けにNVIDIA GPUを100万基配備へ
- •AWSが世界各地のクラウドリージョンに100万基以上のNVIDIA BlackwellおよびRubin GPUを配備する計画を明らかにした
- •RTX PRO 4500 GPUを搭載した新しいEC2インスタンスにより、高性能な対話型AIやレンダリングの処理が強化される
- •Amazon BedrockにNVIDIA Nemotron 3 Superと、専門分野に特化したネイティブな強化微調整機能が統合される
AWSとNVIDIAの提携は、試験的なパイロット運用から本格的なプロダクション環境へと、その規模を劇的に拡大させている。この拡大戦略の核心となるのが、2026年からAWSの各リージョンで順次開始される、100万基を超える次世代GPU「Blackwell」および「Rubin」の配備だ。この巨大なインフラ増強は、単なるテキスト予測にとどまらず、複雑なビジネス環境において自律的に推論、計画、実行を行う「エージェンティックAI(自律型AI)」の急速な台頭を支えるために設計されている。
こうした高度なワークロードを最適化するため、AWSは「NVIDIA Inference Xfer Library(NIXL)」を新たに導入した。これは、AIモデルの処理プロセスを複数のチップやサーバーに分割して実行する「分散型推論」を容易にするツールである。NIXLによってコンポーネント間のデータ移動が効率化されることで、大規模モデルのボトルネックとなりがちな通信遅延が最小限に抑えられた。その結果、モデルの肥大化が進む中でも、極めて高速なレスポンスを維持することが可能となっている。
ソフトウェア面でも大きな進展があり、Amazon BedrockのモデルライブラリにNVIDIAの「Nemotron 3 Super」が加わった。このモデルは「混合専門家モデル (MoE)」アーキテクチャを採用しており、特定のタスクに対して脳の最も関連性の高い専門部位だけを活性化させる仕組みで動作する。さらに、開発者は間もなく「強化微調整(RFT)」を利用できるようになる予定だ。これにより、法的判断や医療といった高い専門性が求められる分野において、特定のフィードバックに基づきモデルの思考や回答プロセスを精密に制御することが可能になるだろう。