AWSがM8aznインスタンスとBedrockの新モデルを公開
- •Amazon EC2 M8aznインスタンスは、5 GHzのAMD EPYCプロセッサを搭載し、高頻度取引やゲームに最適化されている。
- •Amazon BedrockにDeepSeek V3.2やQwen3 Coder Nextなど、6つの新しいオープンウェイト型モデルが追加された。
- •Project Mantleにより、OpenAI API互換のサーバーレスな推論環境が大規模モデル向けに提供される。
AWSは、第5世代AMD EPYCプロセッサを搭載したM8aznインスタンスの一般提供を開始し、クラウド分野での優位性をさらに拡大させている。この新インスタンスは5 GHzという圧倒的なクロックスピードを誇り、リアルタイムの金融分析やハイパフォーマンスコンピューティングといった低遅延が不可欠なタスク向けに設計された。前世代から演算性能を倍増させたことで、航空宇宙シミュレーションや通信インフラなど、ミリ秒単位の処理が求められる産業への普及を狙う。
生成AI領域では、Amazon Bedrockが新たに6つの著名なオープンウェイト型モデルをサポートし、その選択肢を大幅に広げた。これにはDeepSeek V3.2やGLM 4.7が含まれ、複雑な推論から高度なコーディングまで幅広いニーズに応える。この拡充は、開発者が単一のベンダーに依存せず、OpenAI API標準に準拠したコスト効率の高いモデルを自由に選択できる「柔軟性」への転換を象徴している。
こうした進化を支える基盤が、AIモデルの実行環境を最適化する分散推論エンジン「Project Mantle」である。容量管理を自動化したサーバーレスな推論機能を提供することで、AWSはユーザーがハードウェア管理の手間なくアプリケーションをスケールできる環境を構築した。これにより、自律的にタスクを完結させるエージェンティックAI(自律型AI)の開発がこれまで以上に容易になる。
さらに、Amazon OpenSearch Serverlessには「Collection Groups」が導入され、複数データセットでのリソース共有によるコスト削減が可能になった。今回のアップデートは、次世代の知能型アプリケーションを構築する開発者に対し、より効率的かつ統合的な開発環境を提供するというAWSのコミットメントを鮮明に示している。