推論特化型AIアクセラレータ「Maia 200」が登場
2026年1月31日 (土)
- •マイクロソフトが推論用アクセラレータ「Maia 200」を発表。コストパフォーマンスが30%向上した。
- •熱を3倍効率的に管理する革新的な「マイクロ流体冷却」技術をハードウェアに採用した。
- •クラウドネイティブCPU「Cobalt 200」も同時公開。AzureのAIインフラを最適化する。
マイクロソフトは、AIの「推論」フェーズ、つまり学習済みモデルが実際の要求を処理して回答を生成する段階に特化した次世代アクセラレータ「Maia 200」を発表し、自社製シリコンのポートフォリオを大幅に拡大した。汎用的なコンピューティングではなく、こうした負荷の高いタスクにハードウェアを最適化することで、1ドルあたりのパフォーマンスを30%向上させている。この効率性の向上は、AIの利用が世界規模で拡大する中、膨大な計算リソースを経済的に維持するために不可欠な要素といえる。
Maia 200の設計において特筆すべきは、ハードウェアとソフトウェアが互いに補完し合う洗練された「システムレベル」のアプローチだ。特に技術的なハイライトとして注目されるのが、高度な「マイクロ流体冷却」の導入である。これはシリコンチップ上の微細なチャネルに液体を流すことで、従来の空冷や水冷システムよりも最大3倍も効率的に排熱する技術だ。これにより、大規模言語モデル(LLM)のような重いワークロード下でも、オーバーヒートのリスクを抑えつつプロセッサのピーク性能を維持することが可能になった。
さらに、同社はAzureエコシステム内での一般的なタスクを処理し、Maiaチップと連携して動作するクラウドネイティブCPU「Cobalt 200」も公開した。物理的なシリコンからサービスレイヤーに至るまでを垂直統合で管理することにより、データセンター全体のエネルギー消費の最適化と低遅延化を実現している。ユーザーにとっては、基盤モデルの展開という特有の要求に合わせてインフラが微調整されることで、より高速で信頼性の高いAIサービスを受けられるようになるメリットがある。