Fireworks AI、Microsoft Foundryで高速推論を提供開始
2026年3月11日 (水)
- •Fireworks AIが、Azureを利用する開発者向けにMicrosoft Foundry上で低遅延なオープンモデルの推論環境を提供した。
- •DeepSeek V3.2、Kimi K2.5、MiniMax M2.5などの最新モデルにおいて高速処理をサポートする。
- •独自の学習済みモデルを企業のガバナンス基準でデプロイできる「Bring-Your-Own-Weights(BYOW)」機能が新たに導入された。
マイクロソフトは、Microsoft FoundryにFireworks AIを統合することで、Azureにおけるオープンソースエコシステムの強化を図っている。これにより、開発者は統合されたAzureのエンドポイントを通じて、学習済みAIが回答を生成するプロセスである「推論」の実行環境へ直接アクセスできるようになった。独自にサービングスタックを構築する手間が省けるため、企業はエンタープライズ級のセキュリティとコンプライアンスを維持しながら、オープンモデルを自在に拡張することが可能だ。
この統合は特に「速度」に重点を置いており、1日あたり13兆トークンを処理可能なエンジンを活用している。DeepSeek V3.2や最新のMiniMax M2.5といったモデルを利用する開発者にとって、これは遅延の短縮とスループットの向上に直結する。こうした高いパフォーマンスは、人間が介在せずともAIが自律的に多段階の思考を行う「エージェンティックAI」の実現において不可欠な要素である。
注目すべき新機能として「Bring-Your-Own-Weights(BYOW)」が提供された点も大きい。これにより、開発チームは外部で最適化や量子化を施した独自のモデルをアップロードし、一元化されたコントロールプレーンで管理・デプロイを行える。サーバーレスの従量課金制から大規模ワークロード向けの占有キャパシティまで、AIライフサイクル全体を支える柔軟な基盤が整ったといえる。