Mistral Small 4:推論とマルチモーダルAIの統合
2026年3月16日 (月)
- •Mistral Small 4は、推論、視覚、コーディングの機能を単一の効率的なモデルに統合している。
- •128の専門家からなるMoEアーキテクチャを採用し、トークンあたりのアクティブパラメータを60億に抑えて性能を最適化した。
- •新機能の「reasoning_effort」パラメータにより、即時の応答と深い論理的思考を切り替えることが可能になった。
Mistral AIが、推論、マルチモーダル視覚、エージェント型コーディングという、これまで分かれていた3つの専門分野を単一のアーキテクチャに統合した多才なモデル「Mistral Small 4」を発表した。この統合により、開発者はタスクごとに異なるモデルを使い分ける必要がなくなる。また、Apache 2.0ライセンスで公開されたことは特筆すべき点であり、NVIDIA Nemotron Coalitionへの参画とあわせ、オープンソースエコシステムにおけるMistral AIのリーダーとしての地位をさらに強固なものにした。
このモデルは、総計1,190億個のパラメータのうち、特定の要求に対して一部のみを稼働させるMixture of Experts (MoE) 設計を採用している。具体的には、1トークンあたりのアクティブパラメータを60億個に抑えることで、大規模なモノリシックモデルに伴う膨大な計算コストを回避しつつ、高いパフォーマンスを実現した。特に注目すべきは「reasoning_effort」というパラメータで、これによりユーザーは低遅延のチャットと、複雑な問題に対する段階的な論理処理のどちらかを選択できるようになった。
効率性は今回のアップデートの核心であり、以前のバージョンと比較して完了までの時間が40%短縮されたという。LiveCodeBenchなどのベンチマークでは、はるかに巨大な競合モデルに匹敵する性能を示しながら、より簡潔で密度の高い出力を生成することに成功した。こうした出力の密度向上は、推論コストと遅延を抑えつつAI導入を拡大したい企業にとって大きな利点であり、応答の短縮が運用の低コスト化に直結することを意味している。