Mistral AIが次世代AIモデル「Mistral 3」を公開
- •Mistral AIは、高性能なMistral Large 3とエッジデバイス向けに最適化されたMinistralを含むMistral 3ファミリーをリリースした。
- •フラッグシップのLarge 3は、410億の有効パラメータを持つスパース混合エキスパート(MoE)構造を採用し、高い効率性を実現している。
- •全モデルがApache 2.0ライセンスで提供され、高度な推論能力とマルチモーダルおよび40以上の多言語対応を備えている。
Mistral AIは、圧倒的なパフォーマンスを誇るオープンソースの次世代モデル「Mistral 3」ファミリーを正式に発表した。今回のリリースの中心となるのは、同社のフラッグシップモデル「Mistral Large 3」である。このモデルは、スパース混合エキスパート(MoE)と呼ばれる高度なアーキテクチャを採用している。全タスクに総パラメータ数6,750億を使用するのではなく、各タスクに応じて410億パラメータのみを動的にアクティブ化することで、従来のモデルと比較して処理の効率化と高速化を両立させた。現在、LMSYSリーダーボードにおいてもトップクラスにランクインしており、世界最高峰のプロプライエタリな商用モデルに匹敵する実力を示している。
一方、ノートパソコンなどのローカル環境での動作に最適化された「Ministral」シリーズも同時に展開された。これには3B、8B、14Bの異なるパラメータサイズが用意されている。これらはエッジコンピューティング向けに調整されており、中央サーバーを介さずにデバイス上で直接データを処理することが可能だ。各サイズには「推論(Reasoning)」に特化したバリアントが含まれており、複雑な論理問題に対処するための専門的な思考プロセスを備えている。特に14Bモデルは、数学の難関ベンチマークであるAIME '25において85%という驚異的なスコアを記録し、その高い論理的思考能力を証明した。
技術的な効率性を追求するため、Mistral AIはNVIDIAとの提携を強化した。最新の数値形式であるNVFP4を採用することで、開発者はMistral Large 3のような巨大なモデルを、一般的なエンタープライズ向けのハードウェア上でより効果的に実行できるようになった。また、全てのモデルはApache 2.0ライセンスの下で公開されており、コミュニティによる自由な改変や利用が認められている。これにより、最先端AI技術の民主化がさらに加速することが期待される。開発者は提供されるAPIを通じて、自社の特定のニーズに合わせたモデルの微調整(ファインチューニング)を容易に行うことも可能だ。
機能面では、テキストだけでなく画像も理解できるマルチモーダル能力をネイティブに備えている。また、日本語を含む40以上の言語をサポートしており、グローバルなビジネス展開にも完全に対応可能だ。特定のビジネス目標に沿った動作を保証するために、専門的なデータセットでAIを学習させるカスタマイズ性も提供されている。今回の発表は、オープンソースAIが商用AIに対抗し得る強力な選択肢であることを改めて世に知らしめる結果となった。Mistral AIは、この新ファミリーを通じて、あらゆる規模の企業が高度なAIを活用できる環境を整えていく方針だ。