アリババがQwen3.5を公開、マルチモーダルと推論を統合
2026年2月18日 (水)
- •アリババがQwen3.5-397B-A17Bを公開。オープンウェイトモデルとして世界第3位の性能を記録。
- •独自の統合アーキテクチャにより、画像・動画・推論のネイティブ対応を単一モデルで実現。
- •混合専門家モデル(MoE)の採用により、高いパラメータ効率を維持しつつ自律的なタスク遂行能力が大幅に向上。
アリババは「Qwen3.5-397B-A17B」の発表により、次世代オープンソースAI分野への本格参入を果たした。本モデルは、従来のテキストと視覚機能を分離する手法から脱却し、業界の潮流である「ネイティブ・マルチモーダル」を採用しているのが大きな特徴だ。これにより、外部プラグインや二次システムを介さずとも、モデルのコア構造内で画像や動画を直接処理することが可能となった。
何よりも注目すべきは、その驚異的な効率性である。総パラメータ数は約4,000億に及ぶが、混合専門家モデル (MoE)の導入により、一度の計算で使用されるのはわずか170億パラメータに過ぎない。この洗練された設計により、データ分析やプログラミングなどの複雑な工程を自律的にこなすエージェンティックAI(自律型AI)の領域において、格上のライバルを上回るパフォーマンスを叩き出している。
ただし、独立機関のベンチマークによれば、知能の向上に反して精度面では課題も散見される。従来比で飛躍的な進歩を遂げたとはいえ、自身の知識外の質問に対して「答えられない」と認める能力、すなわちハルシネーションの抑制については、依然としてトップ層のモデルに後れを取っている。それでもなお、Apache 2.0ライセンスでの提供は開発者コミュニティにとって極めて価値が高く、ローカル環境での高度なAI運用を加速させる強力な選択肢となるはずだ。