アリババ、高性能な小型モデル「Qwen3.5」を公開
- •アリババが0.8Bから9Bのパラメータを持つ小型モデル「Qwen3.5」をApache 2.0ライセンスで公開した。
- •9Bモデルは10B以下のカテゴリで最高知能を記録し、従来の同クラスにおけるリーダーの2倍の性能を達成している。
- •ネイティブの視覚機能と262Kのコンテキストウィンドウを備え、消費者向けハードウェアでのローカル実行に最適化されている。
アリババ(Alibaba)は、高効率な推論に特化した4つの高密度な小型モデルを導入し、Qwen3.5のエコシステムを大幅に拡張した。0.8Bから9Bのパラメータ範囲で構成されるこのラインナップは、前世代のQwen3と比較して知能レベルが飛躍的に向上している。特に9Bモデルは、FalconやNVIDIAのNemotronといった競合を大きく引き離し、10B以下のカテゴリにおいて首位に立った。これらのモデルは、回答を導き出す前に大量の内部トークンを生成して複雑な問題を解決する、統一された「思考」アプローチを採用している点が特徴だ。
サイズはコンパクトながらも、これらのモデルはネイティブでマルチモーダルに対応しており、個別のアダプタを必要とせずにテキストと画像の両方を処理できる。マルチモーダルな推論能力を測定するMMMU-Proベンチマークにおいて、9Bモデルは69%、4Bモデルは65%というスコアを記録し、15B以下のモデルにおける新たな基準を打ち立てた。この能力により、メモリ容量が限られつつも高度な視覚的理解が求められるエッジコンピューティング環境において、非常に強力な選択肢となるはずだ。
一方で、この高い知能には「トークン消費量が多い」という特有のトレードオフが存在する。これらの小型モデルは問題を「思考」するために、より大規模なフラグシップモデルやGPT-5.1のような最先端モデルと比較しても、大幅に多くの出力トークンを必要とするからだ。また、推論能力は鋭いものの、事実の正確性には依然として課題があり、AA-Omniscienceベンチマークでは高いハルシネーション(幻覚)率を示している。それでも、Apache 2.0ライセンスの適用と低いメモリ要件により、開発者が一般的なノートPCやスマートフォンでAIをローカル実行できる環境が整った意義は極めて大きい。