WideSeek-R1:分散型AIで巨大モデルを凌駕する
2026年2月5日 (木)
- •並列マルチエージェントの「幅の拡張」により、広範な情報探索において高い処理能力を実現
- •40億パラメータのモデルが、6710億パラメータを誇るDeepSeek-R1に匹敵する性能を記録
- •強化学習を用いたマルチエージェント学習により、リードエージェントとサブエージェントの協調を最適化
現代のAI研究の最前線は、単一の巨大なモデルをより賢くすることで複雑な推論を行わせる「深さの拡張(depth scaling)」に重点を置いてきた。しかし、膨大な情報の中から必要なものを探し出すタスクにおいては、こうした単一の巨大モデルは組織的な効率の面で苦戦することが多い。そこでWideSeek-R1は、単一の「巨大な脳」に頼るのではなく、小規模なAIエージェントのチームで作業を分担する「幅の拡張(width scaling)」という画期的なアプローチを提示した。
このシステムの核となるのは、強化学習の一種であるマルチエージェント強化学習を通じて訓練された「リード・サブエージェント」構造である。管理職の役割を担う中央の「リード」エージェントが、クエリの特定部分を並列で動作する複数のサブエージェントに割り当てる仕組みだ。文脈を分離し、専門的なツールを活用することで、これらのエージェントは情報を同時に処理できる。驚くべきことに、わずか40億パラメータのWideSeek-R1構成で、WideSearchベンチマークにおいてF1スコア40%を達成し、6710億パラメータという巨大なDeepSeek-R1の性能に肩を並べた。
最も注目すべきは、このシステムが持つ本来の拡張性だろう。追加の訓練を一切必要とせず、サブエージェントの数を増やすだけでパフォーマンスが着実に向上する。これは、個々のモデルサイズから集合的な「組織能力」へのパラダイムシフトを示唆しており、将来的には小規模で効率的なモデルの群れが、現代の最も高価なAIの巨人たちを凌駕する可能性がある。俊敏でリソース効率の高い情報探索システムへの重要な一歩と言えるだろう。