Kimi K2.5:視覚能力を持つ1兆規模の自律型AI
2026年1月27日 (火)
- •Moonshot AIが1兆パラメータのマルチモーダルモデル「Kimi K2.5」を発表。視覚能力と高度なコーディング機能を備える。
- •「エージェント・スウォーム」機能により、最大100個のサブエージェントが並列処理。作業速度を4.5倍に向上させた。
- •モデルの重みはHugging Faceで公開。大規模商用利用時にはクレジット表記が必要な独自のMITライセンスを採用している。
Moonshot AI(ムーンショットAI)は、従来のテキスト処理に視覚能力を統合した最新モデル「Kimi K2.5」を公開した。これは、画像とテキストを同時に処理するネイティブなマルチモーダルアーキテクチャへの大きな進化を意味している。 15兆トークンという膨大なデータで学習されたK2.5は、複雑な図表入りの入力を解釈し、コーディングや視覚的推論においてトップクラスのモデルに匹敵する性能を目指している。 最大の特徴は、「自己主導型エージェント・スウォーム」と呼ばれるパラダイムだ。これは、一つのモデルが段階的に問題を解くのではなく、最大100個のサブエージェントを自動的に指揮してタスクを並列処理する仕組みである。 このエージェンティックAI(自律型AI)のアプローチにより、最大1,500回のツール呼び出しを伴う複雑なワークフローでの実行時間を4.5倍も短縮した。事前の詳細な指示なしに仕事を割り振る、自動化されたプロジェクトマネージャーのように機能するのだ。 モデルは1兆パラメータという巨大なスケールを誇り、595GBのデータとしてHugging Faceで一般公開された。 ただし、ライセンスには独自の商用条項が含まれている。月間ユーザー数が1億人、または売上高が2,000万ドルを超えるサービスは、インターフェース上に「Kimi K2.5」の名を明示しなければならない。 これは、技術の公開とブランド保護のバランスを取る、近年の「オープン寄り」なモデル戦略を象徴する動きといえるだろう。