DAMO Academyが身体能動AIモデル「RynnBrain」を公開
- •DAMO Academyが、身体能動AI(エンボディドAI)とロボット工学向けの時間空間基盤モデル「RynnBrain」をオープンソース化した。
- •20億から300億パラメータのモデル群で構成され、20種類の専門ベンチマークにおいて既存システムを上回る性能を記録した。
- •評価用ベンチマーク「RynnBrain-Bench」と、効率を2倍に高める最適化フレームワーク「RynnScale」も同時に公開された。
AIが物理世界と相互作用する「身体能動的知能(Embodied Intelligence)」は、長らく「脳と身体」の乖離という課題に直面してきた。従来のAIモデルの多くはテキストや静止画を通じて推論を行うが、物理的な時間や空間に対する根本的な感覚が欠けている。この溝を埋めるべく、DAMO Academyは現実世界のエージェントに向けた統一的な認知コアとして、時間空間基盤モデル「RynnBrain」をリリースした。知覚・推論・計画を単一のアーキテクチャに統合することで、ロボットは単に物を見るだけでなく、3D環境内での自らの行動がもたらす物理的な結果を理解できるようになる。
RynnBrainファミリーは3つのスケールで展開されており、中でも300億パラメータの混合専門家モデル (MoE) バリアントは、特定のサブネットワークのみを起動させることで効率的なタスク処理を実現している。一般的な視覚モデルとは異なり、RynnBrainは物理的グラウンディング(身体性への定着)を重視しており、言語的概念を空間座標や時間軸上のシーケンスと直接結びつけることが可能だ。この仕組みにより、エージェントは時間の経過に伴うオブジェクトの位置を記憶できる。さらには「ドアノブは押すのではなく引くもの」といった、対象物に対する具体的な操作可能性(アフォーダンス)を考慮した実行可能な計画の生成も可能になった。
研究コミュニティを支援するため、開発チームは「RynnBrain-Bench」も導入した。これは、一連の流れの中で過去の出来事を思い出す「エピソード記憶」を必要とする長期タスクをテストするためのものだ。今回の公開は、ロボット工学における汎化の実現に向けた大きな一歩であり、あらかじめプログラムされたルーチンを超え、自律的な適応能力を備えたエージェントの開発を後押しする。モデルとトレーニングフレームワークをオープンソース化することで、RynnBrainは独自のクローズドなロボットシステムに対する強力かつ透明性の高い選択肢を提示している。