OmniLottieが指示からベクターアニメを生成
2026年3月3日 (火)
- •OmniLottieフレームワークは、テキスト、画像、動画の指示から高品質なLottieベクターアニメーションを生成する。
- •専用のLottieトークナイザーが、複雑なJSON構造を視覚言語モデルが処理可能なシーケンスへと変換する。
- •200万件のプロ仕様のアニメーションを収録した大規模データセット「MMLottie-2M」が公開された。
Lottieは、ウェブやモバイルアプリで利用される軽量かつスケーラブルなベクターアニメーションの業界標準だ。しかし、その基盤となるJSON構造は非常に複雑であり、AIが直接生成することは極めて困難とされてきた。膨大なメタデータやフォーマット用のトークンが、実際のアニメーションロジックを覆い隠してしまうからである。そこで研究チームは、アニメーションパラメータを学習可能なトークンとして扱うことでプロセスを効率化する「OmniLottie」を開発した。
OmniLottieの中核を担うのは、構造的な冗長性を排除し、生のJSONファイルをコマンドの構造化シーケンスに変換する専用のトークナイザーである。これにより、視覚的な意図とコード実行の間の隔たりを埋めることが可能になった。既存の視覚言語モデルをベースに構築されたこのフレームワークは、テキストプロンプトと参照画像を組み合わせた指示などを解釈し、滑らかでプロフェッショナルな動きを生成する。
さらに、この分野の発展を支えるため、200万件のアニメーションを収録した巨大なデータセット「MMLottie-2M」が提供された。これはベクターの動きの機微を理解するモデルを訓練するための、世界初の本格的な基盤となる。このプロジェクトは単なる静止画生成の枠を超え、自然言語の指示を通じて、解像度に依存しない機能的なUI要素やキャラクターアニメーションを作成できる強力なツールをデザイナーにもたらすものである。