3DreamBooth:高精度な3Dビデオ生成を実現
2026年3月21日 (土)
- •3DreamBoothは空間ジオメトリと時間的な動きを分離し、3Dを意識したビデオのカスタマイズを可能にする。
- •独自の「1フレーム最適化」技術により、膨大なマルチビュー動画の学習なしで3Dのアイデンティティを保持する。
- •HunyuanVideoなどのオープンソースモデルと統合し、視点の整合性が高い高品質なビデオ生成を実現する。
特定の人物やオブジェクトをリアルな動画にする際、AIが被写体を立体ではなく「2Dの切り抜き」のように扱ってしまう「平面性の問題」がしばしば発生する。カメラがキャラクターの周囲を回るようなシーンでは、3D的な理解が不足しているために特徴が歪んだり消えたりしてしまい、バーチャルリアリティやデジタル小売などの没入感を損なう要因となっていた。
延世大学の研究チームは、被写体の物理的な形状(ジオメトリ)とその動きを分離する特殊な「1フレーム最適化」戦略を用いたフレームワーク「3DreamBooth」を発表した。まず空間的な構造を固定することで、AIが特定の動きに過剰に適合し、被写体本来の物理的な外観を損なってしまう「時間的な過学習」の罠を回避することに成功している。
この技術的突破口を支えるのが、限定された参照画像から幾何学的なヒントを取得する動的ルーターとして機能する視覚条件付けモジュール「3Dapter」である。このAsymmetrical Conditioningにより、視覚データが不足している場合でも、未学習の角度からの映像を高精度に合成できるようになった。
HunyuanVideoやWanVideo 2.1といった主要なアーキテクチャと互換性を持つこの手法は、特定の対象に特化させるパーソナライゼーション機能を大幅に強化する。仮想製品の展示からパーソナライズされたデジタルアバターまで、3DreamBoothは急速に進化する生成ビデオAI分野に、新たなレベルの物理的一貫性をもたらすだろう。