Amazon、参照画像に基づく動画生成「VRAG」を発表
- •Amazon Bedrockが、特定の参照画像を基に動画を生成するVRAGを導入した。
- •Amazon OpenSearchのベクトルエンジンを活用したマルチモーダルな仕組みにより、高精度な検索とカスタマイズを実現している。
- •自動バッチ処理により、パーソナライズされた広告や教育用動画の大規模な制作が可能になる。
Amazon Web Services(AWS)は、標準的な動画生成モデルが抱える知識の欠落問題を解消するために設計された「Video Retrieval Augmented Generation(VRAG)」パイプラインを発表した。これはAmazon BedrockとAmazon Nova Reelモデルを組み合わせた高度な仕組みである。これにより、クリエイターはプライベートデータベースから取得した特定の参照画像に厳密に基づいた、高品質な動画を生成できるようになる。
このシステムは、Amazon OpenSearch Serviceのベクトル検索エンジン内に画像ライブラリをインデックス化することで機能する。ユーザーがテキストプロンプトを入力すると、システムが最も関連性の高い画像を検索し、それを視覚的なアンカーとして使用する。このプロセスにより、生成される動画には特定のブランド製品や設定が忠実に再現され、AIによる汎用的な推測ではない正確な描写が保証される仕組みだ。
こうしたマルチモーダルなアプローチは、視覚的な一貫性が極めて重要となる広告や教育などの業界において、特に革新的な変化をもたらすだろう。構造化されたテキストテンプレートを用いることで、数百ものパーソナライズされた動画シーケンスを自動で一括作成できるからだ。また、ユーザーは時計回りの回転や下方向へのパンといったカメラワークを指定でき、それらを取得した視覚コンテキストに適用することで、映画のような仕上がりを実現できる。
単なるテキストからの動画生成に留まらず、VRAGのフレームワークには「インペインティング」のような高度な機能も組み込まれており、アニメーション化する前に画像内の特定領域を修正することが可能だ。このようなきめ細かな制御機能により、AWSは、生成のランダム性よりもデータに基づいた正確性を優先する、エンタープライズ向けの拡張可能なAIメディア制作ツールにおけるリーダーとしての地位を固めている。