OpenAI、安全機能を強化した「Sora 2」を発表
2026年3月31日 (火)
- •C2PAメタデータと動的ウォーターマークにより、AIコンテンツの識別が容易に
- •デジタル上の肖像権(ライクネス)をユーザーが制御・撤回できる「キャラクター」機能を搭載
- •性的素材や許可のない音声模倣など、有害コンテンツを遮断する多層的なモデレーションを実装
OpenAIが、安全性とクリエイターの制御権を最優先に設計された動画生成AIの新モデル「Sora 2」を発表した。初期の実験的な段階から大きく進化を遂げ、コンテンツの出所(プロベナンス)を示すシグナルの実装に重きを置いているのが特徴だ。具体的には、生成されるすべての動画に業界標準のC2PAメタデータが付与されるようになった。このデジタル署名はコンテンツの「栄養成分表示」のような役割を果たし、プラットフォームやユーザーはその動画がAIによる合成か、あるいはカメラで撮影されたものかを明確に判別できる。
今回導入された機能の中でも特に革新的なのが、デジタル身元盗用やディープフェイクへの懸念に対応した「キャラクター」機能である。これにより、ユーザーは特定のキャラクターを定義した上で、自身の肖像に対する絶対的な権限を保持し、必要に応じていつでも同意を撤回できるようになった。こうした同意ベースのモデルへの移行を背景に、未成年者が登場する動画への厳格なモデレーションや、実在の人物を参考資料として使用する際の許可証明も義務付けられている。
さらに、視覚的な安全性だけでなく、音声やテキストに対しても強力なガードレールが敷かれた。システムは音声の書き起こしデータをスキャンしてポリシー違反を事前に検知するほか、存命のアーティストの音声を無断で模倣する試みをブロックする。目に見えるウォーターマークから能動的なフィルタリングまで、幾重もの防御層を重ねることで、OpenAIは高精度な動画生成がもたらす創造性と、すべてのユーザーにとって安全なデジタル環境の維持との両立を目指している。