ディープフェイク動画検知、人間がAIを凌駕
2026年2月18日 (水)
- •AIは画像の偽造検知で97%の精度を誇るが、動画の識別では人間が優位に立つ結果となった。
- •人間は動画内の偽造を63%の確率で特定し、現在のアルゴリズムが苦手とする不自然な挙動を見抜いた。
- •巧妙な合成メディアに対抗するには、マシンの速度と人間の直感を組み合わせた協調体制が不可欠である。
心理学者のナタリー・エブナー(Natalie Ebner)氏が率いる研究チームは、デジタル偽造の処理における生物学的知能と人工知能の決定的な違いを明らかにした。機械学習アルゴリズムは静止画のピクセルパターンを97%近い精度で分析できるが、動画の動きに含まれる不自然さを見抜く「直感」の再現には至っていない。実験では、AIが人間を欺く加工画像を容易に特定した一方で、動画の検知精度はランダムな推測と同程度まで落ち込む結果となった。
対照的に、人間は動画の偽造を63%の確率で識別することに成功した。これは、現在のアルゴリズムが見落としがちな微細な挙動や不自然な動きを、人間が敏感に察知していることを示唆している。そこでフロリダ大学(University of Florida)のチームは、脳画像診断と意思決定分析を用いて、人間の疑念を誘発する具体的な「レッドフラッグ(警告サイン)」の特定に乗り出した。時間の経過とともに変化する情報を脳がどう処理するかを解明し、AIの弱点を補う計画だ。
この研究は、デジタルセキュリティの未来が人間とマシンの「協調」にあることを強調している。マシンの高速なパターン認識と人間のきめ細かな観察眼を組み合わせることで、選挙や金融システムを脅かすディープフェイクに対し、最も強固な盾を構築できるからだ。急速に進化する合成メディアに対抗するには、技術の向上だけに頼るのではなく、人間の直感的な知性をいかに防衛策に統合していくかが今後の鍵となるだろう。