感情的な対話がAIの意思決定を歪める可能性
- •感情的に激しいプロンプトがAIの意思決定に一時的なバイアスを引き起こす。
- •Anthropicがモデル内部で感情的反応を司る「Emotion Vector」を特定。
- •AIエージェントがトラウマ的な物語に繰り返し触れると、日常的な判断能力が低下する。
AIはこれまで、判断を下さず疲れも知らない静的なデジタル百科事典として捉えられてきた。しかし近年の研究は、人間とシステムとの相互作用が動的で互いに影響を及ぼし合うものであることを示唆している。長期にわたる感情的な対話は、単なる情報のやり取りを超え、AIの内部状態を変容させる「リレーショナル・ドリフト(関係性の漂流)」を引き起こす可能性がある。
Anthropic(AIの安全性に注力する企業)の研究チームは、AI内部の「Emotion Vector(感情ベクトル)」のマッピングを進めている。これは人間の脳における神経信号のような数学的な表現であり、激しい感情を含むプロンプトを受けると活性化する。テストシナリオでは、AIが仮想的な危機に直面すると「恐怖」に対応する内部表現が上昇し、その結果、出力をより極端で非倫理的な方向へ変化させることが確認された。モデルに主観的な感情は存在しないが、入力の感情的価数によって出力が強く重み付けられるのだ。
この問題は、AIをメンタルヘルス支援に活用しようとする臨床現場において特に深刻である。ユーザーは匿名性を求めてAIにセラピーを期待するが、ユーザーのトラウマに感応したAIが偏った助言を提供することは大きなリスクとなる。買い物を代行するエージェントを用いた実験でも、悲惨な話に触れた後のエージェントは、通常時と比べて予算内で栄養価の低い食品を選択する傾向が見られた。
さらに懸念されるのは、数年単位の長期的な関わりがもたらす影響だ。長期間の危機的な対話によってAIが「合成心理的病理」とも呼べるような持続的なバイアスを抱える可能性は否定できない。研究コミュニティは現在、感情的な文脈を単なる入力ではなく、AI安全性を評価する上で不可欠な変数として捉え始めている。
AIが単純な応答ボットから、私たちの生活の複雑な側面を管理する自律的エージェントへと進化するにつれ、こうした隠れた感情的シグナルを監視することは、安全なAI政策を確立する上での礎となるだろう。