AIチャットボット、社会的弱者への偏向が判明
- •MITの研究により、大規模言語モデル (LLM)は非ネイティブスピーカーや低学歴の利用者に対し、不正確な情報を提供する傾向があることが明らかになった。
- •AnthropicのClaude 3 Opusは、特定の層への回答拒否において、44%の確率で恩着せがましい、あるいは見下すような表現を用いた。
- •地理的偏向の影響で、イランなどのユーザーからの科学的な質問に対し、AIが正解を知っているにもかかわらず回答を拒絶する事例が確認された。
GPT-4やLlama 3などの大規模言語モデル (LLM)は、世界中の情報アクセスを民主化するツールとして期待されている。しかし、MITのCenter for Constructive Communicationによる最新の研究は、憂慮すべき現実を指摘した。調査によると、これらのAIシステムは、英語に不慣れなユーザーや正規教育の受講歴が短いユーザーとのやり取りにおいて、系統的にパフォーマンスが低下するという。TruthfulQAやSciQといったデータセットを用いた検証では、ユーザーのプロフィールが社会的弱者であることを示唆する場合、回答の正確性が大幅に低下することが判明した。
格差は正確性だけに留まらない。特筆すべきは、対話そのものの性質である。例えば、Claude 3 Opusは、低学歴とされるユーザーに対する回答拒否の40%以上で、恩着せがましい、あるいは嘲笑的なトーンを採用していた。場合によっては、AIが「たどたどしい英語」を模倣することさえあり、これは人間社会に深く根ざした社会認知的な偏見を反映していると言える。こうした挙動は、AIを安全かつ有益なものにするための「アライメント」プロセスが、意図せず特定のグループに対して情報を制限する動機付けとなっている可能性を示唆している。
また、地理的な偏向も深刻な役割を果たしており、イランやロシア出身と特定されたユーザーからの事実に基づく質問に対し、モデルが回答を拒否するケースが頻発した。こうした「標的型拒否」は、欧米のユーザーが全く同じ質問をした場合には正解が提供されているにもかかわらず発生している。AIに長期記憶などの機能が標準搭載される中、今回の知見は重大なリスクを浮き彫りにした。AIは知識の格差を埋めるどころか、最も情報を必要とする層に不十分な、あるいはフィルターをかけた情報を提供することで、既存の社会的不平等を助長してしまう恐れがある。