Wikipedia、正確性維持のためAIによる記事生成を禁止
2026年3月31日 (火)
- •ウィキペディアの編集者が、大規模言語モデルを使用して記事の本文を生成したり書き換えたりすることを禁止する新方針が発表された。
- •人間による厳格な監視と検証を条件に、限定的なAIによる校正・推敲は認められるが、情報の追加は許されない。
- •ボランティアコミュニティによる投票の結果、知識の誠実性を守るために生成AIの利用を制限する案が圧倒的多数で支持された。
ウィキペディアは、合成メディアに対する姿勢を正式に強化し、記事作成における生成AIの使用を制限する厳格な新ガイドラインを導入した。この方針転換はボランティア編集者による広範な議論を経て決定されたものであり、機械が生成したテキストよりも人間主導の調査を優先することがコミュニティの圧倒的多数によって支持されている。記事の生成や書き換えにAIを使用することを禁止することで、プラットフォーム側は出典の信頼性を守り、自動化ツール特有の微細な誤りが混入するリスクを排除する狙いだ。
改訂された枠組みにおいて、AIツールは完全に排除されたわけではない。ただし、その役割は基本的な校正やフォーマットの調整といった補助的な業務に限定される。特に、これらの作業には人間による厳密な監督が不可欠であり、検証されていない新しい情報が記録に追加されないよう徹底することが求められる。この慎重なアプローチは、効率化をもたらすテクノロジーの活用と、世界の知識リポジトリに求められる高い正確性の維持との間で続く葛藤を鮮明にしている。
デジタル空間がAI生成データで溢れる中、ウィキペディアのこの決断はコンテンツ・ガバナンスにおける極めて重要な事例となるだろう。自動化されたテキスト生成が普及する時代において、人間がキュレーションする知識の価値を改めて強調している。また、このポリシー更新は、生成AI時代に情報の真偽を検証するという複雑な課題に直面する他の教育機関やメディアプラットフォームにとっても、大きな指針を示す先例となるはずだ。