위키백과, 정보 정확성 위해 AI 작성 문서 금지
2026년 3월 31일 (화)
- •위키백과 편집자의 거대언어모델(LLM)을 활용한 문서 작성 및 수정을 금지하는 새로운 정책이 시행된다.
- •다만 인간 편집자의 엄격한 감독과 검증이 뒷받침되는 경우에 한해 제한적인 AI 교정 및 서식 작업은 허용된다.
- •자원봉사 커뮤니티는 지식의 무결성을 보호하기 위해 생성형 AI 사용을 제한하자는 안건에 압도적인 지지를 보냈다.
위키백과가 합성 미디어에 대한 입장을 공식적으로 강화하며, 문서 생성 시 생성형 시스템 사용을 제한하는 엄격한 새 가이드라인을 도입했다. 이는 자원봉사 편집자들이 기계가 생성한 텍스트보다 인간 중심의 연구를 우선시하기로 압도적인 찬성표를 던진 커뮤니티 토론의 결과다. AI를 이용한 항목 작성이나 수정을 금지함으로써, 위키백과는 인용의 무결성을 수호하고 자동화 도구에서 흔히 발생하는 미묘한 오류를 방지하고자 한다.
개정된 지침에 따라 AI 도구는 완전히 금지되는 대신 기본 교정이나 서식 지정과 같은 보조적인 역할로 한정된다. 특히 이러한 작업은 검증되지 않은 새로운 정보가 기록에 추가되지 않도록 인간의 엄격한 감독을 필수적으로 요구한다. 이러한 세밀한 접근 방식은 효율성을 높이는 기술 활용과 글로벌 지식 저장소에 요구되는 높은 수준의 정확도 유지 사이에서 균형을 잡으려는 시도로 풀이된다.
디지털 환경이 AI 생성 데이터로 점차 포화됨에 따라, 위키백과의 결정은 콘텐츠 거버넌스의 중요한 사례가 될 전망이다. 이는 자동화된 텍스트 생성이 보편화되는 시대에 인간이 직접 검수하고 선별한 지식의 가치를 다시금 강조한다. 결과적으로 해당 정책 업데이트는 다른 교육 및 미디어 플랫폼이 생성형 AI 시대의 정보 검증 과제를 어떻게 해결할지에 대한 선례를 남겼다.