AI 에이전트의 오픈소스 재작성, 법적으로 유효할까?
- •메인테이너가 Claude Code를 사용하여 LGPL 라이선스 라이브러리를 MIT 라이선스 버전으로 재작성했다.
- •원작자는 과거의 코드 노출로 인해 '클린룸 구현' 상태가 무효화되었다고 주장하며 이의를 제기했다.
- •표절 감지 도구 결과, AI가 생성한 코드와 원본 로직 사이의 유사도는 단 1.29%에 불과한 것으로 나타났다.
소프트웨어 저작권을 침해하지 않고 코드를 복제하는 전통적인 방식인 '클린룸 구현'이 AI 코딩 에이전트의 등장으로 큰 변화를 맞이하고 있다. 최근 파이썬 라이브러리 chardet을 둘러싼 논란이 대표적인 사례다. 메인테이너인 댄 블랜차드(Dan Blanchard)는 Claude Code를 활용해 프로젝트를 바닥부터 다시 작성했으며, 이를 통해 기존의 제약적인 LGPL 라이선스를 보다 허용적인 MIT 라이선스로 전환하는 데 성공했다. 하지만 이에 대해 원작자인 마크 필그림(Mark Pilgrim)은 진정한 클린룸 프로세스란 원본 코드를 아는 사람과 새로운 코드를 작성하는 사람 사이의 완전한 격리가 전제되어야 한다며 강하게 반발하고 있다.
댄 블랜차드(Dan Blanchard)는 기존 소스 파일을 복사하는 대신 설계 문서를 바탕으로 AI가 새로운 로직을 생성하도록 유도하는 방식을 택했다. 비록 본인이 지난 10년간 원본 코드에 노출되었다는 점은 인정했으나, 자동 표절 검사 결과 구 버전과 신 버전의 유사도가 1.29%에 불과하다는 점을 강조했다. 이에 따라 법적으로 중요한 질문이 제기된다. 구조적 유사성의 부재가 독립성을 입증하는 충분한 근거가 될 수 있는지, 아니면 인간의 사전 지식과 AI의 학습 데이터가 결과물을 근본적으로 오염시킨 것으로 보아야 하는지가 쟁점이다.
이번 논란은 생성형 AI 시대에 지식재산권이 직면한 거대한 도전 과제를 시사한다. 만약 AI 에이전트가 복잡한 소프트웨어 라이브러리를 기존 저작권 지표를 회피할 만큼 빠르게 재창조할 수 있다면, 오픈소스 라이선스 체계 자체가 흔들릴 수 있기 때문이다. 특히 기업들이 AI를 이용해 라이선스 의무나 영업 비밀 보호 장치를 제거하는 이른바 '코드 세탁'을 시도할 가능성도 있어, 향후 이 사건은 관련 법적 분쟁의 축소판이 될 것으로 보인다.