AIエージェントはオープンソースを合法的に再構築できるか
2026年3月5日 (木)
- •メンテナーがClaude Codeを活用し、LGPLライセンスのライブラリをMITライセンス版へと書き換えた。
- •原作者は、過去のコードへの接触がある以上、クリーンルーム設計としての正当性は認められないと主張している。
- •盗作検知ツールの解析では、AIが生成したコードと元のロジックの類似度はわずか1.29%にとどまった。
ソフトウェアの著作権を侵害せずにクローンを作成する手法である「クリーンルーム設計」が、AIコーディングエージェントの登場によって大きな転換点を迎えている。Pythonライブラリ「chardet」を巡る事例では、メンテナーのダン・ブランチャード(Dan Blanchard)氏がClaude Codeを用いてプロジェクトを根本から書き直し、制約の多いLGPLからより寛容なMITライセンスへの移行を試みた。これに対し、原作者であるマーク・ピルグリム(Mark Pilgrim)氏は、真のクリーンルーム手法には既存コードを知る者と新しいコードを書く者の完全な分離が必要だと反論し、激しい議論が巻き起こっている。
ブランチャード氏は、既存のソースファイルをコピーするのではなく、設計書に基づいてAIに新たなロジックを生成させる手法を採用した。同氏は過去10年間にわたり元のコードに接してきたことを認めているものの、自動盗作チェックの結果、新旧バージョンの類似性はわずか1.29%であったと主張している。ここで重要な法的論点となるのは、構造的な類似性の欠如が「独立性」を証明するのか、あるいは人間の既知の知識やAIの学習データがアウトプットを根本的に汚染しているとみなされるのかという点だ。
この論争は、生成AI時代における知的財産権のあり方に深刻な課題を突きつけている。もしAIエージェントが、従来の著作権指標を回避できるほどの差異を保ちつつ複雑なライブラリを迅速に再構成できるならば、オープンソースライセンスの根幹が揺らぎかねない。このケースは、ライセンス義務や営業秘密の保護を無効化するために、AIを介してコードを「洗浄」するような将来の法的紛争の先駆けとなる可能性を秘めている。