米地裁、Anthropicへの Claude 利用禁止措置を差し止め
- •米連邦地裁は、Anthropicに対する政府のサプライチェーン・リスク指定を阻止する暫定差し止め命令を下した。
- •国防総省側は管轄権の複雑さを理由に、裁判所の命令後も一部の禁止措置は依然として有効であると主張している。
- •AnthropicのCEOであるダリオ・アモデイ(Dario Amodei)は、AIの安全性と軍事利用の制限を巡る長期的な法廷闘争に備えている。
米連邦裁判所は、政府とAI開発企業Anthropicの間で激化する対立に介入した。リタ・リン(Rita Lin)判事は、広範な連邦禁止措置を一時的に停止する暫定差し止め命令を下している。この紛争は、Anthropic側が軍によるClaudeモデルの「あらゆる適法な利用」を認める契約条件を拒否したことに端を発しており、これを受けて政府側は同社との全取引を停止する行政命令を出していた。リン判事は、政府による「サプライチェーン・リスク」という指定は口実である可能性が高いとし、この動きはAIの安全性や利用制限に関する同社の姿勢に対する不当な報復行為であると指摘した。
裁判所の判決にもかかわらず、法的な状況は依然として不透明である。実際に、国防総省の当局者は差し止め命令に対して公然と異議を唱えており、禁止措置の一部は判事の管轄外であるため依然として効力を維持していると主張した。この管轄権を巡る綱引きは、国家安全保障当局と企業のポリシーが衝突する複雑な法的展望を浮き彫りにしている。裁判所は上訴審での検討を可能にするため、自らの命令に7日間の執行停止期間を設けており、このリスクの高い争いが終結には程遠いことは明らかだ。
AI業界全体にとって、この訴訟は政府が調達政策を通じて民間のAIプロバイダーに対してどの程度の支配力を行使できるかを測る重要な試金石となるだろう。もし「サプライチェーン・リスク」というレッテルが政策執行の道具として成功裏に利用されれば、他のAI企業が連邦政府との契約を締結する際の先例となる可能性がある。一方で、Anthropicが勝利すれば、開発者が自らの技術が国家機関によってどのように導入されるかについて、倫理的な境界線を設定する権利が強化される。双方が長期戦の構えを見せていることから、法的手続きは今後1年以上続く見通しだ。