Anthropicが米国防総省を提訴、供給網リスク認定の無効求める
- •Anthropicが米国防総省を提訴、自社製品への「供給網リスク」認定の違法性を主張
- •認定による政府・民間契約への損害を訴え、措置の差し止めと無効確認を要求
- •自律型兵器へのAI利用拒否など、軍事利用の安全制限を巡る対立が背景に
AIスタートアップのAnthropicが、米国防総省(DoD)による「サプライチェーンリスク」認定を不当として、法的手段に出るという異例の事態に発展しました。2026年3月9日にカリフォルニア州連邦地裁へ提出された訴状によると、同社は政府の措置が法的権限を逸脱しており、企業としての名誉や契約関係に回復困難な損害を与えていると主張しています。今回の提訴は、先端AI技術の軍事転用を巡る、民間企業と安全保障当局との間の深い溝を浮き彫りにする象徴的な出来事と言えるでしょう。
発端となったのは、国防総省がAnthropicの製品やサービスを国家安全保障上のリスクに該当すると認定したことでした。この認定により、政府機関だけでなく、防衛産業に関わる多くの民間企業までもが同社サービスの利用を見直す、あるいは敬遠する可能性が生じています。Anthropic側は、この措置が適切な行政手続きを欠いた「前例のない措置」であると厳しく批判しており、認定の無効確認と実施の差し止めを正式に求めています。急速に進化するAI分野において、特定のベンダーを一方的にリスク認定する基準の不透明性と、その経済的影響力が法廷の場で問われることになります。
この深刻な対立の背景には、AIの利用制限に関する両者の思想的な相違が横たわっています。Anthropicは創業以来、AIの安全性を最優先事項として掲げ、大規模監視や「人間の監督なしに作動する致死的自律兵器(LAWS)」への技術提供を拒むという厳格な指針を維持してきました。一方で、国防総省は「Claude 3」などの高度な大規模言語モデルを、戦場での意思決定支援や全軍のミッション強化に組み込みたい狙いがあり、Anthropicが求める安全制限の緩和を交渉してきた経緯があります。今回の訴訟は、AI開発者が追求する倫理的安全性と、国家が求める軍事的優位性が正面から衝突し、妥協点を見出せなかった結果としてのエスカレーションなのです。