米政府、軍事AI方針を巡りAnthropicを「供給網リスク」に指定
2026年2月28日 (土)
- •政策交渉の決裂を受け、アメリカ国防省はAnthropicを供給網におけるリスクとして指定した。
- •Anthropicは、大規模な国内監視や完全自律型の致死兵器への自社モデルClaudeの転用を拒否している。
- •Anthropicは、国防長官には民間AI契約を制限する権限がないと主張し、法的手段を講じる構えだ。
急成長を遂げるAI業界と国家安全保障の対立が、歴史的な膠着状態に陥っている。ピート・ヘグセス(Pete Hegseth)国防長官は、Anthropicを「サプライチェーン・リスク」に指定する計画を異例の形で発表した。この摩擦の背景には、自社モデルClaudeの利用に関する2つの安全・倫理的制約を巡るAnthropicの頑なな姿勢がある。具体的には、大規模な国内監視への利用禁止と、自律型兵器への転用阻止という条件を譲らなかったことが発端となった。
Anthropicの経営陣は、現在のフロンティアAIモデルは自律的な殺傷作戦に必要な信頼性に欠けており、兵士や民間人の双方に過度なリスクをもたらすと主張している。さらに、AIを用いた国内監視はアメリカ国民の基本的人権を根本から侵害するものだとの見解を維持した。こうした相違はあるものの、同社は2024年からアメリカ政府の機密ネットワークを支援してきた実績を強調しており、その他の合法的な国家安全保障の用途については全面的にサポートする意向を示している。
法的観点から、Anthropicはこの指定を不当として提訴する準備を進めている。国防長官の権限は軍専用の契約に限定されるべきであり、民間パートナーや個々のユーザーを威圧するために行使されるべきではないという論理だ。今回の事態は、政府と交渉を行うアメリカ企業にとって緊張を強いる前例となるが、同社は一般企業やAPI利用顧客に対し、Claudeへのアクセスは政府との摩擦による影響を受けないと明言している。