Anthropic、米国政府により国家安保リスクに指定
2026年3月6日 (金)
- •米国防省がAnthropicを国家安全保障上のサプライチェーンリスクに指定した。
- •Anthropicは法的対抗措置を検討しつつ、国防支援とAI安全性への取り組みを継続する方針だ。
- •OpenAIとペンタゴンの提携や内部情報の流出により、両者の緊張が激化している。
Anthropicは、米国政府より国家安全保障上のサプライチェーンリスクに指定されたことを受け、公式な法的対立状態に入った。米国防省は合衆国法典第10編第3252条に基づきこの指定を行ったが、同社のCEOを務めるダリオ・アモデイ(Dario Amodei)氏は、この措置に法的根拠が欠けていると主張している。この指定は特に国防関連の契約におけるClaudeの利用を制限するものだが、同社が連邦政府のシステムに統合される上での大きな障壁となることは避けられない。
こうした摩擦は、Anthropicが連邦政府のインフラから排除されるというSNS上の発表や、ペンタゴン(米国国防総省)とOpenAIとの競合契約など、一連の緊迫した出来事に起因している。特に、事態を悪化させる一因となった流出内部文書について、ダリオ・アモデイ(Dario Amodei)氏は謝罪を表明した。一方で、同社が掲げるAI安全性への姿勢、とりわけ自律型兵器への関与を拒否する方針は、引き続き最優先事項であることを改めて強調している。
法的闘争を続ける一方で、Anthropicはこの移行期間中、国家安全保障の専門家に対して実費程度の低価格で自社モデルを提供する意向だ。同社は自らの使命が米国の安全保障上の利益と一致しているとの立場を崩しておらず、政府全体でのAI活用の緊急性を訴えている。今後の法廷闘争では、国防長官が保護のために「制限が最も少ない手段」を講じる義務があるかどうかが、大きな争点となる見通しである。