ペンタゴン、安全規制を維持するAnthropicを排除
2026年3月31日 (火)
- •殺傷能力を持つ自律型兵器や監視システムへのAI利用を制限する「ガードレール」の撤廃を拒否したため、国防総省はAnthropicの使用を禁止した。
- •ピート・ヘグセス(Pete Hegseth)国防長官はAnthropicを国家安全保障上のサプライチェーン・リスクに指定し、6カ月以内の段階的な政府利用停止を命じた。
- •ダリオ・アモデイ(Dario Amodei)CEOは安全ポリシーを堅持し、結果としてカスタマイズされた軍用Claudeモデルに関する2億ドルの契約を失うこととなった。
シリコンバレーと国家の関係性が劇的な転換期を迎える中、アメリカ国防総省(ペンタゴン)はAIスタートアップのAnthropicをブラックリストに登録した。ピート・ヘグセス(Pete Hegseth)国防長官は、致死性の自律型兵器や大規模監視システムにおけるAI利用を制限するセーフティフィルターの解除を同社が拒んだことを受け、同社を「サプライチェーン上のリスク」であると断定した。この摩擦の背景には、国防のために制限のないアクセスを求める政府側と、安全性の境界線を譲れない倫理的公約と見なす開発者側の深刻な哲学的断絶がある。
この対立の激化により、カスタマイズされたClaudeモデルを極秘の軍事システムに統合する2億ドル規模の契約は打ち切られることとなった。xAIやPalantirといった競合他社がペンタゴンの方針に従う一方で、ダリオ・アモデイ(Dario Amodei)CEO率いるAnthropicは一貫して独自の安全基準を堅持している。トランプ大統領の命令により、連邦政府機関全体で6カ月以内の段階的な排除が求められる中、これまでClaudeの能力を深く活用してきた政府インフラには大きな空白が生じることになる。
一連の事態は、AIモデルを人間の価値観に従わせるAIアライメントと、国家防衛における実務上の要求との間に横たわる緊張を浮き彫りにした。自社の譲れない一線(レッドライン)を守るために、巨額の連邦政府との提携を解消するAnthropicの姿勢は、テック業界においても極めて異例の事例だ。この決定により、下院軍事委員会はシステム運用の混乱への対応を迫られると同時に、今後の官民におけるAI協力のあり方に極めて厳しい先例を突きつけることとなった。