Anthropic、自律型AI兵器の開発要求を拒否
2026年2月27日 (金)
- •Anthropicが大量監視と完全自律型兵器への統合を求める米国国防省の要求を拒否した。
- •米政府は「サプライチェーン・リスク」への指定や国防生産法の適用を盾に、安全制限の解除を迫っている。
- •ダリオ・アモデイ(Dario Amodei)CEOは、技術的な信頼性不足と民主的価値観を拒否の理由に挙げた。
AI開発企業であるAnthropicのダリオ・アモデイ(Dario Amodei)最高経営責任者(CEO)は、米国国防省との間で激化する対立について明確な声明を発表した。同社はこれまで機密扱いの政府ネットワーク内で情報解析用にモデルを提供し成功を収めてきたが、国内の大量監視と完全自律型兵器の開発という2つの「レッドライン(譲れない一線)」を巡り、交渉は膠着状態に陥っている。アモデイ氏は、現在のフロンティアAIシステムは人間の介在なしに標的を識別・攻撃できるほどの信頼性を備えておらず、兵士や民間人に容認できないリスクを及ぼすと主張している。
この対立は現在、臨界点に達しており、連邦政府当局は同社を「サプライチェーン・リスク」に指定すると脅している。これは通常、敵対的な外国勢力に対して使われるレッテルだ。さらに政府は、国防生産法(Defense Production Act)を援用して、AIに組み込まれた安全ガードレールの撤廃を法的に強制する構えも見せている。国家安全保障におけるAIの重要性を認めつつも、安全プロトコルを重視する開発者を「脅威」と呼ぶという、極めて矛盾した状況が生まれている。
政府からの圧力が強まる中でも、Anthropicは民主主義的価値観を優先する姿勢を崩していない。アモデイ氏は、市民に対する現行の法的保護を形骸化させるような大量監視ツールの提供には一切加担しないと言明した。同社は制限付きでの軍への支援継続を希望しているものの、もし国防省側がこれらの基本的な安全上の境界線を尊重しないのであれば、技術提供を完全に停止する準備があることも示唆している。