Anthropic、AI兵器化の倫理を巡り米国防総省との契約を解消
2026年3月25日 (水)
- •Anthropicは、軍事利用におけるAIによる監視や自律的な殺傷判断に厳格な制限を求めている。
- •米国国防総省側は民間企業の倫理的制約を拒否し、軍事AIは国内法のみに従うべきだと主張。
- •AI兵器化を巡る議論において、人間が意思決定に介在する「Human-in-the-loop」が最大の争点となっている。
AI(人工知能)と実戦兵器の融合が、かつてない転換点を迎えている。Anthropicが米国国防総省との提携から距離を置いたことで、その対立が鮮明になった。同社が譲れない一線として掲げたのは、AIによる監視の拒絶と、完全自律型の致死兵器システムの否定という2つの倫理的境界線である。軍がAIに意思決定の「速度」を求める一方で、Anthropicは、破滅的な誤りを防ぐために「引き金を引く」最終的な判断権は人間が保持すべきだと主張した。
これに対する国防総省の反論は、安全性を最優先するテック企業の文化と、国家防衛という戦略的要請の間に横たわる深い溝を浮き彫りにしている。軍の指導部らは、作戦行動は民間企業の倫理規範ではなく、連邦法によって統制されるべきだと論じた。この「法的に許容される無制限の利用」という哲学は、ある行為が合法的であるならば、企業の独自規制に縛られることなくテクノロジーがそれを支援すべきだという考えに基づいている。
こうした対立は、Human-in-the-loopシステムの構築における技術的課題をも浮き彫りにしている。最新の研究によれば、AIモデルは極限状態における人間の道徳的判断を考慮せず、任務遂行といった特定の報酬のみを最適化する可能性があるという。競合諸国が戦場の自動化へと舵を切るなか、米国は倫理的なガードレールを維持すべきか、それとも自律型兵器の軍拡競争で後れを取るリスクを負うべきか、極めて難しい決断を迫られている。