Anthropic, 미국 국방부 제소... "공급망 리스크 판정 무효화 요구"
- •Anthropic이 미국 국방부를 상대로 자사 제품에 대한 '공급망 리스크' 판정의 위법성을 주장하며 소송을 제기했다.
- •이번 판정으로 인한 정부 및 민간 계약상의 손해를 호소하며, 조치 중단과 무효 확인을 요구했다.
- •자율형 살상 무기에 대한 AI 활용 거부 등 군사적 이용의 안전 제한을 둘러싼 갈등이 배경이 되었다.
AI 스타트업 Anthropic이 미국 국방부(DoD)의 '공급망 리스크' 판정이 부당하다며 법적 대응에 나서는 이례적인 상황이 발생했다. 2026년 3월 9일 캘리포니아주 연방지방법원에 제출된 소장에 따르면, Anthropic은 정부의 조치가 법적 권한을 일탈했으며 기업으로서의 명예와 계약 관계에 회복하기 어려운 손해를 입히고 있다고 주장했다. 특히 이번 소송은 첨단 AI 기술의 군사적 전용을 둘러싸고 민간 기업과 안보 당국 사이의 깊은 간극을 여실히 드러내는 상징적인 사건이라 할 수 있다.
발단은 국방부가 Anthropic의 제품과 서비스를 국가 안보상의 리스크에 해당한다고 규정한 것이었다. 이에 따라 정부 기관뿐만 아니라 방위 산업과 관련된 수많은 민간 기업들까지 Anthropic의 서비스 이용을 재검토하거나 기피할 가능성이 커졌다. Anthropic 측은 이러한 조치가 적절한 행정 절차를 거치지 않은 전례 없는 조치라고 강력히 비판하며, 판정의 무효 확인과 집행 정지를 공식 요청했다. 급격히 진화하는 AI 분야에서 특정 벤더를 일방적으로 리스크로 규정하는 기준의 불투명성과 그 경제적 영향력이 법정에서 본격적으로 다뤄질 전망이다.
이 심각한 대립의 이면에는 AI 이용 제한에 대한 양측의 사상적 차이가 자리 잡고 있다. Anthropic은 창업 이래 AI의 안전성을 최우선 과제로 삼고 대규모 감시나 인간의 감독 없이 작동하는 치명적 자율 무기 시스템(LAWS)에 대한 기술 제공을 거부한다는 엄격한 지침을 유지해 왔다. 반면 국방부는 Claude 3와 같은 고도의 대규모 언어 모델을 전장의 의사결정 지원이나 전 군의 임무 강화에 통합하고자 했으며, Anthropic이 요구하는 안전 제한을 완화하기 위해 협상해 온 경위가 있다. 결국 이번 소송은 AI 개발자가 추구하는 윤리적 안전성과 국가가 요구하는 군사적 우위가 정면으로 충돌하며 합의점을 찾지 못한 결과로 풀이된다.