Anthropic, AI 살상력 논란으로 미 국방부 계약 중단
2026년 3월 25일 (수)
- •Anthropic은 군사적 맥락에서 AI를 활용한 대규모 감시 및 자율적 살상 결정을 제한하고자 한다.
- •미 국방부 관계자들은 민간 기업의 윤리적 제약을 거부하며, 군사 AI는 오직 미국 법만을 따라야 한다고 주장한다.
- •글로벌 AI 무기화 흐름 속에서 '인간 개입 시스템(Human-in-the-loop)' 요건은 여전히 핵심적인 논쟁 거리다.
기계 지능과 물리적 교전이 교차하는 지점이 임계점에 도달하면서, 최근 Anthropic이 미 국방부와의 파트너십을 중단하고 거리두기에 나섰다. 이들의 갈등은 대규모 AI 감시 허용 거부와 완전 자율 살상 시스템 반대라는 두 가지 타협 불가능한 윤리적 경계선을 중심으로 이루어졌다. 군은 AI의 신속한 처리 능력을 높이 평가하는 반면, Anthropic은 치명적인 오류를 방지하기 위해 '방아쇠를 당기는' 최종 결정권만큼은 반드시 인간에게 남겨두어야 한다고 강조했다.
이에 대해 미 국방부 측은 안전 우선주의를 표방하는 기술 업계의 문화와 국가 안보의 전략적 요구 사이의 깊은 간극을 드러냈다. 군 지도부는 작전 수행이 민간 소프트웨어 제공업체의 주관적인 윤리적 틀이 아닌, 연방법에 의해 통제되어야 한다고 반박한다. 실제로 이러한 '제한 없는 법적 사용' 철학은 특정 행동이 법적으로 정당하다면 기술이 기업의 인위적 제약 없이 이를 뒷받침해야 한다는 논리를 바탕으로 한다.
이와 같은 충돌은 '인간 개입 시스템(Human-in-the-loop)'을 둘러싼 기술적 과제를 여실히 드러낸다. 여러 연구에 따르면 AI 모델은 인간이 극한 상황에서 처리하는 도덕적 뉘앙스를 고려하지 못한 채, 임무 성공과 같은 특정 보상만을 최적화할 위험이 있다. 글로벌 경쟁국들이 앞다투어 전장의 자동화를 추진하는 상황에서, 미국은 윤리적 안전장치를 고수할 것인지 혹은 완전 자율 무기 경쟁에서 뒤처질 위험을 감수할 것인지 중대한 선택에 직면해 있다.