펜타곤, 안전 필터 제거 거부한 Anthropic 차단
- •미 국방부는 살상용 자율 작전 및 감시에 대한 안전 가이드라인 제거를 거부한 Anthropic의 사용을 전면 금지했다.
- •피트 헤그세스(Pete Hegseth) 국방장관은 Anthropic을 공급망 위험 요소로 지정하고 6개월 내 모든 연방 정부 사용을 중단하도록 명령했다.
- •다리오 아모데이(Dario Amodei) CEO는 기업의 안전 정책을 고수하며, 2억 달러 규모의 군사용 맞춤형 Claude 모델 계약을 포기했다.
실리콘밸리와 국가 간의 관계가 근본적으로 변화하고 있음을 시사하는 조치로 미 국방부가 Anthropic을 블랙리스트에 올렸다. 피트 헤그세스(Pete Hegseth) 국방장관은 해당 기업을 '공급망 위험'으로 규정했는데, 이는 Anthropic이 살상용 자율 작전이나 대규모 감시에 AI가 사용되는 것을 방지하는 안전 필터 제거를 거부했기 때문이다. 특히 이러한 마찰은 국방을 위해 무제한적인 기술 접근을 요구하는 정부와 안전 경계선은 결코 타협할 수 없는 윤리적 약속이라는 개발사 간의 깊은 철학적 견해 차이에서 비롯되었다.
이번 갈등의 심화로 인해 맞춤형 Claude 모델을 기밀 군사 시스템에 통합하려던 2억 달러 규모의 계약이 결국 종료되었다. xAI나 Palantir 같은 경쟁사들이 펜타곤의 요구에 부응하며 보조를 맞추고 있는 것과 달리, Anthropic은 다리오 아모데이(Dario Amodei) Anthropic CEO의 지휘 아래 확고한 안전 우선 원칙을 유지하고 있다. 이에 따라 도널드 트럼프(Donald Trump) 대통령의 명령은 6개월 이내에 모든 연방 기관에서 해당 모델을 단계적으로 퇴출하도록 규정했으며, 이는 그간 Claude의 역량에 깊이 의존해 온 정부 인프라에 상당한 공백을 야기할 전망이다.
이러한 사태는 AI 정렬, 즉 인공지능 모델이 인간의 가치와 의도를 따르도록 보장하는 작업과 국가 안보의 실전적 요구 사이의 긴장 관계를 극명하게 보여준다. Anthropic의 행보는 거대 기술 기업이 자사만의 윤리적 한계선을 지키기 위해 대규모 정부 파트너십을 희생한 매우 이례적인 사례로 평가받는다. 결과적으로 국방위원회는 갑작스러운 인프라 중단 문제를 해결해야 하는 과제를 안게 되었으며, 이번 결정은 향후 공공과 민간의 AI 협력 방식에 있어 매우 중요한 전례가 될 것으로 보인다.