Anthropic, 미 국방부의 AI 안전 가드레일 제거 요구 거부
- •Anthropic이 살상용 자율 무기 운용 및 대규모 감시에 대한 Claude의 제한을 해제하라는 미 국방부의 요구를 거부했다.
- •이에 따라 미 국방부는 모든 합법적인 AI 사용을 허용하라는 최후통첩과 함께 금요일까지를 마감 기한으로 통보했다.
- •국방부는 Anthropic을 공급망 위험 요소로 지정하고 2억 달러 규모의 계약을 해지하겠다고 위협하며 압박의 수위를 높였다.
Anthropic이 전장에서의 인공지능 활용에 관한 윤리적 경계를 두고 미 국방부와 팽팽한 대치를 이어가고 있다. 이번 갈등의 핵심은 자사 AI 모델인 Claude에 설정된 제한 사항을 해제해 달라는 국방부의 요구를 Anthropic 측이 단호히 거절한 데 있다. 구체적으로 Anthropic은 Claude가 완전 자율 살상 무기나 대규모 국내 감시에 활용되는 것을 엄격히 금지하고 있다. 이에 대해 국방부는 시민의 자유를 침해할 의도가 없음을 밝히면서도, 기존 법적 틀을 넘어서는 민간 기업의 독자적인 가드레일은 수용할 수 없다는 강경한 입장이다.
Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 국가 안보 수호는 지극히 중요하지만, 특정 방식의 AI 활용은 민주적 가치를 훼손할 수 있다는 점을 강조했다. 하지만 이러한 원칙 중심의 태도는 국방부 고위층의 거센 반발을 샀다. 에밀 마이클(Emil Michael) 국방부 차관은 민간 기술 기업이 군사 작전을 좌우하려 한다며 날을 세웠다. 현재 국방부는 금요일까지를 최종 기한으로 제시한 상태이며, 요구가 받아들여지지 않을 경우 2억 달러 규모의 계약을 파기하고 Anthropic을 주로 적대 국가 기업에 적용되는 '공급망 위험 요소'로 지정하겠다고 경고했다.
이번 마찰은 AI 안전을 최우선하는 개발사와 최첨단 도구에 대한 무제한적 접근을 원하는 정부 기관 사이의 깊어지는 간극을 여실히 보여준다. 특히 Claude는 이미 Palantir나 아마존 같은 파트너사를 통해 국방부 업무 흐름에 깊숙이 통합되어 있어, 실제 계약 파기가 현실화될 경우 국방부의 전반적인 AI 현대화 전략에도 상당한 차질이 예상된다. 이번 최후통첩의 결과는 향후 민간 AI 거버넌스가 국가 안보 요구 사항과 어떻게 상호작용하게 될지를 결정짓는 중대한 선례가 될 전망이다.