앤트로픽은 왜 펜타곤에 'No'라고 말했나

1970년 1월 1일 목요일

2026년 2월 27일, 미국 국방부 장관 피트 행세스(Pete Hegseth)가 소셜 미디어에 짧은 글을 올렸다.

“즉시 발효. 미 군과 거래하는 모든 계약업체, 공급업체, 파트너는 앤트로픽(Anthropic)과의 일체의 상업적 활동을 중단해야 한다.”

미국 정부가 자국의 AI 기업에 ‘공급망 리스크’ 딱지를 붙이겠다고 위협한 것이다.

이 낙인은 역사적으로 화웨이 같은 미국의 적성국 기업에 적용된 적은 있지만, 미국 기업에 적용된 전례는 단 한 번도 없었다.

모든 AI 회사 중 ‘가장 양심적’이라 칭송받는 앤트로픽이 도대체 무엇을 했길래?


넘지 않겠다 — 두 개의 레드라인

앤트로픽은 프론티어 AI 기업 중 최초로 미국 정부의 기밀 네트워크에 자사 모델 Claude를 배치한 회사다.

2024년 6월부터 미군의 정보 분석, 모델링과 시뮬레이션, 작전 계획, 사이버 작전 등 핵심 임무에 Claude를 공급해 왔으며, 국방부는 Claude를 2억 달러 규모의 계약으로 운용하고 있었다.

그런 회사의 CEO 다리오 아모데이(Dario Amodei)가, 최근 국방부와의 협상에서 두 가지 예외를 요구했다.

첫째, 미국 시민에 대한 대규모 국내 감시에 Claude를 사용하지 말 것.

둘째, 완전 자율 무기에 Claude를 탑재하지 말 것.

아모데이는 성명에서 이렇게 밝혔다.

“우리는 AI가 합법적인 해외 정보 및 방첩 임무에 사용되는 것을 지지합니다.
그러나 이 시스템을 대규모 국내 감시에 사용하는 것은 민주주의 가치와 양립할 수 없습니다.”

“완전 자율 무기는 미래에 국방에 필수적일 수 있습니다.
그러나 오늘날의 프론티어 AI 시스템은 완전 자율 무기를 구동할 만큼 충분히 신뢰할 수 없습니다.
우리는 미국의 군인과 민간인을 위험에 빠뜨리는 제품을 고의로 제공하지 않을 것입니다.”

이에 대한 국방부의 요구는 명확했다. “모든 합법적 용도”에 제한 없이 사용할 수 있게 하라.

그리고 결국 아모데이는, “양심에 따라 그 요구에 응할 수 없습니다.” 라고 힘든 답변을 하고야 만다.

2억 달러보다 무거운 것

먼저 앤트로픽이 도대체 어떤 회사인지 다시 한 번 짚고 넘어갈 필요가 있다.

2021년, 다리오 아모데이와 그의 여동생 다니엘라 아모데이는 OpenAI를 떠나 앤트로픽을 설립했는데, 이유는 AI 안전에 대한 철학적 차이. OpenAI가 상업적 확장에 속도를 내는 동안, 아모데이 남매는 “AI가 충분히 안전하지 않은 상태에서 너무 빨리 달리고 있다”는 위기감을 품고 있었다.

앤트로픽의 정체성은 설립 문서에 각인되어 있다.

회사는 자신들을 단순한 기술 기업이 아닌 ‘AI 안전 연구 회사’로 정의한다.

그리고 이 정체성을 뒷받침하는 독특한 거버넌스 구조를 갖추고 있다.

이윤 추구보다 안전을 우선하겠다는 공익법인(Public Benefit Corporation) 구조.

AI 시스템의 위험도에 따라 배포 기준을 단계적으로 강화하는 책임 있는 스케일링 정책.

그리고 모델의 행동 원칙을 외부에 공개하는 투명성 정책.

그렇다고 앤트로픽이 국방을 거부한 것이 아니다.
오히려 2024년 6월부터 미군의 정보 분석, 모델링, 사이버 작전 등에 Claude를 적극 공급해 왔다.

아모데이는 말한다.

“우리는 AI가 미국과 민주주의 국가를 방어하고, 독재적 적국을 물리치는 데 사용되는 것의 실존적 중요성을 깊이 믿습니다.”

국방을 지지하되, 선은 넘지 않겠다. 이것이 앤트로픽의 명확한 입장이었다.

이 결단이 얼마나 어려웠을지는, 앤트로픽의 재무 상황을 보면 짐작할 수 있다.

AI 프론티어 경쟁은 말 그대로 ‘돈을 태우는 전쟁’. 최첨단 AI 모델 하나를 훈련하는 데 수억 달러의 컴퓨팅 비용이 들고, 수천 명의 연구원을 고용해야 한다. 앤트로픽은 2024년 한 해만 약 42억 달러를 소진한 것으로 알려져 있으며, 수익이 성장하고 있지만 여전히 막대한 적자를 기록하고 있다.

OpenAI, Google, Meta와의 군비 경쟁에서 살아남으려면 단 한 건의 대형 계약도 소홀히 할 수 없는 상황이다. 국방부의 2억 달러 계약은 단순한 매출이 아니라, 미국 정부와의 신뢰 관계를 증명하는 상징적 계약이기도 했다.

이것을 잃는다는 것은 돈만의 문제가 아니라, 기업의 신뢰도와 성장 궤도 전체에 대한 위협이었다.

그럼에도 앤트로픽은 “No”라고 말했다.

살아남기 위해 돈이 절실한 회사가, 돈을 버리면서 지키려 한 것. 그것이 이 결단의 무게다.

주권 vs 양심, 충돌하는 두 개의 정의

갈등의 본질을 이해하려면 양쪽의 논리를 모두 들여다봐야 한다.

국방부의 시각

국방부 입장에서 이 문제는 주권과 통제의 문제다.

“국가 안보의 핵심 인프라에 민간 기업이 윤리적 거부권을 행사하는 것을 허용할 수 있는가?”

국방부 관계자는 CBS News 인터뷰에서 이렇게 반문했다.

“군에 대한 신뢰가 필요합니다. 대량 감시나 완전 자율 무기는 이미 법과 국방부 정책으로 금지되어 있습니다. 왜 추가적인 제한이 필요합니까?”

뉴욕타임스 오피니언은 더 근본적인 질문을 던졌다.

초음속 미사일이 미국 본토를 향해 날아오는 상황에서, AI 기업이 ‘자율 무기 금지 규정’을 이유로 대응을 거부한다면?

민주적으로 선출된 정부의 결정을 민간 기업이 무효화할 수 있는가?

앨트로픽의 시각

아모데이의 반론은 크게 세 가지다.

첫째, 기술적 한계의 문제.

“우리가 신뢰할 수 없는 제품을 팔고 싶지 않습니다. 우리 군인이 죽거나 무고한 사람이 죽을 수 있는 제품을 팔고 싶지 않습니다.”

최신 AI라고 해도 여전히 ‘환각’을 일으키고, 예측 불가능한 오류를 범한다.

AI를 개발하는 입장임에도 불구하고, 이런 시스템에 생사여탈의 결정을 맡기는 것은 기술적으로 무모하다는 주장이다.

둘째, 법이 기술을 따라잡지 못하는 문제.

현행법상 정부는 민간 기업이 수집한 미국인의 이동 경로, 웹 브라우징 기록, 인간관계 데이터를 영장 없이 구매할 수 있다. AI 이전에는 이 데이터가 ‘쓸모없었기’ 때문에 규제할 필요가 없었다. 그러나 AI는 이 흩어진 퍼즐 조각들을 자동으로, 대규모로 조합하여 누구든 한 사람의 삶 전체를 재구성할 수 있게 만든다.

셋째, 논리적 모순의 문제.

국방부는 앤트로픽을 ‘공급망 리스크’로 지정하겠다고 위협하면서, 동시에 국방물자생산법(Defense Production Act)을 발동하여 Claude를 강제 공급하겠다고 위협했다. 아모데이는 이 두 위협이 “본질적으로 모순”이라고 지적했다. 하나는 앤트로픽을 안보 위협으로 낙인찍는 것이고, 다른 하나는 Claude를 국가 안보에 필수적이라고 선언하는 것이니까.

앨트로픽이 떠난 자리, 몇 시간 만에

2월 28일, 앤트로픽이 밀려난 바로 그 자리를 OpenAI가 채웠다.

국방부의 기밀 네트워크에 AI를 공급하는 계약을 체결한 것이다.

가디언(The Guardian)은 이 타이밍을 “앤트로픽이 윤리적 우려로 퇴장한 몇 시간 만에”라고 표현했다.

OpenAI의 CEO 샘 알트만(Sam Altman)은 군이 자사 제품을 자율 살상 시스템이나 대규모 감시에 사용하지 않을 것이라고 주장했다. 그러나 이 보장이 계약서에 명문화되었는지는 알려지지 않았다.

포춘(Fortune)은 이 상황을 이렇게 분석했다.

앤트로픽에 대한 ‘공급망 리스크’ 지정의 가장 큰 위험은, 정부 계약 자체의 손실이 아니라 기업의 성장 궤도 전체에 대한 타격이라고. 방산 업체들이 앤트로픽과의 거래를 기피하게 되면, 그 영향은 민간 시장으로까지 번질 수 있다.

POLITICO는 한 업계 관계자의 말을 인용했다. “이것은 기업 살해 시도입니다.”

쓸 것인가가 아니라, 어디까지 맡길 것인가

이 사태의 파장은 앤트로픽이라는 한 회사를 넘어선다.

버지니아대학교 다든 경영대학원의 AI 윤리 연구소장 마크 루지아노(Marc Ruggiano)는 이 문제가 단순하지 않다고 지적한다. AI가 살상 결정권까지 쥐는 것은 위험하지만, 반대로 표적 식별이나 민간인 구별 같은 보조 역할에 AI를 활용하면 오히려 치명적인 오판을 줄일 수도 있다는 것이다. 문제는 AI를 쓰느냐 마느냐가 아니라, 어디까지 맡기느냐다.

유엔(UN) 사무총장 안토니우 구테흐스는 2023년부터 인간의 통제 없이 작동하는 치명적 자율 무기 시스템(LAWS)의 국제법적 금지를 촉구해 왔다. 2026년까지 법적 구속력 있는 문서를 완성할 것을 권고했으나, 아직 실현되지 않고 있다.

가자지구와 우크라이나에서 규제 없는 군사 AI의 사용은 이미 현실이 되었다.

이스라엘군의 AI 표적 시스템 사용에 대한 인권 단체들의 우려는 날로 커지고 있다.

오피니오 유리스(Opinio Juris)의 국제법 분석은 이 문제의 본질을 꿰뚫는다.

앤트로픽의 가드레일은 단순한 ‘윤리적 약속’이 아니라, 국제인도법(IHL)의 구별 원칙, 비례성 원칙, 공격 시 주의 의무와 직접적으로 맞닿아 있다는 것이다.

자율 무기 시스템이 표적 결정에 알고리즘을 사용할 때, 이러한 원칙들이 어떻게 준수되는지에 대한 미해결 질문들이 산적해 있다.

가드레일 없는 전장

그리고 이 논쟁이 ‘가정’이 아니라 ‘현실’임을 증명하는 사건들이, 바로 이 글을 쓰는 지금 이 순간에도 벌어지고 있다.

2026년 1월 3일, 미군은 베네수엘라 수도 카라카스에 대규모 군사 작전을 감행하여 니콜라스 마두로(Nicolás Maduro) 대통령을 체포했다. 150대 이상의 군용기와 드론이 투입된 이 작전에서, 베네수엘라 국방부 발표에 따르면 최소 83명이 사망했다. 유엔과 국제법 전문가들은 이 작전이 유엔 헌장과 베네수엘라의 주권을 침해했다고 지적했다.

그런데 월스트리트저널(WSJ)이 밝혀낸 사실이 충격을 더했다.

이 작전에 앤트로픽의 Claude가 사용되었다는 것이다.

팔란티어 테크놀로지스(Palantir Technologies)와의 파트너십을 통해 미군의 기밀 네트워크에 배치된 Claude가, 마두로 체포 작전의 일부로 활용되었다는 보도였다. 앤트로픽의 이용약관은 폭력적 목적, 무기 개발, 감시를 위한 Claude 사용을 명시적으로 금지하고 있었다. 앤트로픽은 정책 위반 사실을 확인하지 못했다고 밝혔지만, 사내에서 상당한 동요가 일었다고 NBC News는 전했다.

이 사건은 앤트로픽과 국방부 사이의 갈등을 끓는점으로 밀어 올렸다.

그리고 불과 두 달도 채 지나지 않아, 또 하나의 전선이 열렸다.

2026년 2월 28일, 미국과 이스라엘이 이란에 대규모 공습을 개시했다. 이란의 최고지도자 아야톨라 알리 하메네이가 이스라엘의 ‘참수 작전’으로 사망한 것으로 확인됐다. 미국은 의회 승인 없이, 이라크 전쟁 이후 최대 규모의 공군력과 해군력을 중동에 집결시켰다.

카리브해에서는 9월 이후 미군이 ‘마약 밀매선’이라 주장하는 소형 선박들에 대해 39회 이상의 공격을 감행하여, 최소 144명이 사망했다. 이 중 상당수는 증거 없이 ‘마약 밀매 경로’에 있었다는 이유만으로 공격 대상이 되었다.

주목해야 할 것은 이 모든 군사 작전에서 AI와 드론 기술이 핵심 역할을 하고 있다는 사실이다.

미 육군 항공 책임자는 2026년 2월 “드론이 합동 전투의 모든 것을 바꾸고 있다”고 말했다. 해병대는 2026년 봄까지 모든 보병 정찰 대대에 FPV 드론 전투 능력을 배치할 계획이다. 해군은 구축함과 소형 함정에서 발사할 수 있는 1,400마일 이상의 사거리를 가진 장거리 공격 드론을 공개적으로 요청했다.

기술은 이미 전장에 있다.

그리고 그 기술에는 가드레일이 없다.

앤트로픽이 지키려 했던 두 개의 레드라인, 대규모 감시와 완전 자율 무기에 대한 경계선이 왜 중요한지, 베네수엘라의 폐허와 테헤란의 연기가 역설적으로 증명하고 있다. 기술의 ‘합법적’ 사용과 ‘윤리적’ 사용 사이의 간극은, 이론이 아니라 지금 누군가의 생명으로 측정되고 있다.


모래 위의 선

CNBC는 이 대립을 “전후(戰後) 시대에 한 번도 시험된 적 없는, 군과 민간 기업 사이의 AI 권력 균형에 대한 실시간 테스트”라고 표현했다.

SAM
Segment Anything Model is a foundation model for image segmentation that can cut out any object.
MARC
Machine-Readable Cataloging (MARC) is a digital standard for representing and exchanging bibliographic information, allowing library software to share and process book records.
Dario Amodei
Co-founder and CEO of Anthropic and a prominent figure in the field of AI safety and policy.
Sam Altman
The CEO of OpenAI and a prominent figure in the development of artificial general intelligence.