미국 정부가 자기네 AI 기업 Claude(Anthropic)을 화웨이랑 같은 블랙리스트에 올렸다는 거다. 도대체 무슨 일이 있었길래 이 지경까지 왔나 싶어서 처음부터 끝까지 정리해봤다.
Claude(Anthropic) 국방부 갈등, 그 시작은 안전한 AI라는 꿈이었다
2026년 2월 27일, 도널드 트럼프 미국 대통령은 Truth Social에 이렇게 썼다.
앤트로픽의 좌파 미치광이들이 국방부를 상대로 팔을 비틀려는 치명적 실수를 저질렀다. 모든 연방 기관은 즉시 앤트로픽 기술 사용을 중단하라!
미국 정부가 자국의 AI 기업을 화웨이, 카스퍼스키 같은 외국 안보 위협 기업과 같은 목록에 올려놓겠다고 선언한 것이다. Claude(Anthropic) 국방부 분쟁은 단순한 계약 분쟁이 아니다. AI 시대의 민주주의, 기술 윤리, 그리고 국가 권력의 한계를 둘러싼 전례 없는 충돌이다.
이 사건이 어떻게 여기까지 왔는지, 시간의 흐름을 따라가 보자.
OpenAI에서 Anthropic으로 (2021)
이야기는 2021년으로 거슬러 올라간다. 다리오 아모데이(Dario Amodei)는 OpenAI의 연구 부사장이었다. ChatGPT를 만든 바로 그 회사다. 그는 OpenAI가 안전보다 속도와 상업화를 우선시하는 방향으로 가고 있다고 느꼈다.
아모데이는 여동생 다니엘라와 함께 회사를 나왔다. OpenAI 핵심 연구원 여러 명도 데리고 나왔다. 그렇게 Anthropic을 설립했다. 창업 이념은 단순했다. 가장 강력한 AI를 만들되, 가장 안전하게 만들겠다는 것.
(관련 기사: NDTV, 2026.02.24)
이 선택이 5년 뒤 미국 정부와의 전면전으로 이어질 줄은 아무도 몰랐다.
국방부의 문을 두드리다 (2024년 11월)
Anthropic은 안전을 강조하면서도 국방 분야에 등을 돌리지 않았다. 오히려 적극적으로 국방부에 다가갔다. 아모데이 스스로의 표현을 빌리면, AI를 이용해 미국과 민주주의를 지키는 것은 실존적으로 중요한 일이었다.

2024년 11월, Anthropic은 팔란티어(Palantir) 및 아마존 웹 서비스(AWS)와 손잡았다. Claude AI 모델을 미국 정보기관과 국방부의 기밀 네트워크(classified networks)에 배포하는 파트너십을 발표했다. (관련 기사: Palantir 투자자 공시, 2024.11.07) AI 업계 최초의 기밀 네트워크 진입이었다.
이 시점까지 모든 것은 순조로웠다. Anthropic은 안전한 AI의 챔피언이면서 동시에 국가 안보의 동반자라는 두 가지 정체성을 유지하고 있었다.
2억 달러짜리 계약, 그리고 사용 정책의 씨앗 (2025년 7월)
2025년 7월 14일, 미국 국방부는 AI 시대의 군사 혁신을 위해 대형 계약을 체결했다. Anthropic, OpenAI, Google, xAI 네 개 기업에 각각 최대 2억 달러(약 2,900억 원) 규모였다.
(관련 기사: CNBC, 2025.07.14)

여기서 핵심적인 디테일이 하나 있었다. Anthropic은 이 계약에 자사의 사용 정책(Usage Policy)을 포함시켰다. 국방부도 다른 고객과 마찬가지로 Anthropic의 이용 약관을 따라야 한다는 조건이었다. 그리고 그 정책에는 두 가지 레드 라인이 있었다.
- 미국 시민에 대한 대규모 국내 감시(mass domestic surveillance) 금지
- 완전 자율 무기, 즉 인간이 의사결정 루프에서 완전히 빠진 자율 살상 무기 금지
당시 국방부는 이 조건을 수용했다. 아직 문제가 될 줄 몰랐으니까.
베네수엘라의 밤, 불씨가 터지다 (2026년 1월)
2026년 1월 3일, 미군은 절대 결의 작전(Operation Absolute Resolve)이라는 이름으로 군사 작전을 수행했다. 베네수엘라의 니콜라스 마두로 대통령을 기습 체포하는 작전이었다.

그리고 이 작전에 Claude AI가 사용되었다는 사실이 2월 월스트리트저널과 가디언을 통해 보도되었다.
(관련 기사: The Guardian, 2026.02.14)
Anthropic은 이에 이의를 제기했다. 자사의 사용 정책에 따르면 Claude는 폭력적 목적, 무기 개발, 감시 등에 사용될 수 없었기 때문이다.
이것이 모든 것의 도화선이 되었다.
국방부의 재협상 요구, 모든 합법적 용도에 무제한으로 (2026년 1~2월)
베네수엘라 작전 이후, 국방부는 태세를 전환했다. 2026년 1월, 국방부는 기존 계약 조건의 재협상을 요구했다.
핵심은 단순했다.
Anthropic의 사용 정책을 폐기하라. Claude를 모든 합법적 용도(all lawful purposes)에 무제한으로 사용할 수 있게 하라는 것이었다. (관련 기사: Astral Codex Ten, 2026.02.25)
Anthropic은 거부했다.
대규모 국내 감시와 완전 자율 무기라는 두 가지 예외만큼은 양보할 수 없다고 했다.
국방부의 논리는 이랬다. 그런 건 이미 법으로 금지돼 있으니 약관에 굳이 넣을 필요가 없다. Anthropic의 논리는 달랐다. 현 행정부가 법을 충실히 지킬 것이라고 신뢰할 수 없다.
최후통첩 72시간 (2026년 2월 24~27일)
2026년 2월 24일, 국방장관 피트 헤그세스(Pete Hegseth)가 아모데이에게 직접 최후통첩을 전달했다. 금요일(27일) 오후 5시 1분까지 사용 제한을 철회하라. 그렇지 않으면 세 가지가 뒤따른다.
(관련 기사: Axios, 2026.02.15)
- 계약 해지
- 국방생산법(Defense Production Act) 발동. 한국전쟁 시대의 법률로, 국가 안보를 위해 민간 기업에 생산을 강제할 수 있다
- 공급망 위험 기업(Supply Chain Risk) 지정. 화웨이에 적용하던 조치를 미국 기업에 전례 없이 적용하겠다는 뜻이다
2월 26일, 아모데이는 긴 성명을 발표했다. 우리는 양심상 그들의 요구에 응할 수 없다.
(관련 기사: Anthropic 공식 성명, 2026.02.26)
그는 Anthropic이 국방부의 적이 아니라고 강조했다.
기밀 네트워크에 최초로 진입한 AI 기업이었다. 국가연구소에 배포한 최초의 기업이었다. 중국 공산당 연계 기업의 Claude 사용을 스스로 차단해 수억 달러의 매출을 포기하기도 했다. 하지만 대규모 국내 감시와 완전 자율 무기만큼은 선을 넘을 수 없다고 했다.
국방부의 에밀 마이클(Emil Michael) 연구공학 차관보는 X에 이렇게 반박했다. 그는 미군을 개인적으로 통제하고 싶어하는 신(God) 콤플렉스를 가지고 있다. (관련 기사: NPR, 2026.02.27)
블랙리스트와 추방 (2026년 2월 27일)
금요일 오후, 데드라인이 지났다. Anthropic은 꿈쩍도 하지 않았다.
트럼프가 먼저 움직였다. 모든 연방 기관에서 Anthropic 기술 즉시 사용 중단 명령. 6개월의 유예 기간을 두고 완전 퇴출을 지시했다. (관련 기사: PBS NewsHour, 2026.02.27)
한 시간 뒤, 헤그세스가 최종 카드를 꺼냈다. Anthropic을 국가 안보 공급망 위험 기업으로 지정한 것이다. 이 조치는 역사상 미국 기업에 적용된 적이 단 한 번도 없었다. 화웨이, 카스퍼스키 같은 외국의 적성국 기업에만 사용되던 무기였다. (관련 기사: AP통신, 2026.03.01)
헤그세스의 X 포스팅은 이랬다. 미국의 전사들은 빅테크의 이념적 변덕에 인질이 되지 않을 것이다. 이 결정은 최종이다.
바로 그날 밤, OpenAI의 샘 알트먼이 나타났다. 국방부와 기밀 네트워크 계약을 체결했다고 발표한 것이다. 그런데 아이러니가 있었다. 알트먼은 자신의 계약에도 Anthropic이 요구했던 것과 동일한 두 가지 안전 원칙이 포함되어 있다고 밝혔다. 대규모 감시 금지. 자율 무기의 인간 감독 유지. (관련 기사: NPR, 같은 기사)
같은 조건을 Anthropic에게는 거부하고, OpenAI에게는 수용한 것이다.
이란 공습, 금지한 AI가 폭격을 인도하다 (2026년 3월 1일)
트럼프가 Anthropic 퇴출을 선언한 지 불과 몇 시간 뒤였다. 미국과 이스라엘은 이란에 대규모 공습을 개시했다. 그리고 월스트리트저널과 로이터 보도에 따르면, 이 공습에서 Claude AI가 여전히 사용되고 있었다. 정보 분석, 목표물 선정, 전장 시뮬레이션에 활용되었다고 한다. (관련 기사: Reuters, 2026.03.01) (관련 기사: The Guardian, 2026.03.01)
6개월의 유예 기간이 있었기 때문에 법적으로는 가능했다. 하지만 이 장면이 보여주는 역설은 강렬하다. 미국 정부는 Anthropic을 국가 안보 위협으로 지정하면서, 동시에 Anthropic의 기술로 실제 전쟁을 수행하고 있었다.
아모데이 자신도 이 모순을 지적했었다. 국방부가 한편으로는 Anthropic을 공급망 위험, 즉 사용하면 안 되는 기업으로 지정했다. 다른 한편으로는 국방생산법 대상, 즉 국가에 반드시 필요한 기업으로 위협했다. 이 두 가지는 본질적으로 모순이다.
말 못한 수면 아래 이야기
표면적으로 이 갈등은 AI 사용 약관을 둘러싼 계약 분쟁이다. 하지만 수면 아래에는 훨씬 더 깊은 층위가 있다.
첫째, 이것은 본보기다. 국방부와 트럼프 행정부가 Anthropic에 이토록 강경한 것은 단순히 Claude가 필요해서가 아니다.
OpenAI, Google, xAI 등 다른 AI 기업들에게 보내는 경고 메시지다. 우리에게 조건을 달면 이렇게 된다. AP통신도 이를 정확히 짚었다. 다른 AI 기업과 방산 업체에 대한 경고. 우리의 요구를 들어주지 않으면 블랙리스트에 오른다. 실제로 록히드 마틴 등 방산 기업들은 이미 Anthropic AI 도구를 제거하는 작업에 착수했다. (관련 기사: Reuters, 2026.03.04)
둘째, OpenAI가 동일한 조건으로 계약을 체결했다는 사실이 핵심이다.
알트먼은 대규모 감시 금지와 자율 무기에 대한 인간 감독이라는 Anthropic과 동일한 레드 라인을 계약에 넣었다고 공개적으로 밝혔다. 그렇다면 국방부가 Anthropic에 분노한 이유는 조건의 내용이 아니라 조건을 제시하는 태도였을 가능성이 높다. 기존 계약을 재협상하라는 요구에 공개적으로 거부한 것. 그리고 그 과정에서 국방부의 신뢰성에 의문을 표한 것. 이것이 핵심 자극이었을 수 있다.
셋째, IPO와 시장 지배력이라는 숨겨진 변수가 있다.
Anthropic은 현재 기업 가치 3,800억 달러, 연간 매출 140억 달러로 급성장 중이다. 올해 상장(IPO)을 준비하고 있다. Claude는 Salesforce, Workday 같은 기업용 소프트웨어를 대체할 정도로 시장을 잠식하고 있었다. 이 상황에서 공급망 위험 기업 딱지는 투자자 심리를 흔들고, 기업 고객들의 이탈을 유도할 수 있는 경제적 무기이기도 하다.
넷째, 이란 공습은 전시에 AI를 빼앗을 수 없다는 현실을 증명했다.
국방부 스스로가 6개월 유예를 둔 것은 Claude를 당장 대체할 수단이 없다는 것을 인정한 것이다. 기밀 네트워크에 통합된 AI 시스템을 교체하는 데는 수개월이 걸린다. (관련 기사: Defense One, 2026.02.27) 이 기간 동안 Anthropic은 사실상 원하지 않는 파트너로서 미국의 실제 군사 작전을 지원하게 되는 기묘한 상황에 놓였다.
앞으로의 예측 시나리오들
시나리오 1. 법정 싸움이 판도를 바꾼다.
Anthropic은 공급망 위험 지정에 대해 법적 소송을 예고했다. 이 지정이 외국 위협을 위한 법률을 미국 기업에 전례 없이 적용한 것이므로, 법원이 이를 위헌 또는 월권으로 판단할 가능성이 있다. 만약 Anthropic이 승소하면, 행정부의 기술 기업 압박 수단 자체가 무력화될 수 있다.
시나리오 2. 테크 업계의 침묵하는 반란.
구글의 제프 딘, OpenAI 내부 직원들이 이미 Anthropic을 지지하는 발언을 하고 있다. 이란 공습 이후 Alphabet과 OpenAI 직원들이 군사 AI 사용에 더 엄격한 제한을 요구하고 있다는 보도가 나왔다. (관련 기사: CNBC, 2026.03.03) 기업 경영진은 정부 편에 서더라도, 엔지니어와 연구자들의 집단적 저항이 커질 수 있다.
시나리오 3. 공급망 위험 지정이 새로운 정치적 무기가 된다.
이 사건이 선례가 되면, 미래의 어떤 행정부든 마음에 들지 않는 기술 기업을 같은 방식으로 위협할 수 있게 된다. 이는 미국 내 기술 투자 환경 자체를 위축시킬 수 있다. 특히 AI 스타트업들이 처음부터 정부 계약을 기피하는 결과를 낳을 수 있다.
시나리오 4. Anthropic이 오히려 강해진다.
아모데이는 이미 이 분쟁 이후 기업 가치와 매출이 오히려 올랐다고 밝혔다. 윤리적 AI라는 브랜드가 소비자와 기업 고객에게 차별화 요인이 될 수 있다. 정부 계약은 전체 매출의 극히 일부에 불과하다. 민간 시장에서의 성장이 이를 상쇄하고도 남을 수 있다.
이 사건의 본질
이 사건의 본질은 결국 하나의 질문으로 수렴한다. AI 시대에 누가 기술의 사용 범위를 결정할 권한을 가지는가.
- 국가는 말한다. 합법적인 모든 용도에 사용할 권리는 정부에 있다.
- 기업은 말한다. 아직 충분히 안전하지 않은 기술을 무제한으로 풀어놓는 것은 양심이 허락하지 않는다.
이 싸움의 결말은 아직 쓰이지 않았다. 하지만 그 결말이 어떻든, AI와 국가 권력의 관계는 이전과 같을 수 없게 되었다.