미 국방부, Anthropic 제외하고 8개 기업과 기밀 AI 사업 확대
DOD expands its classified AI work with 8 companies — excluding Anthropic — amid ongoing dispute
미 국방부가 앤스로픽을 제외한 8개 기업과 기밀 AI 협정 체결. 자율무기·대량감시 금지 조건 거부가 배제 원인으로, 글로벌 AI 군사화와 윤리의 충돌을 대표하는 사건.
앤스로픽 없는 AI 연합: 펜타곤이 선택한 8개 기업의 의미
전쟁터에 AI가 들어간다 — 펜타곤의 선언
2026년 5월 1일, 미 국방부(DoD)가 조용히, 그러나 매우 명확한 메시지를 담은 발표를 내놓았다. 스페이스X, 오픈AI, 구글, 엔비디아, 리플렉션(Reflection), 마이크로소프트, 아마존 웹 서비스(AWS), 오라클. 총 8개 기업이 국방부의 기밀 네트워크에서 프런티어 AI를 운용하는 공식 협정에 서명했다. 그리고 그 명단에는 딱 하나의 이름이 빠져 있다. 바로 앤스로픽(Anthropic)이다.
단순한 계약 변경이 아니다. 이 사건은 AI 윤리와 군사 주권이 정면 충돌한 결과물이며, 향후 글로벌 방산 AI 생태계의 지형을 다시 그릴 분기점이다.
앤스로픽과 펜타곤 — 갈라선 이유
돌이켜보면 이 갈등의 씨앗은 꽤 오래전부터 뿌려져 있었다. 앤스로픽은 국방부에 AI 모델을 제공하는 계약을 유지하고 있었고, 한때 기밀 정보 처리에도 활용되었다. 그런데 TechCrunch의 보도에 따르면 국방부는 앤스로픽의 AI 도구를 제한 없이 사용하길 원했고, 앤스로픽은 이를 거부했다.
앤스로픽이 제시한 조건은 단 두 가지였다. 자국민을 대상으로 한 대규모 감시에 기술을 쓰지 말 것, 그리고 자율 무기에 활용하지 말 것. 일반인에게는 당연하게 들릴 수 있지만, 국방부에게는 작전 유연성을 제약하는 족쇄였던 셈이다.
결국 국방부는 앤스로픽을 **'공급망 리스크(supply-chain risk)'**로 공식 지정했다. The Verge에 따르면 앤스로픽은 이 조치에 맞서 법원에 금지 명령을 신청했고, 2025년 3월 법원으로부터 임시 금지 명령(injunction)을 얻어냈다. 현재 양측은 법정 다툼을 이어가는 중이다. 앤스로픽에게 배정됐던 예산은 2억 달러 규모였던 것으로 알려졌다.
숫자와 분류 등급이 말하는 현실
이번 협정의 핵심 키워드는 두 가지 보안 등급이다.
- IL6(Impact Level 6): 기밀 데이터를 클라우드 기반으로 처리하기 위한 최고 수준의 컴플라이언스 기준
- IL7(Impact Level 7): 최상위 기밀(Top Secret), 극도로 민감한 정보, 핵심 국가안보 정보를 다루는 클라우드 환경에 적용되는 가장 엄격한 분류 체계
DefenseScoop이 인용한 국방부 발표문에는 이런 문장이 담겼다. "보안이 확보된 프런티어 AI 역량을 IL6·IL7 네트워크 환경에 통합함으로써 데이터 합성을 간소화하고, 상황 인식을 높이며, 복잡한 작전 환경에서 전투원의 의사결정을 보강할 것이다."
쉽게 말해, 국방부는 전장 데이터 분석부터 최상위 기밀 정보 처리까지 AI를 전방위로 투입하겠다는 선언을 한 셈이다.
8개 기업의 포지션은 각각 다르다. 마이크로소프트와 아마존은 이미 국방부와 깊은 관계를 유지하고 있었고, 오픈AI와 스페이스X(xAI)는 이전 협정을 공식 확장했다. 구글은 별도 협정을 통해 합류한 것으로 알려졌다. 반면 엔비디아와 리플렉션은 이번에 새롭게 계약을 맺었다는 점에서 주목할 만하다.
AI 군사화의 글로벌 지형도
| 국가/진영 | 주요 프로그램 | 접근 방식 |
|---|---|---|
| 미국 | DoD IL6/IL7 AI 협정 | 민간 빅테크 복수 계약, 벤더 락인 방지 |
| 중국 | 군민융합(軍民融合) 전략 | 화웨이·바이두 등 국영·민간 일체화 |
| 영국 | AI Strategy for Defence | NATO 파트너십 기반, 윤리 프레임 병행 |
| EU/NATO | AI in Defence Action Plan | 책임있는 AI 원칙 우선, 윤리 레드라인 강조 |
| 한국 | 국방AI센터 운용 중 | 미국과 협력, 독자 체계 개발 병행 |
흥미로운 점은, 미국이 이번에 내세운 논리가 **'벤더 락인 방지'**라는 점이다. TechCrunch 보도에 따르면 국방부는 "어떤 AI 공급업체에도 종속되지 않는 아키텍처를 구축하겠다"고 명시했다. 8개 업체를 동시에 묶은 이유가 바로 여기에 있다. 앤스로픽 한 곳을 배제한 것이 리스크 분산 전략의 일환이기도 하다는 해석이 나오는 이유다.
반대로 앤스로픽 사태는 EU·NATO의 AI 윤리 접근법과 묘하게 공명한다. 유럽은 AI 군사 활용에 윤리 레드라인을 두는 방향을 강조해왔다. 미국 내 AI 기업조차 이 흐름과 완전히 무관할 수 없다는 것이 이번 사태가 보여주는 구조적 긴장이다.
K-방산·K-AI가 잡아야 할 좌표
솔직히 말해, 이번 사태는 한국 방산·AI 업계에 위기이자 기회다. 두 가지 측면에서 동시에 읽어야 한다.
첫째, 미국 동맹국으로서의 상호운용성 압력이다. 한국군은 한미연합사 체계 안에서 미군의 C4ISR(지휘·통제·통신·컴퓨터·정보·감시·정찰) 플랫폼과 연동된다. 이번에 DoD IL6/IL7 환경에서 구동되는 AI 체계가 확정됐다는 것은, 한국이 연합 작전에서 이 생태계와 통신해야 한다는 의미이기도 하다. **한화시스템의 전장관리체계(BMS, Battle Management System)**는 미군 전술 데이터링크와의 연동 개발을 지속해왔는데, 이번 DoD AI 협정 이후 미측 플랫폼이 AI 기반으로 빠르게 재편될 경우 상호운용성 업그레이드 수요가 곧 발생할 것으로 보인다.
둘째, 독자 기밀 AI 인프라 구축의 필요성이다. 앤스로픽 사태가 던지는 본질적 질문은 "당신의 AI를 당신이 통제하는가?"이다. 한국 국방부와 방위사업청(DAPA)이 운용하는 국방AI센터는 현재 AI 기반 정보 분석·의사결정 지원 체계를 개발 중이다. 다만 핵심 AI 모델을 국내에서 자체 개발·운용할 수 있는 체계가 갖춰지지 않으면, 한국도 미국이 앤스로픽에게 요구한 것과 같은 상황—즉 공급사의 윤리 정책에 작전 주권이 제약되는 상황—에 직면할 수 있다.
LIG넥스원의 감시정찰 체계와 연계된 AI 기반 표적 식별·처리 기술은, 국내 독자 운용 가능한 분류 AI 인프라(한국판 IL6 수준)가 뒷받침될 때 비로소 완전한 작전 능력을 발휘할 수 있다. 현재 LIG넥스원이 개발 중인 LAMD(저고도 레이저 대드론 체계) 역시 실시간 위협 판별 AI와 결합될수록 교전 속도가 올라간다. 독자 AI 인프라가 없다면 이 연결 고리는 언제나 외부 변수에 노출된다.
**KAI(한국항공우주산업)**가 개발하는 무인기 체계와 ADD(국방과학연구소)의 자율 비행 알고리즘 연구 역시 같은 맥락에서 봐야 한다. 앤스로픽 사례처럼 자율무기 운용 윤리 기준이 AI 공급사 수준에서 결정된다면, 작전 교리의 주도권은 기술 제공국 기업에게 넘어간다. 국방AI센터가 ADD와 협력해 국내 파운데이션 모델을 국방 목적으로 파인튜닝하고 기밀 네트워크 안에서 자체 운용하는 경로를 열어두어야 하는 이유가 바로 여기에 있다.
정부 차원에서는 방위사업청의 신속시범획득 제도를 AI 인프라 분야로 확장 적용하는 방안이 검토될 필요가 있다. K방산 수출금융 지원 틀 안에서 한국산 방산 AI 솔루션을 패키지로 묶어 동남아·중동·유럽 우방국에 제공하는 시나리오도 충분히 현실적이다.
이 선택이 남기는 파문
앞으로 이 협정이 전장에서 실제로 어떻게 작동하는지는 아직 알 수 없다. 다만 방향은 선명하다. 미국은 AI 군사화를 가속화하면서도 단일 공급사 의존을 막는 분산 아키텍처를 택했다.
앤스로픽의 법적 도전이 어떤 결과를 낳느냐에 따라 후속 파장이 결정된다. 만약 앤스로픽이 법정에서 이기면, 군사용 AI에도 기업이 윤리 조건을 붙일 수 있다는 선례가 생긴다. 반대로 국방부가 이기면, AI 기업들은 군 계약에서 유사한 조건 협상력을 잃을 가능성이 높다.
리플렉션처럼 이름이 낯선 스타트업이 이번 명단에 포함된 것도 주목해야 한다. 대형 빅테크가 아닌 특화 AI 기업이 국방 기밀 네트워크에 직접 진입한다는 것은, 진입 장벽의 성격이 바뀌고 있다는 신호일 수 있다. 한국의 방산 AI 스타트업들에게는 작지 않은 참고 사례다.
그리고 결국 남는 질문은 기술이 아니라 원칙에 관한 것이다. AI가 전장에서 의사결정을 지원할 때, 누가 그 윤리적 경계를 설정하는가. 기업인가, 국가인가, 아니면 국제 규범인가.
관련 글
- Legal AI startup Legora hits $5.6B valuation and its battle with Harvey just got hotter
- Gemini is rolling out to cars with Google built-in
- ChatGPT downloads are slowing — and may cause problems for OpenAI’s IPO
자주 묻는 질문 (FAQ)
Q1. 펜타곤 AI 협정에서 앤스로픽만 배제된 이유는 무엇인가요? 앤스로픽이 자국민 대량 감시와 자율 무기에의 AI 활용을 금지하는 윤리 조건을 요구했고, 국방부가 이를 수용하지 않아 앤스로픽을 공급망 리스크로 지정한 것이 직접적 원인이다.
Q2. IL6와 IL7 보안 등급은 어떻게 다른가요? IL6는 기밀 데이터 처리가 가능한 클라우드 컴플라이언스 기준이고, IL7은 최상위 기밀과 국가안보 핵심 정보까지 다루는 가장 엄격한 클라우드 보안 등급이다. 이번 협정은 두 등급 모두에 AI를 통합하는 것을 목표로 한다.
Q3. 엔비디아가 이번 협정에 포함된 의미는 무엇인가요? 엔비디아는 AI 연산 칩(GPU) 공급사로, 소프트웨어 중심 협정과 달리 하드웨어 컴퓨팅 인프라 차원에서 기밀 AI 환경의 핵심 구성 요소로 공식 편입됐다는 점에서 이번이 특히 주목된다.
Q4. 한국 국방부도 유사한 AI 기밀 인프라를 구축하고 있나요? 국방AI센터를 중심으로 AI 기반 정보 분석 및 의사결정 지원 체계를 개발 중이다. 다만 핵심 모델의 자체 개발·운용 수준은 미국 대비 초기 단계로, 이번 미국 사례가 구체적 벤치마크가 될 수 있다.
Q5. 앤스로픽의 법적 도전은 현재 어느 단계인가요? 앤스로픽은 2025년 3월 국방부의 공급망 리스크 지정에 대한 임시 금지 명령을 법원에서 확보했으며, 현재 양측은 본안 소송을 진행 중인 것으로 전해진다.
여러분은 AI 기업이 군사 계약에서 윤리적 사용 조건을 부과할 권리가 있다고 보시나요, 아니면 국가 안보 주권이 기업의 윤리 정책보다 우선해야 한다고 보시나요?
이 글이 도움이 되셨나요?
댓글