AlphaGo 개발자가 경고하는 AI의 잘못된 방향
The Man Behind AlphaGo Thinks AI Is Taking the Wrong Path
LLM 중심 AI 개발 비판, 구글 내부 군사화 저항, 머스크-올트먼 재판이 드러내는 AI 거버넌스 위기와 K-방산의 기회 포인트
AI 패권 전쟁의 민낯 — 기술 이상(理想)과 자본 권력 사이에서
핵심 요약: 한 주에 벌어진 AI 지각변동
2026년 4월의 마지막 주, AI 업계는 조용하지 않았다. DeepMind 출신 데이비드 실버가 LLM 중심 AI 개발 경로 자체를 정면 비판하며 새 회사를 창업했고, 구글 직원 600명 이상은 CEO에게 공개 서한을 보내 군사 AI 계약을 거부하라고 압박했다. 같은 날 머스크와 올트먼의 세기의 재판이 시작됐다. 이 세 사건은 별개처럼 보이지만, 사실상 하나의 질문으로 수렴한다. "AI는 누구를 위해, 어떤 방식으로 진화해야 하는가?"
"LLM은 화석 연료다" — 강화학습의 반란
솔직히 말해, 이 발언은 꽤 도발적이다.
Wired에 따르면, AlphaGo를 만든 구글 DeepMind의 데이비드 실버는 자신의 새 회사 Ineffable Intelligence를 창업하며 AI 업계의 주류 노선에 정면으로 도전장을 내밀었다. 그의 논리는 간결하고 날카롭다.
"인간 데이터는 놀라운 지름길을 제공한 일종의 화석 연료다. 스스로 학습하는 시스템은 재생 가능 연료와 같아서, 한계 없이 학습하고 또 학습할 수 있다."
LLM(대형 언어 모델, Large Language Model)은 인간이 생산한 텍스트를 빨아들여 인간 수준의 지능을 모방한다. 놀랍도록 효율적이지만, 결국 인간 지능의 반영에 머문다는 것이 실버의 진단이다. 그가 대안으로 제시하는 건 강화학습(Reinforcement Learning, RL)—오류와 시도를 반복하며 스스로 규칙을 발견하는 방식이다.
AlphaGo가 바로 그 증거였다. 2016년 AlphaGo는 인간 기보를 넘어서 스스로 두어보며 인간이 수천 년간 발견하지 못한 수를 찾아냈다. 실버는 이걸 "초지능의 첫 번째 섬광"이라 부른다. 그리고 이제 그는 그 섬광을 다도메인에서 구현하는 "슈퍼러너(Superlearner)" 구축을 목표로 한다.
이 접근이 방산·AI 융합 관점에서 특히 주목받는 이유가 있다. 작전 계획 수립, 교전 규칙 최적화, 전자전 주파수 할당 같은 군사적 의사결정은 인간 데이터가 극히 제한적이다. 전쟁 시나리오를 수백만 번 반복할 수 있는 시뮬레이션 기반 RL은 이 영역에서 LLM보다 훨씬 강력한 잠재력을 지닌다.
구글 내부의 균열 — 600명의 서명
한편, 구글 본사에서는 내부 갈등이 수면 위로 올라왔다.
The Verge의 보도에 따르면, 구글 직원 600명 이상이 순다르 피차이 CEO에게 서한을 보내 "국방부(Pentagon)가 구글 AI 모델을 기밀 목적으로 사용하는 것을 차단하라"고 요구했다. 서명자 중에는 DeepMind 연구원 다수와 임원급 20명 이상이 포함된 것으로 알려졌다. 서한은 직설적이었다.
"구글이 그러한 피해와 연루되지 않도록 보장하는 유일한 방법은 기밀 워크로드를 거부하는 것이다."
흥미로운 점은 이 갈등이 구글만의 문제가 아니라는 사실이다. Anthropic은 현재 군사 AI 모델에 대한 가드레일 완화를 거부했다가 국방부로부터 "공급망 위험(supply chain risk)"으로 지정돼 법적 분쟁 중이다. 빅테크 전반에 걸쳐 민간 AI 기술의 군사화를 둘러싼 내부 저항이 구조화되고 있다는 신호다.
이 긴장은 단순한 윤리 논쟁이 아니다. 미국 국방부(DoD)는 AI 기반 표적 식별, 정보 분석, 자율 무기 체계에 천문학적 예산을 쏟아붓고 있다. 테크 기업 입장에서는 거대한 계약이지만, 연구자 입장에서는 자신이 만든 기술이 어디에 쓰이는지 알 수 없다는 불안이다. 결국 이는 기업의 지배구조와 AI 거버넌스 문제로 직결된다.
세기의 재판: 머스크 대 올트먼, 그리고 AI의 영혼
The Verge에 따르면, 2026년 4월 27일 배심원 선정을 시작으로 머스크 대 올트먼의 법정 공방이 본격화됐다. 머스크는 2024년 소송을 제기하며 OpenAI가 "인류를 위한 AI 개발"이라는 창립 사명을 버리고 영리 추구로 전환했다고 주장한다. 그는 올트먼과 공동 창업자 그렉 브록만의 퇴출, 최대 1,500억 달러(약 200조 원) 규모의 손해배상을 요구하고 있다.
OpenAI 측은 "이 소송은 경쟁자를 방해하기 위한 근거 없는 질투심의 산물"이라고 반박한다. 머스크 자신도 Grok을 탑재한 xAI를 운영 중인 만큼, 이해충돌 문제는 재판 내내 핵심 쟁점이 될 것으로 보인다.
다만 이 재판이 단순한 억만장자들의 불화로 읽혀선 안 된다. 핵심은 AI 기업의 법적 사명과 상업적 현실 사이의 간극을 어떻게 정의할 것인지다. OpenAI가 비영리에서 공익법인(Public Benefit Corporation)으로 전환하는 과정에서 벌어진 이 갈등은, 앞으로 수많은 AI 스타트업이 성장하며 직면할 지배구조 딜레마의 선례가 된다.
숫자가 말하는 현실: 글로벌 AI·방산 동향 비교
| 구분 | 주요 동향 | 주목 포인트 |
|---|---|---|
| 미국 DoD | 구글·Anthropic과 AI 기밀 워크로드 협상 | 민간 AI의 군사화 가속, 내부 반발 심화 |
| OpenAI | 머스크 소송 재판 개시, 공익법인 지위 논란 | AI 거버넌스·사명 정의 법적 분쟁 선례 |
| Ineffable Intelligence | 실버, RL 기반 슈퍼러너 개발 선언 | LLM 패러다임 도전, 자율 학습형 AI 부상 |
| 자동차 산업 | GM·닛산 등 AI 설계 도입으로 개발 기간 단축 | 방산 플랫폼 설계에 AI 접목 가능성 시사 |
| Anthropic | 군사 가드레일 완화 거부→공급망 위험 지정 | 기업 자율성 대 국방 조달 의무 긴장 |
자동차 업계의 움직임도 맥락 밖으로 치부하기 어렵다. The Verge에 따르면 GM·닛산 등은 무역 전쟁과 불확실한 수요 속에서 AI를 활용해 차량 개발 기간을 단축하고 있다. 전통적으로 5년 이상 걸리던 설계 사이클을 AI로 압축하는 이 흐름은, 방산 플랫폼의 요구사항 변경 속도가 빨라지는 현실과 정확히 맞물린다.
K-AI·K-방산이 잡아야 할 좌표
이 네 가지 흐름이 한국에 여는 기회는 생각보다 구체적이다.
첫째, 강화학습 기반 자율 전술 AI. 실버의 RL 접근법은 인간 전투 데이터가 희소한 영역에서 오히려 빛을 발한다. 한화시스템의 전장관리체계(C4I)와 무인수상정(USV) 플랫폼은 RL 기반 전술 의사결정 엔진을 탑재할 수 있는 최적의 테스트베드다. 데이터 부족 문제를 시뮬레이션 자기학습으로 우회하는 이 방식은 한국 국방 AI 개발의 고질적 병목을 돌파하는 열쇠가 될 수 있다.
둘째, ADD·국방AI센터의 RL 연구 로드맵 재설계. 지금 국방과학연구소(ADD)와 국방AI센터가 주력하는 AI 기술 대부분은 LLM 기반 정보 분석과 객체 탐지에 집중돼 있다. 실버의 선언은 이 포트폴리오에 RL 기반 시뮬레이션 훈련 환경 구축을 추가해야 한다는 정책적 신호다.
셋째, 군사 AI 윤리 거버넌스 선점. 구글 내부 반발이 보여주듯, 미국조차 민간-군사 AI 경계 설정에 苦심하고 있다. LIG넥스원의 LAMD(저고도 미사일 방어) 체계나 비궁(Bigung) 대드론 체계처럼 이미 방산 현장에 배치된 AI 연동 무기 체계를 운용하는 한국은, 오히려 교전 AI 운용 윤리 가이드라인을 조기에 정립해 수출 경쟁력으로 전환할 수 있다. NATO·EU가 요구하는 책임 있는 AI 무기 운용 기준을 선제적으로 충족하면, 중동·동남아 시장에서 차별화 포인트가 된다.
넷째, AI 설계 가속화의 방산 적용. GM·닛산이 자동차 개발 사이클을 AI로 단축하듯, 현대로템의 K2 전차 후속 플랫폼 개발이나 KAI(한국항공우주산업)의 KF-21 파생형 설계에도 AI 생성 설계(Generative Design) 기술 접목이 가능하다. 개발 기간 단축은 방위사업청의 신속연구개발 트랙과 결합될 때 더욱 강력한 효과를 발휘한다.
방위사업청의 신속연구개발 제도와 K방산 수출금융 패키지는 이 흐름에 올라타기 위한 제도적 레일이 이미 깔려 있다. 문제는 속도다.
혼돈이 정리되면 남는 것들
앞으로 6~12개월이 결정적일 수 있다.
머스크-올트먼 재판의 결론은 AI 기업의 비영리→영리 전환 경로에 법적 선례를 남긴다. OpenAI가 공익법인 지위를 유지하든 잃든, 이후 AI 스타트업들의 지배구조 설계 방식이 달라진다. 한국의 방산 AI 스타트업들도 이 판례에서 눈을 떼선 안 된다.
구글-국방부 갈등은 더 복잡한 방향으로 흐를 가능성이 높다. 600명의 서명이 상징하는 내부 저항이 실제 계약 철회로 이어질지, 아니면 경영진 결정으로 묻힐지—그 결과에 따라 방산 AI 시장의 주요 플레이어 지형이 달라진다.
가장 장기적인 변수는 실버의 실험이다. RL 기반 슈퍼러너가 LLM을 실제로 추월하는 데는 5년이 걸릴 수도, 15년이 걸릴 수도 있다. 다만 방향은 분명하다. AI가 인간 데이터의 반영을 넘어 스스로 새 지식을 만들어내는 순간, 방산 AI의 패러다임은 근본적으로 흔들린다.
잠재 리스크도 직시해야 한다. RL 기반 자율 시스템이 군사 영역에 적용될 경우, 인간 감독 없이 학습한 전술 AI가 예상치 못한 교전 판단을 내릴 가능성이 있다. 기술 가속과 안전 거버넌스 사이의 간극이 가장 위험한 공백이다.
관련 글
- How Project Maven taught the military to love AI
- China has ‘deliberate, industrial-scale campaigns’ to steal US AI models, White House says
- SpaceX cuts a deal to maybe buy Cursor for $60 billion
자주 묻는 질문 (FAQ)
Q1. 강화학습(RL)이 LLM보다 방산에 더 적합한 이유는 무엇인가요? 군사 작전 데이터는 보안상 공개되지 않아 LLM 훈련에 필요한 대규모 인간 데이터가 없습니다. RL은 시뮬레이션 환경에서 스스로 전술을 개발하므로 이 제약을 우회할 수 있습니다.
Q2. 구글 직원들의 반발이 실제 국방 계약에 영향을 미칠 수 있나요? 단기적으로는 계약 철회 가능성이 낮습니다. 그러나 핵심 연구 인력 이탈과 여론 압박이 장기화되면 경영 판단에 영향을 줄 수 있으며, Anthropic 사례처럼 법적 분쟁으로 이어질 여지도 있습니다.
Q3. 머스크-올트먼 재판에서 머스크가 이기면 어떻게 되나요? OpenAI의 공익법인 지위가 흔들리고, 올트먼·브록만 퇴출 및 비영리 재단에 대한 대규모 배상이 현실화됩니다. AI 업계 지배구조 전반에 파급효과가 생길 수 있습니다.
Q4. 한국 방위사업청이 AI 설계 가속화를 도입하려면 어떤 제도가 필요한가요? 현행 신속연구개발 트랙에 생성형 AI 설계 도구 활용 기준을 명문화하고, 설계 결과물의 지식재산권 귀속과 보안 분류 기준을 정비하는 것이 선행돼야 합니다.
Q5. Ineffable Intelligence는 어떤 회사인가요? AlphaGo 개발자 데이비드 실버가 창업한 영국 런던 소재 AI 스타트업으로, LLM 대신 강화학습을 중심으로 다도메인 슈퍼러너 개발을 목표로 합니다. 구체적인 투자 규모나 파트너십은 아직 공개되지 않았습니다.
여러분은 민간 AI 기업의 기술이 기밀 군사 목적으로 활용되는 것에 대해, 기업 내부 구성원이 거부권을 행사할 수 있어야 한다고 보십니까?
이 글이 도움이 되셨나요?
댓글