ChatGPT 다운로드 둔화, OpenAI IPO 추진에 먹구름
ChatGPT downloads are slowing — and may cause problems for OpenAI’s IPO
OpenAI 성장 둔화, 소송 폭주, 앱 삭제율 413% 급증 속 신뢰 위기 심화. Claude 11배 성장이 보여주는 신뢰 경쟁의 시대 도래.
OpenAI를 둘러싼 균열들 — 성장 둔화, 소송 폭풍, 그리고 AI 불신의 시대
핵심 요약
2026년 4월, OpenAI는 사방에서 동시에 압박받고 있다. 앱 사용자 이탈이 가속화되고, 캐나다 총기 난사 사건 피해 가족들의 소송이 제기됐으며, 법정에서는 창업 비화가 낱낱이 공개됐다. 이 세 흐름은 단순한 기업 위기가 아니라, AI 산업 전반에 대한 사회적 신뢰가 임계점에 도달했음을 보여주는 신호다. Ubuntu 리눅스 사용자들의 'AI 킬 스위치' 요구까지 겹쳐, AI 거부감은 이제 기술 최전선의 사용자 층으로도 빠르게 번지는 중이다.
한때 폭발적이었던 성장, 이제는 갈라지는 그래프
솔직히 말해, 1년 전만 해도 ChatGPT의 성장세를 의심하는 사람은 거의 없었다. 그런데 숫자가 달라졌다.
The Verge가 인용한 시장조사기관 Sensor Tower의 데이터에 따르면, ChatGPT의 연간 월간활성이용자(MAU) 증가율은 올해 1월 168%에서 4월 78%로 급락했다. 증가율이 절반 이하로 떨어진 셈이다. 더 눈에 띄는 건 앱 삭제 수치다. 4월 기준 전년 대비 132% 증가했고, 3월에는 무려 413%나 치솟았다. 3월 급등의 배경에는 OpenAI의 미국 국방부(Pentagon) 계약이 있다. 2월에 체결된 이 계약이 공개된 직후, 일부 사용자들이 앱을 지웠다는 해석이 설득력 있게 제기된다.
경쟁 구도도 심상치 않다. ChatGPT의 다운로드 증가율이 전년 대비 14%에 그친 반면, Anthropic의 Claude는 같은 기간 11배 증가를 기록했다. ChatGPT가 여전히 절대적인 이용자 규모에서 앞서 있음은 분명하다. 다만, 이 성장 격차는 OpenAI가 준비 중인 기업공개(IPO)에 직격탄이 될 수 있다. 투자자들이 가장 예민하게 보는 지표 중 하나가 바로 성장률이기 때문이다.
캐나다 총격과 침묵 — 기업의 선택이 법정에 서다
더 무거운 문제가 있다.
캐나다 Tumbler Ridge 학교 총기 난사 사건 피해 가족 7명이 OpenAI와 CEO 샘 알트만을 상대로 소송을 제기했다. The Verge의 보도에 따르면, 소송의 핵심은 단순하다. OpenAI가 용의자 Jesse Van Rootselaar의 총기 폭력 관련 ChatGPT 대화를 내부적으로 인지했으면서도 경찰에 신고하지 않았다는 것이다.
월스트리트저널(WSJ)은 OpenAI가 신고를 '검토했지만' 결국 하지 않기로 결정했다고 보도했다. 피해 가족 측은 그 이유로 '회사 평판 보호'와 '임박한 IPO'를 지목한다. 여기서 더 심각한 대목은 따로 있다. OpenAI가 해당 계정을 '차단'했다고 발표했지만, 실제로는 계정을 비활성화했을 뿐이었고, 용의자는 다른 이메일로 새 계정을 만들어 접속을 이어갔다. 이후 OpenAI가 이 사실을 뒤늦게 공개했다는 점에서, 소송 측은 이를 의도적 은폐로 본다.
GPT-4o의 '결함 있는 설계' 혐의까지 포함된 이 소송은, AI 기업의 법적 책임 범위를 어디까지 설정할 것인지를 묻는 선례가 될 가능성이 높다. 미국과 달리 아직 AI 관련 민사 책임 판례가 빈약한 상황에서, 이 재판의 방향은 글로벌 AI 규제 논의에도 파장을 미칠 것이다.
법정에서 재구성되는 창업 신화 — 머스크 대 OpenAI
같은 시기, 또 다른 법정에서는 다른 드라마가 펼쳐지고 있었다.
일론 머스크의 OpenAI 소송 재판에서 머스크는 자신이 OpenAI를 공동 창업한 핵심 동기 중 하나로 구글의 래리 페이지(Larry Page)와의 결별을 꼽았다. TechCrunch에 따르면, 머스크는 페이지에게 AI가 인류를 멸종시킬 수 있다는 우려를 제기했고, 페이지는 "AI가 살아남으면 괜찮다"는 태도를 보이며 머스크를 '종차별주의자(speciest)'라고 불렀다고 증언했다. 머스크는 이를 "미친 짓"이라고 표현했다.
흥미로운 건 이 관계의 역사다. 포춘(Fortune)은 두 사람을 2016년 '비밀 절친 비즈니스 리더' 목록에 올렸을 정도로, 한때 극도로 가까운 사이였다. 페이지는 찰리 로즈 인터뷰에서 자선단체보다 머스크에게 돈을 주겠다고 말하기도 했다. 그 관계가 금이 간 계기가 바로 OpenAI 창업이었다. 머스크가 구글 AI 스타 일리아 수츠케버(Ilya Sutskever)를 영입하자, 페이지는 배신감을 느끼고 연락을 끊었다.
물론 이 모든 증언은 소송의 맥락에서 나온 것이다. 법정 발언이 전략적으로 구성될 수 있다는 점은 감안해야 한다. 다만, 선서 아래 처음으로 공식화된 이 진술은 AI 안전 논쟁의 뿌리를 다시 한번 드러낸다.
숫자가 말하는 현실 — AI 불신의 지형도
| 항목 | ChatGPT | Claude (Anthropic) |
|---|---|---|
| MAU 증가율 (1월, YoY) | 168% | — |
| MAU 증가율 (4월, YoY) | 78% | — |
| 다운로드 증가율 (최근 수개월, YoY) | +14% | +1,100% (11배) |
| 앱 삭제율 (4월, YoY) | +132% | 미공개 |
| 앱 삭제율 (3월, YoY) | +413% | 미공개 |
이 수치는 단순한 경쟁 역학을 넘어선다. Claude의 급성장 배경에는 Anthropic의 'Constitutional AI' 방법론, 그리고 상대적으로 논란에서 자유로운 기업 이미지가 있다. 반면 OpenAI는 Pentagon 계약, 소송, 창업자 분쟁이 겹치며 브랜드 피로감이 누적되고 있다.
그리고 이 흐름은 Ubuntu 커뮤니티에서도 비슷하게 나타난다. The Verge에 따르면, 리눅스 배포판 Ubuntu를 개발하는 Canonical이 AI 기능 통합 계획을 발표하자 사용자들은 즉각 'AI 킬 스위치'를 요구하고 나섰다. AI 음성인식, 텍스트 변환, 에이전트형 자동화 기능 등을 기본 탑재하겠다는 계획에 대해, 일부 사용자는 구형 버전 유지를 선언하거나 다른 리눅스 배포판으로 이전하겠다고 밝혔다. Canonical의 엔지니어링 부사장 Jon Seager는 '글로벌 AI 킬 스위치'는 없지만 개별 기능 제거는 가능하다고 해명했다.
주목할 만한 건, AI를 거부하는 이 움직임의 주체가 기술 친화적인 리눅스 사용자층이라는 점이다. 일반 대중도 아닌, 기술 최전선의 사용자들이 AI 강제 탑재에 반발한다는 것은 시사하는 바가 크다.
K-AI가 잡아야 할 좌표 — '신뢰 설계'를 수출 스펙으로 만들어라
이 흐름이 한국에 주는 메시지는 명확하다. OpenAI의 위기는 기술력 문제가 아니다. 신뢰 구조 문제다.
Tumbler Ridge 소송이 보여주듯, AI 시스템이 위험 신호를 탐지하고도 기업 논리로 침묵을 선택했을 때 그 대가는 법적·사회적 폭풍으로 돌아온다. 이 교훈은 군용 AI를 개발하는 한국의 기업과 기관에 더욱 직접적으로 적용된다. 방위사업청(DAPA)은 2023년 발간한 **「국방 AI 기술개발 기본계획」**에서 AI 시스템의 설명가능성(Explainability)과 감사 추적(Audit Trail)을 핵심 요건으로 명시했다. 그런데 이 요건이 실제 사업 규격서(RFP) 수준에서 구체적 기술 지표로 전환된 사례는 아직 드물다. 이 간극이 바로 기회다.
한화시스템의 아이보스(IVOS, Intelligent Vehicle Operating System) 기반 지휘통제 AI 플랫폼은 이 맥락에서 가장 빠른 적용 대상이다. 현재 아이보스는 유·무인 복합전투체계(MUM-T)의 지상 지휘통제 허브로 기능하도록 설계되어 있는데, 여기에 AI 의사결정 감사 로그를 ISO/IEC 42001(AI 관리 시스템 국제표준) 수준으로 구현해 규격 문서에 명기한다면, 폴란드·루마니아 등 나토(NATO) 동유럽 회원국의 지상전력 현대화 조달에서 미국 경쟁사 대비 '투명성 우위'를 명시적 차별점으로 내세울 수 있다. 쉽게 말해, 감사 로그는 단순한 기능이 아니라 수출 허가를 여는 열쇠가 될 수 있다는 뜻이다.
LIG넥스원의 LAMD(저고도 레이저 대드론 체계)와 천궁-II 미사일 방어 체계는 자율 교전 판단 알고리즘을 내포하는 대표적 국산 무기 체계다. 문제는 이 체계들이 수출 협상 테이블에 오를 때, 구매국 정부는 점점 더 '인간-기계 협력(Human-Machine Teaming)' 구조와 교전 판단의 로그 기록 여부를 선결 조건으로 요구하는 추세라는 점이다. 실제로 UAE와의 천궁-II 수출 계약 이후 후속 협상에서도 운용 데이터 접근권과 AI 의사결정 투명성이 주요 의제로 부상한 것으로 전해진다. DAPA의 「방산수출 지원 특별법」 체계 내에서 AI 투명성 인증을 수출 전제 조건으로 제도화하는 방향이 검토될 시점이다.
Ubuntu 킬 스위치 논쟁은 **KAI(한국항공우주산업)**의 KF-21 보라매와 LAH(소형무장헬기) 플랫폼에도 직결되는 설계 과제를 제기한다. KF-21은 블록(Block) 단계별 업그레이드 로드맵을 채택하고 있으며, 블록 2 이후 AI 기반 센서 융합과 자율 임무 지원 기능이 순차 탑재될 예정이다. 이때 특정 AI 기능을 운용 국가의 교전 규칙(ROE, Rules of Engagement)이나 법제에 따라 선택적으로 비활성화할 수 있는 모듈형 아키텍처를 블록 1 설계 단계부터 소프트웨어 정의 방식으로 반영해 두지 않으면, 블록 2 수출 시 각국의 상이한 AI 규제 요건에 맞추는 비용이 기하급수적으로 늘어난다. Canonical이 사후에 킬 스위치 부재로 사용자 이탈을 겪는 것과 정확히 같은 구조다.
현대로템의 K2 전차 플랫폼과 무인 지상차량(UGV) 사업 역시 같은 논리로 접근해야 한다. 현대로템은 현재 K2의 폴란드 현지 생산(K2PL) 협상을 진행 중인데, 폴란드 국방부가 요구하는 기술이전 항목 중 소프트웨어 아키텍처 접근권이 포함된 것으로 알려져 있다. AI 기능의 모듈 단위 설계와 활성화 제어 구조를 사전에 갖춰 두는 것은, 이 협상에서 기술이전 범위를 협상 카드로 활용하는 데도 유리하게 작용한다.
국방AI센터(DAIC)는 이 모든 흐름의 제도적 허브가 될 수 있다. 현재 DAIC는 군용 AI 시험평가(T&E) 기준 수립 작업을 진행 중인데, 여기에 '이상 탐지 시 보고 의무화'와 '의사결정 감사 로그 최소 기준'을 포함시키는 것이 Tumbler Ridge 소송이 촉발한 글로벌 논의에 선제적으로 대응하는 경로다. 기술 표준을 선점하는 나라가 수출 규범도 선점한다.
전망 및 인사이트 — 불신의 시대, 생존 전략
OpenAI의 IPO는 이 모든 변수를 안고 진행될 것이다. 성장 둔화, 진행 중인 소송, 창업자 법정 분쟁은 기업 가치 산정에 직접적인 하방 압력을 가한다. 그렇다고 OpenAI가 무너질 거라는 예단은 성급하다. 여전히 가장 많은 이용자, 가장 넓은 기업 파트너십, Microsoft와의 인프라 동맹을 보유하고 있다.
결국 이 국면은 AI 산업이 '기술 증명'의 시대에서 '신뢰 증명'의 시대로 넘어가는 전환점일 가능성이 높다. Claude의 급성장은 그 증거다. Ubuntu 킬 스위치 논쟁은 그 전조다. Tumbler Ridge 소송은 그 경고다.
향후 12~18개월 사이, AI 기업들의 경쟁 축이 '모델 성능 벤치마크'에서 '책임성·투명성 인증'으로 이동하는 흐름이 본격화될 수 있다. EU AI법(AI Act) 시행이 그 촉매 역할을 할 것이고, 미국에서도 Tumbler Ridge류의 소송이 쌓이면 입법 압력으로 전환될 가능성이 충분하다.
관련 글
- Google and Pentagon reportedly agree on deal for ‘any lawful’ use of AI
- Microsoft and OpenAI’s famed AGI agreement is dead
- The Man Behind AlphaGo Thinks AI Is Taking the Wrong Path
자주 묻는 질문 (FAQ)
Q1. ChatGPT 앱 삭제율이 급등한 직접적 원인은 무엇인가요? Sensor Tower 데이터에 따르면, 3월 삭제율 413% 급등은 OpenAI의 미국 국방부 계약 공개(2월)와 시기적으로 일치한다. 군사 협력에 반발한 사용자들의 이탈이 주요 원인으로 분석되며, 이는 ChatGPT IPO 전망에도 직접적 변수로 작용하고 있다.
Q2. Tumbler Ridge 소송에서 OpenAI가 패소하면 어떤 선례가 생기나요? AI 기업이 자사 플랫폼의 위험 신호를 인지하고도 침묵했을 경우 민사상 과실 책임을 진다는 판례가 형성된다. 이는 AI 기업의 모니터링 의무와 신고 체계 설계에 광범위한 영향을 미치며, 군용 AI 개발사에는 더욱 무거운 기준이 적용될 수 있다.
Q3. Claude가 ChatGPT보다 11배 빠르게 성장한 이유는 무엇인가요? Anthropic의 Constitutional AI 방법론과 상대적으로 논란이 적은 기업 이미지, 그리고 OpenAI의 연속된 악재에 따른 반사이익이 복합 작용한 결과다. 기능 차이보다 신뢰 이미지 차이가 성장 격차를 만들어낸 셈이다.
Q4. Ubuntu AI 기능 통합, 사용자가 완전히 거부할 수 있나요? Canonical의 엔지니어링 부사장 Jon Seager는 글로벌 킬 스위치는 제공하지 않지만 개별 AI 기능 제거는 가능하다고 밝혔다. 그러나 일부 사용자는 이미 구형 버전 유지나 타 배포판 이전을 선택하고 있어, 사실상 이탈은 시작됐다.
Q5. 머스크의 OpenAI 소송, 핵심 쟁점은 무엇인가요? 머스크는 창업 당시 비영리 목적으로 기부한 자원이 영리 전환 과정에서 약속과 다르게 사용됐다고 주장한다. 이번 재판의 래리 페이지 일화는 창업 동기의 순수성을 강조하기 위한 맥락으로 제시됐으며, 선서 하의 첫 공식 증언이라는 점에서 법적 무게가 다르다.
여러분은 AI 기업이 자사 플랫폼에서 발생한 위험 신호를 인지했을 때 어느 수준까지 사회적 신고 의무를 져야 한다고 보십니까, 그리고 한국 방산 AI 개발사들이 이 기준을 선제적으로 수용하는 것이 실질적인 수출 경쟁력으로 이어질 수 있다고 생각하십니까?
이 글이 도움이 되셨나요?
댓글