구글·OpenAI 동시 위기, AI 신뢰 거버넌스의 균열
Google’s AI search summaries will now quote Reddit
구글의 Reddit 통합, 프로젝트 마리너 종료, 크롬 4GB 온디바이스 AI 설치, OpenAI 뮤라티 법정증언으로 AI 빅테크의 신뢰 위기 가시화. 한국 방산 AI의 거버넌스 우위 기회 제시.
구글과 OpenAI, 동시에 흔들리다 — AI 빅테크의 민낯이 드러난 하루
리드: 하루에 터진 네 개의 균열
2026년 5월 6일은 AI 산업의 자화상이 예상치 못하게 적나라하게 드러난 날이었다. 구글은 AI 검색을 Reddit으로 채우고, 실험 에이전트를 조용히 접었으며, 크롬은 사용자 모르게 4GB 파일을 집어삼키고 있었다. 그리고 바로 그날, OpenAI의 전직 CTO는 법정에서 CEO가 자신에게 거짓말을 했다고 증언했다. 단순한 기술 뉴스가 아니다. 이 네 개의 사건은 하나의 공통된 질문을 가리킨다. "지금 AI 빅테크는 신뢰받을 자격이 있는가?"
"AI가 더 잘 안다"는 자신감이 흔들리기 시작한 맥락
솔직히 말해, 구글 AI 검색의 가장 큰 딜레마는 처음부터 예고되어 있었다. AI 개요(AI Overviews)가 등장했을 때, 사용자들은 SEO로 최적화된 텍스트 더미를 AI가 재포장해 내놓는다는 비판을 쏟아냈다. 실제로 많은 사람들이 구글 검색창에 "Reddit"이라는 단어를 붙여 넣는 이유는 바로 거기에 있었다. 진짜 사람의 이야기가 듣고 싶어서.
The Verge의 보도에 따르면, 구글은 이제 AI Mode와 AI Overviews에 Reddit·소셜 미디어·웹 포럼 등 "1차 출처"의 관점을 미리 보여주는 기능을 추가했다. 구글이 스스로 인정한 것이나 다름없다. 사람들은 "AI의 답"이 아니라 "사람의 경험"을 원한다는 것을.
이 배경에는 Reddit CEO 스티브 허프먼의 발언도 있다. 그는 지난해 "지금 구글을 쓰는 사람이라면 누구나 결국 Reddit에 도달하게 된다"고 말했고, 그 말은 단순한 허풍이 아니었다. 구글이 그 흐름을 흡수하기 위해 Reddit을 AI 검색의 내부 콘텐츠 원천으로 통합하는 방향을 택한 셈이다.
프로젝트 마리너의 조용한 퇴장, 그리고 기술 재흡수의 논리
한편 같은 날, Project Mariner(프로젝트 마리너)가 2026년 5월 4일자로 공식 종료되었다는 사실이 알려졌다. 프로젝트 마리너는 2024년 12월 공개된 실험적 에이전트 기능으로, 웹 전반에 걸쳐 사용자를 대신해 작업을 수행하는 것이 목표였다. 한 번에 최대 10개의 작업을 병렬 처리할 수 있다는 점에서 당시 상당한 주목을 받았다.
그런데 '종료'라고 표현하기엔 어폐가 있다. 정확히는 기술의 재흡수다. 마리너의 에이전트 기능은 Gemini Agent와 AI Mode로 이전되었고, 크롬의 "auto-browse" 기능에도 그 흔적이 남아 있다. 이런 방식, 즉 실험 프로젝트를 독립적으로 운영하다가 주력 제품에 녹여 넣는 구글의 전략은 새롭지 않다. 구글 글라스, 스태디아, 그리고 수십 개의 구글 프로젝트가 그렇게 마무리되었다. 다만 이번에는 "기술이 살아있다"는 점에서 단순한 실패와는 다르다.
주목할 만한 건, 이 구조적 통합이 구글의 에이전틱 AI 전략이 얼마나 현실적인 경로를 걷고 있느냐의 신호라는 점이다. 실험 → 검증 → 주력 통합. 적어도 기술 재활용 측면에서는 효율적인 방식이다.
숫자로 드러난 진실 — 4GB, 그리고 동의 없는 설치
| 항목 | 내용 |
|---|---|
| 파일명 | weights.bin |
| 파일 크기 | 약 4GB |
| 관련 모델 | Gemini Nano (온디바이스) |
| 설치 경로 | Chrome 브라우저 시스템 디렉터리 |
| 사용자 사전 고지 여부 | 명확히 이루어지지 않음 |
| 관련 기능 | 스캠 탐지, 글쓰기 보조, 자동완성, 추천 |
The Verge의 보도에 따르면, 특정 AI 기능이 활성화된 크롬 브라우저는 자동으로 4GB의 weights.bin 파일을 설치한다. Gemini Nano는 클라우드가 아닌 로컬에서 구동되는 온디바이스(on-device) 모델이기 때문에, 추론에 필요한 파라미터를 사용자 기기에 저장해야 한다.
온디바이스 AI의 프라이버시 이점은 분명 존재한다. 데이터가 외부 서버를 거치지 않는다는 것. 그러나 문제는 투명성의 부재다. 저장 공간이 부족한 사용자들이 이유를 알 수 없는 용량 감소를 겪고 나서야 이 사실을 발견했다는 점은, 기술적 우수성과 별개로 사용자 신뢰를 갉아먹는 행위다. 쉽게 말해, 좋은 기능이라도 몰래 깔면 안 된다.
법정에서 무너진 신뢰 — 뮤라티의 증언이 의미하는 것
이날 가장 무거운 뉴스는 기술 스펙이 아니었다. 미라 뮤라티 전 OpenAI CTO는 머스크 대 알트만 재판 법정에서 화상 증언을 통해, 샘 알트만이 자신에게 거짓말을 했다고 증언했다.
구체적인 내용은 이렇다. 알트만은 새 AI 모델에 대해 OpenAI의 법무팀이 배포 안전 검토 위원회(deployment safety board)를 거칠 필요가 없다고 판단했다고 뮤라티에게 말했다. 그러나 뮤라티는 이것이 사실이 아니었다고 증언했다. "당신이 이해하는 바로는, 알트만 씨가 그 발언을 할 때 진실을 말하고 있었습니까?" 질문에 뮤라티는 단 한 마디로 답했다. "아니요."
이 증언이 파괴적인 이유는 단순히 내부 갈등 때문이 아니다. OpenAI는 그동안 AI 안전을 조직의 핵심 가치로 내세워 왔다. 그런데 바로 그 안전 검토 프로세스를 CEO가 우회하기 위해 허위 정보를 전달했다는 주장이 나온 것이다. 뮤라티는 덧붙였다. "나는 샘에게 명확하게 리더십을 발휘해달라고 요청했다. 내 업무 능력을 훼손하지 말아달라고."
돌이켜보면, 뮤라티의 2024년 말 갑작스러운 퇴임은 단순한 진로 변경이 아니었다는 정황이 이제야 윤곽을 드러내고 있다.
이 흐름이 한국 AI·방산 생태계에 여는 좌표
이 일련의 사건들이 방산·AI 영역과 무관해 보일 수 있다. 그러나 핵심을 들여다보면 세 가지 구조적 시사점이 있다.
첫째, 온디바이스 AI는 군사·안보 영역에서 더 중요하다. Gemini Nano의 4GB 로컬 모델 논란은 역설적으로 온디바이스 추론의 실용성을 입증한다. 통신이 차단되거나 전자전(EW) 환경에서 작동해야 하는 국방 AI 시스템에서, 클라우드 의존 없는 엣지 추론 능력은 필수다. 한화시스템이 개발 중인 전술 데이터링크 체계와 지능형 전장 관리 시스템은 바로 이 온디바이스 AI 추론 구조와 연결된다. Gemini Nano급 경량 언어모델을 군용 엣지 플랫폼에 최적화하는 기술 경쟁은 이미 시작됐다.
둘째, AI 신뢰·안전 거버넌스는 수출 경쟁력의 변수가 된다. 뮤라티의 법정 증언이 드러내는 건, 최고 수준의 AI 기업조차 내부 안전 거버넌스가 흔들릴 수 있다는 현실이다. K-방산의 AI 체계 수출에서 NATO 및 우방국이 요구하는 것은 성능만이 아니다. 의사결정 투명성, 안전 검토 프로세스의 제도화가 점차 조달 요건으로 올라오고 있다. **국방AI센터(DAIC)**가 추진 중인 국방 AI 신뢰성 평가 체계 수립은 단순한 국내 규제가 아니라, 수출 시장에서의 신뢰 인증 역할을 맡을 수 있다.
셋째, 에이전트 AI의 군용 전환 가능성에 주목해야 한다. 프로젝트 마리너가 실험 단계를 넘어 Gemini Agent로 흡수된 흐름은, 멀티태스킹 AI 에이전트 기술이 성숙 궤도에 진입했음을 보여준다. 이 구조는 자율 임무 계획(autonomous mission planning), 표적 우선순위 분류, 군수 최적화 같은 국방 에이전트 응용으로 직접 이어진다. LIG넥스원이 개발하는 지능형 지휘통제(C2) 소프트웨어와, **ADD(국방과학연구소)**의 AI 기반 다중 표적 식별 연구는 이 에이전틱 AI 패러다임을 국방 도메인에 선제적으로 적용할 수 있는 핵심 주체다.
방위사업청(DAPA) 차원에서는 신속연구 트랙을 활용해 온디바이스 전술 AI와 에이전트 기반 지휘통제 기술에 대한 민관 협력 R&D를 가속화할 시점이다. 민간 AI 빅테크가 기술 통합과 내부 신뢰 문제로 흔들리는 지금이, 오히려 K-방산 AI가 독자적 거버넌스와 기술 신뢰성을 앞세워 틈새를 공략할 기회다.
전망: 통합은 가속되고, 신뢰 위기는 장기화된다
구글의 움직임은 AI 검색, 에이전트, 온디바이스 모델을 하나의 통합 플랫폼으로 수렴시키는 방향으로 읽힌다. 기술적으로는 강력해지고 있지만, 그 속도가 사용자 동의와 투명성을 앞질러 달리고 있다는 점이 리스크다.
OpenAI는 더 복잡한 국면에 처했다. 뮤라티의 증언은 법적 파장 외에도, AGI 안전 담론에서 OpenAI가 주장해 온 도덕적 권위에 균열을 낸다. 머스크 대 알트만 소송은 당분간 AI 산업 전체의 거버넌스 논쟁을 촉발하는 뇌관으로 작동할 가능성이 높다.
흥미로운 점은, 이 혼란이 기존 AI 패권 구조의 재편 가능성을 열어둔다는 것이다. 기술 우위만으로 신뢰가 보장되지 않는다는 사실이 확인될수록, 안전성과 투명성을 전면에 내세울 수 있는 플레이어들의 상대적 가치가 올라간다. 그것이 국가든, 기업이든.
관련 글
- AI 저작권 소송과 정부 감시: 방산 기술 혁신의 제도적 전환점
- AI 플랫폼의 책임 시대 — 의사 사칭·신체 분석·에이전트 표준화
- 6G·OpenAI 재판·의료AI, AI 인프라화의 세 전선 동시 개시
자주 묻는 질문 (FAQ)
Q1. 구글 AI 검색이 Reddit을 포함하기 시작한 이유는 무엇인가요? 사람들이 SEO 최적화 콘텐츠 대신 실제 사용자 경험을 원해 "Reddit"을 검색어에 붙이는 행태가 일반화됐기 때문입니다. 구글은 이 수요를 AI Mode 내부로 흡수하는 방향을 선택했습니다.
Q2. 프로젝트 마리너는 완전히 사라진 건가요? 아닙니다. 2026년 5월 4일 독립 서비스는 종료됐지만, 핵심 기술은 Gemini Agent와 AI Mode, 크롬의 auto-browse 기능으로 통합·재활용되고 있습니다.
Q3. 크롬이 설치하는 4GB 파일을 삭제해도 되나요? Gemini Nano 관련 AI 기능을 사용하지 않는다면 삭제해도 주요 기능에는 지장이 없습니다. 다만 AI 기능 비활성화 후 삭제하는 순서를 권장하며, 재활성화 시 재다운로드됩니다.
Q4. 미라 뮤라티의 법정 증언은 OpenAI에 어떤 법적 영향을 주나요? 뮤라티의 증언은 머스크 측이 OpenAI의 안전 프로세스 위반과 경영진 신뢰 문제를 부각하는 데 활용될 수 있습니다. 소송 결과에 따라 OpenAI의 비영리→영리 전환 구조 자체가 도전받을 수 있습니다.
Q5. 온디바이스 AI와 클라우드 AI의 차이는 왜 국방 분야에서 중요한가요? 전장 환경에서는 네트워크가 차단되거나 재밍(jamming)을 받는 상황이 빈번합니다. 온디바이스 AI는 외부 서버 연결 없이 로컬 추론이 가능해, 통신 두절 환경에서도 지속적인 AI 지원이 가능하다는 점에서 군사적 가치가 큽니다.
여러분은 AI 기업의 안전 거버넌스 문제가 단순한 내부 경영 이슈에 그치는지, 아니면 정부 규제나 국제 조달 기준으로까지 확산되어야 하는 공공의 문제인지에 대해 어떻게 보십니까?
이 글이 도움이 되셨나요?
댓글