들어가며
구독자님, 혹시 최근에 컴퓨터 저장공간이 갑자기 줄어든 적 있으세요?
최근, 전 세계 크롬 사용자들 사이에서 이상한 파일 하나가 화제가 됐어요. 이름은 weights.bin, 크기는 4GB. 크롬 브라우저 폴더 깊숙이 숨어 있던 이 파일의 정체는 구글의 온디바이스 AI 모델 Gemini Nano였어요. 문제는 이걸 설치해달라고 요청한 사람이 아무도 없다는 거예요.
스웨덴의 프라이버시 연구자 알렉산더 한프(Alexander Hanff)가 macOS 커널 로그를 분석해 이 사실을 밝혀냈고, 이후 Windows와 Linux에서도 동일한 현상이 확인됐어요. 결론부터 말씀드리면, 이건 단순한 저장공간 문제가 아니에요. 기술 기업이 사용자의 디바이스를 자사 AI 인프라의 일부로 편입시키는 새로운 패턴의 시작이에요.
일단, 편해졌냐구요. 엄청나게 편해졌고 전 만족해요. 근데 이 과정이 과연 옳았냐구요? 음... 아니오. 이야기를 시작해보죠.
🔍 무슨 일이 벌어진 건가
크롬이 사용자 모르게 설치한 파일의 구조부터 살펴볼게요.
크롬의 사용자 데이터 폴더 안에 OptGuideOnDeviceModel이라는 폴더가 있어요. 이름부터 의미심장한데요. 이건 구글 내부 용어로 'Optimization Guide On-Device Model'의 줄임말이에요. 일반 사용자가 이 폴더명을 보고 "아, Gemini Nano AI 모델이구나"라고 알아챌 수 있을까요? 한프는 이것 자체가 의도적인 모호화라고 지적해요. 정직하게 이름을 붙였다면 GeminiNanoLLM이었겠죠.
이 폴더 안에 weights.bin이라는 파일이 들어가는데, 이게 바로 Gemini Nano의 모델 가중치[1] 파일이에요. 크롬은 사용자의 하드웨어 사양을 자동으로 확인해요. GPU 등급, CPU 코어 수, 시스템 RAM(16GB 이상), 저장공간(22GB 이상 여유) 같은 조건을 체크한 뒤, 기준을 충족하면 아무런 알림 없이 백그라운드에서 이 모델을 다운로드해요. 한프가 깨끗한 크롬 프로필로 테스트했을 때, 다운로드가 완료되기까지 걸린 시간은 14분이었어요.
더 흥미로운 건 삭제한 뒤에 벌어지는 일이에요. 이 파일을 수동으로 지워도, 크롬을 재시작하면 다시 다운로드돼요. 크롬은 삭제를 '일시적 오류'로 취급하고, 다음 기회에 복구를 시도하거든요. 일부 사용자들은 이전 버전을 정리하지 않아 모델 파일이 12GB 이상 쌓인 경우도 보고했어요. Snopes가 자사 직원 6명의 기기를 확인한 결과, macOS와 Windows를 합쳐 3명의 기기에서 이 파일이 발견됐어요. 즉, 지워도 강제로 계속 설치 한다는 거에요.
구글은 "2024년부터 제공해온 경량 온디바이스 모델"이라고 설명하면서, 2026년 2월부터 설정 > 시스템에서 '온디바이스 AI' 토글로 끌 수 있도록 배포하기 시작했다고 밝혔어요. 하지만 한프를 포함한 상당수 사용자들은 이 토글 자체를 아직 받지 못한 상태예요. 토글이 없는 사용자는 chrome://flags에서 관련 플래그를 수동으로 비활성화하거나, 레지스트리를 수정해야 해요.
🎭 프라이버시를 위한 프라이버시 침해라는 역설
이 사건에서 가장 주목할 부분은 구글이 내세우는 명분이에요.
Gemini Nano가 로컬에서 구동하는 기능은 '도움말 작성(Help me write)', 피싱·스캠 탐지, 탭 그룹 제안, 페이지 요약, 스마트 붙여넣기 같은 것들이에요. 특히 스캠 탐지 기능은 2025년 5월에 크롬의 '향상된 보호 모드'에 통합됐는데, 온디바이스로 처리하면 10분 미만으로 존재하다 사라지는 피싱 사이트도 실시간으로 잡아낼 수 있다는 게 구글의 설명이에요. 클라우드 기반 데이터베이스로는 너무 느려서 놓칠 수 있는 위협이거든요. 그리고 이 기능들은 실제로 편해요. 특히 개발자모드(F12)를 누르고 하는 대부분의 작업들은 엄청나게 편해졌어요.
이런 기능들이 클라우드 대신 사용자의 기기에서 돌아가면, 데이터가 구글 서버로 전송되지 않으니 프라이버시가 보호된다는 게 구글의 논리예요. 기능 자체만 보면 납득할 만해요.

그런데 여기서 역설이 생겨요.
프라이버시를 보호하기 위한 모델을 설치하면서, 정작 설치 자체에 대한 동의는 구하지 않았거든요. EU의 ePrivacy 지침[2] 5조 3항은 사용자의 기기에 정보를 저장하려면 '사전에 자유롭게 주어진, 구체적이고, 충분한 정보에 기반한, 명확한 동의'를 받아야 한다고 규정하고 있어요. 쿠키 배너가 존재하는 이유가 바로 이 조항이에요. 쉽게 말해서, 다운로드 전에 사용자에게 우리가 OOO를 다운로드 할 건데 동의하니? 물어보고 다운로드를 진행했어야 한다는거죠. 하지만 구글은 그러지 않았어요.
4KB짜리 쿠키 하나에도 동의를 구하는 법률이, 4GB짜리 AI 모델(쿠키의 100만 배 크기)에는 적용되지 않았다는 거예요. 한프는 이것이 ePrivacy 지침과 GDPR의 투명성 원칙을 모두 위반한다고 주장하고 있어요. 만약 EU 당국이 이를 위반으로 판단하면, 구글은 전 세계 매출의 최대 4%에 해당하는 과징금을 물 수 있어요. 2025년 3월에는 독일 법원이 Google Tag Manager 설치에 대해서도 사전 동의가 필요하다는 판결을 내린 바 있어서, 법적 선례도 이미 쌓이고 있는 상황이에요.
물론, 구글의 입장은 이번 업데이트는 제품(Product)의 일부이기 때문에 괜찮다는 게 일관된 입장이에요.
📱 보이는 AI와 보이지 않는 AI의 괴리
이 사건에서 제가 더 흥미롭게 본 지점이 있어요.

크롬 147 버전의 주소창에는 눈에 띄는 'AI Mode' 버튼이 있어요. 여기까지 설명을 들은 사용자 입장에서 보면, 이 AI Mode가 내 컴퓨터에 깔린 4GB 모델로 돌아갈 거라고 자연스럽게 생각하겠죠. 하지만 아니에요. AI Mode에 입력하는 모든 쿼리는 구글의 클라우드 서버로 전송돼요. 로컬에 깔린 Gemini Nano는 대부분의 사용자가 존재조차 모르는 우클릭 메뉴 속 기능들을 구동하는 데 쓰여요.
정리하면 이런 구조예요:
- 사용자가 눈으로 보고 쓰는 AI 기능 → 클라우드 처리 (데이터 전송)
- 사용자가 모르는 사이에 깔린 AI 모델 → 로컬 처리 (배경 기능)
- 사용자가 부담하는 비용 → 4GB 저장공간 + 다운로드 대역폭...?????
사용자는 저장공간과 대역폭 비용을 지불하면서, 정작 자신이 직접 사용하는 AI 기능에서는 프라이버시 혜택을 받지 못하는 셈이에요. 한프의 표현을 빌리면, 이건 일종의 프라이버시의 착시 효과예요.
여기에 한 가지 더 주목할 사실이 있어요. 크롬은 최근 온디바이스 AI 관련 프라이버시 약속 문구를 슬며시 삭제했어요. "데이터가 구글 서버로 전송되지 않는다"는 문구였는데, 크롬 148부터 Prompt API가 기본 활성화되면서 상황이 달라진 거예요.
이 API를 통해 웹사이트가 사용자의 Gemini Nano 모델을 직접 호출할 수 있게 되거든요. 이 경우 입력과 출력 데이터는 해당 웹사이트의 개인정보 처리방침에 따라 처리돼요. 구글 서버에는 안 가지만, 제3자 웹사이트에는 갈 수 있는 셈이에요.
🌍 더 큰 그림, 디바이스는 누구의 인프라인가
이 사건을 저장공간 4GB의 문제로만 보면 본질을 놓쳐요.
크롬의 글로벌 시장 점유율은 약 65~71%예요. 추정 사용자 수는 38억 명 이상이에요. 한프의 계산에 따르면, 이 모델이 1억 대의 기기에 배포됐을 때 소비되는 에너지는 약 24GWh, 10억 대 규모로 확대되면 240GWh에 달해요. 이는 6,000~60,000톤의 CO₂ 배출량에 해당하고, 향후 모델 업데이트와 재다운로드 비용은 포함되지도 않은 수치예요. 뭐, 저는 환경운동가는 아니기에 탄소배출량 등의 이야기는 하고싶지 않아요. 중요한건 이 부담을 누가 지냐는 거에요.
여기서 진짜 질문이 등장해요. 사용자의 디바이스는 누구의 인프라인가?
지금까지 AI는 주로 클라우드에서 돌아갔어요. 사용자가 요청을 보내면, 서버가 처리하고, 결과를 돌려주는 방식이었죠. 하지만 온디바이스 AI[3]의 흐름이 가속화되면서, 기술 기업들은 클라우드 비용을 절감하기 위해 추론(inference) 작업을 사용자의 기기로 옮기고 있어요. 이건 실제로 프라이버시와 지연 시간 면에서 장점이 있어요.
문제는 그 과정에서 사용자의 저장공간, 대역폭, 전력을 사용하면서도 동의를 구하지 않는다는 거예요. 구글만의 이야기가 아니에요. 한프는 같은 보고서에서 Anthropic의 Claude Desktop 앱도 설치되지 않은 브라우저에까지 네이티브 메시징 브릿지를 몰래 설치한 사례를 함께 지적했어요.
이런 패턴이 반복되면, 사용자의 노트북은 더 이상 '내 기기'가 아니라 기술 기업의 분산 AI 인프라의 한 노드가 되는 거예요.
흥미로운 점은, 애플도 비슷한 온디바이스 AI 전략을 쓰고 있지만 접근 방식이 다르다는 거예요. Apple Intelligence는 기기에서 처리할 수 있는 작업과 클라우드(Private Cloud Compute)로 넘겨야 하는 작업을 명확히 구분하고, 이를 사용자에게 설명해요. 같은 온디바이스 AI라도 배포 방식의 투명성에 따라 사용자의 신뢰가 완전히 달라질 수 있다는 걸 보여주는 사례예요.
오스왈드의 시선
솔직히 말씀드리면, 온디바이스 AI 자체는 좋은 방향이라고 봐요. GTM 전략을 수립하면서 다양한 SaaS 제품의 아키텍처를 분석해온 경험에서 보면, 클라우드 의존도를 낮추는 건 비용과 프라이버시 양쪽에서 합리적인 선택이에요.
하지만 이번 크롬 사건은 '무엇을'이 아니라 '어떻게'의 문제예요.
제가 데이터 분석을 하면서 자주 마주쳤던 패턴이 있어요. 좋은 의도의 기능이 나쁜 실행 방식으로 배포되면, 사용자의 신뢰를 잃는 데는 한 번이면 충분하다는 거예요. 구글이 처음부터 "크롬에 4GB 로컬 AI 모델이 설치됩니다. 스캠 탐지와 작문 보조에 사용됩니다. 설치하시겠습니까?"라고 물었다면, 대부분의 사용자는 '예'를 눌렀을 거예요. 기능 자체는 유용하니까요.
동의를 구하지 않은 건 기술적 한계가 아니라 전략적 선택이에요. 동의를 구하면 '아니오'를 누르는 사용자가 생기고, 그러면 Gemini Nano의 보급률이 떨어지고, 개발자 API 생태계가 느리게 성장하거든요. 시장 점유율 70%의 브라우저를 가진 기업이 이 유혹을 이기지 못한 거예요.
예전에 크립토 관련된 사기가 기승을 부릴때, 각종 데스크탑, 랩탑을 대상으로 다운로드 받으면 강제로 채굴 기계로 만들어버리는 바이러스가 유행한적이 있어요. 물론, 그것과 비교하는 것은 너무 극단적이지만 이번 사건은 그 정도의 오해를 살 수도 있는 구실을 마련할 수도 있어요. 물론, 저는 크롬이 설치하라고 했건, 안했던 잘 쓰고 있고, 잘 썼을 거라 매우 만족 중입니다만...
이건 크롬만의 문제가 아니에요. AI 시대에 '사용자 동의'라는 개념 자체가 재정의되어야 하는 시점이 왔다는 신호예요.
마치며
이번 사건의 핵심을 세 가지로 정리할게요.
첫째, 크롬은 사용자 동의 없이 4GB짜리 AI 모델을 설치했고, 삭제해도 자동으로 다시 깔려요. 설정에서 끌 수 있는 토글이 배포 중이지만, 아직 모든 사용자에게 도달하지는 않았어요.
둘째, '프라이버시를 위한 로컬 AI'라는 명분과 '동의 없는 설치'라는 실행 사이의 모순은, 기술 기업이 사용자 디바이스를 자사 인프라로 활용하려는 더 큰 흐름의 일부예요.
셋째, 4KB 쿠키에 동의를 받는 시대에 4GB AI 모델은 동의 없이 설치되는 현실은, 기존의 동의 체계가 AI 시대를 따라가지 못하고 있다는 증거예요.
크롬 사용자시라면, 주소창에 chrome://on-device-internals를 입력해서 지금 내 기기에 어떤 AI 모델이 설치되어 있는지 한번 확인해보세요.
그리고 설정 > 시스템에서 '온디바이스 AI' 토글이 있는지 확인해보시는 것도 추천드려요.
참고자료 & 더 읽기
핵심 출처
- Alexander Hanff, "Google Chrome Silently Installs a 4 GB AI Model on Your Device without Consent," That Privacy Guy, 2026년 5월 4일. : 이번 사건의 원본 조사 보고서예요. 포렌식 분석 과정이 상세히 기록되어 있어요.
- Jess Weatherbed, "Chrome's AI Features May Be Hogging 4GB of Your Computer Storage," The Verge, 2026년 5월 6일. : 구글 공식 입장이 포함된 종합 보도예요.
- Snopes Fact Check, "Google Chrome May Have Silently Installed 4GB AI Model," Snopes, 2026년 5월 8일. : Snopes 직원 기기에서 직접 검증한 팩트체크 기사예요.
배경 지식
- "Chrome Deleted Its Own Privacy Promise for Sneaky On-Device AI," Decrypt, 2026년 5월 8일. : 크롬이 온디바이스 AI 관련 프라이버시 문구를 삭제한 후속 보도예요.
- "On-Device LLMs in 2026: What Changed, What Matters, What's Next," Edge AI and Vision Alliance, 2026년 1월. : 온디바이스 AI의 기술적 현황과 트레이드오프를 이해하는 데 도움이 돼요.
각주
- [1] 모델 가중치(Model Weights): AI 모델이 학습한 결과물을 숫자로 저장한 파일이에요. 사람으로 치면 '경험에서 얻은 판단 기준'을 기록해놓은 것과 비슷해요. 이 파일이 클수록 모델이 더 복잡한 판단을 할 수 있어요.
- [2] ePrivacy 지침(ePrivacy Directive): EU의 전자통신 프라이버시 규정으로, 사용자 기기에 정보를 저장하거나 접근하려면 사전 동의를 받아야 한다는 원칙을 담고 있어요. 웹사이트의 쿠키 동의 배너가 존재하는 법적 근거가 바로 이 지침이에요.
- [3] 온디바이스 AI(On-Device AI): 클라우드 서버 대신 사용자의 스마트폰, 노트북 등 기기에서 직접 AI를 구동하는 방식이에요. 데이터가 기기 밖으로 나가지 않아 프라이버시 면에서 유리하지만, 기기의 저장공간과 연산 능력을 소비한다는 트레이드오프가 있어요.

의견을 남겨주세요