IT

실리콘밸리가 '조용히' 중국 AI를 쓰고 있어요

비용이 아니라, AI 산업의 무게중심이 이동하고 있다는 신호예요.

2026.03.05
from.
Kwangseob
오즈의 지식토킹의 프로필 이미지

오즈의 지식토킹

하고 싶은 말을 합니다. 주로 기술, 인문학, 경제에 대한 이야기를 합니다.

들어가며

구독자님, 에어비앤비 CEO 브라이언 체스키가 지난해 10월 블룸버그 인터뷰에서 한 말이 있어요. 알리바바의 Qwen 모델에 대해 "아주 좋고, 빠르고, 싸다"라고요. 샘 올트먼과 개인적 친분이 있는 그가 공개석상에서 이런 말을 꺼냈다는 건, 실리콘밸리의 분위기가 꽤 많이 바뀌었다는 뜻이에요.

알리바바의 Qwen 뿐만 하는게 아니에요. 스타트업으로 시작된 MiniMax, Kimi 뿐 아니라 DeepSeek도 마찬가지에요. 심지어 최근에 OpenClaw 열풍에서도 가장 많이 선택된 모델로도 중국 모델들이 뽑혔어요. 

실제로 NBC News가 15명의 AI 스타트업 창업자, ML 엔지니어, 투자자들과 익명 인터뷰를 진행했는데, 이들 대부분이 비용 문제 때문에 이미 중국산 AI 모델을 실무에 도입하고 있다고 밝혔어요. 그런데 이건 단순히 "싼 걸 쓴다"는 이야기가 아니에요. 오늘은 이 현상의 구조적 의미를 한번 짚어볼게요.

숫자가 말해주는 것: 80%의 진실

첨부 이미지

a16z(안데르센 호로위츠)의 제너럴 파트너 마틴 카사도가 이코노미스트 인터뷰에서 꺼낸 수치가 업계를 뒤흔들었어요. "우리한테 투자 피칭을 하러 오는 오픈소스 기반 스타트업의 80%가 중국 모델을 쓰고 있다"는 거예요.

다만 여기서 맥락을 하나 짚어야 해요. 카사도 본인이 이후에 해명했는데, 이 80%는 오픈소스 모델을 사용하는 스타트업 중의 비율이에요. 전체 스타트업 중 오픈소스를 쓰는 비율이 약 20~30%이니까, 실제로는 전체의 16~24% 정도가 중국 오픈소스 모델을 쓰고 있는 셈이에요. 그래도 1년 전만 해도 거의 0%에 가까웠다는 걸 생각하면, 이 변화의 속도 자체가 핵심이에요.

Hugging Face 다운로드 데이터를 보면 이 흐름이 더 명확해져요. 알리바바의 Qwen 시리즈는 2025년 누적 다운로드에서 메타의 Llama를 추월했고, MIT 연구에 따르면 중국 오픈소스 모델의 총 다운로드 수가 미국 모델을 넘어섰어요. 특히 Qwen 기반 파생 모델이 Hugging Face 신규 언어 모델의 40% 이상을 차지하는 반면, Llama 기반은 약 15%로 떨어졌어요. 이건 Qwen이 사실상 글로벌 오픈소스 AI의 기본 베이스 모델(default base model)이 됐다는 뜻이에요.

왜 이런 일이 벌어지는가: 가격 × 개방성 × 속도

이 현상을 이해하려면 세 가지 축을 봐야 해요.

첫째, 가격 격차가 압도적이에요. DeepSeek V3.2의 API 가격은 입력 토큰 100만 개당 약 $0.28이에요. OpenAI GPT-4.1의 동일 기준 가격은 $2.00이에요. 대략 7배 차이예요. 셀프 호스팅[1]​까지 하면 사실상 비용이 0에 수렴해요. VC 투자를 받아 번 레이트(burn rate)를 관리하는 초기 스타트업 입장에서, API 비용이 월 소진액의 20~40%를 차지한다면 이건 생존의 문제예요.

둘째, 개방성이 생태계를 만들었어요. 미국의 주요 모델(GPT, Claude)은 대부분 클로즈드예요. 가중치[2]​를 공개하지 않으니까 커스터마이징에 한계가 있어요. 반면 Qwen, DeepSeek, Kimi 같은 중국 모델은 가중치를 공개해서 누구나 다운로드, 수정, 재배포할 수 있어요. 브라우저 에이전트 스타트업 Circlemind AI의 공동 창업자 안토니오 베스폴리에 따르면, 개발자 커뮤니티에서 트레이닝 가이드와 기술 지원 자료가 가장 풍부한 모델이 이미 중국 모델이래요.

셋째, 출시 속도가 다른 차원이에요. MIT 연구자 Shayne Longpre는 중국 AI 랩들의 모델 출시 주기가 주 단위 또는 격주 단위라고 지적했어요. 미국 주요 랩들이 반기~연 단위로 모델을 업데이트하는 것과 비교하면, 개발자 입장에서 선택지가 훨씬 빠르게 늘어나는 셈이에요.

제약이 만든 혁신: 칩 수출통제의 역설

여기서 흥미로운 역설이 하나 있어요. 미국은 중국의 AI 발전을 막기 위해 엔비디아의 최신 칩(H100 등) 수출을 제한했어요. 그런데 결과적으로 이 제약이 중국의 경량화 혁신을 가속화시킨 것 같아요.

딥시크는 수출 규제 대상이 아닌 구형 칩(H800)으로 개발했다고 밝혔고, Perplexity CEO 아라빈드 스리니바스는 이 상황을 두고 "필요는 발명의 어머니"라고 표현했어요. UBS 증권의 중국 인터넷 애널리스트에 따르면, 중국 인터넷 기업들의 2025년 자본지출(CapEx)은 약 560억 달러로 미국 동종 기업의 10분의 1 수준이지만, AI 모델 성능은 "비교 가능한(comparable)" 수준을 달성했어요.

6억 파라미터[3]​수준의 이미지 생성 모델이 일반 노트북에서 구동되는 수준까지 경량화가 진행되고 있어요. M2 이상의 맥북이나 12세대 인텔 + 32GB 램 정도의 윈도우 노트북이면 충분하다는 거죠. 이건 기술의 '민주화'가 아니라 아예 진입 장벽 자체가 사라지고 있는 상황이에요.

서양권 오픈소스의 변곡점: 메타의 선택

이 와중에 서양권 유일의 의미 있는 오픈소스 모델이었던 메타의 Llama도 변화의 기로에 서 있어요.

얀 르쿤(Yann LeCun), 메타의 수석 AI 과학자이자 '딥러닝의 아버지' 중 한 명이 12년간의 메타 생활을 마치고 2025년 11월 퇴사를 발표했어요. 그는 "LLM[4]​으로는 인간 수준의 AI에 도달할 수 없다"고 공개적으로 주장해 왔고, 새로운 스타트업 AMI Labs를 설립해 '월드 모델(world model)' — 물리적 세계를 이해하는 AI — 을 연구하겠다고 밝혔어요.

더 주목할 점은 르쿤이 떠난 뒤 메타의 AI 전략이 바뀌고 있다는 거예요. 스케일 AI 출신의 알렉산드르 왕이 새 AI 총괄로 부임했고, 기존 연구 중심의 FAIR 팀은 축소됐어요. 그리고 Llama 4 이후부터는 새로운 라이선스 체계를 적용할 가능성이 제기되고 있어요. 지금까지 오픈소스 진영에서 Llama가 담당하던 역할이 줄어들면, 그 공백을 누가 채울까요? 지금 추세라면 답은 명확해요.

오스왈드의 시선

솔직히 말씀드리면, 저는 이 현상을 "미국 vs. 중국"이라는 프레임으로 읽는 것 자체가 함정이라고 봐요.

GTM 전략을 수립하면서 계속 봐왔던 패턴이 있어요. 기술 시장에서 진짜 게임을 바꾸는 건 성능 우위가 아니라 접근성의 전환이에요. PC가 메인프레임을 대체한 건 성능이 우월해서가 아니었어요. AWS가 기업 IT를 바꾼 것도 더 좋은 서버를 만들어서가 아니라, 서버를 살 필요 자체를 없앴기 때문이에요.

지금 중국 오픈소스 모델이 하고 있는 것도 비슷해요. 이들은 "더 좋은 모델"을 만들겠다고 경쟁하는 게 아니라, 모델을 쓰는 비용과 진입 장벽 자체를 없애는 전략을 취하고 있어요. 시진핑 정부가 오픈소스 생태계를 직접 지원하고, 기업들이 단기 손해를 감수하면서 모델을 공개하는 구조는 — 좋든 싫든 — 전략적으로 매우 일관돼 있어요.

제가 진짜 걱정되는 건 한국이에요. 미국과 중국 사이에서 AI 모델도, 오픈소스 생태계도, 칩 공급망도 — 우리가 잔치에 밥그릇을 올릴 자리를 아직 못 찾고 있어요. 이걸 단순히 "와, 중국 대단하네" 하고 소비하는 뉴스로 끝내면 안 돼요. 왜 저들은 저렇게 작은 모델로 저런 성능을 내는지, 우리는 이걸 어떻게 활용할 수 있는지, 여기까지 질문이 이어져야 해요.

마치며

정리하면 이래요.

  • 실리콘밸리 스타트업의 상당수가 이미 중국 오픈소스 AI 모델을 실무에 채택하고 있고, 이 흐름은 가속되고 있어요.
  • 이건 단순 비용 절감이 아니라, AI 산업의 가치가 '모델 개발'에서 '모델 위의 서비스'로 이동하고 있다는 구조적 변화의 신호예요.
  • 칩 수출통제라는 제약이 오히려 중국의 경량화 혁신을 촉진한 역설적 결과도 주목할 필요가 있어요.

다음에 AI 도구를 선택할 때, "어디 회사 모델이냐"보다 "이 서비스가 내 문제를 얼마나 효율적으로 푸느냐"를 기준으로 삼아 보세요. 시장은 이미 그렇게 움직이고 있으니까요.

참고자료 & 더 읽기

핵심 출처

  • NBC News, "More of Silicon Valley is building on free Chinese AI", 2025.11.30. : 오늘 뉴스레터의 출발점이 된 기획 보도예요. 15명의 익명 인터뷰 내용이 핵심이에요.
  • MIT Technology Review, "What's next for Chinese open-source AI", 2026.02.12. : OpenRouter 데이터와 Hugging Face 다운로드 추이를 가장 체계적으로 정리한 기사예요.
  • Al Jazeera, "China's AI is quietly making big inroads in Silicon Valley", 2025.11.13. : Nathan Lambert(ATOM Project)의 인터뷰가 포함되어 있어요. 미국 내 중국 모델 채택의 실태를 잘 보여줘요.

배경 지식

  • CNBC, "Meta chief AI scientist Yann LeCun is leaving to create his own startup", 2025.11.19. : 얀 르쿤의 퇴사 맥락과 메타 AI 조직 재편의 배경을 이해하는 데 도움이 돼요.
  • MIT Technology Review, "Yann LeCun's new venture is a contrarian bet against LLMs", 2026.01.22. : 얀 르쿤이 왜 LLM 패러다임에 반기를 들었는지, AMI Labs의 방향성을 직접 설명한 인터뷰예요.
  • IntuitionLabs, "LLM API Pricing Comparison (2025)", 2025.10.31. : 주요 AI 모델별 토큰 가격을 비교 정리한 자료예요. 비용 격차를 숫자로 확인하고 싶을 때 참고하세요.

관련 영상

각주

  1. [1] 셀프 호스팅(Self-hosting): AI 모델을 외부 API로 호출하지 않고 자체 서버에 직접 설치해서 운영하는 방식이에요. 초기 구축 비용은 들지만 사용량이 늘어날수록 API 비용 대비 저렴해져요.
  2. [2] 가중치(Weights): AI 모델이 학습을 통해 얻은 수치 파라미터예요. 사람으로 치면 "경험에서 배운 판단 기준" 같은 거예요. 가중치를 공개하면 누구나 그 모델을 복제하고 수정할 수 있어요.
  3. [3] 파라미터(Parameter): AI 모델의 크기를 나타내는 단위예요. 6B(60억)이면 비교적 작은 모델이고, GPT-4급은 수천억 개 이상으로 추정돼요. 파라미터가 적을수록 구동에 필요한 컴퓨팅 자원이 줄어들어요.
  4. [4] LLM (Large Language Model): 대규모 텍스트 데이터를 학습해서 다음 단어를 예측하는 방식으로 작동하는 AI 모델이에요. ChatGPT, Claude, Gemini 등이 대표적인 LLM이에요.
첨부 이미지

필자 안광섭은 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA와 기술경영전문대 석사과정을 졸업했다. 지은 책으로 《생각을 맡기는 사람들: 호모 브레인리스》가 있다.

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️
댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

다른 뉴스레터

© 2026 오즈의 지식토킹

하고 싶은 말을 합니다. 주로 기술, 인문학, 경제에 대한 이야기를 합니다.

뉴스레터 문의me@oswarld.com

메일리 로고

도움말 자주 묻는 질문 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so 채팅으로 문의하기

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 성동구 왕십리로10길 6, 11층 1109호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스