공지
내가 글을 쓰는 이유 & 댓글을 달아주세요.

IT

법정에 선 머스크 "모두가 그렇게 해요"

DeepSeek을 비난해 온 미국 빅테크, 자국에서도 일상이었다.

2026.05.01 |
from.
Kwangseob

들어가며

구독자님, 오스왈드에요. 오늘은 정규 호 사이에 끼워 넣는 속보 특별호예요. 많은 공유와 구독 독려 부탁드려요. 늘 읽어주셔서 감사합니다. 🙇 (아직 구독을 안하셨다면 구독을 눌러주세요!)

어제(4월 30일) 캘리포니아 오클랜드 연방 법정에서 일론 머스크가 한 가지를 인정했어요. xAI가 Grok을 만드는 과정에서 OpenAI 모델을 모델 증류[1]​ 방식으로 활용했다는 거예요. 본인 표현으로는 "부분적으로(partly)" 그리고 "다른 AI를 사용해 자신의 AI를 검증하는 건 표준 관행(standard practice)이에요". 이 한 마디의 무게는 단순한 법정 발언을 넘어요. 미국 행정부와 OpenAI, Anthropic이 지난 1년간 "중국 DeepSeek의 산업 규모 IP 절도"라며 외교 카드까지 동원해 비난해 온 바로 그 행위를, 미국 대표 AI 기업 CEO가 자국 법정에서 자진 인정한 거니까요.

오늘 이 글의 결론부터 말씀드리면 이래요. 이번 자백은 'AI 업계 모두가 서로의 모델로 자신을 만들어왔다'는 공공연한 비밀이 처음 공식 기록에 등재된 순간이에요. 그리고 이는 OpenAI–DeepSeek 분쟁이 작동하는 윤리적 비대칭의 본질을 폭로해요. 4일간의 재판 흐름과 함께 풀어볼게요.

4일간의 재판, 무슨 일이 벌어졌나

첨부 이미지

이번 재판은 머스크가 2024년 OpenAI를 상대로 제기한 소송의 본안 심리예요. 핵심 쟁점은 "OpenAI가 비영리로 시작했다가 영리 법인을 만든 것이 자선 신탁을 위반했는가"예요. 머스크는 OpenAI를 다시 비영리로 되돌리고, 알트만과 그렉 브록만의 이사회 해임, 그리고 거액의 손해배상을 요구하고 있어요.

4월 27일 (월) 배심원 선정: 9명의 배심원이 선정됐어요. 흥미로운 건 잠재 배심원 다수가 머스크의 정치 활동에 대한 반감을 표명했다는 점이에요. 사건 자체보다 인물에 대한 인식이 이미 한 축으로 작동하고 있다는 신호예요.

4월 28일 (화) 첫 증언: 머스크는 OpenAI를 비영리로 만든 이유가 당시 "구글의 AI 독주를 견제하기 위해서였다"고 증언했어요. 자신이 영리 회사 형태로는 자금을 대지 않았을 거라는 점을 강조했죠. OpenAI 공동 창립자로서의 정통성을 세우는 단계였어요.

4월 29일 (수) 가장 격렬했던 날: 머스크는 본인이 "OpenAI에 자금을 댄 건 바보 같은 짓"이었다며, "내가 3,800만 달러를 내서 결과적으로 8,000억 달러 기업을 만들어줬다"고 분노를 드러냈어요. 그는 OpenAI에 대한 자신의 신뢰가 세 단계로 변했다고 했어요

"열정적으로 지지하던 시기, 약간 의심하던 시기, 그리고 비영리에서 약탈(looting)이 벌어지고 있다고 느낀 시기". 비영리 지위가 주는 "후광 효과(halo effect)"를 누리면서 영리화로 전환한 건 "케이크를 갖고도 먹겠다는 것"이라고 비판했어요. 2022년 마이크로소프트의 100억 달러 OpenAI 투자 소식을 들은 직후 알트만에게 "이건 미끼 상술(bait and switch)"이라고 문자를 보냈다는 사실도 공개됐어요. 이날 OpenAI 측 변호사 윌리엄 새빗(William Savitt)과의 반대 심문은 격렬했어요. 양측 모두 목소리를 높였고, 머스크는 새빗에게 "거짓말을 한다"고 항의하기도 했어요.

4월 30일 (목) 머스크 증언 종결과 자백: 새빗은 머스크의 자기모순을 집요하게 추궁했어요. Tesla, SpaceX, Neuralink, X 등 머스크의 다른 회사들은 모두 이익 상한선 없는 영리 법인이지만 머스크는 모두 "사회적으로 유익하다"고 답했죠. xAI 자체도 2023년 3월 공익 법인(Public Benefit Corporation)으로 시작했다가 2024년 사회·환경적 책임 조항을 떼어내고 일반 영리 법인(c-corp)으로 전환했고, 2025년에는 X와 합병, 올해는 SpaceX로 흡수됐어요. "OpenAI가 비영리에서 영리로 바뀐 게 부당하다"는 머스크의 핵심 주장과 정면 충돌하는 행보예요. 그리고 바로 이 자기모순 추궁의 끝에서, 새빗은 "xAI가 OpenAI 모델을 자체 모델 개발이나 테스트에 활용했는지"를 물었어요. 머스크의 답이 "부분적으로", 그리고 "표준 관행"이었어요. 이 발언 직후 그는 증인석에서 내려왔고, 다음 증인으로 머스크의 자산을 관리하는 패밀리 오피스(Excession LLC) 책임자 자레드 버치홀(Jared Birchall)이 호출됐어요.

머스크 자백의 정확한 무게

이제 4월 30일 자백의 무게를 풀어볼게요.

모델 증류는 어떤 기술인가요? 2015년 제프리 힌튼[2]​ 연구팀이 제안한 모델 압축 기법이에요. 큰 "교사 모델"의 출력을 활용해 작은 "학생 모델"을 훈련시키는 거예요. 같은 회사 안에서 큰 모델을 작고 빠른 모델로 줄일 때 쓰는 합법적이고 광범위한 기술이에요. Anthropic도 자사 블로그에서 "증류는 널리 사용되는 합법적인 훈련 방법"이라고 인정한 바 있어요.

문제는 이 기술이 경쟁사 모델을 대상으로 사용될 때 발생해요. OpenAI, Anthropic, Mistral, xAI는 모두 자사 이용 약관에 "자사 모델 출력을 경쟁 모델 훈련에 사용 금지" 조항을 넣어 두고 있어요. 즉 기술 자체는 합법이지만, 타사 모델을 대상으로 하면 약관 위반이 되는 구조예요.

지난 2월, OpenAI는 미국 하원 중국 특별위원회에 제출한 메모에서 "DeepSeek 직원들이 OpenAI의 접근 제한을 우회하기 위해 제3자 라우터와 익명화된 경로를 통해 자사 모델에 접근했다"고 주장했어요. Anthropic도 비슷한 시기에 DeepSeek·Moonshot·MiniMax 세 곳을 지목하면서, "약 24,000개의 가짜 계정을 통해 1,600만 건이 넘는 Claude 호출이 이루어졌다"고 발표했죠. 4월 23일에는 백악관도 마이클 크라치오스(Michael Kratsios) 명의의 메모로 합류해, "외국 기관, 주로 중국"이 산업 규모로 미국 모델을 증류하고 있다고 공식 비판했어요. 이는 기업 간 분쟁이 아니라 미국 행정부의 공식 입장이 된 거예요.

여기서 머스크의 자백을 다시 보면 흥미로워져요. 미국 행정부와 미국 빅테크가 "산업 규모의 IP 절도"라며 외교 카드까지 동원하는 바로 그 행위를, 같은 미국 기업인 xAI가 같은 대상(OpenAI 모델)에 대해 했다고 본인이 인정한 거예요. 그것도 OpenAI 이용 약관에 명시적으로 금지된 방식으로요. 위반의 본질만 놓고 보면 DeepSeek과 xAI의 행위 사이에는 차이가 없어요. 차이가 있다면 한쪽은 백악관 메모의 비난 대상이 됐고, 다른 한쪽은 자국 법정에서 본인 입으로 인정해도 별다른 후속 조치가 거론되지 않는다는 점이에요.

누구의 증류는 절도이고, 누구의 증류는 관행인가

이 모순을 단순히 "머스크가 위선적이다"로 끝내면 핵심을 놓쳐요. 진짜 문제는 산업 구조 자체에 있어요.

OpenAI, Anthropic, Google, Microsoft가 함께 만든 Frontier Model Forum[3]​은 "중국발 증류 시도에 대응하는 정보 공유 체계"를 구축하고 있어요. 구체적으로는 사용자가 의심스러운 패턴으로 대량 호출을 하지 못하도록 막는 방어 기술을 함께 개발하고 있죠. 동시에 이들은 미국 내 경쟁사들이 자사 모델을 어떻게 활용하는지에 대해서는 상대적으로 침묵해 왔어요. TechCrunch는 머스크의 자백을 두고 "미국 빅테크가 서로의 모델로 추격을 시도해 왔다는 건 업계에서 널리 가정되어 온 사실"이라고 표현했어요. 다시 말해 모두가 알고 있었지만 누구도 공식적으로 인정하지 않던 행위가, 머스크의 법정 증언으로 처음 공식 기록에 등재된 거예요. xAI의 Grok의 빠른 성능 개선의 비결이 여기 있었던 거죠. 

산업이 작동하는 방식을 정리하면 이래요.

  • 명시적 규범: 약관에 모델 증류 금지를 명문화한다
  • 공식 메시지: "우리의 IP를 보호한다"
  • 실제 운영: 미국 기업끼리는 서로의 모델로 학습·검증을 한다
  • 외부 비난 대상: 같은 행위를 한 중국 기업

머스크는 같은 증언에서 세계 AI 기업 순위를 매겨달라는 요청에 "Anthropic이 1위, OpenAI가 2위, Google이 3위, 그 다음은 중국 오픈소스 모델들"이라고 답했어요. xAI를 그는 "직원 수백 명 규모의 훨씬 작은 회사"로 자평했죠. 추격자가 선두를 따라잡는 가장 빠른 방법이 증류라는 점, 그리고 그 추격자가 모두 같은 방법을 쓰고 있다는 점을 본인 입으로 말한 셈이에요. DeepSeek이 아니라 xAI도 같은 게임을 하고 있고, 다만 미국 기업이라는 이유로 백악관 메모의 비난 대상에서 빠져 있을 뿐이라는 거죠.

오스왈드의 시선

기업 전략을 해 오면서 본 패턴이 있어요. 이중장부가 산업 표준이 되는 시점이 있어요. 명시된 규범과 실제 관행이 다르고, 그 간극이 모두에게 이익이 되는 동안에는 누구도 깨지 않아요. 깨지는 건 외부 충격이 들어올 때, 그리고 내부의 누군가가 협상 카드로 쓸 때예요. 머스크의 자백은 둘 다에 해당해요. DeepSeek 사태로 외부 충격이 이미 들어왔고, 머스크는 OpenAI를 압박하는 카드로 본인의 약관 위반을 자진 신고하는 모순적 선택을 했어요. "당신들도 우리도 다 한다"는 메시지로 OpenAI의 도덕적 우위를 흔드는 거죠.

데이터 분석 관점으로 보면 더 흥미로워요. 머스크의 거액 손해배상 청구는 본인이 출연한 3,800만 달러의 수천 배 규모예요. 비례성으로 따지면 비현실적이지만, 이기기 위한 청구가 아니라 협상 레버리지로서의 청구라면 합리적이에요. 동시에 본인의 약관 위반을 인정하면서 얻는 효과는 OpenAI가 xAI를 약관 위반으로 역소송할 명분을 주지만, 그 소송이 시작되는 순간 산업 전체의 이중장부가 법정에서 더 적나라하게 드러난다는 거예요. 그래서 OpenAI는 쉽게 움직이기 어려워요. 게임이론적으로는 상호확증파괴(MAD)에 가까운 구조죠.

한국 AI 기업과 정책 입안자에게도 시사점이 있어요. 글로벌 빅테크가 "정당한 IP 보호"라고 주장하는 약관은, 실제로는 선두 그룹이 후발 주자의 추격 속도를 늦추는 진입장벽으로 작동해요. 미국 기업끼리는 회색지대로 운영되고, 중국·한국 같은 외부 기업에게만 엄격하게 적용된다면, 그건 기술 윤리가 아니라 무역 정책에 가까워요. 우리는 어느 쪽 게임을 하고 있는지 분명히 인지해야 해요.

실제로 독자 파운데이션 모델에서 특정 모델들이 프롬스크레치 이슈 등으로 중국 모델을 베꼈다고 하거나 미국의 오픈소스를 베꼈다는 이야기로 내려치기를 당하는데, 그런 이슈로 싸우고 있는 동안 경쟁자들과 이미 그들은 다음 단계로 자기들 끼리 넘어가고 있던 셈이였던거죠. (애초에 싸움자체가 서로 힘빼기였던...)

마치며

오늘 속보 특별호의 핵심을 세 줄로 정리할게요.

  1. 머스크는 4일간의 법정 증언 끝에 xAI가 OpenAI 모델을 증류해 Grok을 훈련시켰다고 인정했어요. 이는 OpenAI 이용 약관에 명시적으로 금지된 행위예요.
  2. 미국 빅테크와 행정부는 같은 행위를 한 중국 기업(DeepSeek 등)에 대해서는 IP 절도로 비난하며 외교 카드까지 동원해 왔는데, 이번 자백으로 산업 내 이중잣대가 공식 기록에 남았어요.
  3. 모델 증류 규범은 기술 윤리 문제로 시작했지만, 실제로는 선두 그룹이 후발 주자를 견제하는 산업 정책에 가깝게 작동하고 있어요.

다음에 OpenAI나 Anthropic이 누군가의 증류 행위를 공개 비난할 때, 한 번 더 물어볼 만해요. "그래서 같은 일을 한 미국 기업에 대해서는 무엇을 했나요?" 라는 질문 하나가 산업의 진짜 구조를 드러내는 리트머스 시험지가 될 거예요. 

이번 소송으로 확실해진게 있다면... 만약, 여러분이 오늘, 인공지능 모델을 개발하는 회사를 만든다면 가장 먼저해야할 것은 가장 뛰어난 모델을 증류하는 것이겠네요. 물론, 걸리지 않아야겠지만요. 

참고자료 & 더 읽기

핵심 출처

배경 지식

 

 


각주

  1. [1] 모델 증류 (Model Distillation): 큰 AI 모델("교사")이 만들어낸 답변을 활용해 작은 AI 모델("학생")을 훈련시키는 기법이에요. 학생이 선생님의 강의 노트를 보고 시험 공부하는 것과 비슷해요. 같은 회사 안에서 자사 모델을 경량화할 때는 합법적이지만, 경쟁사 모델을 대상으로 하면 대부분 약관 위반에 해당해요.
  2. [2] 제프리 힌튼 (Geoffrey Hinton): 딥러닝의 토대를 만든 컴퓨터 과학자예요. "AI 대부"로 불리며 2024년 노벨 물리학상을 수상했어요. 2015년 동료들과 함께 모델 증류 기법을 처음 제안한 사람이에요.
  3. [3] Frontier Model Forum: 2023년 OpenAI, Anthropic, Google, Microsoft가 함께 만든 AI 안전·정책 협의체예요. 표면적으로는 "최첨단 AI 모델의 안전한 개발을 위한 표준 수립"이 목표지만, 실제로는 회원사들의 공동 이해(외부 위협 대응, 정책 로비 등)를 조율하는 산업 카르텔에 가까워요. 자동차 업계의 OEM 협의체나 통신사 표준 협의체와 비슷한 구조라고 보면 돼요.
첨부 이미지

필자 안광섭은 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트이다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA와 기술경영전문대 석사과정을 졸업했다. 지은 책으로 《생각을 맡기는 사람들: 호모 브레인리스》가 있다.

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

이번 뉴스레터 어떠셨나요?

오즈의 지식토킹 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

다른 뉴스레터

© 2026 오즈의 지식토킹

하고 싶은 말을 합니다. 주로 기술, 인문학, 경제에 대한 이야기를 합니다.

뉴스레터 문의newsletter@oswarld.com

메일리 로고

도움말 자주 묻는 질문 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so 채팅으로 문의하기

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 송파구 위례광장로 199, 5층 501-8호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스