공지
내가 글을 쓰는 이유 & 댓글을 달아주세요.

IT

내래 **핵심**을 혁명적으로 찔렀다우

북한은 인공지능 자체 모델을 만들 수 있을까요?

2026.05.12 |
from.
Kwangseob

들어가며

구독자님, 한 가지 의외의 자료가 발견됐어요. 김일성종합대학 학보 정보과학 2026년 제72권 제1호에 실린 <지능검색체계에서 질문 추천 모형의 훈련자료 구축 방법>이라는 논문인데요. 흥미로운 건 본문이 아니라 참고 문헌이에요. 거기에 OpenAI의 'GPT-4 Technical Report'(2023)와 구글 연구진이 쓴 'REALM' 논문(2020)이 나란히 인용돼 있거든요.

모델 → 모형 이라고 보시면 됩니다. 2026년 6월 17일에 관련 세미나가 있다고 합니다.
모델 → 모형 이라고 보시면 됩니다. 2026년 6월 17일에 관련 세미나가 있다고 합니다.

북한이 챗GPT를 연구한다는 소식은 2025년 2월부터 단편적으로 알려져 있었어요. 그런데 이번엔 다른 종류의 발견이에요. 공식 학보에, 정확한 인용 형식으로, 실제 연구 방법론의 출발점으로서 미국·구글의 LLM 연구가 등장한 거예요.

결론부터 말씀드리면, 이건 '북한이 어떻게 그걸 입수했는가'의 문제가 아니에요. 'AI 연구의 해자(moat)는 지금 어디에 남아 있는가'의 문제예요. 아참, 먼저 명확하게 말씀 드리면 우리의 주적은 북한이며, 저는 대한민국 육군 병장 만기 전역을 하였고 예비군을 모두 마친 민방위입니다. 

무슨 일이 있었는가

일단 공개된 논문의 저자는 김진범, 한승주 두 사람이에요. 문제 설정은 의외로 평범해요. 사용자가 검색창에 단어 몇 개를 입력하면, 그 단어들로부터 완성된 조선어 질문 문장을 자동으로 추천해 주는 모형을 어떻게 학습시킬 것인가? 우리가 구글이나 네이버에서 매일 보는 그 자동완성 기능이에요.

연구진이 제안한 접근은 변환기(Transformer) 모형(model)을 기반으로 했고, 5만 건의 본문과 700만 개의 단어 쌍으로 구축한 훈련자료로 성능을 평가했어요. 학술적으로 특별히 새로운 시도는 아니에요. 그런데 도입부의 한 문장이 눈에 띄어요.

"현재 GPT-4, Claude-2와 같은 대규모언어모형(LLM)들이 개발돼 자연언어처리 영역의 대부분의 과제들에서 높은 성능을 보여주고 있으며 검색체계들에도 적극 도입 이용되고 있다."

이어서 구글, Bing, 바이두의 검색 엔진 변화까지 정확하게 짚어요. 즉, 북한 연구진은 글로벌 LLM 지형을 분명히 인식하고, 공식 자료를 인용하면서, 자체 시스템에 적용하고 있다는 것을 학보 차원에서 공개한 거예요.

여기서 두 가지 사실을 짚어둘 필요가 있어요.

첫째, 참고 문헌 두 편 모두 누구나 접근할 수 있는 자료예요. GPT-4 Technical Report는 arXiv에 공개돼 있고요(arXiv:2303.08774). REALM 논문은 ICML 2020에 게재된 동료 평가 논문이에요(arXiv:2002.08909).

둘째, 시차는 약 2년이에요. 해당 논문이 2025년 11월에 투고된 점, GPT-4 Technical Report가 2023년 3월 공개된 점을 고려하면 그 차이는 대략 1년 8개월이에요. 1990년대 말부터 AI 연구를 해 온 북한의 과거 시차(짧게는 5년, 길게는 10년 이상)와 비교하면 좁혀진 폭이 꽤 커요.

왜 OpenAI 논문은 평양에서도 읽힐 수 있을까

이 지점에서 한 가지 통념을 짚고 갈 필요가 있어요. "OpenAI는 GPT-4부터 비공개 노선으로 돌아섰다"는 인식이 있는데, 절반만 맞아요.

GPT-4 Technical Report는 분명히 의도적으로 많은 것을 가렸어요. 모델 크기, 학습에 사용한 컴퓨트 양, 데이터셋 구성, 학습 방법론 — 이 모든 것이 비공개 처리됐어요. 「OpenAI: GPT-4」 보고서를 검토한 학술 리뷰(2024)도 "이 보고서는 엄밀한 기술적 평가라기보다 현재 성능의 시연에 가깝다"고 평가했어요.

그런데 가린 만큼이나 공개한 것도 많아요. 모델의 능력 평가 결과, 안전성 카드(System Card), 후처리 정렬(post-training alignment) 접근, 그리고 무엇보다 연구 방향을 가늠할 수 있는 개념적 골격이 그대로 살아 있어요. 추격자 입장에서 보면, 이 정도 정보만으로도 "어떤 방향으로 무엇을 시도해야 하는가"의 지도는 충분히 그릴 수 있는 거예요.

REALM 논문은 더 명확해요. 2020년에 ICML 본 학회에 게재된 이 논문은 검색 결합 언어모델(Retrieval-Augmented Language Model, 즉 오늘날 우리가 RAG[1]​라고 부르는 그 개념의 학술적 원형)의 핵심 아이디어를 처음으로 정식화했어요. 코드도 깃허브에 공개돼 있어요.

이건 OpenAI나 구글이 부주의해서가 아니에요. 공개 출판은 학계 합법성의 비용이에요. 발표하지 않으면 학회에서 인정받지 못하고, 인재가 모이지 않고, 후속 협업이 어려워져요. 동시에 발표하면 누구나 읽을 수 있어요. 이 트레이드오프는 학계가 만들어진 이래 한 번도 변하지 않았어요.

문제는 이 트레이드오프가 LLM 시대에 들어와 비대칭적으로 바뀌었다는 거예요. 과거의 공학 연구는 논문을 읽어도 실제 구현까지 가려면 막대한 후속 작업이 필요했어요. 그런데 LLM 분야는 아키텍처가 비교적 표준화돼 있어서(트랜스포머 + 사전학습 + 정렬), 논문에 담긴 방향성만으로도 추격의 출발점이 되는 거예요.

그렇다면 진짜 해자는 어디에 있을까

여기서 분석가의 관점이 나뉘어요. 한쪽은 "이건 구조적 위협이다, 미국·중국의 AI 격차가 사실상 좁혀지고 있다"는 결론으로 가요. 다른 한쪽은 "논문은 공개되지만 컴퓨팅 인프라는 공개되지 않는다"는 점을 강조해요.

저는 후자가 더 정확한 진단이라고 봐요. 그 이유는 북한 자체의 사례가 잘 보여줘요.

같은 북한 AI 연구 분석을 보면, 평양은 소비자급 GPU(예: GeForce RTX 2070급)를 우회 경로로 일부 확보했지만, H100[2]​ 같은 데이터센터급 GPU와 대규모 학습 인프라에는 접근이 차단돼 있어요. 그 결과 북한 AI 연구의 무게 중심은 경량 모델, 효율 최적화, 좁은 도메인 응용(음성 인식 'Ryongnamsan', 바둑 'Eunbyul', 안면 인식 등)에 쏠려 있어요. 38 North의 분석도 동일해요. "제재로 첨단 칩과 학습 데이터셋 접근이 제한되고, 이것이 선도 경제 대비 AI 배포의 규모와 성능을 제약한다"는 거예요.

인공지능 자체 플랫폼까지 만들려고 하는 야무진 계획까지 세우고 있음...
인공지능 자체 플랫폼까지 만들려고 하는 야무진 계획까지 세우고 있음...

요약하면 이렇게 정리할 수 있어요.

개념적 해자는 사실상 사라졌어요. 누가 어떤 방향으로 연구하고 있는지에 대한 정보는, 제재 받는 국가의 학술지에까지 2년 안에 도착해요.

컴퓨팅 인프라 해자는 견고해요. 프런티어급 모델을 학습시키려면 H100 수만 장이 필요하고, 이 게이트는 미국 정부의 수출 통제 프레임워크 안에 단단히 묶여 있어요.

데이터·정렬 해자는 부분적이에요. 인스트럭션 튜닝, RLHF[3]​, 안전성 정렬에 쓰이는 고품질 인간 피드백 데이터는 여전히 기업 자산이지만, 합성 데이터 기법이 발전하면서 이 격차도 좁혀지고 있어요.

배포 해자는 새롭게 부상하고 있어요. 사용자 수, 분포, 실시간 피드백 루프 등 이건 논문으로 옮길 수 없는 영역이에요. ChatGPT의 진짜 해자는 GPT-4의 아키텍처가 아니라, 그 사용자 데이터 위에서 매일 돌아가는 정렬 사이클일 가능성이 높아요.

그런데 북한이 정말 LLM을 만들 수 있을까

여기서 한 발 더 들어가 볼 필요가 있어요. 학보에 GPT-4 논문이 인용됐다고 해서, 평양이 곧 자체 LLM을 가질 수 있을까요? 두 가지 현실이 가로막아요.

첫째, 전력이에요. 38 North를 인용한 Diplomat의 2026년 분석은 단도직입적이에요. "북한의 전력 출력은 데이터센터를 가동하기에 부족하다(not enough to power the data centers)." 평양조차 정전이 일상이고, 빈곤 지역 주민들은 국가 전력을 1년에 한 번 받아요. AI 데이터센터 한 곳이 수만 가구분 전력을 소비하는 시대에, 이건 단순한 인프라 문제가 아니라 물리적 천장이에요. 실제로 2026년 9차 당대회는 AI와 신에너지 기술을 5개년 계획에 함께 묶었어요. "전력난 해결이 5개년 계획 성패를 가르는 결정적 요인"이라고 명시했고요. 다시 말해, 북한 지도부도 AI 이전에 전력이라는 걸 안다는 거예요.

둘째, 컴퓨팅 인프라예요. 앞서 짚은 H100 게이트가 그대로 적용돼요. 소비자급 GPU 수십~수백 장으로는 700억 파라미터 이상의 LLM 학습이 사실상 불가능해요. 추론(inference)도 빠듯해요. 즉, 자체 프런티어 모델 개발은 현실 밖의 옵션이에요.

그럼 평양이 학보에서 GPT-4를 인용하는 진짜 이유는 뭘까요? 제가 보기엔 자체 개발이 아니라 '활용 경로 확보'예요. 그리고 그 경로의 가장 유력한 후보가 하나 있어요. 중국산 오픈소스 LLM이에요.

첨부 이미지

알리바바의 Qwen 2.5는 29개 언어 다국어 지원을 명시하면서 한국어를 정식 평가 대상에 포함시켰어요(KMMLU 벤치마크). DeepSeek 시리즈도 다국어 데이터를 학습했고요. 중국에는 약 200만 명의 조선족이 있고, 이들이 사용하는 조선어 코퍼스가 인터넷에 상당량 존재해요. 즉, 중국산 오픈소스 모델은 이미 조선어를 어느 정도 처리할 수 있는 가중치(weights)를 들고 출시되고 있는 거예요. (실제로, 중국산 언어모델의 모델 카드를 보면 조선어라고 해서 조선족의 소수언어라고 하여 학습시키고 있다고 계속 표기 중- 명분상...)

이게 의미하는 바는 명확해요. 북한은 자체 모델을 학습할 필요가 없어요. Qwen이나 DeepSeek 가중치를 받아 평양에서 파인튜닝[4]​만 해도, "조선어 자동완성 검색 엔진"이라는 학보의 목표는 충분히 달성 가능해요. 파인튜닝은 사전학습 대비 컴퓨팅 인프라가 수십 배에서 수백 배 적게 들어가요. 소비자급 GPU 수십 장이면 가능한 영역으로 들어와요.

그래서 김일성대 학보의 GPT-4 인용은 자체 개발 선언이 아니라, "우리는 글로벌 LLM 지형을 이해하고 있고, 어떤 오픈소스 모델 위에서 무엇을 만들지 안다"는 신호에 가까워요. 위협의 종류 자체가 다른 거예요.

오스왈드의 시선

이 사건을 보면서 제가 떠올린 GTM 패턴이 하나 있어요. "기술적 해자가 무너지면, 산업은 운영적 해자로 회귀한다"는 거예요. 이건 제가 여러 시장 진입 전략을 만들면서 자주 봐온 흐름이에요. 반도체 IP가 표준화되자 TSMC의 운영 능력이 핵심이 됐고, 클라우드 인프라가 평준화되자 AWS의 영업·고객 관리·릴리스 케이던스가 차별화 포인트가 됐어요.

AI도 같은 길을 걷고 있어요. 한때 "OpenAI는 5년 앞서 있다"는 말이 있었어요. 지금 그 5년은 어디에 있나요? 모델 능력 격차로 보면 6~12개월로 좁혀졌고, 평양조차 2년 시차에 들어와요. 게다가 그 평양이 가진 옵션이 자체 개발이 아니라 중국산 오픈소스 가중치 위에서의 파인튜닝이라는 점은, 게임의 룰이 이미 바뀌었음을 보여줘요.

제가 보기에 OpenAI의 진짜 자산은 "운영"으로 옮겨갔어요. 매일 수억 건의 대화에서 발생하는 사용자 피드백, 그 데이터를 정렬에 다시 투입하는 파이프라인, B2B 고객 요구를 빠르게 흡수하는 영업·딜리버리 조직 등... 이것들은 논문으로도, 가중치 다운로드로도 옮길 수 없어요.

이 관점에서 김일성대 학보 사건은 위협이라기보다 신호예요. AI 산업이 "더 똑똑한 모델"의 게임에서 "더 빨리, 더 넓게, 더 정확하게 배포하는" 게임으로 옮겨가고 있다는 신호요. 솔직히 소프트웨어 산업적으로 위협이 되진 않죠. 예전에 북한이 만든 붉은별이라는 리눅스와 맥킨토시를 짬뽕해서 만든 운영체제였는데... 아래 영상으로 줄일게요.

그리고 운영 해자는 시장과 데이터에 가까운 쪽이 유리해서, 한국어 도메인에서 한국 기업이 의외의 자리를 만들 여지가 생겨요.

마치며

오늘 살펴본 내용을 세 줄로 정리해요.

  1. 김일성종합대 학보 2026년 1호에 GPT-4 Technical Report와 REALM 논문이 인용됐어요. 추격 시차는 약 2년이에요.
  2. 다만 전력과 컴퓨팅 인프라의 물리적 제약 때문에 북한이 자체 LLM을 만들 가능성은 낮아요. 더 현실적인 시나리오는 중국산 오픈소스 모델(Qwen·DeepSeek) 가중치 위에서의 파인튜닝이에요.
  3. 이 흐름이 알려주는 진짜 신호는 따로 있어요. AI의 해자가 모델 자체에서 컴퓨트·데이터, 그리고 무엇보다 배포·운영으로 이동하고 있다는 거예요

참고로, 위 보도를 한 NK경제가 창간 8주년을 맞이해 세미나를 한다고 하니 관심있는 분들은 가보세요. 저는 일정이 안되어 참여가 안되지만 인공지능(AI) 시대, 북한 디지털전환 현주소라는 주제로 북한 전문가 분들이 북한에서는 도대체 IT 기술을 어떻게 받아드리고 쓰는지를 알려주신다고 합니다. 

참고자료 & 더 읽기

핵심 출처

배경 지식

 

각주

  1. [1] RAG (Retrieval-Augmented Generation): AI가 답변할 때 외부 문서 데이터베이스에서 관련 자료를 먼저 검색한 뒤, 그 검색 결과를 참고해서 답을 만드는 방식이에요. 모델이 자체 학습한 지식만으로 답하는 것보다 정확도가 높고, 출처도 추적할 수 있어요.
  2. [2] H100: 엔비디아가 만든 데이터센터급 AI 가속기예요. GPT-4 같은 대규모 모델 학습에 사실상 필수로 쓰이는 칩으로, 미국이 중국·러시아·북한 등에 수출 통제를 걸어둔 핵심 품목 중 하나예요.
  3. [3] RLHF (Reinforcement Learning from Human Feedback): 인간 평가자가 "이 답변이 더 좋다/나쁘다"고 매긴 피드백을 보상 신호로 삼아 AI 모델을 강화학습으로 정렬하는 기법이에요. 챗GPT가 우리가 익숙한 방식으로 대답하게 된 핵심 비결이에요.
  4. [4] 파인튜닝 (Fine-tuning): 이미 사전학습된 거대 모델 위에, 특정 도메인이나 언어, 작업에 맞는 데이터를 추가로 학습시켜 모델을 전문화하는 과정이에요. 사전학습 대비 컴퓨팅 인프라가 수십~수백 배 적게 들어서, 자체 사전학습이 어려운 조직이 LLM 역량을 확보할 때 흔히 쓰는 경로예요.
첨부 이미지

필자 안광섭은 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트이다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA와 기술경영전문대 석사과정을 졸업했다. 지은 책으로 《생각을 맡기는 사람들: 호모 브레인리스》가 있다.

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

이번 뉴스레터 어떠셨나요?

오즈의 지식토킹 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글 1개

의견을 남겨주세요

확인
  • 윤수한무의 프로필 이미지

    윤수한무

    0
    약 10시간 전

    원조 맛집의 레시피를 따라 해 맛을 흉내 낼 순 있어도 맛집이 가진 자본과 운용 철학을 따라가긴 어렵다(?)는 느낌으로 이해했는데 워낙 생소한 분야라 맞게 이해했는지 모르겠네요.. 정보가 곧 돈이자 권력인 지금 시대에서 어떠한 가치를 더 소중히 하고 지켜야 할지 많은 생각이 드는 글이네요 항상 좋은 글 감사합니다 😊

    ㄴ 답글

다른 뉴스레터

© 2026 오즈의 지식토킹

하고 싶은 말을 합니다. 주로 기술, 인문학, 경제에 대한 이야기를 합니다.

뉴스레터 문의newsletter@oswarld.com

메일리 로고

도움말 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so 채팅으로 문의하기

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 송파구 위례광장로 199, 5층 501-8호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스