들어가며
구독자님, 최근 중국의 한 연구소에서 흥미로운 장면이 공개됐어요. 사람들 머리에 뇌파 측정 헬멧을 씌우고, 그 사람이 빨래를 개고, 커피포트를 들고, 물건을 정리하는 동안 뇌에서 나오는 전기 신호를 실시간으로 기록하는 겁니다. 그리고 그 데이터를 로봇에게 먹이죠.
"로봇에게 물리 법칙을 가르치는" 기존 방식과는 완전히 다른 접근이에요. 인간 베테랑의 노하우 자체를 전기 신호로 추출해서 로봇에게 이식하는 거거든요. 이걸 학술적으로는 BCI(Brain-Computer Interface)[1]기반 로봇 훈련이라고 부릅니다.
그런데 여기서 한 가지 질문이 생겨요. 이 기술이 정말 작동한다면, 그 '뇌'를 빌려준 사람에게는 뭘 줘야 하는 걸까요? 오늘은 이 기술의 실체, 그리고 이 기술이 던지는 불편한 질문까지 함께 이야기해 볼게요.
뇌파가 로봇을 가르치는 원리
먼저 과학적 배경부터 짚어볼게요. 핵심 원리는 생각보다 직관적이에요.
사람이 로봇의 행동을 지켜보다가 로봇이 실수하면, 뇌에서 무의식적으로 특정한 전기 신호가 발생해요. 이걸 ErrP(Error-Related Potential)[2]라고 부르는데, 실수를 인지한 후 약 200~400밀리초 사이에 이마 부근(전두중심부)에서 나타나는 독특한 파형이에요. 쉽게 말하면, 뇌가 무의식적으로 "아, 저건 틀렸어"라고 반응하는 신호죠.
연구자들은 이 '뇌의 찡그림'을 로봇 강화학습[3]의 보상 신호로 활용할 수 있다는 걸 발견했어요. 사람이 일일이 "맞았어/틀렸어"를 입력하지 않아도, 그냥 지켜보기만 하면 뇌가 자동으로 피드백을 주는 셈이에요.
이 분야의 기반이 된 연구는 2017년 독일 DFKI 연구소가 Scientific Reports에 발표한 논문이에요. 이 팀은 EEG[4]로 측정한 오류 신호만으로 로봇이 제스처-행동 매핑을 학습하는 데 성공했고, 단일 시행 오류 감지 정확도가 91%에 달했어요.
2020년에는 컬럼비아대학교 Akinola 등이 한 발 더 나갔어요. BCI 피드백의 정확도가 60% 이상이기만 하면, 뇌 신호 기반 학습이 사람이 직접 설계한 보상 함수와 비슷한 성능을 낸다는 걸 보여줬거든요. 사람이 복잡한 규칙을 코딩하지 않아도, 그냥 지켜보는 것만으로 로봇이 배울 수 있다는 뜻이에요.
2023년에는 독일 프라운호퍼 연구소에서 한 가지 중요한 실용적 돌파가 있었어요. 젤을 바르는 번거로운 습식 전극 대신 건식 EEG 헤드셋을 써도 학습 효과가 유의미하게 나타난다는 걸 확인한 거예요. 실험실을 벗어나 공장 현장에서 쓸 수 있는 가능성이 열린 거죠.
중국이 미친 듯이 달리는 이유
이 기술이 학술 논문 수준에 머물러 있다면 뉴스레터 주제가 되진 않았을 거예요. 주목해야 할 건, 중국이 국가 차원에서 이 분야에 올인하고 있다는 점이에요.
2025년 8월, 중국 정부 7개 부처가 합동으로 "뇌-컴퓨터 인터페이스 산업 혁신 발전 촉진에 관한 실시의견"을 발표했어요. 2027년까지 핵심 기술 돌파, 2030년까지 글로벌 경쟁력을 갖춘 생태계 구축이 목표예요. 2025년 12월 선전 BCI 엑스포에서는 116억 위안(약 2,200억 원) 규모의 뇌과학 펀드까지 출범했어요.
중국의 BCI 시장은 2024년 기준 약 32억 위안(약 6,000억 원)으로, 핵심 기업만 약 170개에 달해요. 그리고 이 중 82%가 비침습적(머리를 열지 않는) 방식에 집중하고 있어요. 일론 머스크의 뉴럴링크와는 방향이 다른 거죠.
실제 데모도 속속 나오고 있어요. 항저우의 Deep Robotics는 EEG 헬멧으로 로봇 개를 제어하는 장면을 CCTV에서 시연했고, 상하이의 Fourier Intelligence는 휴머노이드 로봇 GR-1의 BCI 제어 영상을 공개했어요. 2024년 10월에는 호주-홍콩-베이징 공동 연구팀이 E2H(EEG-to-Humanoid) 프레임워크를 발표했는데, 10명의 피험자에게서 23.6시간 분량의 EEG 데이터를 수집해 휴머노이드 로봇의 전신 동작을 제어하는 데 성공했어요.
제가 주목하는 건 단순한 기술 데모가 아니에요. 중국이 표준화까지 선점하려 한다는 점이에요. 중국 최초의 BCI 의료기기 표준(YY/T 1987-2025)이 2026년 1월 1일부터 시행되고, 후베이성은 BCI 시술을 공공 의료보험 수가에 포함시킨 첫 번째 지방정부가 됐어요. 기술 → 표준 → 산업화의 파이프라인을 체계적으로 깔고 있는 거죠.
현대차 베테랑의 기술을 아틀라스에게 이식한다면?
자, 여기서 상상을 한번 해볼게요. 현대자동차 울산 공장에 30년 경력의 조립 베테랑이 있다고 칩시다. 이 분에게 뇌파 측정 헬멧을 씌우고, 평소 하던 대로 조립 작업을 하게 해요. 그 뇌파 데이터를 보스턴 다이나믹스의 아틀라스에게 학습시키면 어떻게 될까요?
이건 순전한 공상이 아니에요. 현대차그룹은 2021년 보스턴 다이나믹스 지분 80%를 11억 달러(약 1.5조 원)에 인수했고, 2026년 CES에서 양산형 전기 아틀라스를 공개했어요. 키 189cm, 자유도 56개, IP67 방수방진, 4시간 연속 가동, 50kg 물체 리프팅이 가능한 로봇이에요. 가격은 대량 생산 시 약 2억 원 수준인데, 이건 한국 제조업 노동자 2년 치 인건비보다 낮아요. 그리고 이 로봇은 하루 16시간 일할 수 있어요.
2025년 8월에는 보스턴 다이나믹스와 도요타 연구소가 LBM(Large Behavior Model)을 시연했어요. 한 대의 로봇이 텔레오퍼레이션[5]이나 자율 연습으로 기술을 배우면, 그 기술이 전체 로봇 함대에 복제되는 구조예요. 한 명의 베테랑에게서 뽑아낸 노하우가 수천 대의 로봇에 동시에 이식되는 셈이죠.
현대차는 2028년까지 3만 대 대량 생산을 목표로 하고 있어요. 보스턴 다이나믹스는 2025년에만 500대 이상을 배치해 약 1.3억 달러의 매출을 올렸고, 2026년 물량은 이미 전량 소진됐어요.

10억 받고 은퇴 vs 기술 사수: 보상의 방정식
여기서 불편한 질문이 등장해요. 그 베테랑에게는 뭘 줘야 할까요?
현실을 보면, 대부분의 경우 구체적인 보상이 없어요. 하지만 몇 가지 모델이 등장하고 있어요.
가장 직접적인 형태는 텔레오퍼레이션 임금이에요. 미국의 Weave Robotics 같은 회사는 로봇을 원격 조종하며 훈련 데이터를 만드는 작업자에게 시간당 25달러(약 3만 5천 원)를 지급해요. 하지만 이건 '기술의 IP 가치'가 아니라 단순 노동 대가에 가까워요.
플랫폼 차원에서는 더 큰 돈이 오가고 있어요. Reddit은 구글과 OpenAI에 AI 학습 데이터를 제공하고 연간 약 1.3억 달러(약 1,800억 원)를 받고 있어요. 하지만 그 콘텐츠를 실제로 작성한 개별 사용자들에게 돌아가는 돈은 0원이에요. Stack Overflow도 비슷한 딜을 했는데, 이에 항의해서 자기 답변을 수정한 사용자들은 오히려 계정 정지를 당했어요.
AI 학습 데이터의 보상 문제가 가장 첨예하게 드러난 사례는 Anthropic의 저작권 소송이에요. Anthropic은 2021~2022년에 해적판 사이트에서 700만 권 이상의 책을 다운로드해 AI 학습에 사용했어요. 별도로 구입한 책들은 제본을 뜯어 스캔한 뒤 폐기했고요. 2025년 6월, 윌리엄 알서프 판사는 합법적으로 취득한 저작물로 AI를 훈련시키는 것은 공정 이용이라고 판단했지만, 해적판 다운로드는 명백한 침해라고 봤어요. 결과는 15억 달러(약 2.1조 원) 합의 — 미국 역사상 최대 규모의 저작권 합의금이에요.
유일하게 체계적인 보상 프레임워크를 만든 곳은 할리우드예요. SAG-AFTRA(미국 배우 노조)는 2025년 협약에서 AI 디지털 복제에 대한 동의권, 가격 결정권, 잔여 보상금을 확보했어요. 배우의 얼굴과 목소리를 AI가 학습하려면 본인 동의가 필수이고, 가격도 배우 본인이 정하는 구조예요.
그런데 공장 노동자의 뇌파에는 아직 이런 프레임워크가 없어요. "당신의 30년 노하우를 10억에 사겠습니다"라는 제안이 온다면, 그건 윈-윈일까요, 배신일까요?
오스왈드의 시선
솔직히 이야기하면, 저는 이 기술의 과학적 가능성보다 제도적 공백이 더 위험하다고 봐요.
BCI 기반 로봇 훈련은 분명 작동해요. 논문들이 증명하고 있고, 중국과 미국 모두 진지하게 투자하고 있어요. 다만, 일부 보도에서 말하는 "학습 효율 2배 향상"은 좀 정확히 짚을 필요가 있어요. UC버클리의 HIL-SERL 연구가 성공률 2배 개선을 보여줬지만, 이건 뇌 신호가 아니라 물리적 조이스틱(SpaceMouse) 기반 피드백이었어요. 순수 BCI 연구들은 15~91% 수준의 개선을 보고하고 있고요. 숫자의 차이가 크죠.
제가 진짜 주목하는 건 한국의 상황이에요.
한국의 합계출산율은 0.75(2024년 기준)로 세계 최저예요. 서울은 0.58이에요. 생산가능인구(15~64세)는 2020년 3,738만 명에서 2050년 2,419만 명으로 — 1,300만 명이 줄어들어요. 한국은행 이창용 총재가 "국가 비상사태"라고 표현한 수준이에요.
이 숫자 앞에서 "로봇 도입을 막겠다"는 건 현실적이지 않아요. 한국 정부도 이걸 알고 있어서 2024년 '제4차 지능형 로봇 기본계획'에서 2030년까지 첨단 로봇 100만 대 보급, 공공민간 투자 3조 원 이상을 발표했어요.
하지만 현대차 노조가 2026년 CES 직후 "노사 합의 없이 로봇 한 대도 들여올 수 없다"고 선언한 건 무시할 수 없는 신호예요. 2026년 2월에는 민주노총(KCTU)이 고용노동부와 월례 합동 협의체를 출범시켰어요. 한국 최대 노조 연맹과 정부가 AI/자동화 정책을 정기적으로 논의하는 최초의 공식 채널이에요.
GTM 전략을 수립해온 경험에서 보면, 기술 도입의 성패는 기술 자체가 아니라 이해관계자 관리에서 갈려요. 보스턴 다이나믹스의 아틀라스가 기술적으로 아무리 뛰어나도, 현장 노동자들의 동의 없이 투입되면 저항과 사보타주로 이어질 수 있어요. SAG-AFTRA가 만든 "동의 + 보상" 프레임워크를 제조업에도 적용하는 게 결국은 가장 빠른 길이 될 수 있다고 봐요.
한 가지 더. 이 기술은 단순히 일자리를 대체하는 게 아니라, 인간의 암묵지(tacit knowledge)를 디지털화하는 첫 번째 대규모 시도예요. 30년 베테랑의 '감'이라는 게 뇌파로 추출 가능하다면, 그건 단순 노동이 아니라 지적 재산이에요. 그리고 지적 재산에는 보상이 따라야 해요.
마치며
정리하면 이래요.
첫째, 인간 뇌파로 로봇을 훈련시키는 기술은 SF가 아니에요. 2017년부터 축적된 학술 근거가 있고, 중국은 국가 전략으로 밀고 있어요.
둘째, 기술보다 더 큰 병목은 '누구의 뇌파인가'에 대한 보상 체계의 부재예요. 할리우드 배우에게는 있는 프레임워크가 공장 노동자에게는 없어요.
셋째, 한국에게 이건 선택이 아니라 생존의 문제예요. 1,300만 명의 노동력 공백을 메울 대안이 필요하지만, 그 과정에서 기존 노동자를 어떻게 대우할지는 아직 답이 없어요.
이 주제가 궁금하시다면, 아래 참고자료의 Akinola 등(2020) 논문부터 읽어보시길 추천해요. 뇌 신호가 어떻게 로봇의 보상 함수를 대체하는지, 기술적 메커니즘을 가장 명확하게 설명한 논문이에요.
📎 참고자료 & 더 읽기
핵심 출처
- Kim et al., "Intrinsic Interactive Reinforcement Learning – Using Error-Related Potentials for Real World Human-Robot Interaction", Scientific Reports (Nature), 2017. : 뇌파 기반 로봇 강화학습의 기초를 놓은 논문이에요. 91% 정확도의 온라인 오류 감지가 핵심이에요.
- Akinola et al., "Accelerated Robot Learning via Human Brain Signals", IEEE ICRA, 2020. : BCI 피드백 정확도 60% 이상이면 수동 보상 함수와 동등한 성능을 낸다는 걸 보여준 핵심 연구예요.
- Vukelić et al., "Combining Brain-Computer Interfaces with Deep Reinforcement Learning for Robot Training", Frontiers in Neuroergonomics, 2023. : 건식 EEG로도 유의미한 결과가 나온다는 실용성 검증이에요.
- E2H Framework, "A Two-Stage Non-Invasive Neural Signal Driven Humanoid Robotic Whole-Body Control Framework", arXiv, 2024. : 중국-호주-홍콩 공동 연구. EEG에서 휴머노이드 전신 동작까지 연결한 최신 프레임워크예요.
배경 지식
- "Mind Meets Robots: A Review of EEG-Based Brain-Robot Interaction Systems", International Journal of Human-Computer Interaction, 2025. : 2018~2023년 87개 연구를 분석한 포괄적 리뷰 논문이에요.
- "Not a Single Robot Without Agreement: Hyundai Motor Union Gripped by Atlas Fear", Seoul Economic Daily, 2026.1.22. : 현대차 노조와 아틀라스 도입 갈등의 맥락을 이해하는 데 필수예요.
관련 영상
각주
- [1] BCI (Brain-Computer Interface, 뇌-컴퓨터 인터페이스): 뇌의 전기 신호를 읽어서 컴퓨터나 로봇에 명령을 전달하는 기술이에요. 머리에 센서를 붙이는 비침습 방식과 뇌에 칩을 삽입하는 침습 방식이 있어요.
- [2] ErrP (Error-Related Potential, 오류 관련 전위): 사람이 실수를 인지할 때 뇌에서 자동으로 발생하는 전기 신호예요. 본인이 의식하지 못해도 뇌파 측정 장치로 감지할 수 있어요.
- [3] 강화학습 (Reinforcement Learning): AI가 시행착오를 통해 스스로 학습하는 방법이에요. "잘했으면 보상, 잘못했으면 패널티"를 반복하며 최적의 행동을 찾아가요. 알파고가 대표적인 사례예요.
- [4] EEG (Electroencephalography, 뇌전도): 머리 표면에 전극을 부착해서 뇌의 전기적 활동을 측정하는 방법이에요. 머리를 열지 않아도 되는 비침습적 방식이라 실험실과 현장 모두에서 쓸 수 있어요.
- [5] 텔레오퍼레이션 (Teleoperation): 사람이 원격으로 로봇을 조종하는 것이에요. VR 컨트롤러나 조이스틱으로 로봇의 팔다리를 직접 움직이며 작업을 시연하고, 그 동작 데이터를 학습에 활용해요.

의견을 남겨주세요