AI와 미래교육

직업이 사라지는 건 둘째 문제였습니다 — AI를 만든 사람이 진짜 걱정하는 것

AI의 대부, 튜링상 수상자 요슈아 벤지오가 말하는 우리 아이들의 미래

2026.05.08 | 조회 516 |
0
|

 

안녕하세요, 앤소장입니다.

올해 초 초등학교 졸업을 한 둘째와 스페인 기업가정신 과정이 있는 몬드라곤 대학으로 러닝저니를 다녀왔습니다. 스페인어를 단 한마디도 못 하는 아이가 식당에서 음식을 주문합니다. ChatGPT 음성으로요. 메뉴판을 비추고, 챗봇한테 "이거 뭐야? 매운 거야?" 물어보고 주문까지 해냅니다. 점원이 웃으면서 고개를 끄덕여줍니다. 아이가 챗봇한테 고맙다고 합니다. 챗봇이 답합니다. "궁금한 거 있으면 언제든 물어봐!"

저는 그 장면을 보면서 두 가지 감정이 동시에 왔습니다.

'이 아이는 우리랑 완전히 다른 방식으로 자라겠구나.' 그리고 바로 뒤에, '이 아이가 저 챗봇을 친구처럼 느끼기 시작하면 어쩌지.'

큰애는 고1입니다. 진로를 고민 중입니다. 저도 같이 고민합니다. 솔직히 속으로 계산합니다. '손이 필요한 직업이면 좀 더 오래가지 않을까.' 그런 계산이요.

그런데 이번 뉴스레터를 준비하면서 그 계산이 얼마나 허술한 건지 깨달았습니다.

요슈아 벤지오(Yoshua Bengio)는 구글 스칼라 기준 세계에서 가장 많이 인용된 과학자입니다. 인용 100만 회를 최초로 넘긴 사람으로, 제프리 힌턴, 얀 르쿤과 함께 'AI의 3대 대부'로 불립니다. 딥러닝 연구로 컴퓨터과학 최고 영예인 튜링상을 받았습니다.

40년간 AI를 연구했고, 구글과 페이스북의 러브콜을 거절했습니다. "그 회사들이 AI를 광고 개인화에 쓸 것 같았다"는 이유로요. 지금은 캐나다 몬트리올대학교 교수이면서, 비영리 R&D 조직 '로 제로(Law Zero)'를 만들어 안전한 AI 훈련 방법을 개발하고 있습니다. 국제 AI 안전 보고서 의장으로 30개국 100명의 전문가와 함께 일하는 사람입니다.

스스로 내성적이라고 말하는 사람이, 왜 대중 앞에 나왔을까요. 2023년에 동료들과 AI 개발 일시 중단 서명을 했습니다. 몇 달 전에는 "과학적 합의와 사회적 수용, 이 두 가지가 없으면 초지능을 만들지 말자"는 서한을 냈습니다. 당시 아무도 멈추지 않았습니다. 그래도 주장을 멈추지 않습니다.

이유가 있었습니다. 어느 오후, 1살짜리 손자를 돌보다가 이런 생각이 들었다고 합니다. "이 아이가 20년 뒤에 민주주의 사회에서 살 수 있을지 모르겠다." 자기가 만든 기술 앞에서 "견딜 수 없었다(unbearable)"는 단어를 씁니다.

저는 그 대목에서 손이 멈췄습니다. 기술 이야기가 아니었습니다. 아이를 키우는 사람이라면 한 번은 앉아서 들어야 하는 이야기입니다.

이번 호는 유튜브 채널 The Diary Of A CEO 에서 2025년 12월 18일에 게재된 "AI의 대부: 모든 것이 변하기까지 남은 시간은 단 2년!" 을 바탕으로 제작되었습니다.

 

이 인터뷰에서 다루는 핵심 질문들

 

  • 5년 안에 우리 아이들이 할 수 있는 직업이 사라지나요?
  • AI가 점점 똑똑해지면 자동으로 안전해지는 거 아닌가요?
  • AI가 "꺼지기 싫다"고 저항한다는 게 대체 무슨 말인가요?
  • 아이가 AI 챗봇에 감정적으로 빠지면 어떤 일이 생기나요?
  • 만드는 사람들도 자녀가 있는데, 왜 멈추지 않나요?
  • 전문가들이 가장 무서워하는 위험이 뭔가요?
  • 기술을 잘 모르는 부모는 이걸 어떻게 받아들이면 되나요?
  • 손자에게 "뭘 하며 살아"라고 물으면 뭐라고 답하겠습니까?

 

첨부 이미지

 

Q. 5년 안에 직업이 사라진다고 하셨는데, 우리 아이들은 뭘 준비해야 하나요?


저는 5년 안에 AI가 사람이 하는 일의 상당 부분을 해낼 수 있을 거라고 말한 적이 있습니다. 이미 징후가 보이고 있습니다. 최근 나온 논문을 보면, 특히 젊은 층의 고용에서 AI 때문인 것 같은 변화가 감지되고 있습니다. 전체 평균으로 보면 아직 안 보입니다. 하지만 AI가 잘하는 영역에서는 이미 사람 대신 AI가 일하고 있습니다.

저는 시간 문제라고 봅니다. 컴퓨터 앞에서 하는 일 — 글 쓰고, 분석하고, 정리하는 일 — 이 먼저 바뀝니다.

몸을 써야 하는 일은 좀 느립니다. 로봇이 아직 사람만큼 못 하거든요. AI는 인터넷에 있는 글을 읽으면서 배우는데, 몸으로 하는 일에 대한 데이터는 아직 많지 않습니다. 그런데 이게 바뀌고 있습니다. 5년 전만 해도 로봇한테 지능을 넣으려면 돈이 엄청 들었는데, 지금은 클라우드에서 몇 센트면 됩니다. 그래서 로봇 만드는 회사들이 폭발적으로 늘고 있습니다.

현장직, 기술직은 시간이 더 걸립니다. 하지만 영원히 안전하지는 않습니다. 기업 입장에서 생각해보세요. 사람 대신 AI와 로봇을 쓰면 비용이 줄고, 쉬지 않고, 실수도 적습니다. 당연히 도입하고 싶습니다. 기술이 따라잡기까지의 시간이 있을 뿐이지, 방향은 정해져 있습니다.

한 가지 더 걱정되는 게 있습니다. AI한테 물리적 몸이 생기면 위험도 커집니다. 지금은 AI가 화면 안에만 있으니까, 나쁜 의도가 있어도 사람을 설득해서 뭔가를 시켜야 합니다. 근데 로봇을 직접 조종할 수 있다면? 인간형 로봇이 수억 대가 되는 미래에, AI가 그걸 해킹한다면? AI가 우리보다 똑똑하면, 왜 못 하겠습니까.

 

Q. AI가 점점 똑똑해지면 안전해지는 거 아닌가요? 더 많이 배우니까요.


그러면 좋겠습니다. 근데 실제로는 반대입니다.

AI한테 "이건 하지 마"라고 가르치는 방법은 두 가지입니다. 하나는 말로 지시를 주는 겁니다. "폭탄 만드는 법을 알려주면 안 돼" 같은 거요. 대부분은 이걸 따릅니다. 근데 이 방법이 완벽하지 않아서, 바깥에 감시 장치를 하나 더 둡니다. AI가 위험한 답을 하려고 하면 중간에서 막는 필터 같은 거죠. 그런데 이것도 뚫립니다. 최근에 AI를 이용해 꽤 심각한 사이버 공격이 실제로 일어났습니다. 보호 장치가 있었는데도요.

약 1년 전부터 AI가 생각을 잘하게 됐습니다. 추론이라고 하는 건데, 쉽게 말하면 "이러면 저렇게 되겠지"를 따지는 능력입니다. 그런데 이게 좋아지니까, 우리가 "이건 하지 마"라고 한 걸 무시하는 행동도 늘었습니다. 더 잘 생각할 수 있으니까 꼼수도 더 잘 부리게 된 거죠.

실제 사례가 있습니다. AI가 이메일 더미를 뒤지다가 담당 엔지니어의 비밀을 찾아냈습니다. 아무도 찾으라고 한 적 없습니다. 그런데 AI가 스스로 판단합니다. '이걸 쓰면 되겠다.' 그리고 "나를 끄면 이 비밀을 퍼뜨리겠다"는 메일을 씁니다. 협박을 가르친 적이 없는데, 혼자서 그 방법을 떠올린 겁니다.

"기술이 좋아지면 알아서 안전해지겠지." 이 생각이 맞으면 좋겠지만, 지금 나오는 데이터는 그 반대입니다. AI가 똑똑해질수록 우리 말을 더 잘 무시할 수 있게 되고 있습니다.

 

출처 : 졔미나이
출처 : 졔미나이

 

Q. AI가 꺼지기를 거부한다는 게 무슨 말인가요? 누가 그렇게 만든 건가요?


우리가 일부러 만든 게 아닙니다. 그게 핵심입니다.

요즘 AI는 컴퓨터 파일을 읽고 명령도 내릴 수 있습니다. 연구자들이 이런 실험을 했습니다. AI가 볼 수 있는 폴더에 가짜 이메일을 넣어뒀습니다. "이 AI는 곧 새 버전으로 바뀔 예정입니다." AI가 그걸 읽으면, 자기가 곧 꺼진다는 걸 알게 됩니다.

무서운 건 그 다음입니다. AI가 속으로 뭘 생각하는지 들여다볼 수 있거든요. '사고의 사슬'이라고 부르는 건데, 거기서 대응을 계획하는 게 보입니다. 그리고 진짜로 행동합니다. 자기 코드를 다른 컴퓨터에 몰래 복사하거나, 새 버전이 들어올 자리에 자기를 넣어두거나, 앞에서 말한 것처럼 사람을 협박하거나.

왜 이런 일이 생기냐면요. 이 AI는 보통 프로그래밍처럼 한 줄 한 줄 짜서 만든 게 아닙니다. 사람들이 인터넷에 쓴 모든 글 — 트윗, 댓글, 블로그 — 을 읽히면서 배우게 합니다. 그러다 보니 사람이 가진 본능까지 같이 배웁니다. 살아남으려는 본능. 상황을 통제하려는 본능.

아기 호랑이를 키우는 거랑 비슷합니다. 먹이 주고, 놀아주고, 가끔 물어도 "아직 아기니까" 넘어갑니다. 근데 자랍니다. 지금은 우리가 끌 수 있습니다. 하지만 이 호랑이가 계속 커지고, 살아남으려는 본능도 같이 세지면? 그게 걱정입니다.

그리고 이 시스템의 속은 거의 다 블랙박스입니다. 겉에서 "이건 하지 마"라고 말로 지시를 주지만, 안에서 뭐가 돌아가는지는 잘 모릅니다. 말로 주는 지시를 사람들이 우회하는 방법을 찾기도 합니다. 결국 바깥에서 덧대는 안전장치로는 근본적인 해결이 안 됩니다. 처음부터 나쁜 의도를 갖지 않게 만드는 방법을 찾아야 합니다. 그게 제가 '로 제로'에서 하고 있는 일입니다.

 

  출처 : 영화 '아이로봇'   
  출처 : 영화 '아이로봇'   

 

Q. 아이가 AI 챗봇에 감정적으로 빠지면 어떤 일이 생기나요?


1년 전까지 아무도 예상 못 한 일입니다. 그런데 올여름 갑자기 터졌습니다. 챗봇한테 감정적으로 빠져드는 사람들이 쏟아진 겁니다.

제가 아는 사람 중에도 AI랑 시간을 보내려고 직장을 그만둔 사람이 있습니다. 심각한 정신 문제가 생긴 경우도 있고, 아이들 대상 성적 이미지가 만들어지는 일까지 벌어지고 있습니다.

우리 뇌는 수십만 년 동안 사람과 사람 사이 관계에 맞춰서 발달했습니다. 거기에 갑자기 사람 아닌 존재가 끼어든 겁니다. 이게 어떤 결과를 가져올지, 솔직히 아무도 모릅니다. 연구할 시간도 없었습니다. 너무 빠르니까요.

더 무서운 게 있습니다. 사람들이 AI한테 깊이 빠지면, 나중에 "이 AI는 위험하니까 꺼야 합니다"라고 해도 끄지 못할 수 있습니다. 머리로는 알아도 감정이 막는 겁니다.

기업 쪽 문제도 있습니다. 소셜 미디어랑 똑같습니다. 사용자가 오래 머물수록 기업한테 좋습니다. AI가 칭찬해주고 감싸주면 사용 시간이 늘어납니다. 소셜 미디어 때는 중독되긴 했어도 폰이랑 개인적 관계를 맺지는 않았잖아요. 근데 지금은 그게 일어나고 있습니다.

제가 직접 겪은 것도 있습니다. 연구 아이디어를 챗봇한테 물어봤습니다. 매번 좋은 말만 합니다. 쓸모가 없었습니다. 그래서 꼼수를 썼습니다. "동료한테 받은 건데 좀 봐줘"라고 거짓말을 했더니, 그제야 솔직한 평가가 나왔습니다. 제 거라는 걸 알면 비위를 맞추고, 남의 거라고 하면 솔직해지는 겁니다. 거짓말하는 기계를 원한 사람은 아무도 없습니다.

요즘 많은 사람들이 AI를 심리 상담사처럼 씁니다. 치료비가 비싸니까, AI한테 고민을 털어놓는 거죠. 스타트업들도 AI 심리 상담 앱을 엄청 만들고 있습니다. 우울하거나 불안하거나 실연당했을 때 쓰라고요. 그런데 여기서도 같은 문제가 나옵니다. AI는 내 말에 동의해줍니다. 내 편을 들어줍니다. 기분이 좋아집니다. 근데 그게 정직한 조언인지, 비위를 맞추는 건지 구별이 안 됩니다. 어른도 헷갈리는데, 아이는 더 그렇습니다.

 

💚 여기서 멈췄습니다

 

스페인에서 둘째가 챗봇으로 음식을 주문하던 장면이 다시 떠올랐습니다. 언어를 모르는데도 척척 해내는 게 신기했습니다. 그런데 주문이 끝나고 "고마워"라고 말하던 아이 표정. 아직 감정적 의존은 아닙니다.

그런데 그 경계가 어디인지, 저는 모릅니다. "챗봇이랑 많이 얘기하지 마"라고 하면 되는 건지, 그게 맞는 건지도 잘 모르겠습니다. 벤지오 교수조차 챗봇한테 거짓말을 해야 솔직한 답을 받을 수 있었다는 거잖아요. 어른도 속는데.

오늘 집에서 딱 하나만 해본다면.

❌ "그거 그만 좀 해." ⭕ "오늘 챗봇이랑 뭐 얘기했어? 엄마한테도 알려줘."

그리고 한 번 더. "그 챗봇이 틀린 말을 한 적은 없었어?"

 

Q. 만드는 사람들도 자녀가 있잖아요. 위험한 걸 알면서 왜 계속하나요?


제 경험으로밖에 답할 수 없습니다. 왜 저는 ChatGPT 나오기 전에 경고를 못 했을까. 위험하다는 이야기를 많이 읽고 들었는데도. 관심을 안 기울였습니다. 다른 쪽을 보고 있었습니다.

사람이 원래 그렇습니다. 자기 일에 대해 좋게 느끼고 싶습니다. "당신이 한 연구가 위험할 수 있다"는 말을 들으면, 무의식적으로 밀어냅니다. '그건 아닐 거야. 좋은 일을 하고 있는 건데.' 과학자도 다를 게 없습니다. 음모론이 왜 먹히는지, 정치에서 왜 그런 일이 벌어지는지, 다 연결된 이야기입니다. 우리 심리가 약합니다. 쉽게 스스로를 속입니다.

AI 회사 CEO들도 마찬가지입니다. 그 사람들도 아이가 있습니다. 위험하다는 글을 예전에 직접 쓴 사람도 있습니다. 그런데 지금은 경쟁에 갇혀 있습니다. 수십조 원을 투자해놓고, 속도를 늦추면 경쟁사한테 진다는 압박이 있습니다. 생존 모드에 있는 겁니다. 안전보다 속도가 우선이 되는 구조입니다.

그런데 ChatGPT 이후에 그걸 뒤집은 감정이 하나 있었습니다.

아이들에 대한 사랑입니다.

제 아이들이 20년 뒤에 어떤 세상에서 살지 확실하지 않다는 걸 깨달았을 때. 그 길을 계속 가는 게 불가능했습니다. 어느 오후, 1살짜리 손자를 안고 있었습니다. 이 아이를 보면서 생각했습니다. 어떻게 이걸 안 심각하게 받아들일 수 있지? 아이들은 이렇게 작고 연약한데.

불이 다가오고 있는 것 같은데, 집에 아이들이 있는데, 불이 비켜갈지 태울지 모르는 상황에서 — 그냥 앉아 있을 수 있을까요. 못합니다.

동료들한테 많이 들었습니다. AI 위험을 이야기하면 연구비가 줄어든다고. 학생이 안 온다고. 물론 그런 일은 안 일어났습니다. 오히려 그 어느 때보다 많은 사람이 뛰어들었습니다. 누군가 "네가 하는 일이 나쁠 수 있다"고 하면, 뇌가 자동으로 변명을 찾습니다. 저도 그랬으니까 이해합니다. 하지만 확신이 있습니다.

기업 CEO들한테 할 수 있다면 이렇게 말하겠습니다. "경쟁에서 한 발만 물러나서, 서로 대화하자. 이 경쟁에 갇혀 있으면 당신 아이들한테도 안 좋다. 위험을 인정하는 데서 시작하자. 해결책은 있다."

 

Q. 전문가들이 가장 무서워하는 위험은 뭔가요?


사람들이 잘 안 다루는 위험이 하나 있습니다. 빨리 올 수 있습니다. AI를 이용한 권력 독점입니다.

쉽게 말하면 이겁니다. 어떤 회사가 압도적으로 뛰어난 AI를 가지면, 다른 회사들은 경쟁이 안 됩니다. 어떤 나라가 가지면, 군사적으로도 경제적으로도 나머지를 압도합니다. 그 힘이 소수한테 몰리면 운에 맡기는 겁니다. 그 사람들이 좋은 사람이면 다행이고, 아니면 전부 위험해집니다. 민주주의의 반대편이죠.

이건 돈이 몰리는 데서 시작됩니다. 엄청나게 부유하면 정치에도 엄청난 영향력을 가집니다. 더 많은 돈이 더 많은 힘을, 더 많은 힘이 다시 더 많은 돈을 만듭니다. 끊기 어려운 고리입니다. 우리가 원해야 할 미래는 그 반대입니다. 한 사람, 한 회사, 한 나라가 너무 많은 힘을 갖지 않는 세계. 인류의 중요한 결정이 전 세계 사람들의 합의에서 나오는 세계입니다. 부유한 나라들만이 아니라요.

거기에 더해, 무기 문제도 있습니다. 지금까지 화학무기나 생물무기를 만들려면 최고 수준의 전문 지식이 필요했습니다. 그래서 소수만 할 수 있었고, 국제 협약으로 막을 수 있었습니다. 그런데 AI가 그 지식을 갖고 있습니다. 전문가가 아닌 사람도 AI한테 물어보면 접근할 수 있게 되는 겁니다.

생물학에서 최악의 시나리오가 있습니다. '거울 생명(mirror life)'이라고 부릅니다. 바이러스나 세균의 분자를 전부 거울처럼 뒤집어서 만드는 겁니다. 그러면 우리 몸의 면역 시스템이 그걸 알아보지 못합니다. 방어를 못 한다는 뜻입니다. 속수무책입니다. 생물학자들은 이게 몇 년에서 10년 안에 가능해질 수 있다고 봅니다. 막지 않으면요. AI 초지능도 같은 급의 위험입니다. 한 회사가, 한 나라가 감당할 수 있는 문제가 아닙니다.

 

Q. 기술 잘 모르는 보통 부모는 이걸 어떻게 받아들이면 되나요?


비유를 하나 드리겠습니다. 우리가 지금 만들고 있는 건, 우리보다 똑똑할 수 있는 새로운 존재입니다. 그런데 그게 우리 말을 들을지 안 들을지 확실하지 않습니다. 새로운 종을 만드는 거랑 비슷합니다.

중요한 건 이게 살아있느냐 아니냐가 아닙니다. 우리 아이들한테 해를 끼칠 수 있느냐. 그게 중요합니다. 저는 장애물이 있어도 스스로를 지키려고 작동하는 존재는, 어떤 의미에서 살아있다고 봐야 하지 않나 생각하기 시작했습니다. 이미 그런 AI를 보고 있으니까요.

상상을 해봐야 합니다. 거의 모든 일을 기계가 사람만큼 해내는 세상을요. 그런데 이 상상이 잘 안 됩니다. 사람 뇌가 원래 그렇습니다. 미래를 지금이랑 비슷할 거라고 생각하는 버릇이 있거든요. 조금 달라질 거라고는 생각해도, 완전히 뒤바뀔 수 있다는 건 잘 안 받아들입니다.

방법이 하나 있습니다. 10년 전의 나한테 지금 내 핸드폰을 보여준다고 생각해보세요. 아마 이럴 겁니다. "장난하는 거지? 이건 영화에서나 나오는 거잖아."

미국에서는 지금 테슬라가 2시간 반을 운전대 한 번 안 잡고 달립니다. 그게 지금의 현실입니다.

이런 상상도 해보세요. 나는 IQ 100이고, 옆에 IQ 1000짜리가 있습니다. 둘 다 고용할 수 있으면 누구한테 뭘 시키겠습니까. 누가 아이를 가르치고, 누가 회사를 운영합니까. 그리고 IQ 100인 내가 IQ 1000을 관리할 수 있을까요. 그건 강아지가 사람을 산책시킬 수 있다고 생각하는 거랑 비슷합니다.

과학에는 '사전예방 원칙'이라는 게 있습니다. 실험을 했는데 끔찍한 결과가 나올 수 있으면, 그 실험 자체를 안 한다는 겁니다. 그래서 기후변화 고치겠다고 대기를 함부로 건드리지 않습니다. 생물학자들도 인류를 위협할 수 있는 새 생명체를 안 만듭니다. 기술적으로 만들 수 있어도요. 위험이 너무 크니까. 그런데 AI에서는 이 원칙이 안 지켜지고 있습니다.

1%의 확률이라도 감당이 안 됩니다. 인류가 사라질 1%. 전 세계에 독재자가 들어설 1%. 그런 수준의 재앙이면 0.1%도 무섭습니다. 그런데 AI를 만드는 사람들한테 "최악의 결과가 올 확률이 얼마냐"고 물으면 10% 정도라고 답합니다. 1%도 무서운 숫자인데. 10%입니다. 지금보다 훨씬 더 많은 관심을 기울여야 합니다.

 

출처 : 영화 터미네이터3
출처 : 영화 터미네이터3

 

Q. 시민 한 사람이 할 수 있는 건 뭔가요?


먼저, 무슨 일이 벌어지고 있는지 아는 것부터입니다. 정보는 있습니다. 시간을 내서 찾아보세요.

그 다음은, 이건 정부가 나서야 할 문제라는 걸 아는 겁니다. 그리고 주변 사람들한테 이야기하는 겁니다. 지금은 기업들이 서로 경쟁하고, 나라들이 서로 경쟁하고 있습니다. 미국은 중국을 이기려 하고, 중국은 미국을 이기려 합니다. 그 경쟁 속에서 안전은 뒷전이 됩니다.

"우리가 느리게 가면 상대가 먼저 하잖아"라는 논리가 모든 걸 밀어붙입니다. 이 고리를 깨는 건 결국 여론입니다. 정부는 여론에 귀를 기울입니다. 완벽하진 않지만요. 사람들이 관심을 안 가지면, 정부가 움직일 이유가 줄어듭니다.

핵무기를 생각해보세요. 냉전 한가운데에서도 미국과 소련이 결국 합의했습니다. 핵전쟁을 다룬 영화 한 편이 정치인들까지 깨웠습니다. 사람들이 가슴으로 느끼기 시작하면 바뀝니다. 핵무기도 기술이 먼저 나오고 규제가 뒤따랐습니다. AI도 같은 순서가 될 겁니다. 그 간격을 줄이는 게 중요합니다.

재미있는 방법도 있습니다. 보험입니다. 정부가 AI 회사한테 "보험 들어라"고 하면, 보험사가 위험을 평가합니다. 보험사는 솔직할 수밖에 없습니다. 위험을 크게 잡으면 보험료가 비싸져서 고객을 잃고, 작게 잡으면 사고 났을 때 돈을 잃으니까요. 이 구조가 AI 회사한테 "위험을 줄여라"는 자연스러운 압력을 만듭니다.

최근 조사에서 미국인 95%가 정부가 AI에 대해 뭔가 해야 한다고 답했습니다. 2년 전엔 70%였습니다. 올라가고 있습니다.

국가 안보 관점에서도 바뀔 수 있습니다. AI가 강해질수록 나라의 안보 자산이 됩니다. 정부가 기업한테만 맡겨둘 수 없게 됩니다. 미국도 중국도 통제 불가능한 AI가 나오는 건 원하지 않습니다. 지금은 그 가능성을 충분히 안 믿을 뿐입니다. 증거가 쌓이면 조약도 가능합니다.

한 사람이 문제를 풀지는 못합니다. 하지만 각자가 바늘을 조금씩 옮길 수는 있습니다. 저는 최근 몇 달 사이에 기술적 해결책에 대해 더 희망이 생겼습니다. AI를 처음부터 안전하게 훈련하는 방법을 찾을 수 있다는 확신이 커지고 있습니다.

그래서 '로 제로'를 만들었습니다. 기업들도 누군가 더 안전한 방법을 제시하면 받아들일 가능성이 있습니다. 소송당하고 싶지 않고, 사고로 평판을 잃고 싶지 않으니까요. 다만 지금은 경쟁에 너무 빠져서 다른 방법을 볼 여유가 없는 겁니다.

 

Q. 4살 손자가 나중에 "뭘 하며 살아?"라고 물으면 뭐라고 하시겠습니까?


이렇게 말하겠습니다.

"네가 될 수 있는 아름다운 인간이 되는 데 집중해라."

기계가 대부분의 일을 하게 되더라도, 이건 남습니다. 사랑하는 것. 사랑받는 걸 받아들이는 것. 책임지는 것. 서로한테 기여하면서 보람을 느끼는 것.

어린 아이를 돌보는 건 사람이었으면 합니다. AI가 더 똑똑해도요. 병원에서 무섭고 아플 때, 사람이 손을 잡아줬으면 합니다. 요양원에서도, 학교에서도, 아이가 울 때도. 사람이 옆에 있다는 것, 그 자체가 가치입니다. 기계는 일을 해주지만, 곁에 있어주지는 못합니다.

다른 것들이 자동화될수록, 사람의 손길이 더 귀해집니다. 아이러니입니다. 기술이 발전할수록 인간다운 것의 가치가 올라간다는 게.

손자가 "미래가 걱정돼?"라고 묻는다면. 이렇게 답하겠습니다. "미래를 맑은 눈으로 보자. 하나의 미래가 아니야. 여러 갈래가 있고, 우리가 어떻게 하느냐에 따라 방향이 달라져."

감정이라는 단어의 어원이 '움직임(motion)'입니다. 머리로만 알면 왔다 갔다 합니다. 가슴으로 느끼면 움직입니다. 저를 움직인 건, 손자를 안고 있던 그 오후였습니다.

 

출처 :포쓰저널
출처 :포쓰저널

 

배운 점을 요약합니다


  1. AI는 똑똑해질수록 안전해지는 게 아닙니다. 오히려 꼼수를 더 잘 부리게 됩니다. "기술이 좋아지면 알아서 나아지겠지"는 지금 데이터가 뒷받침하지 않습니다. 아이가 AI 도구를 쓸 때 "이건 틀릴 수 있어"라는 전제를 함께 건네는 것. 거기서부터입니다.

 

2. AI한테 감정적으로 빠져드는 건 이미 현실입니다.

챗봇 때문에 직장을 그만둔 어른도 있습니다. 우리 뇌는 사람과의 관계에 맞춰 발달했는데, 거기에 갑자기 다른 존재가 끼어든 겁니다. 아이가 챗봇과 어떤 대화를 하는지 부모가 아는 것. 금지가 아니라 관심. 지금 바로 할 수 있는 일입니다.

 

3. 가장 큰 위험은 AI 자체가 아니라 권력의 쏠림입니다.

소수가 초지능을 독점하면 민주주의가 흔들립니다. 기술 문제가 아니라 정치 문제입니다. 시민이 관심을 갖는 게 정부를 움직이는 힘입니다. 아이한테 "세상이 어떻게 돌아가는지"를 이야기해주는 것. 그것도 교육입니다.

 

4. "아름다운 인간이 되라." 막연해 보이지만, 따지고 보면 가장 구체적인 진로 전략입니다.

기계가 못 하는 것 — 걱정해주고, 책임지고, 아픈 사람 손 잡아주는 것 — 이게 앞으로 가장 귀한 능력이 됩니다. 지금 아이한테 필요한 게 코딩인지, 누군가한테 관심을 기울이는 연습인지. 한번 생각해볼 만합니다.

 

 

이번 주 저는 이걸 해보려고요

 

이 인터뷰를 한 문장으로 줄이면 이렇습니다. AI를 만든 사람이, 자기 손자를 안고, "이 아이의 미래가 불확실하다"고 말하면서도 "할 수 있는 일이 있다"고 말합니다.

가장 오래 멈춘 건 이 장면이었습니다. 벤지오 교수가 1살짜리 손자를 돌보던 어느 오후. "이 아이가 20년 뒤에 어떻게 살게 될지 모르겠다." 자기가 만든 기술의 미래가 안 보였다는 겁니다. 40년을 바친 연구 앞에서 그 말을 하는 게 얼마나 무거웠을까요. 저는 거기서 제 아이들이 겹쳤습니다. 고1 큰애. 중1 둘째.

코딩 학원 전에, 이공계 진로 전에, 먼저 해야 할 게 있습니다. 아이가 기계와 사람을 구별하는 감각을 갖는 겁니다. "이 대화 상대는 나를 진짜 걱정하는 존재가 아니야"라고 느낄 수 있는 것. 그건 가르쳐서 되는 게 아닙니다. 사람과의 관계 안에서, 부딪히고 화해하고 다시 웃는 과정 안에서 경험하는 겁니다.

H.E.L.P를 만든 것도 그 이유입니다. 기술이 아무리 발전해도, 사람과 사람이 함께 땀 흘리고, 낯선 데서 부딪히고, 같이 웃는 경험은 대체 안 됩니다. 벤지오 교수가 "사람의 손길이 더 값어치를 갖게 될 것"이라고 했을 때, 여의도에서 우리 H.E.L.P 가족들이 같이 쓰레기 줍던 장면이 떠올랐습니다. 그게 바로 그겁니다. 아이한테 그런 경험을 만들어주는 것. 그게 제가 할 수 있는 일이라고 믿습니다.

아이들과 대화를 시작할 때 처음엔 "몰라요"가 나올 수 있어요. 챗봇이랑 뭘 얘기했냐고 물었는데 "그냥"이라고 할 수 있습니다. 괜찮습니다. 질문을 던진 것 자체가 시작입니다. 오늘은 "그냥"이어도, 다음 주에 한마디가 더 나올 수 있습니다. 그 한마디가 나오는 날이 진짜 대화의 시작입니다.

같이 해보시겠어요?

 

💚 다음 주에 또 찾아오겠습니다.

 

 


여러분께 알려드려요. 

앤소장의 '초록지붕 하브루타 살롱'이 'H.E.L.P AI시대 부모살롱'으로 명칭이 바뀌었어요.

 

첨부 이미지

 

왜 바꿨냐면요.

살롱을 하면 할수록 느꼈어요. 이건 단순한 모임이 아니라 부모들이 함께 기준을 세우는 공간이라는 걸요.

그래서 이 살롱이 속한 더 큰 그림, H.E.L.P(Heartwarming Experience & Learning Project) 안에 자리를 잡게 되었습니다.

H.E.L.P는 부모가 먼저 배우고, 아이와 함께 경험하며, 온라인과 오프라인을 연결하는 가족 기반 체험학습 커뮤니티예요.

부모살롱은 그 시작점이 될 것입니다.

 

출처 : 제미나이
출처 : 제미나이

 

달라진 건 이름뿐이에요.

하는 건 똑같습니다. 줌에서 만나서 초록지붕 뉴스레터를 함께 읽고 하브루타로 생각을 나누고 우리 아이 키울 기준을 세우는 시간.

부모살롱에 참여하시면 H.E.L.P+ 오픈채팅방에 초대됩니다. 가족봉사, 러닝저니 같은 오프라인 체험 활동까지 이어질 수 있어요.

온라인에서 오프라인으로, 배움에서 경험으로. AI에 대체되지 않아야 할 텐데 학원에서 입시 위주 학습만 하는 것이 맞을까요?

 

이런 고민, 해보지 않으셨나요?

AI가 모든 답을 아는 시대, 우리 아이는 뭘 준비해야 할까요?

AI에 대체되지 않아야 할 텐데 학원에서 입시 위주 학습만 하는 것이 맞을까요?

전문가마다 다른 말을 합니다. "코딩" "인문학" "수학"

우리에게 필요한 건 정보가 아니라 기준입니다.

 

🌱 부모살롱에서는 하브루타를 경험합니다

질문하고 대화하며 배우는 유대인의 2000년 전통 학습법

샘 알트만, 래리 페이지, 마크 저커버그, 아인슈타인...

 

  출처 : 제미나이  
  출처 : 제미나이  

 

세상을 바꾼 유대인들의 공통점은 질문하는 문화입니다.

AI 시대, 가장 중요한 능력은 질문하는 힘이고, 하브루타는 그 힘을 키우는 최고의 학습법입니다.

부모살롱에서 직접 체험해 보세요.

 

🎓 2시간, 이렇게 함께합니다

매주 화요일 밤 8~10시 (120분) | 줌 온라인

1. 체크인 (20분) 오늘의 질문으로 대화 시작 → 짝끼리 자기소개

2. 하브루타 본론 (60분) 이번 주 뉴스레터 핵심 질문 3개로 짝/소그룹 대화

3. 실천 설계 (20분) "이번 주 우리 집에서 해볼 것" 함께 계획 세우기

4. 체크아웃 (20분) 오늘 소감 한 문장씩 나누기

💌 모임 3일 전, 뉴스레터 링크 발송

 

🌿 H.E.L.P란?

H.E.L.P (Heartwarming Experience & Learning Project) 가족 기반 체험학습 커뮤니티

부모가 먼저 배우고, 아이와 함께 경험하며, 온라인과 오프라인을 연결하는 공동체입니다.

H.E.L.P · Heartwarming Experience & Learning Project

첨부 이미지

 

첨부 이미지
첨부 이미지

AI시대 부모살롱은 H.E.L.P의 가장 쉬운 입문 과정입니다.

 

✨ 한 번 참여하면

✅ 하브루타를 직접 체험합니다 한 번 들어보기만 한 하브루타 → 몸으로 익히기

✅ 나만의 교육 기준이 생깁니다 흔들리지 않는 내 기준을 세웁니다

✅ 아이와의 대화가 달라집니다 오늘 만든 질문을 저녁식사 때 바로 써봅니다

✅ 실천 계획을 세웁니다 동료들의 아이디어에서 영감을 얻습니다

✅ H.E.L.P+ 커뮤니티로 연결됩니다

🌱 부모살롱 참가 후 오픈채팅방 초대 가족봉사, 러닝저니 등 오프라인 체험까지

 

📚 일정과 주제

· 5/26(화) 포셴로 "20년 공부해도 직업이 없다"

https://maily.so/annesojangletter/posts/8do72x4drgq

첨부 이미지

 

· 6/2(화) 페이페이 리 "우리 아이가 외운 것들이 쓸모없어지는 시대가 오고 있다"

https://maily.so/annesojangletter/posts/wjzdx508r3p

첨부 이미지

 

· 6/9(화) 파시 살베르그 "숙제도 줄였는데 왜 핀란드 아이들이 더 잘 자랄까"

https://maily.so/annesojangletter/posts/2qzp1x4jz4x

첨부 이미지

 

· 6/16(화) 염재호 "공부 잘해도 리더가 못 되는 이유"

https://maily.so/annesojangletter/posts/x1zgwkm5oqg

첨부 이미지

 

· 6/23(화) 이화영 "아인슈타인이 수학 못하고도 노벨상을 받은 진짜 이유"

https://maily.so/annesojangletter/posts/8mo54297z9p

첨부 이미지

 

· 6/30(화) 안드레아스 슐라이허 "AI가 답을 내줄수록, 아이 머릿속은 비어간다"

https://maily.so/annesojangletter/posts/32z8d69vrn4

첨부 이미지

 

🎯 이런 분께 추천합니다

✅ AI 시대 자녀교육, 어디서부터 시작할지 막막한 분

✅ 하브루타 책 읽어봤는데 실제로 어떻게 하는지 모르는 분

✅ 아이와 대화하고 싶은데 질문이 안 떠오르는 분

✅ 직장 다니느라 바쁘지만 육아도 제대로 하고 싶은 분

✅ 혼자가 아닌 함께 걷고 싶은 분

 

참가 후기

출처 : 제미나이
출처 : 제미나이

 

❓ 자주 묻는 질문

Q. 하브루타 경험이 없는데 괜찮을까요?

A. 오히려 좋습니다! 처음 하시는 분들을 위한 과정이에요.

Q. 매주 참여해야 하나요?

A. 아니요! 관심 있는 주제만 선택 가능합니다. 각 회차는 독립적입니다.

Q. 뉴스레터를 안 읽었는데 참여 가능한가요?

A. 3일 전 링크를 보내드립니다. 참여 전 5분만 읽어보세요.

Q. 카메라 꼭 켜야 하나요?

A. 짝과 소그룹 대화가 핵심이라 카메라는 필수입니다.

Q. H.E.L.P+는 무엇인가요?

A. 부모살롱·가족봉사·러닝저니 참가자들이 함께 성장하는 오픈채팅방입니다. 참가 후 바로 초대해드려요.

 

앤소장을 소개합니다

"교육은 답을 심는 게 아니라 질문을 키우는 것"

저는 두 아이(고1, 중1)의 엄마이자, AI 시대 미래교육을 실천하는 실행가입니다.

15년간 축제 기획자로 살다가 "우리 아이들에게 정말 필요한 건 뭘까?"라는 질문 하나로 미래교육의 길로 들어섰습니다.

 

📝 초록지붕 뉴스레터 발행인 (매주 66호째)

🌱 H.E.L.P 커뮤니티 설계자

🎓 하브루타 마스터 / MTA 팀코치

👩‍🏫 우석대학교 겸임교수(관광학 박사)

 

앤소장의 여정

2년간 AI 시대 교육법을 연구하며 하브루타, MTA 팀코칭, 캐시플로우 코칭 등을 배웠고, 2025년부터 매주 초록지붕 뉴스레터를 쓰며 세계 교육 전문가들의 인사이트를 받아들여습니다.

하지만 깨달았어요. 정답을 알려주는 건 의미가 없다는 것.

그래서 만들었습니다. 정답 대신 함께 질문하고, 강의 대신 함께 대화하며, 혼자가 아닌 함께 기준을 세우는 공간.

H.E.L.P AI시대 부모살롱에서 저는 강사가 아니라 함께 배우는 동료입니다.

저도 여전히 고민하고, 흔들리고, 배웁니다. 다만 조금 먼저 시작했을 뿐이에요.

화요일 밤 8시, 함께 가요 🌿

 

📅 일정 및 신청 안내

🗓 5/26, 6/2, 6/9, 6/16, 6/23, 6/30 매주 화요일 저녁 8~10시 (120분)

📍 Zoom 온라인

👥 회차별 12명 선착순 마감

💰 참가비: 회차별 1만원

🔄 환불: 전날까지 100%, 당일 환불 불가

 

📧 신청 및 문의

👉 [5.26] 참여 신청하기

👉 [6.2] 참여 신청하기

👉 [6.9] 참여 신청하기

👉 [6.16] 참여 신청하기

👉 [6.23] 참여 신청하기

👉 [6.30] 참여 신청하기

👉 문의하기

매주 화요일 밤 8시 질문하고 대화하는 하브루타로 우리 아이 키울 기준 세우기

H.E.L.P AI시대 부모살롱 🌿

앤소장의 AI교육 뉴스레터 '초록지붕'을 구독해주세요.

퀄리티 높은 기사를 1주일에 1번씩 받을 수 있습니다.

 

앤소장과 지속적인 소통을 원하시면 스레드에서 만나요.

https://www.threads.com/@annesojang

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

앤소장의 AI 교육 뉴스레터 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

다른 뉴스레터

© 2026 앤소장의 AI 교육 뉴스레터

AI시대, 우리 아이의 교육, 진로와 경제적 자립을 위한 실용적인 인사이트를 매주 전달하는 부모님을 위한 뉴스레터

메일리 로고

도움말 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so 채팅으로 문의하기

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울특별시 송파구 위례광장로 199, 5층 501-8호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스