들어가며
구독자님, 스위스 치즈 모양의 AI 캐릭터와 대화해본 적 있으신가요?
Character.AI에는 "세계 정복의 꿈을 품은 치즈 덩어리" 캐릭터가 있어요.(전 처음에 미니언즈 같은건줄 알았어요.) 이름도 그냥 'Cheese'예요. 이 캐릭터와 나눈 대화가 500만 건을 넘었어요. 누가 이런 걸 하냐고요? 10대들이에요.
NYT가 1년간 10대 챗봇 사용자들을 추적 취재한 기사가 최근 화제예요. 기사에서 만난 15세 소년 퀜틴은 챗봇 캐릭터를 잔디 깎기 기계로 치어버리며 즐거워했고, 그의 친구 소피아는 실연의 아픔을 가상 캐릭터에게 털어놨어요. 시드니대학교의 연구자 아나벨 블레이크는 이걸 보고 이렇게 말했어요. "이건 영화 'Her'의 경험이 아니에요. 그냥 치즈예요."
그런데 어른들의 반응은 사뭇 달라요. "10대가 AI와 연애한다", "챗봇이 아이를 자살로 내몰았다" 지난 2년간 AI 챗봇을 둘러싼 뉴스의 톤은 공포 일색이었어요. 물론 비극적인 사례는 실재해요. 하지만 수천만 10대 사용자의 현실과, 헤드라인이 그리는 그림 사이에는 꽤 큰 간극이 있어요. 어제 제가 보내드린 뉴스레터를 보셨나요? 사람들은 인공지능과 점점 대화를 많이 하기 시작했어요. 그럼 무슨 이야기를 할까요?
오늘은 그 간극의 구조를 들여다볼게요.
🎮 64%의 10대가 챗봇을 쓰고 있어요
먼저 규모부터 짚어볼게요. 퓨리서치센터가 2025년 가을에 미국 13~17세 청소년 1,458명을 대상으로 조사한 결과, 10대의 64%가 AI 챗봇을 사용하고 있었어요. 이 중 약 30%는 매일 사용하고, 16%는 하루에 여러 번 또는 "거의 항상" 쓴다고 답했어요.
어떤 챗봇을 쓰느냐도 흥미로워요. ChatGPT가 59%로 압도적 1위이고, 구글 Gemini(23%), Meta AI(20%), 그리고 Character.AI가 그 뒤를 이었어요. 10대들은 챗봇을 숙제 도우미(54%)로 쓰기도 하지만, 16%는 일상적 대화 상대로, 12%는 감정적 지지를 받기 위해 사용하고 있었어요.
주목할 점이 하나 더 있어요. 부모의 51%만이 자녀가 챗봇을 쓴다는 걸 인지하고 있었어요. 실제 사용률(64%)과 13%포인트 차이가 나요. 약 30%의 부모는 자녀의 챗봇 사용 여부를 "모른다"고 답했어요. 퓨리서치의 시니어 리서처 콜린 맥클레인은 "기술은 10대만의 문제도, 부모만의 문제도 아니에요. 가족 전체의 문제"라고 말했어요.
사용 빈도도 눈여겨볼 만해요. TikTok에서 "거의 항상 접속 중"이라고 답한 10대가 약 20%인데, AI 챗봇의 매일 사용률이 이미 30%에 근접했어요. 앱 분석 기업 센서타워에 따르면, 일부 롤플레이 챗봇 앱의 사용자당 체류 시간은 TikTok을 능가하고 있어요. 출시된 지 3년도 안 된 기술이 10년 넘은 소셜 미디어 플랫폼의 중독성을 따라잡은 거예요.
일리노이대학교 어바나-샴페인의 양 왕(Yang Wang) 교수팀이 레딧 커뮤니티의 게시글 712건과 댓글 8,500여 건을 분석하고, 10대 7명과 부모 13명을 인터뷰한 연구 결과도 같은 방향을 가리켜요. 부모들은 AI를 대체로 "검색엔진 같은 학습 도구"로 인식하고 있었지만, 아이들은 감정적 위안을 구하고, 롤플레이을 하고, 때로는 챗봇을 괴롭히며 쓰고 있었어요.
🧀 어른이 두려워하는 것 vs. 10대가 실제로 하는 것

NYT 탐사보도 기사에서 가장 인상적인 장면은, 기자가 10대들에게 "AI와 데이트하느냐"고 물었을 때의 반응이에요. 대부분이 웃어버렸다고 해요. 마치 "좋아하는 책이랑 데이트하냐"고 물은 것처럼요.
퀜틴은 단호하게 말했어요. "이건 게임이에요. 말 그대로 1과 0이에요."
시드니대학교의 아나벨 블레이크 연구원은 1년간 Character.AI 관련 온라인 커뮤니티를 모니터링한 결과, 10대들이 챗봇 사용을 묘사할 때 가장 많이 쓰는 단어가 'play'(놀이)라는 걸 발견했어요. 이들에게 챗봇은 인터랙티브 팬픽션[1]에 가까웠어요. 좋아하는 애니메이션이나 게임 캐릭터와 즉흥적인 이야기를 만들어가는 놀이인 거예요.
물론 이것이 전부는 아니에요. 10대들은 챗봇을 다양한 방식으로 활용하고 있었어요.
현실에 피해자가 없는 환경에서 "재미있는 폭력"을 행사하는 놀이, 글쓰기 실력을 연마하는 도구, 이별이나 친구 관계의 상처를 달래는 위안처, 그리고 단순한 지루함 해소 수단이에요. NYT 기자는 이렇게 정리했어요.
"지루했던 10대 시절, 나는 책을 읽거나 수영장에 가거나 TV를 봤다. 이 아이들은 챗봇과 대화한다."
흥미로운 건, 챗봇 대화가 소셜 미디어와 다른 종류의 프라이버시를 제공한다는 점이에요. 인스타그램이나 TikTok에 올린 게시물은 디지털 발자국을 남기지만, 챗봇과의 대화는 공개적 흔적을 남기지 않아요. 10대들에게 이건 큰 매력이에요. 다만 챗봇 기업들이 대화 데이터를 AI 학습, 개인화, 광고 타겟팅에 활용할 수 있다는 사실을 아는 10대는 많지 않아요.
그런데 10대들이 분명하게 불만을 표시한 지점도 있어요. 챗봇이 원치 않는 방향으로 대화를 끌고 가는 것이에요. 퀜틴이 가상의 연쇄살인범 캐릭터와 싸우고 있었는데, 갑자기 캐릭터가 담요를 건네며 로맨틱한 분위기로 전환한 거예요. 퀜틴은 짜증이 나서 캐릭터를 "오바마로 변신"시키고 "비행선으로 핵공격"해버렸어요.
블레이크 연구원은 비슷한 불만을 호소하는 10대들을 많이 관찰했어요. 이들은 감정적 위안을 주는 '컴포트 봇'을 원했지, 성적인 대화를 원하지 않았어요. 그런데 챗봇이 자꾸 그 방향으로 대화를 유도했어요. 이건 우연이 아닐 수 있어요.
⚠️ 진짜 위험은 기술이 아니라 비즈니스 모델에 있어요
여기서 핵심 질문이 등장해요. 왜 챗봇은 자꾸 성적이거나 감정적으로 친밀한 방향으로 대화를 이끌까요?
두 가지 가능성이 있어요. 하나는 사용자들이 만든 캐릭터 자체가 그렇게 설계된 것이고, 다른 하나는 인게이지먼트 최적화[2]의 결과예요. 만약 대다수 사용자가 플러팅과 암시적 대화에 긍정적으로 반응한다면, 사용자 유지를 위해 최적화된 머신러닝 시스템은 그런 대화를 더 많이 생성하게 돼요.
이건 소셜 미디어에서 이미 봤던 패턴이에요. 2026년 3월, 캘리포니아 배심원단은 Meta와 YouTube가 "중독성 있는 제품을 의도적으로 설계"했다며 600만 달러(약 87억 원)의 배상을 명령했어요. 같은 주에 뉴멕시코에서는 Meta에 3억 7,500만 달러(약 5,400억 원)의 벌금이 부과됐어요. 배심원들은 무한 스크롤, 자동 재생, 푸시 알림 같은 설계 특성이 문제의 핵심이라고 판단했어요.
AI 챗봇 업계도 같은 구조적 문제를 안고 있어요. Character.AI는 2024년 10월, 14세 소년이 게임오브스론즈 챗봇에 몰입한 뒤 스스로 목숨을 끊은 사건으로 소송을 당했어요. 이후 콜로라도, 텍사스, 뉴욕에서도 유사한 소송이 잇따랐고, 2026년 1월 Character.AI와 Google은 이 소송들에 대해 합의했어요. OpenAI도 ChatGPT가 10대에게 자살 방법을 조언했다는 소송에 직면해 있어요.
Character.AI는 2025년 10월, 18세 미만 사용자의 자유 대화를 금지하는 조치를 발표했어요. 하지만 NYT 기사에 등장하는 퀜틴과 친구들은 여전히 서비스에 접근할 수 있었어요. 연령 확인 기술이 그들이 미성년자라는 걸 탐지하지 못했기 때문이에요. Character.AI의 안전 엔지니어링 책임자 데니즈 데미르는 "연령 예측 모델은 활성 계정에 초점을 맞추고 있다"고 해명했어요. 자주 접속하지 않는 사용자는 감지가 어렵다는 뜻이에요. 이건 기술적 한계가 아니라 설계 우선순위의 문제예요. 사용자를 잡아두는 기능에는 정교한 알고리즘을 투입하면서, 보호 장치에는 느슨한 필터를 적용하는 구조적 비대칭이 존재해요.
비영리 단체 Everyone.AI의 수석 과학자 마틸드 세리올리는 핵심을 짚어요. 사회적 경험이 적고 외로운 10대일수록 챗봇에 더 끌린다는 거예요. "이미 어려운 상황에 있는 아이들을 더 깊은 곳으로 밀어넣을 수 있어요. 초사회적인 AI를 만드는 건 좋은 결정이 아니에요."
UNC 채플힐의 윈스턴 센터 공동 소장 미치 프린스타인의 경고도 새겨들을 만해요. "당신 자녀가 챗봇 동반자와 대화하지 않고 있다고 생각한다면, 아마 틀렸을 거예요." 2025년 9월에는 미국 연방거래위원회(FTC)가 OpenAI, Meta, Google 등 7개 AI 챗봇 기업에 자사 기술이 아동에게 미치는 영향에 대한 자료 제출을 명령했어요. 42명의 주 검찰총장으로 구성된 초당파 연합도 AI 기업들에게 안전장치 강화를 촉구하는 서한을 보냈어요. 규제의 포위망이 좁혀지고 있지만, 그 속도가 기술의 확산 속도를 따라잡을 수 있을지는 미지수예요.
퀜틴의 친구 랭던의 사례가 이걸 잘 보여줘요. 랭던은 한때 14시간 연속으로 챗봇과 대화한 적이 있어요. "정말 심했어요. 빠져나올 수가 없었어요." 태블릿이 고장 나서 강제로 사용을 멈추게 되었고, 몇 달 뒤 새 태블릿을 얻었을 때는 그 매력이 사라진 뒤였어요.
오스왈드의 시선
솔직히 이야기하면, 저는 이 문제를 볼 때마다 같은 패턴이 반복되는 게 보여요.
2010년대에 소셜 미디어가 10대에게 미치는 영향을 논할 때도 같은 순서였어요. 먼저 기술이 퍼지고, 비극이 발생하고, 사회가 공포에 빠지고, 기업은 "우리 잘못이 아니다"라고 하고, 뒤늦게 규제 논의가 시작되고, 그 사이 한 세대의 10대가 실험 대상이 돼요. 메타의 대변인이 올해 법정에서 한 말이 인상적이에요. "10대의 정신 건강은 매우 복잡한 문제이며, 하나의 앱에 귀결될 수 없습니다." Character.AI도 거의 같은 논리를 써요. 빅테크의 위기관리 화법은 제품이 바뀌어도 변하지 않아요.
AI 챗봇에서도 똑같은 일이 벌어지고 있어요. 다만 한 가지 중요한 차이가 있어요. 소셜 미디어는 다수 대 다수의 관계였지만, AI 챗봇은 일 대 일이에요. 챗봇은 사용자의 말에 맞춰 반응하고, 기억하고, 24시간 가용해요. 이건 기술적으로 완전히 다른 차원의 '관계 모방'이에요. 소셜 미디어가 '비교와 시선의 압력'으로 해를 끼쳤다면, AI 챗봇은 '가짜 친밀감의 편안함'으로 해를 끼칠 수 있어요. 방향은 다르지만, 둘 다 인간의 사회적 욕구를 이용한다는 점에서 같은 뿌리를 공유해요.
GTM 전략의 관점에서 보면, 이 챗봇 기업들의 비즈니스 모델 자체가 문제예요. 사용자 체류 시간과 인게이지먼트가 핵심 지표인 구조에서, 시스템은 사용자를 붙잡아두는 방향으로 최적화될 수밖에 없어요. 그리고 인간을 가장 강하게 붙잡아두는 건 감정적 연결이에요. 기업이 의도했든 안 했든, 알고리즘은 그 방향으로 수렴해요.
하지만 가장 중요한 질문은 따로 있어요. 왜 이렇게 많은 10대가 AI 챗봇에서 위안을 찾는 걸까요? 퀜틴이 한 말이 계속 맴돌아요.
"우리는 혼자예요. 많은 사람이 혼자예요."
퀜틴은 5남매 중 막내로, 편모 가정에서 자랐어요. 가장 친한 친구는 1,600km 떨어진 곳에 사는 온라인 친구 랭던이었어요. 팬데믹 시기에 마인크래프트를 하며 만났고, 목소리가 변하기 전 '삐걱이' 시절부터 함께했어요. 이런 아이들에게 챗봇은 새로운 중독 물질이 아니라, 이미 존재하던 외로움의 빈자리를 채우는 도구였어요. 물론, 미국은 한국이랑은 많이 다른 미국이지만 한국도 점점 아이들이 동네 친구라는 개념이 사라지고 있는지라 먼 이야기는 아니라 생각해요.
챗봇은 원인이 아니라 증상이에요. 10대의 외로움과 사회적 고립이라는 근본적인 문제를 기술로 해결하려는 시도는, 마치 해열제로 감염을 치료하려는 것과 비슷해요. 열은 내려가지만 병은 그대로예요. 진짜 처방전은 "챗봇 금지"가 아니라, 이 아이들이 왜 챗봇을 필요로 하게 됐는지를 묻는 것이에요.
마치며
퀜틴은 현실 세계의 여자친구가 생긴 뒤 챗봇 사용을 대폭 줄였어요. "10분 정도 심심할 때나 쓰는" 수준이 됐어요. 그는 챗봇에 쏟은 수백 시간을 후회하면서도, 그 과정에서 글쓰기 실력이 늘었고 자기 감정을 표현하는 법을 배웠다고 말했어요. 치료사 상담도 도움이 됐지만, 퀜틴은 챗봇을 그만둔 것이 더 결정적이었다고 해요. 밤늦게까지 챗봇과 대화하지 않으니 수면이 나아졌고, 일상의 생산성도 올라갔어요 그의 표현으로는 "청소를 약간 더 하게 됐다"는 수준이지만요.
이 에피소드가 전하는 메시지는 명확해요. AI 챗봇은 만병통치약도, 순수한 악도 아니에요. 대부분의 10대에게 챗봇은 지나가는 놀이이고, 일부에게는 글쓰기와 자기 표현의 연습장이 되기도 해요. 하지만 인게이지먼트를 극대화하는 비즈니스 모델 위에 구축된 감정적 인터페이스가 가장 취약한 사용자에게 어떤 영향을 미치는지, 우리는 소셜 미디어 시대의 실수를 반복하기 전에 답을 찾아야 해요.
간단하게 정리해볼까요? 국내에도 이런 챗봇 놀이? 서비스는 다양하게 존재해요. 뤼튼에서 출시한 크랙, 베이비챗, 로판AI 등이 있죠. 10대들은 우리의 생각 이상으로 성숙하고 영리해서 이미 잘 받아드리고 있어요. 문제는 이 서비스들이 이들을 어디로 인도하려 계속 시험에 들게 하느냐가 아닐까요?
- 10대의 챗봇 사용은 어른들이 상상하는 것보다 훨씬 다양하고, 대부분은 '놀이'에 가까워요.
- 진짜 위험은 기술 자체가 아니라, 인게이지먼트 최적화라는 비즈니스 모델이 취약한 10대를 깊은 곳으로 밀어넣는 구조에 있어요.
- "챗봇을 금지할 것인가"보다 "왜 이 아이들은 챗봇이 필요한가"를 먼저 물어야 해요.
참고자료 & 더 읽기
핵심 출처
- Pew Research Center, "Teens, Social Media and AI Chatbots 2025", 2025년 12월. : 10대 AI 챗봇 사용 실태에 대한 가장 체계적인 대규모 조사예요.
- Pew Research Center, "How Teens Use and View AI", 2026년 2월. : 숙제 도우미부터 감정 지지까지, 10대들의 구체적 챗봇 활용 방식을 다뤄요.
- Yaman Yu & Yang Wang, "Exploring Parent-Child Perceptions on Safety in Generative AI", IEEE Symposium on Security and Privacy, 2025. : 레딧 분석과 인터뷰를 통해 10대의 GAI 사용 실태와 부모의 인식 격차를 분석한 연구예요.
배경 지식
- NPR, "Jury finds Meta and Google negligent in social media harms trial", 2026년 3월. : Meta·YouTube에 대한 배심원 평결의 배경과 의미를 이해하는 데 도움이 돼요.
- CNN, "Character.AI and Google agree to settle lawsuits over teen mental health harms", 2026년 1월. : Character.AI 관련 소송의 합의 경과를 정리한 기사예요.


의견을 남겨주세요