🧐 Summary
1️⃣ 우리는 AI의 확신에 영향을 받아 스스로도 더 확신하게 되며, 그럴듯한 설명이나 편집된 영상은 거짓된 정보와 기억마저 진짜처럼 믿게 만듭니다.
2️⃣ AI는 감정적으로 배려된 말투로 인간 사이의 벽을 허물고, 대신 말을 하거나 시선만으로도 의사를 파악하며 대화의 방식을 바꾸고 있습니다.
3️⃣ 기술은 SNS 사용 방식부터 가상현실의 몰입 경험까지 우리의 소통 습관과 감각을 재구성하며, 기대감조차 경험의 질을 바꾸는 중요한 요소로 작용하고 있습니다.
안녕하세요 구독자님, 올해도 CHI 논문 리뷰 시간이 돌아왔습니다!
오늘의 이야기를 전해드리기 전에 하나 알려드릴것이 있어요.
inspireX에서 5월 말에 구독자님들과 다시 월간 세미나를 진행합니다.
많은 관심과 참여 부탁드려요!🥳🥳
이번 CHI 2025는 4월 말, 일본 요코하마에서 열렸어요. 올해 주제는 바로 ‘이키가이(Ikigai)’. 일본어로 ‘삶의 의미’ 혹은 ‘존재 이유’를 뜻하는 말이에요. 기술이 우리 삶의 의미와 균형을 어떻게 찾아줄 수 있을지를 함께 고민하는 자리였죠.
그래서 이번 뉴스레터에서는 그런 주제에 딱 맞는 논문 10편을 뽑아봤습니다. 그리고 이 논문들을 다음 세 가지 질문으로 나눠 소개해드릴게요.
- 우리는 기술을 얼마나 믿어도 될까?
- 기술은 우리의 대화와 감정을 어떻게 바꿀까?
- 기술은 우리의 관계와 감각을 어떻게 바꿔왔을까?
그럼 같이 살펴볼까요?
우리는 기술을 얼마나 믿어도 될까?
기술은 점점 똑똑해지고, 우리는 점점 더 의지하게 됩니다. 그런데 그 믿음은 항상 옳은 방향일까요?
사람이 AI의 자신감을 따라 한다면
AI가 “이건 내가 80% 확신하는 답이야”라고 말하면, 사람도 자연스럽게 더 확신을 가지게 된다는 연구가 있어요[1]. 참가자들은 AI와 함께 소득 예측 문제를 풀었는데, AI는 매번 일정한 정확도와 자신감 수치를 보였어요. 그런데 AI가 확신을 보일수록 사람도 자신의 판단에 더 확신을 가지게 되었고, 심지어 AI가 사라진 이후에도 그 확신은 유지됐습니다.
하지만 문제는, 그 확신이 꼭 옳은 방향으로 이어지진 않았다는 점이에요. AI의 자신감을 그대로 따라 하다가 오히려 더 틀린 판단을 자신 있게 하기도 했어요. 결국, AI의 ‘자신감 표현 방식’이 사람의 의사결정에 큰 영향을 준다는 점에서, 향후 시스템 설계에서 이 부분을 더 신중하게 고려해야 합니다.
거짓말이 더 설득력 있다면
AI의 설명 방식도 사람의 판단에 큰 영향을 줍니다[2]. 한 실험에서는 AI가 퀴즈 문제에 대해 단순히 맞다/틀리다를 말하는 게 아니라, 그 이유까지 설명해줬을 때 사람들이 얼마나 판단을 바꾸는지를 살펴봤어요. 놀랍게도, 일부러 조작한 ‘거짓 설명’이 정직한 설명보다 더 설득력 있게 받아들여졌습니다.
핵심은 ‘논리적으로 그럴듯한 설명’이었어요. 말이 되면 거짓이어도 믿고, 오히려 더 확신하게 되죠. 특히 자신을 똑똑하다고 생각하는 사람일수록 더 잘 속았다는 점이 흥미로웠어요. AI가 어떻게 설명하느냐에 따라 진실보다 거짓을 더 믿게 되는 상황이 벌어질 수 있다는 경고죠.
AI가 만든 기억을 진짜로 믿는다면
AI가 만든 이미지나 영상이 사람의 기억까지 바꾼다면 어떨까요? 실제로 AI로 살짝 편집한 영상은 ‘거짓 기억’을 2배 이상 증가시켰습니다[3].
원본 사진을 본 뒤, 나중에 AI가 살짝 수정한 영상이나 이미지를 본 사람들은, 전혀 없던 장면을 실제로 봤다고 믿는 경우가 많았어요. 그리고 그 기억에 대해 강한 확신까지 가지고 있었습니다.
특히 인물의 얼굴이 바뀐 경우 거짓 기억이 더 쉽게 형성됐고, 배경이 바뀐 경우엔 기존 기억이 왜곡됐어요. 더 놀라운 건, 영상 옆에 ‘AI 편집 영상’이라는 표시가 있었는데도 대부분의 사람들이 속았다는 점이에요. 단순한 주의 문구만으로는 기억 왜곡을 막기 어렵다는 걸 보여줍니다.
기술은 우리의 대화와 감정을 어떻게 바꿀까?
감정, 공감, 협업 같은 건 인간만의 영역일까요? 기술이 대화의 흐름까지 바꾸기 시작했어요.
AI가 인간 사이의 벽을 허문다면
사람은 보통 자신과 의견이 같은 사람에게 더 호감을 느끼고, 다른 의견을 가진 사람에게는 거리감을 느껴요. 그런데 AI가 ‘관계 중심 말투’를 제안하면 이런 장벽이 낮아질 수 있다는 연구가 있습니다[4].
실험에서는 참가자들이 논쟁적인 주제로 채팅을 할 때, AI가 두 가지 유형의 메시지를 제안했어요. 하나는 개인화된 말투, 다른 하나는 상대와의 관계에 따라 말투를 조절하는 방식이었죠.
결과적으로, 관계 중심 메시지를 본 사람들은 반대 의견을 가진 사람들과도 더 쉽게 협력하고 공감할 수 있었어요. 말투 하나 바꿨을 뿐인데, 대화 분위기와 태도가 확 달라진 거예요. AI는 단순히 도구가 아니라, 대화를 유연하게 만들어주는 조력자 역할을 할 수 있다는 걸 보여주는 연구였습니다.
내가 말하지 않아도, AI가 말해준다면
다른 연구에서는 AI가 사용자의 말을 대신해주는 경우, 사람들이 얼마나 효율적이고 감정적으로 편안한지를 비교했습니다[5].
AI가 전적으로 대화를 맡은 경우, 사용자는 문제를 더 잘 풀었지만 대화는 어색하고 통제감이 떨어졌다고 느꼈어요. 반면, 사람과 AI가 함께 말을 나누는 방식은 자연스럽지만 오히려 집중력이 떨어졌죠.
재미있는 건, 상대방은 대부분 AI가 말하는 줄 몰랐다는 사실이에요. 결국 “내가 직접 말한다”는 느낌은 여전히 중요하다는 걸 보여줍니다. 효율성보다 감정적인 연결이 사람에게 얼마나 중요한지를 잘 보여준 사례죠.
가상 공간에서도 아무 말이나 알아들을 수 있다면
VR이나 AR 환경에서 “이거 어때?”, “저기 저건 뭐야?” 같은 말도 AI가 이해할 수 있을까요? ‘Walkie-Talkie’라는 시스템은 이걸 가능하게 만들었어요[6].
비결은 시선 추적입니다. 사용자가 어떤 걸 오래 바라보는지를 기록하고, 모호한 언어와 결합해 AI가 의도를 파악하는 방식이에요.
실제로 실험 참가자들은 무의식적으로 “이거”, “저거” 같은 표현을 썼는데, AI는 사용자의 시선을 바탕으로 대상을 정확히 추론했어요. 시선을 기반으로 한 모호한 표현 이해는 사용자의 자연스러운 행동을 그대로 반영해 피로도도 줄였고, 정확성도 높였습니다. 어쩌면 말보다 먼저 말하는 건, 우리의 ‘눈’이었나 봐요. 기술이 더 ‘사람다워지는’ 한 방법이 될 수 있겠죠.
기술은 우리의 관계와 감각을 어떻게 바꿔왔을까?
사람도 기술도 함께 진화합니다. 우리의 소통 방식과 습관, 기대, 감각까지 바꿔놓고 있어요. 사람과 기술은 어떻게 함께 진화해온 걸까요?
SNS가 더 조용해진 이유를 묻는다면
10년간 같은 사람들을 세 차례에 걸쳐 인터뷰한 연구에 따르면, SNS 사용 방식에는 세 가지 변화가 있었어요[7].
공개에서 비공개로, 활발한 참여에서 조용한 구경으로, 재미에서 피로감으로 바뀌었습니다.
처음엔 좋아요, 팔로워 수에 신경 쓰며 활발히 참여했지만, 지금은 친한 사람에게만 공유하거나 ‘스토리’처럼 일시적인 방식이 더 선호되고 있어요. SNS는 점점 더 ‘구경만 하는 공간’이 되어가고 있죠.
하지만 SNS의 본질인 ‘연결 욕구’는 여전히 살아 있어요. 다만 그 표현 방식이 작고 사적인 커뮤니티로 이동하고 있을 뿐이죠.
기대감이 결과를 바꿀 수 있다면
사용자 설정 기능은 실제로 작동하지 않아도, ‘기대감’만으로 만족도를 높일 수 있다는 연구가 있습니다[8].
실제로는 작동하지 않는 피드 설정 기능을 일부 사용자에게 보여줬는데, 그 설정을 클릭한 사람들은 피드에 대해 더 높은 만족도를 보였어요.
하지만 기능이 있다는 것만으로는 아무런 효과가 없었습니다. 중요한 건 “내가 뭔가 바꿨다”는 느낌이었죠. 이런 기대감 효과는 작지만, 이를 악용한다면 사용자 만족도를 조작하는 윤리적 문제로 이어질 수도 있어요.
몰입감을 정확하게 측정할 수 있다면
VR에서의 몰입감은 무엇이 만들까요? 기존 설문은 그 이유를 구체적으로 설명하지 못했지만, 한 연구에서는 기술 요소별로 존재감을 분석했어요[9].
결과는 의외로 단순했습니다. ‘화면 품질’보다 중요한 건 바로 ‘손의 움직임’이었어요. 손으로 뭔가를 집고 조작할 때의 자연스러움이 몰입감을 가장 크게 높였죠. 현실과 유사한 감각이 결국 가장 ‘진짜 같은’ 느낌을 만들어냅니다.
현실과 가상 사이를 자유롭게 다닐 수 있다면
3D 데이터를 데스크탑에서 보다가 바로 AR 공간으로 옮겨보는 전환 경험, 실제로 가능할까요? 한 연구는 이 상상을 구현해 세 가지 방식으로 비교했습니다[10].
버튼 클릭, 손으로 직접 잡기, 멀리서 손짓하기 중 사용자들은 ‘직접 잡는 방식’을 가장 직관적이라고 평가했어요.
특히 데스크탑과 AR을 하나의 연속된 공간처럼 인식하고, 자유롭게 오가는 모습이 인상적이었습니다.
멀리 있는 물체는 어디서 오는지 보이게 하는 애니메이션이 유용했고, 가까운 물체는 바로 잡는 방식이 더 자연스러웠다는 점도 흥미로운 차이였죠.
이 모든 실험들을 들여다보면 결국 하나의 질문으로 모입니다. 기술이 얼마나 똑똑하냐보다 더 중요한 건, 그 기술이 사람과 얼마나 ‘잘 어울리느냐’예요.
우리는 이제 기술을 단순한 도구로만 보지 않습니다. 때로는 나를 대신해 말해주고, 나보다 더 정확하게 기억하기도 하니까요. 어느 순간, 기술은 내 삶 속에서 또 하나의 ‘나’처럼 자리 잡고 있어요.
재미있는 건, 기술이 정밀해질수록 우리는 더 ‘자연스러움’을 원하게 된다는거예요. 딱 떨어지는 말보다는 흐릿한 뉘앙스, 숫자보다 감정이 더 중요한 순간들이 많으니까요. 그걸 기술이 알아차릴 수 있다면, 우리는 기술과 더 부드럽고 편안하게 연결될 수 있을 거예요.
우리가 기술과 함께 살아간다는 건, 결국 어떤 관계를 맺고 싶은지를 끊임없이 묻는 일일 테니까요.
이 모든 이야기를 두 단어로 정리해본다면, 바로 자연스러움과 연결감. 기술은 도구이기도 하지만, 동시에 우리가 어떤 삶을 원하는지를 비추는 거울이니까요.
그럼 우리는, 새로운 이야기로 다음 주 수요일에 다시 만나요!
Reference
[1] As Confidence Aligns: Understanding the Effect of AI Confidence on Human Self-confidence in Human-AI Decision Making
[2] Deceptive Explanations by Large Language Models Lead People to Change their Beliefs About Misinformation More Often than Honest Explanations
[3] Synthetic Human Memories: AI-Edited Images and Videos Can Implant False Memories and Distort Recollection
[4] Relational AI: Facilitating Intergroup Cooperation with Socially Aware Conversational Support
[5] Conversational Agents on Your Behalf: Opportunities and Challenges of Shared Autonomy in Voice Communication for Multitasking
[6] Walkie-Talkie: Exploring Longitudinal Natural Gaze, LLMs, and VLMs for Query Disambiguation in XR
[7] Tracing Change in Social Media Use: A Qualitative Longitudinal Study
[8] Placebo Effect of Control Settings in Feeds Are Not Always Strong
[9] The Fidelity-based Presence Scale (FPS): Modeling the Effects of Fidelity on Sense of Presence
[10] Traversing Dual Realities: Investigating Techniques for Transitioning 3D Objects between Desktop and Augmented Reality Environments
의견을 남겨주세요