Wednesday Insights

사람은 움직이는 것에서 감정을 읽는다

비인간형 로봇이 움직임으로 감정으로 표현하는 방식

2025.03.19 | 조회 472 |
0
|
from.
inspireX
inspireX의 프로필 이미지

inspireX

매주 수요일, 한 주 동안 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

🧐 Summary

1️⃣ 로봇은 얼굴이나 인간형 신체 없이도 움직임 패턴만으로 감정을 표현할 수 있어요.

2️⃣ 같은 움직임도 맥락과 환경에 따라 다르게 해석될 수 있어요.

3️⃣ 앞으로 로봇은 감정을 더 자연스럽게 표현하기 위해 움직임, 빛, 소리, 촉감을 조합하고, 사용자 맞춤형 감정 표현과 독창적인 움직임 디자인을 개발하는 방향으로 발전할 거예요.


안녕하세요 구독자님, 어제 서울에는 3월의 눈이 내렸습니다. 벚꽃 날리는 속도로 떨어지는 눈송이를 보면 아련했다가, 바람과 같이 매섭게 내려오면 무서웠다가 여러가지 기분이 들었어요. 같은 눈송이라도 움직임에 따라서 다르게 느껴지더라구요. 사람과 이야기 할때도, 상대방의 기분을 알아보려면 몸짓을 먼저 읽죠. 고개를 끄덕이면서 나에게 동의하는지, 팔짱을 끼면서 나에게 방어적인 태도를 취하는지. 

우리는 이렇게 물체가 움직이면 감정을 느낍니다. 최근에 애플에서도 움직이는 램프형태의 로봇을 개발했죠. 얼굴도 없는 로봇이지만, 그 로봇이 움직이면 어떤 말을 하려는지 느껴집니다. 어떻게 이런 일이 가능할까요? 오늘은 비인간형 로봇이 움직임을 통해서 감정을 표현하는 방식에 대해 이야기해보겠습니다.

Image : Apple, AI Times
Image : Apple, AI Times

움직임이 감정을 만들어내는 원리

우리가 감정을 읽는 데 반드시 인간형 얼굴이나 신체가 필요한 것은 아닙니다. 픽사 애니메이션 인트로에 나오는 스탠드형 램프가 머리를 숙이거나 튀어 오르기만해도 생명을 가진 것처럼 느껴지죠.

애플의 연구팀은 이 원리를 기반으로 램프형 로봇을 개발하고 기능적 움직임과 표현적 움직임의 균형을 연구했어요. 이 로봇은 단순히 빛을 비추는 기능을 할 뿐만 아니라, 고개를 끄덕이고, 몸을 기울이며, 주의를 기울이는 동작을 통해 감정을 표현합니다. 결과적으로는 표현적 움직임을 추가하면 사람들은 이 얼굴이 없는 로봇을 더 감정적이고 생동감있다고 평가했습니다. 기능적 로봇은 ‘도구’처럼 느껴졌지만, 표현적 로봇은 ‘강아지’, ‘어린아이’와 비슷하다고 생각했기 때문이죠. 

물론, 모든 상황에서 이런 표현적 움직임이 효과있었던 것은 아닙니다. 기능 중심의 일들을 할 때는 표현적 움직임이 방해가 될 수 도 있어요. 사용자마다 움직임에 대한 선호도가 다르기 때문입니다. 또, 움직임 뿐만아니라 음성, 조명 등의 인터페이스와 조화가 중요해요. 그래야 감정 표현을 자연스럽게 극대화하면서 일관된 사용자 경험을 전달할 수 있기 때문이죠.

한 연구에서는 ‘Woodie’라는 나무 상자 형태의 로봇을 이용해 색과 움직임만으로 감정을 표현할 수 있는지 실험했는데, 애플의 램프 로봇 실험과 비슷한 결과가 나왔습니다. 이 로봇도 얼굴도, 팔다리도 없었지만 밝은 색으로 빠르게 회전하면 ‘기쁨’, 어두운 색으로 멈칫거리면서 움직이면 ‘슬픔’이라는 감정을 만들었죠. 그런데 같은 움직임이라도 환경에 따라서 다르게 해석되기도 했습니다. 공원과 같은 밝은 분위기에서는 빠른 회전이 ‘신이 난’것처럼 보였지만, 복잡한 도로에서는 ‘불안한’느낌을 줬죠. 이렇게 맥락에 따라서 감정이 다르게 해석될 수 있기 때문에 로봇의 움직임에 따른 감정 표현은 주변 상황에 시나리오에 크게 영향을 받아요.


움직임이 감정을 불러일으키는 이유

사람은 무언가가 움직이는 걸 보면, 왜 그렇게 움직이는지 자연스럽게 이유를 떠올려요. 한 연구에서 단순한 도형이 움직이는 애니메이션을 보여줬어요. 그런데 사람들은 단순히 도형이 움직인다고 보지 않고, “큰 삼각형이 작은 원을 쫓고 있다”처럼 이야기를 만들어가며 감정을 부여했어요. 즉, 우리는 움직임만 보고도 의미를 추론하는 거죠.

이 원리는 로봇 디자인에도 적용돼요. 로봇의 움직임 패턴이 감정을 형성하는 데 중요한 역할을 해요. 빠르고 날카로운 동작은 긴장감과 공격성을, 부드럽고 둥근 움직임은 안정감과 친근함을, 잠깐 멈추는 동작은 망설이거나 고민하는 느낌을 줘요. 예를 들어, 로봇이 바로 목표로 이동하는 대신 잠시 멈추면 마치 생각하는 것처럼 보일 수 있어요.

사람들은 움직임뿐만 아니라 여러 단서를 함께 해석하기 때문에, 감정 표현이 일관되지 않으면 혼란을 느껴요. 예를 들어, 로봇이 밝게 웃으면서도 몸을 움츠리면 사용자도 감정을 혼란스럽게 받아들여요. 얼굴 표정은 감정을 명확하게 전달하고, 몸짓은 정서적 공감을 높이기 때문에 이 둘을 조화롭게 결합하는 것이 중요해요.

타이밍도 감정 표현에 큰 영향을 줘요. 로봇이 말하기 전에 고개를 끄덕이면 대화의 흐름이 자연스러워지고, 사람이 말할 때 적절한 순간에 끄덕이면 몰입도가 높아져요. 결국, 움직임과 타이밍만으로도 감정을 효과적으로 전달할 수 있습니다.


로봇이 더 감정적인 존재가 되려면

앞으로 로봇은 단순히 명령을 수행하는 기계를 넘어서, 사람과 감정을 주고받으며 소통하는 방향으로 발전할 거예요. 그러려면 몇 가지 중요한 요소가 필요해요.  

1. 감정을 고려한 움직임 디자인: 로봇이 단순히 빠르고 효율적으로 움직이는 게 아니라, 사람이 감정을 쉽게 읽을 수 있도록 설계되어야 합니다. 예를 들어, 위에서 설명한 것처럼 부드러운 움직임은 친근함을, 빠르고 날카로운 움직임은 긴장감을 주는 것처럼 감정을 전달하는 움직임이 중요해요.  

2. 움직임과 빛, 소리, 촉감이 조화: 움직임만으로 감정을 표현할 수도 있지만, 조명 색깔, 목소리 톤, 진동 같은 요소들과 함께 쓰이면 감정 전달이 훨씬 효과적이에요.  

3. 사용자 맞춤형 감정 표현: 어떤 사람은 감정을 많이 표현하는 로봇을 좋아하지만, 어떤 사람은 그런 걸 부담스러워할 수도 있어요. 그래서 로봇이 사용자의 반응을 보고 감정 표현 방식을 조절할 수 있도록 설계해야 해요. 

4. 로봇만의 독창적인 감정 표현 방식: 현재 로봇들은 인간이나 동물의 움직임을 따라 하는 경우가 많지만, 앞으로는 로봇만의 독창적인 움직임이 필요할 거에요. 로봇의 형태나 관절 구조를 활용해서 새로운 움직임을 만들고, 무용가나 애니메이터와 협업해 기존에 없던 로봇 동작 언어를 개발하는 시도도 있다고 합니다.

로봇만의 독창적인 움직임으로 감정을 표현하는 일이 제일 어려울 것 같아요. 우리가 경험하지 못했던 움직임이지만 거부감이 없어야 하는 움직임을 만들어야 하기 때문이죠. 그래도 요즘에는 AI기술이 발전해서 감정적인 움직임을 자동으로 만들고 실시간으로 표현하는 것이 가능해졌다고 해요. 


SF 영화나 소설을 좋아하는 분들이라면 로봇과 감정적으로 소통하는 순간을 한 번쯤 상상해봤을 거예요. 보통 로봇이 엄청나게 똑똑하고 사람처럼 생겨야 감정적으로 교감할 수 있을 거라고 생각하지만, 사실 꼭 그렇지는 않아요. 눈, 코, 입이 없는 로봇이라도 움직이기만 하면 우리와 감정을 주고받을 수 있어요. 참 신기하죠? 그래서 로봇 관련 UX 디자인이 흥미롭지만 어려운 것 같아요. 사람이 어떤 요소에서 애착과 친밀감을 느끼는지 찾아내고, 그것들을 자연스럽게 조합해야 하니까요.

애플 연구팀이 만든 램프형 로봇도 그런 면에서 정말 영리한 접근이라고 생각해요. 인간형 로봇에 대한 기대감은 크지만, 아직 우리 일상과는 조금 거리가 있어요. 반면, 집에 흔히 있는 조명 램프가 로봇이 된다면? 그리고 그 로봇이 내 말을 이해하고 살짝 움직이며 반응한다면? 생각보다 금방 정이 들 거예요. 처음엔 신기하다가 점점 익숙해지고, 익숙해지면 애정이 생기죠. 결국, 그 로봇을 계속 쓰고, 고장 나면 고치고, 더 좋은 버전이 나오면 사고 싶어질 거예요. 이런 감정적인 유대가 비즈니스적으로도 중요한 요소가 되는 거죠.

그럼, 다음 주 수요일에 또 만나요!


Reference

[1] Hu, Y., Huang, P., Sivapurapu, M., & Zhang, J. (2025). ELEGNT: Expressive and Functional Movement Design for Non-anthropomorphic Robot. arXiv preprint arXiv:2501.12493.

https://machinelearning.apple.com/research/elegnt-expressive-functional-movement

[2] Hoggenmueller, M., Hespanhol, L., & Wiethoff, A. (2020). Woodie: An Urban Robot for Embodied Hybrid Placemaking. Proceedings of the International Conference on Designing Interactive Systems, 4 February 2020.

[3] Abu-Akel, A., & Shamay-Tsoory, S. (2011). Neuroanatomical and neurochemical bases of theory of mind.Neuropsychologia, 49(11), 2971-2984.

[4] Abe, N. (2022). Beyond anthropomorphising robot motion and towards robot-specific motion: consideration of the potential of artist—dancers in research on robotic motion. Artificial Life and Robotics, 27, 777–785.

[5] Peng, W., Liao, W., & Sun, Y. (2020). Robotic Emotional Expression Generation Based on Mood Transition and Personality Model. IEEE Transactions on Cognitive and Developmental Systems, 12(3), 486–496.

[6] Wang, Y., Hespanhol, L., & Tomitsch, M. (2021). How Can Autonomous Vehicles Convey Emotions to Pedestrians? A Review of Emotionally Expressive Non-Humanoid Robots. Multimodal Technologies and Interaction, 5(12), 84.

[7] Whittaker, S., & Hiltz, S. R. (2021). Facial emotion expressions in human-robot interaction: A survey. arXiv preprint arXiv:2103.07169.

[8] Hoggenmueller, M., Hespanhol, L., & Tomitsch, M. (2020). Self-moving robots and pulverised urban displays: status quo, taxonomy, and challenges in emerging pervasive display research. Personal and Ubiquitous Computing, 24(6), 887–895.

[9] Jatmiko, W., Ginalih, A., & Darmakusuma, R. (2020). Enhancing emotional expression in cat-like robots.Frontiers in Robotics and AI, 7, 139.

 

Inspire X에 의견 보내기

 

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

inspireX 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

다른 뉴스레터

© 2025 inspireX

매주 수요일, 한 주 동안 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

뉴스레터 문의inspirexnewsletter@gmail.com

메일리 로고

도움말 자주 묻는 질문 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울 서초구 강남대로53길 8, 8층 11-7호

이용약관 | 개인정보처리방침 | 정기결제 이용약관 | 라이선스