Wednesday Insights

로봇의 비언어적 소통이 사용자 경험을 어떻게 변화 시킬까요?

인간-로봇 상호작용에서 비언어적 소통의 역할

2024.09.18 | 조회 293 |
0
|

inspireX

매주 월/수요일, 한주간 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

🧐 Summary

1️⃣ 비언어적 소통은 로봇에게 생동감을 줍니다.

2️⃣ 비언어적 소통은 로봇과 안정적으로 협업 할 수 있도록 도와줍니다.

3️⃣ 비언어적 소통은 로봇의 호감도를 높여줍니다.


안녕하세요 구독자님, 다른 사람이랑 대화할 때 어떤 부분을 중요하게 생각하세요? 인사팀 전문가분이 발행한 글을 봤었는데, 사람들은 대화의 내용 보다 누가 그 말을 했는지를 중요하게 생각한대요. 같은 말을 해도 이 사람이 하면 괜찮고, 저 사람이 하면 별로인거죠. 왜 그럴까요? 복합적인 이유가 있겠지만, 그 중 하나는 비언어적인 부분 때문이 아닐까 생각합니다. 말투, 눈빛, 손짓, 시선 같은 것들이요. 

사람 사이의 대화도 이런 일이 일어나는데, 로봇과 사람 간의 소통은 어떨까요? 로봇이 단순히 내 말과 요구 사항을 효과적으로 알아듣는 다고 소통이 잘된다고 생각할까요? 인간-로봇 상호작용 (HRI: Human-Robot Interaction)에서도 비언어적 소통이 중요합니다. 로봇이 단순한 기계가 아니라, 살아있는 존재로 보이게 하려면 비언어적 소통이 필요하기 때문이죠. 

산업용 로봇을 넘어서 우리 일상에 깊숙이 로봇이 들어오고 있는 요즘에는 이런 비언어적 소통이 더 중요해지고 있어요. 사용자는 로봇이 똑똑한 건 당연하고 나와 잘 통해야 한다고 생각할 테니까요. 그래서 오늘은 인간-로봇 상호작용에서 비언어적 소통이 어떤 역할을 하는지 알아보겠습니다.

Image : DALLE
Image : DALLE

생동감을 주는 비언어적 소통

로봇이 사람과 소통할 때 시각적, 청각적, 촉각적 신호들을 효과적으로 사용하면 우리는 로봇을 사회적 존재로 생각하고 더 생동감 있다고 느껴요 [1].

로봇이 어떤 상황에서 미소를 짓거나, 얼굴이 붉어지거나, 우리의 감정 상태를 고려해서 목소리의 톤을 조정하는 등의 비언어적인 소통을 하면 우리는 로봇을 사회적이라고 생각합니다. 이렇게하면, 로봇이 우리의 명령을 따르는 것이 아니라, 소통하는 상황에 따라 인간의 감정을 이해하고 그에 맞는 반응을 할 수 있다고 생각하기 때문에 더 자연스럽게 대할 수 있죠. 그래서 로봇이 생동감 있다고 느끼게됩니다. 로봇을 감정과 의도를 가진, 살아있는 존재로 느끼는 것이죠.

물론, 단순히 인간의 비언어적 행동을 따라하는 것 만으로는 충분하지 않죠. 우리가 로봇의 비언어적인 신호를 직관적으로 해석할 수 있어야 합니다. 로봇의 기술적 한계와 맥락적 한계를 고려한 자연스러운 비언어적 신호여야 의미가 있어요.


협업을 강화하는 비언어적 소통

우리가 로봇과 함께 효율적으로 작업하기 위해서도 단순한 명령보다 비언어적 소통이 필요해요 [2]. 

로봇이 우리와 말을 할 수 있으면 같이 일하는데 문제가 없을까요. 충분하지 않죠. 로봇이 손짓이나 표정 같은 비언어적 신호를 사용하면 우리가 로봇이 무엇을 하려는지 더 쉽게 이해할 수 있어요. 오해도 줄고, 작업 속도도 빨라지고, 일도 더 매끄럽게 진행할 수 있죠.

로봇이 비언어적으로 감정적인 표현을 하면 우리가 상황을 빨리 판단하고 문제를 해결할 수 있어요. 예를 들어, 문제가 생겼을 때 로봇이 걱정하는 듯한 신호를 보낼 수 있으면 문제나 예기치 않은 상황에서도 더 안정적으로 협업할 수 있는것이죠. 

로봇이 비언어적으로 감정을 표현할 수 있으면, 우리는 로봇을 단순한 기계가 아니라 진짜 동료처럼 느끼게 돼요. 이렇게 로봇을 동료로 인식하면 신뢰도 더 커지고, 서로의 관계도 자연스러워지죠. 로봇을 기계가 아닌 동료로 받아들이게 되면 협업에서 큰 변화가 생겨요. 이런 변화에 대해서는 이전 뉴스레터에서 이야기한 적도 있었죠. 결국, 협업의 성공은 우리가 로봇을 동료로 느끼는 지에 달려 있어요. 그리고 비언어적 소통이 그걸 도와줍니다.


호감도를 높이는 비언어적 소통

로봇의 몸짓이나 눈의 움직임 같은 비언어적 행동은 로봇에 대한 호감도를 높여줘요 [3].

로봇이 인간과 같은 비언어적 신호를 사용할 때, 우리는 로봇에 대해 더 높은 호감을 느끼게 됩니다. 로봇과의 상호작용을 더 자연스럽고 편안하게 만들줘요. 로봇이 비언어적 신호를 통해 감정을 표현할 때, 사용자는 로봇을 단순한 기계가 아닌 감정을 이해하고 반응하는 존재로 인식하기 때문이죠.

어떤 움직임이 호감도에 더 큰 영향을 줄까요. 단순하게 본다면, 손, 입, 머리, 눈의 움직임 순으로 긍정적인 영향을 줍니다. 재밌는 사실은 우리가 로봇의 눈이 움직일 때 더 큰 호감도를 느끼지만 로봇의 눈이 움직이지 않을 때와 움직일 때를 크게 구분하지 못할수 있다는 것이에요.

우리는 로봇의 제스처는 알 수 있지만, 그 제스처에 담긴 정보를 정확하게 이해하기 어렵기 때문이에요. 로봇의 제스처를 잘 이해하기 위해서는 집중해야 하고 로봇이 제스처를 사용할 수 있다는 사실을 미리 알고 있으면 좋아요 [4]. 이 상태에서 로봇을 많이 관찰하면 로봇의 제스처를 더욱 잘 이해할 수 있죠.


제가 일상에서 본 로봇은 강화도 여행을 갔을 때 음식점에서 점심을 가져다주던 로봇이었어요. 입력된 동선대로 저에게 와서 사람이 음식을 집고 나면 쓱 가버린 아이였지만, 그 로봇을 보고 제가 친구한테 물었죠. “얘, 방금 웃지 않았어?” 손도 발도 없고 사람과 닮지도 않은 서빙 로봇이었는데 자연스럽게 제일 윗부분을 눈이라고 생각해서 그런 말이 나오더라구요. 다른 테이블에서 음식을 꺼내다가 로봇과 부딪히는 바람에 그릇이 쏟아졌는데도 로봇 쟤 어뜩하지 라는 생각이 들었죠. 저한테 눈웃음을 보여서  친밀감이 생겨버린거겠죠. 이렇듯 외형적인 요소가 부족한 상황에서도 로봇의 비언어적인 소통으로만으로 로봇을 대하는 태도가 달라지는걸 느꼈습니다. 

Figure의 AI로봇은 사람의 눈 처럼 물체를 인식하고 말할 수 있고, 스탠포드 연구팀의 로봇은 손가락을 섬세하게 움직이면서 재료를 자르고 요리를 하죠. 그 다음번에는 우리와 감정적으로 교류할 수 있는 로봇이 나올겁니다. 그 단계에서는 로봇의 비언어적 소통이 중요한 부분이 될꺼에요. 그렇기 때문에 인간-로봇 상호작용을 디자인할 때 비언어적 요소에 UX디자이너들과 연구자들이 더 관심을 가져야 한다고 생각합니다. 로봇이 인간처럼 감정교류를 할 수 있는 비언어적 신호를 보낼 수 있으면 되는 것인지, 로봇만의 비언어적 신호가 필요할 지, 여러가지 고민들을 해볼 수 있겠죠.

흥미로운 로봇 연구 이야기가 있으면 또 전해드릴께요. 추석 연휴 마지막 날에도 inspireX와 함께 해주셔서 감사해요! 우리는 다음주 월요일에 만나요. 


Reference

[1] Urakami, J., & Seaborn, K. (2023). Nonverbal cues in human–robot interaction: A communication studies perspective. ACM Transactions on Human-Robot Interaction, 12(2), 1-21.https://doi.org/10.1145/3570169

[2] Yang, Y., & Williams, A. B. (2021, March). Improving human-robot collaboration efficiency and robustness through non-verbal emotional communication. In Companion of the 2021 ACM/IEEE International Conference on Human-Robot Interaction (pp. 354-356).https://doi.org/10.1145/3434074.3447191

[3] Zinina, A., Zaidelman, L., Arinkin, N., & Kotov, A. (2020). Non-verbal behavior of the robot companion: a contribution to the likeability. Procedia computer science, 169, 800-806.https://doi.org/10.1016/j.procs.2020.02.160

[4] Bohnenkamp, L. M., Abramov, O., & Kopp, S. (2024, March). Are Robots' Gestures Understood? A Study on the Factors Influencing how Humans Perceive Information Present in Robot Gestures. In Companion of the 2024 ACM/IEEE International Conference on Human-Robot Interaction (pp. 263-267).https://doi.org/10.1145/3610978.3640572

 

Inspire X에 의견 보내기

다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

inspireX 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글

의견을 남겨주세요

확인
의견이 있으신가요? 제일 먼저 댓글을 달아보세요 !

© 2024 inspireX

매주 월/수요일, 한주간 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

자주 묻는 질문 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울 서초구 강남대로53길 8, 8층 11-7호

이용약관 | 개인정보처리방침 | 정기결제 이용약관