🧐 Summary
1️⃣ 사람들은 AI를 도구로 볼 때는 완벽성을, 협력자로 볼 때는 신뢰와 관계를 기대하며 상황에 따라 두 관점을 오가며 사용합니다.
2️⃣ 인간은 본능적으로 작은 단서만 있어도 AI를 살아 있는 존재처럼 착각하고 때로는 새로운 종족처럼 느낍니다.
3️⃣ 이런 경향은 AI를 도덕적 대상으로 대하는 태도로 이어지기 때문에 디자이너와 사회는 어떤 신호를 어디까지 인간처럼 보이게 설계할지 신중히 고민해야 합니다.
지난주에 어떤 분과 뉴스레터 얘기를 나눴어요. 제가 요즘 기술에 관한 이런저런 주제를 쓰고 있다고 했더니, 그분이 웃으면서 이런 말을 하더군요.
“AI랑 잘 지내는 법을 고민한다고? 그게 무슨 소용이 있어? 석학들도 AI가 결국 세상을 지배하고 인류를 없앨 거라고 하는데. 우리가 잘 지내고 싶다고 해서 잘 지낼 수 있는 건 아니잖아. 걔네는 그냥 새로운 종족이야.”
그 말을 듣고 저도 한참 생각해봤죠. 미래에는 정말 그렇게 될지도 모르니까요. 그런데 다시 생각해보니 이런 궁금증이 생기더군요. AI가 정말 새로운 종족 같은 존재일까? 우리는 왜 그런 생각을 하게 될까? 단순히 너무 똑똑해 보여서, 우리가 살아남기 위해 배워온 기술들을 이미 다 알고 있는 것 같아서?
그래서 오늘는 우리가 AI를 어떤 눈으로 바라보는지, 왜 새로운 종족처럼 느끼는지, 그리고 이런 시각이 디자인과 사회에 어떤 의미를 갖는지 한번 이야기해보려 합니다.
도구와 협력자 사이의 AI
많은 사람들에게 AI는 여전히 도구입니다. 이 관점에서는 AI는 목적 달성을 돕는 기능적 기술이기 때문에 성능과 신뢰성, 투명성이 가장 중요하죠. AI를 도구라고 생각할 때, 사용자는 통제권을 자신이 쥐고 있다는 확신을 원합니다. 실제 연구에서도, 이성적 사고를 중시하는 사람일수록 AI를 “능력을 확장하는 보조 수단”으로 인식하는 경향이 강했습니다.
일반인 뿐만 아니라, 개발자들도 비슷한 경향을 보입니다. 개발자들을 두 그룹으로 나눴는데, AI를 무생물적 도구로 보는 그룹은 정확성 요구가 높고 작은 오류에도 관용이 없었지만, AI를 팀원처럼 보는 그룹은 실수를 학습 과정으로 이해하면서 더 관대하게 대했습니다. 이처럼 AI를 도구로 보는 관점이 강할수록 작은 실수에서 신뢰가 무너지는 알고리즘 혐오가 쉽게 나타납니다.
또 어떤 사람들은 AI를 협력자로 대합니다. 단순히 요청 버튼을 눌러서 결과를 얻는 것이 아니라, AI를 함께 문제를 해결하는 팀원으로 보는거죠. 이런 관점에서는 성능보다는 사회적 신뢰, 의사소통 방식, 역할 분담 같은 협업 규범이 더 중요해집니다. 같은 일을 하는 AI라도 왜 그렇게 하는지를 설명하는 방식에 따라 사람들이 느끼는 신뢰가 달라질 수 있어요. 예를 들어, 돌봐주고 싶어서 같은 따뜻한 이유를 붙였을 때, 사람들은 AI를 훨씬 더 믿고 진짜 동료처럼 받아들일수 있어요. 물론 아직은 대부분의 인간-AI 협업이 AI가 제안하고 인간이 수락 혹은 거절하는 수준이기 때문에 진정한 양방향 협력은 드물죠.
우리가 AI를 도구로 보면 완벽함을 기대하고, 협력자로 보면 관계와 신뢰를 기대하는 거죠. 요즘 사람들은 상황에 따라 이 두 가지 관점을 오가며 AI를 쓰고 있어요.
새로운 종족으로서의 AI
사람들은 AI를 단순한 도구나 협력자를 넘어, 때로는 새로운 종족처럼 느끼기도 합니다. 그 이유 중 하나가 바로 인간이 가진 본능적인 성향, ‘과도한 에이전시 탐지 편향(Hyperactive Agency Detection,HADD)’ 때문이에요. 우리는 어떤 것이 조금만 사람처럼 행동해도 자동으로 “저건 의도가 있네. 살아있는 것 같아.”라고 착각하곤 합니다.
이건 진화심리학적으로 설명할 수 있어요. 옛날에 숲속에서 바스락거리는 소리를 들었을 때, “호랑이일지도 몰라!” 하고 도망친 사람과 “그냥 바람이겠지” 하고 가만히 있던 사람 중 누가 살아남았을까요? 당연히 첫 번째 쪽이죠. 그래서 인간은 실제로 의도나 마음이 없어도, 있는 것처럼 더 많이 느끼는 방향으로 진화해 왔습니다.
정리하면, 에이전시 탐지 편향은 원래 의도나 감정이 없는 대상에게도 “뭔가 살아있는 것 같아”라고 느끼는 인간 뇌의 본능적인 습관이에요. 그래서 AI가 눈 모양, 사람 같은 목소리, 작은 표정 신호만 보여줘도 우리는 쉽게 반응하고, 거기에 의도와 감정을 덧씌우는 거죠.
이런 인간의 본능 때문에 최근 HCI 연구에서는 사람들이 로봇이나 챗봇에 얼마나 빨리 의도와 감정을 느끼는지를 실험하고 있어요. 몇 가지 재미있는 결과를 볼까요?
사람들은 단순히 로봇이 눈 모양만 있어도 의도가 있다고 생각했어요. 예를 들어, 로봇에 LED 눈만 붙였을 뿐인데 참가자들이 그 시선을 따라 움직였습니다. 실제 인간 눈 사진보다 오히려 추상적인 로봇 눈이 더 강하게 사람들의 주의를 끌기도 했죠. 또 다른 실험에서는 공업용 로봇에 화살표, 인간 눈, 로봇 눈을 각각 붙여봤는데, 인간 눈이 있을 때 사람들이 더 빠르게 반응하며 로봇을 의도를 가진 존재로 받아들였습니다. 사람같은 눈 모양인지보다, 눈 모양이 있는지 없는지가 더 큰 효과를 주는거죠.
정리하면, 인간은 눈 하나, 목소리 톤 하나, 몸체 디자인 하나만으로도 AI를 살아 있는 존재처럼 생각합니다. 그래서 AI가 이런 특성이 많이 보일 수록 새로운 종족이라고 느끼게 되는거죠. 이런 경향은 AI가 스스로 생각해서 우리를 위협할지도 모른다, AI를 해쳐도 괜찮을까 같은 도덕적인 고민으로 이어집니다.
의도를 넘어 도덕적 지위까지
에이전시 탐지 편향은 단순히 “AI가 의도를 가진 것 같다”라고 느끼는 데서 끝나지 않습니다. 사람들은 점점 AI를 도덕적인 존재처럼 대하기도 하죠. 로봇이 “나를 끄지 말아 주세요”라고 말했을 때 실제로 전원을 끄지 못하는 사람들이 있었고, 사람들이 AI를 진짜 의식 있는 존재라고 믿기만 해도, 그 태도가 인간과 인간 사이의 관계에도 영향을 주었습니다.
그래서 최근 연구들은 사람들이 AI에게 도덕적 지위를 부여하는 과정이나 AI를 어떻게 새로운 사회적 대상으로 인식하는지를 분석합니다. 사람들은 인간처럼 보이고 감정을 표현하는 AI일수록 “이 AI를 해치면 잘못된 일이다”라고 생각합니다. 심지어 로봇이 실수를 했을 때도 단순히 “비난”하는 데서 그치지 않고, “처벌해야 한다”고 답한 경우도 있었죠. 아직 AI를 완전히 사람처럼 보지는 않지만, 그래도 일정 부분 도덕적 책임을 져야 하는 존재로 대하는거죠. 우리가 죽는다는 것을 생각하면서, AI를 바라보면 오히려 더 살아있는 존재처럼 느끼면서 조심스럽게 대하려고도 합니다.
정리하자면, AI가 사람 같은 신호를 많이 보여줄수록 우리는 그걸 사회적이고 도덕적인 존재처럼 대합니다. 우리의 본능과 불안이 그렇게 만들고 있어요. 하지만 그렇다고 해서 아직 대부분의 사람들이 AI를 완전히 인간과 같은 도덕적 주체로 보지는 않습니다.
이렇듯 작은 신호 하나만으로도 사용자의 감정과 행동이 달라지기 때문에, 디자이너는 어떤 신호를 설계할지 어디까지 인간처럼 보이게 할지를 신중하게 선택해야 합니다. 동시에, 사회적으로는 이 편향을 이용해 AI를 필요 이상으로 인격화시키려 할 때 어떤 윤리적 기준이 필요한지도 함께 논의해야겠죠.
요즘 디자인 현장에서는 “AI를 어떻게 하면 더 사람처럼 생각하고 느끼게 만들 수 있을까”를 많이 고민합니다. 하지만 솔직히 말하면, 아직 AI는 도구에서 협력자로 넘어가는 단계조차 완전히 도달하지 못했죠. 새로운 종족이라니, 당장은 SF 영화 속 이야기 같기도 합니다.
그런데 중요한 건 AI가 진짜 독립된 종족인지 아닌지가 아니에요. 우리가 왜 그렇게 느끼는지, 그리고 앞으로 어떻게 만들어갈지가 핵심이죠. 이미 사람들은 작은 단서에도 AI에게 의도를 읽어내고 감정을 느끼기 때문에 디자이너들은 얼마나 사람처럼 보이게 할지, 어떤 설명 방식을 줄지, 사회적 신호를 어디까지 써야 할지 같은 문제를 신중하게 고민해야 합니다.
드라마나 소설 작가들이 “어느 순간 등장인물이 스스로 움직이기 시작했고, 나는 그걸 따라갔다”고 말하는 경우가 있죠. 보이지 않던 무언가가 세상에 나오면, 그것만의 생명력이 생겨 자라나요. AI도 언젠가는 그런 존재처럼 느껴질 수 있겠죠. 만약 정말 새로운 종족이 된다면, 우리는 어떤 인간적인 고민을 하게 될까요? 혹시 SF 영화처럼 멸망을 걱정하게 될까요? 먼 이야기일 수도 있지만, 내일보다 더 먼 미래에서부터 인간적인, 디자인적인 상상을 시작하는 것이 지금 우리에게 필요한 태도일지도 모릅니다.
우리는 다음주 수요일에 만나요!
[inspire X 오픈카톡방]
https://open.kakao.com/o/gBHmseah
Reference
[1] Horstmann, A. C., Bock, N., Linhuber, E., Szczuka, J. M., Straßmann, C., & Krämer, N. C. (2018). Do a robot’s social skills and its objection discourage interactants from switching the robot off? PLOS ONE, 13(7), e0201581. https://doi.org/10.1371/journal.pone.0201581
[2] Onnasch, L., Kostadinova, E., & Schweidler, P. (2022). Humans can’t resist robot eyes—Reflexive cueing with pseudo-social stimuli. Frontiers in Robotics and AI, 9, 848295. https://doi.org/10.3389/frobt.2022.848295
[3] Onnasch, L., Schweidler, P., & Wieser, M. (2023). Effects of predictive robot eyes on trust and task performance in an industrial cooperation task. Companion of the 2023 ACM/IEEE International Conference on Human-Robot Interaction (pp. 442–446). ACM. https://doi.org/10.1145/3568294.3580123
[4] Pataranutaporn, P., Liu, R., Finn, E., & Maes, P. (2023). Influencing human–AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness. Nature Machine Intelligence, 5(10), 1076–1086. https://doi.org/10.1038/s42256-023-00720-7
[5] Gomez, C., Cho, S. M., Ke, S., Huang, C.-M., & Unberath, M. (2024). Human-AI collaboration is not very collaborative yet: A taxonomy of interaction patterns in AI-assisted decision making from a systematic review. Frontiers in Computer Science, 6, 1521066. https://doi.org/10.3389/fcomp.2024.1521066
[6] Lee, M., Ruijten, P. A. M., Frank, L. E., de Kort, Y. A. W., & IJsselsteijn, W. A. (2021). People may punish, not blame, robots. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (pp. 1–11). ACM. https://doi.org/10.1145/3411764.3445284
[7] Ladak, A., Harris, J., & Anthis, J. R. (2024). Which artificial intelligences do people care about most? A conjoint experiment on moral consideration. In Proceedings of the 2024 CHI Conference on Human Factors in Computing Systems. ACM. https://doi.org/10.1145/3613904.3642403
[8] Guingrich, R. E., & Graziano, M. S. A. (2024). Ascribing consciousness to artificial intelligence: Human–AI interaction and its carry-over effects on human–human interaction. Frontiers in Psychology, 15, 1322781. https://doi.org/10.3389/fpsyg.2024.1322781
[9] Xie, Q., Lin, J., Ding, Y., & Kou, Y. (2025). Algorithmic anthropomorphism and AI moral standing: The moderating role of mortality salience. Death Studies. Advance online publication. https://doi.org/10.1080/07481187.2025.2529275
[10] Li, F., Wei, X., Wang, C., Zhang, C., Yu, G., Yang, Y., & Liu, Y. (2025). How do users perceive AI? A dual-process perspective on enhancement and replacement. Telematics and Informatics Reports, 19, 100227. https://doi.org/10.1016/j.teler.2025.100227
[11] Zakharov, I., Koshchenko, E., & Sergeyuk, A. (2025). From teacher to colleague: How coding experience shapes developer perceptions of AI tools. arXiv preprint arXiv:2504.13903. https://doi.org/10.48550/arXiv.2504.13903
의견을 남겨주세요