🧐 Summary
1️⃣ AI가 쓴 티가 나는 메시지는 기대 위반과 진정성 상실로 인해 관계의 신뢰를 흔들 수 있는 가능성이 있어요
2️⃣ 하지만 AI가 감정 완충, 메타 커뮤니케이션, 표현력 보조 등 인간 관계의 조력자 역할에 머물면 인간관계를 강화할 수도 있어요.
3️⃣ 친밀한 관계일수록 AI 개입에 더 부정적인 반응을 보일 수 있기에 최종 선택과 작성은 사람이 직접 하는 것이 중요합니다.
얼마 전 지인과 무언가를 같이 하려고 하다가 잘 진행이 안되어 그만두게 된 적이 있었어요. 그런데 그 과정에서 지인에게 너무나도 AI가 쓴 티가 나는 장문의 메시지를 받고 상당히 기분이 나빴습니다. 저는 왜 기분이 나빴을까요? 심지어 저도 지인에게 그 전 메시지를 보낼 때 제 생각을 정리하기 위해 AI를 사용했었거든요. 물론 전 AI가 쓴 메시지를 그대로 보내진 않았지만, 저 역시 이 문제에 AI를 사용했던 사람으로서 왜 기분이 나쁜건지 스스로 잘 이해가 되질 않더라구요. 그래서 이 주제에 대해 저희 뉴스레터 오픈카톡방에서 이야기를 나누어보았는데 정말 다양한 의견이 있었어요.
오늘은 AI가 인간관계에 개입하였을 때 사람들은 어떠한 반응을 보이는지, 그리고 어떠한 방식으로 AI가 긍정적인 개입을 할 수 있을지에 대해 이야기해보려고 합니다.

1. 왜 나는 ‘AI 티 나는 메시지’에 화가 났을까?
우리는 친구나 연인의 메시지에 어떤 것을 기대할까요? 우리는 일반적으로 나와 상대방의 마음의 크기가 같을 것이라는 기대와 함께 상대방의 메시지 안에 담겨있는 노력의 흔적과 진정성을 읽습니다. 그런데 답장이 지나치게 매끈하고 판에 박힌 느낌이 들거나, 말투가 너답지 않다 혹은 어색하다고 느껴지는 순간 나의 기대에 어긋난 느낌을 받고(expectation violation), 메시지에 대한 감정적 가치는 급격히 떨어지게 돼요.
이와 같은 반응을 뒷받침해주는 최근 연구들을 살펴볼게요. 2025년 Kirk와 Givi의 연구에서는 감정에 호소하는 마케팅 메시지를 AI가 작성했다고 인식하면 메시지를 받아보는 사람의 호감도 또는 신뢰도가 낮아지는 AI-Authorship 효과를 보였고, ‘AI가 초안을 썼다’는 것 보다 ‘사람이 쓰고 AI가 수정했다’고 알렸을 때 거부감이 더 줄어드는 것을 발견했어요[1]. 보다 개인적인 메시지에 대해 연구한 사례에서는, 사과 또는 감사와 같은 따뜻한 메시지에 ‘AI가 도움을 주었다’라는 라벨이 붙는 순간 발신자의 따뜻함이나 도덕성에 대한 판단의 확신이 약화되는 것을 알 수 있었어요[2]. 그런데 이와 반대로 차가운 메시지를 받아 보았을 때에도 AI의 개입이 있었다는 것을 알게 되면 해당 메시지 혹은 발신자에 대한 부정적 판단이 완화되었어요[2]. 즉 AI가 개입했다는 것을 인식하게 되면 메시지를 통해 ‘그 사람’을 읽어내는 힘 혹은 기대를 전반적으로 약하게 만든다는 것이 이 연구의 결론이었죠[2].
우리는 친구, 연인, 가족 등 개인적인 관계에서 오고 가는 메시지를 단순히 정보가 아닌 관계의 신호로 읽는 경향이 있어요. ‘너를 위해 내가 시간과 노력을 들였고, 스스로 말하려고 애썼다’는 신호가 희미해지면, 그 말은 ‘그 사람의 마음’에서 나온 것이 아니라고 느껴지게 되고 여기에서 오는 불편함이 생깁니다. 흥미롭게도 이 효과는 긍정 혹은 부정적 감정을 모두 완충합니다. 따뜻함도 덜 따뜻해 보이고, 차가움도 덜 차갑게 보이죠. 그래서 ‘AI 티’가 나는 메시지는 진정성에 대한 신뢰 자체를 흔드는 거에요.
2. AI가 인간관계를 도와주는 건 불가능할까?
저는 개인적으로 AI가 현실의 인간관계를 대체하기 보다는 현실의 인간관계를 강화하고 긍정적으로 발전할 수 있도록 도와주는 역할로 성장하기를 기대하고 있었는데, 앞에서 언급한 연구들만 보면 AI가 인간관계에 개입하는 것이 부정적인 것처럼 느껴집니다. 그럼 AI가 인간관계를 도와주는 건 불가능한걸까요?
다행히 사람간의 소통에서 보조적으로 긍정적인 역할을 해주는 AI 사례와 연구들이 있어요. 사람의 역할을 대신해 주는 AI가 아니라 관계를 보조하는 AI로 쓰일 때에 긍정적 기여가 가능하다는 점이 확인되고 있는데요, 실질적 사례들을 한 번 정리해볼게요.
1. 감정 조절 및 갈등 중재
감정이 격해진 순간 바로 보내려던 말을 한 번 완충해 주는 용도는 유용합니다. 최근 챗GPT가 분쟁 조정에 투입된 실험에서, AI는 분쟁 시나리오를 충분히 이해하고 알맞은 중재 방안을 추천하며 중립적인 어조로 조율 메시지를 작성해주었어요[7]. 또한 AI 코칭을 통해 소통 능력을 강화하는 것도 가능해요. 한 실험에서는 AI가 공격적으로 들릴 수 있는 표현을 감지해서 알려주고, 더 관계지향적인 언어로 고쳐보라고 피드백해주는 실습 프로그램을 테스트해 보았습니다. 참가자들은 이를 통해 상대방 입장을 고려하는 대화 습관을 배우고 긴장이 완화되었다는 평가를 남겼어요[3]. 이처럼 AI가 커뮤니케이션 코치나 대화 상대 역할을 하면서, 우리가 더 차분하고 공감적으로 소통하도록 돕는 연구들이 진행되고 있어요.
2. 메타 커뮤니케이션 도우미
대화 요약, 핵심 정리, 그리고 자동 번역과 같은 기능은 사람 사이의 이해를 매끄럽게 도와주죠. 메타 커뮤니케이션이란 대화의 흐름을 한 단계 더 높은 수준에서 정리하거나 분석해서 소통을 보조해주는 것을 말해요. 이미 AI는 이와 같은 기능을 하고 있죠. 슬랙(Slack)이나 카카오톡의 대화 요약, 말투 변환 같은 기능은 장문의 스레드나 단톡방에서 맥락을 잃지 않도록 도와주는데요, 이 기능의 핵심은 대화를 대신하지 않고 이해를 돕는 수준에 머무는 거에요. AI는 또한 대화의 분위기나 감정 흐름을 파악해주는 역할도 하고 있어요. 몇몇 시스템은 채팅이나 이메일에서 부정어 사용 비율이나 어조 변화를 감지해 알려주거나, 팀 채팅 내 부정적 감정의 상승 조짐을 HR에 알려주는 기능을 실험 중입니다[4]. 이는 갈등이 커지기 전에 예방하거나 중재를 준비할 시간을 벌어주죠.
3. 표현력의 보조 수단
사과나 조의,감사처럼 어렵고 부담스러운 표현을 준비할 때 역시 AI를 활용할 수 있습니다. 하지만 ‘AI 티’ 나는 메시지를 보내고 싶지 않다면 최종 문장은 본인 말로 다듬는 작업이 꼭 필요하겠죠. 최근 진행된 한 연구에 따르면, AI가 작성한 사과문이라도 따뜻한 톤(warm tone)을 유지하면 AI 개입 사실을 밝혔을 때도 진정성과 용서 가능성 평가가 비교적 유지되었지만, 반대로 전문적이지만 형식적인 어조(competent tone)의 사과문은 더 기계적으로 평가되었어요[5]. 이 연구는 AI가 인간관계 메시지에 개입할 때 표현의 질과 어조가 얼마나 중요한지 알려주고 있습니다.
3. AI의 개입이 부정적인 순간은 언제일까?
하지만 앞에서 언급했듯, 친밀한 관계일수록 AI 개입이 역효과를 낼 수 있습니다. 친밀한 관계일 수록 기대하는 것이 크고, 내가 기울인 노력만큼 상대방도 노력했다는 느낌이 없으면 이에 대한 배신감과 신뢰 저하가 생길 수 있죠. 심지어 상대방이 AI 대신 다른 사람 도움을 받았다고 해도 비슷한 반응을 보이는 경우가 있잖아요. 관계에서는 노력과 정성 자체가 핵심 신호이기 때문이죠.
2023년 진행된 한 연구[7]는 이를 잘 보여줍니다. 참가자들은 오래 사귄 친구 ‘Taylor’에게 고민 상담을 요청하고 답장을 받는 경험을 해 보았는데요, Taylor가 AI의 도움을 받아 답장을 썼다고 들은 그룹은 관계 친밀도 점수가 확 떨어졌고, 답장 내용도 부적절하다고 혹평했어요. 심지어 Taylor가 사람 도움을 받았다고 한 경우에도 내 친구가 직접 답하지 않았다는 점 때문에 친밀감이 감소했는데, AI의 경우는 더 부정적으로 평가한 것이죠. 이는 친밀한 관계일수록 제3자의 개입에 민감하며, 하물며 그 제3자가 인간이 아닌 AI라면 메시지의 진정성을 더욱 의심하게 되는 경향을 보여줍니다.
이 주제로 오픈카방에서 이야기를 나누다가 ‘예전에는 배달 음식으로 손님을 맞이하면 예의가 없다고 했지만 지금은 그렇지 않듯, 언젠가는 AI의 도움을 받아 쓴 메시지도 사람들이 자연스럽게 받아들이게 되지 않을까’ 라는 이야기를 해주신 분이 계셨어요. 아, 사람들의 인식 자체가 달라질수도 있고, 어쩌면 AI가 너무 발전해서 ‘AI 티’가 나는 상황 자체가 없어질 수도 있겠구나 하는 생각이 들더라구요. 그래서 아예 AI 문체를 인간과 다르게 만드는 ‘AI 억양’을 도입하자는 재미있는 제안도 있습니다[8]. AI는 엄격한 격식체만 사용하게 하여 누구나 “아, 이 부분은 AI가 도와줬구나” 직관적으로 알게 한다면, 오히려 사용자가 AI의 한계를 인지하고 자신의 수정을 더할 수 밖에 없게 하는거죠.
사람과 사람 사이의 관계는 너무나도 복잡미묘하여 어렵지만 그것 또한 매력이기도 합니다. 그리고 아직은 그걸 따라잡지 못한 AI가 감사하기도 하구요. 언젠가는 AI가 우리의 인간관계에서 꽤 많은 부분을 대체해줄수도 있겠지만 그럼에도 불구하고 사람간의 작은 오해에서 비롯되는 흥미로운 사건들과 상대방을 끝없이 이해해주고자 상상력을 발휘하는 순간들이 남아있기를 바라며, 이런 소소하고도 재밌는 대화 함께 하고 싶으신 분들은 아래 오픈카톡방으로 들어와주세요!
[inspire X 오픈카톡방]
https://open.kakao.com/o/gBHmseah
오늘의 뉴스레터 작성에 도움을 주신 오픈카톡방의 미잘말/PD 취준생, 파이팅하는 무지, 졸린 라이언, 쑥스럽게 인사하는 프로도, 애교뿜뿜 무지, 휘파람 프로도, 씩씩거리는 무지, Tube thumbs up, 시무룩한 튜브, 프로필고민중, 디자인학부생님 모두모두 감사드립니다!
Reference
[1] Kirk, C. P., & Givi, J. (2025). The AI-authorship effect: Understanding authenticity, moral disgust, and consumer responses to AI-generated marketing communications. Journal of Business Research, 186, 114984. https://doi.org/10.1016/j.jbusres.2024.114984
[2] Mediate.com. (2024, October 31). Can AI replace human mediators? Groundbreaking study reveals surprising results. https://mediate.com/can-ai-replace-human-mediators-groundbreaking-study-reveals-surprising-results/
[3] Bohrium. (2025). AI4PCR: Artificial intelligence for practicing conflict resolution. https://www.bohrium.com/paper-details/ai4pcr-artificial-intelligence-for-practicing-conflict-resolution/864967665452581056-108345
[4] Pollack Peacebuilding Systems. (2024). How AI is transforming the conflict resolution industry. https://pollackpeacebuilding.com/blog/how-ai-is-transforming-the-conflict-resolution-industry/
[5] Lim, J. S., Hong, N., & Schneider, E. (2025). How warm-versus competent-toned AI apologies affect trust and forgiveness through emotions and perceived sincerity. Computers in Human Behavior, advance online publication.
[6] Hancock, J. T. (2025). Artificial intelligence in communication impacts language and social relationships. Social Media Lab. https://sml.stanford.edu/publications/hancock-jt/artificial-intelligence-communication-impacts-language-and-social
[7] Business Insider. (2025, July). Bestie, you sound like ChatGPT: People are using AI to answer texts. https://www.businessinsider.com/rise-chatgpt-groupchats-texting-openai-friendship-marriage-loneliness-generative-ai-2025-7
[8] Cornell Chronicle. (2023, March). AI- or human-written language? Assumptions mislead. https://news.cornell.edu/stories/2023/03/ai-or-human-written-language-assumptions-mislead
의견을 남겨주세요