🧐 Summary
1️⃣ AI를 사용자가 신뢰하기 위해서는 단순히 정확도만 개선하는 것으로는 불충분합니다.
2️⃣ AI가 사용자의 기대에 일치할 때, AI의 답변이 나온 과정이 설명 가능할 때, 그리고 AI를 사용자가 스스로 충분히 통제 가능하다고 생각할 때에 사용자는 AI를 신뢰할 수 있습니다.
3️⃣ 현재 AI의 강점, 그리고 한계점을 명확히 사용자에게 설명할 수 있는 UX가 제공되어야 사용자의 AI에 대한 신뢰를 강화시킬 수 있어요.
안녕하세요, 구독자님! 저는 요즘 여러 오픈카톡방에 들어가 있는데요, 오픈카톡방에선 사람들이 궁금한 걸 묻고 답하는 경우가 많잖아요. 그 때 누군가의 질문에 꼭 ‘제가 챗지피티한테 물어봤는데 …라고 해요.’ 라며 생성형 AI의 대답을 전하는 사람들이 있더라구요. 그걸 보며 전 ‘의외로 AI를 맹목적으로 믿는 사람들이 꽤 있구나’ 라는 생각이 들었어요.
예전에 저희전에 저희 뉴스레터에서도 다룬 적이 있는데 AI를 대하는 사람들의 태도를 보면 두 가지 극단적인 패턴이 눈에 띈다고 해요.
- AI를 전혀 신뢰하지 않는 사람들 : AI의 답변을 신뢰할 수 없다고 생각해서 AI 사용 자체를 꺼려해요.
- AI를 무조건 신뢰하는 사람들 : AI의 답변을 검증 없이 받아들이고 그대로 활용해요.
이렇게 신뢰의 양극단이 나타나는 이유는 AI에 대한 명확한 신뢰 기준이 없기 때문이 아닐까 싶어요. 기존 미디어에서는 ‘정확한 정보’와 ‘신뢰할 수 있는 출처’가 중요한 신뢰 기준이었지만, AI는 단순한 정보 제공자를 넘어 창작자이자 조력자이며, 가끔은 내 결정을 보조해주는 자가 되기도 하죠. AI의 역할이 확장됨에 따라 AI를 어떻게 신뢰하게 되는지에 대한 연구도 더 복잡해지고 있습니다.
오늘은 ‘신뢰’라는 개념부터 시작해, AI에 대한 신뢰는 기존의 신뢰와 어떻게 다른지 알아보려고 합니다. 그럼 AI의 신뢰도를 높이기 위한 UX 디자인은 어떻게 해야 하는지도 알 수 있을 것 같아요.
신뢰는 단순히 ‘정확성’의 문제가 아니에요
AI에 대한 신뢰는 ‘사용자가 AI 시스템을 믿고, 취약성을 감수하면서도 유익한 결과를 기대하며 AI 시스템을 활용하는 정도’로 정의됩니다. 이는 타인에 대한 신뢰와 유사하게 다차원적이며 동적인 개념으로, 신뢰하는 사람(사용자), 신뢰받는 대상(AI), 그리고 신뢰가 형성되는 맥락에 의해 영향을 받아요.
기존 미디어 연구에서는 신뢰(trust)를 정보의 정확성(accuracy), 출처의 신뢰성(reliability), 투명성(transparency) 같은 요소로 평가했어요. 하지만 AI는 단순히 정보를 제공하는 것이 아니라, 특정한 의사결정을 내리거나 창의적인 콘텐츠를 생성하는 등 다양한 역할을 수행하기에, 신뢰의 기준이 훨씬 복잡해져요. AI UX에서 신뢰는 단순히 '정확한 답을 제공하는가'의 문제가 아닌거죠.
- AI가 얼마나 일관되게 동작하는가(Performance Consistency)
- AI가 결과를 설명할 수 있는가(Explainability)
- AI가 사용자의 피드백을 반영할 수 있는가(User Adaptability)
- AI가 결정에 대한 책임을 질 수 있는가(Accountability)
사용자는 AI가 제공하는 정보의 정확성을 중요하게 여기지만, 동시에 AI가 왜 그런 결정을 내렸는지를 알고 싶어 합니다. 연구에 따르면, 설명 가능성(explainability)이 높은 AI 시스템은 신뢰를 더 쉽게 형성할 수 있어요. 예를 들어, 단순히 "이 답변이 맞습니다"라고 말하는 AI보다, "이 답변은 A, B, C 출처를 기반으로 생성되었습니다"라고 설명하는 AI가 더 신뢰를 받을 가능성이 높습니다.
또한, AI의 일관성도 신뢰를 구축하는 중요한 요소에요. 일관되지 않은 답변을 제공하는 AI는 신뢰를 잃기 쉽습니다. 같은 질문을 다르게 해도 일관된 답변을 유지하는 AI, 혹은 실수를 했을 때 이를 인지하고 정정하는 AI를 신뢰하죠.
이러한 이유로 AI 신뢰는 정확성(Factual Trust)뿐만 아니라, 창의성 신뢰(Creative Trust), 보조 신뢰(Assistive Trust), 책임 신뢰(Accountability Trust)와 같은 다양한 요소를 포함해요.
AI 신뢰의 네 가지 요소
- 사실 신뢰 (Factual Trust) : AI가 제공하는 정보가 정확한지, 최신인지, 신뢰할 수 있는 출처를 기반으로 하는지에 대한 신뢰
- 창의성 신뢰 (Creative Trust) : AI가 새롭고 가치 있는 창작물을 만들어낼 수 있는지에 대한 신뢰 (예: 소설가를 신뢰하는 방식)
- 보조 신뢰 (Assistive Trust) : AI가 실제로 유용한 도움을 주는지, 피드백을 반영하는지에 대한 신뢰 (예: Grammarly, Copilot 같은 도구)
- 책임 신뢰 (Accountability Trust) : AI가 내리는 결정이 공정하고 윤리적인지, 그리고 AI의 결정에 대한 책임을 질 수 있는지에 대한 신뢰 (예: 자율주행, 금융 AI, 의료 AI)
이렇게 AI UX에서 신뢰를 구축하려면 AI가 수행하는 역할에 따라 신뢰의 기준도 달라져야 해요.
AI UX에서 신뢰를 구축하기 위한 세 가지 전략
기존 연구에 따르면, 사용자가 AI를 신뢰하는 과정은 다음과 같은 요소에 의해 결정돼요.
- 기대 일치(expectation alignment) : AI의 역할과 성능이 사용자의 기대와 일치할 때 신뢰 형성
- 설명 가능성 및 투명성(explainability & transparency) : AI가 왜 이런 결정을 내렸는지 사용자가 이해할 수 있을 때에 신뢰 형성
- 사용자의 통제력(user control & adaptability) : 사용자가 AI의 응답을 조정하거나 피드백을 제공할 수 있을 때에 신뢰 형성
이러한 요소들을 바탕으로, AI UX에서 신뢰를 디자인하는 세 가지 방법을 정리해보았어요.
1. 기대치를 명확하게 설정하기
AI UX에서 신뢰를 형성하기 위해 가장 중요한 첫 번째 요소는 사용자가 AI의 한계를 정확히 이해하도록 돕는 것이에요.
AI 모델별 특성 안내 : 사용자가 AI의 기대치를 적절히 설정하려면, AI 모델의 역할과 강점을 명확히 전달해야 해요.
- 챗지피티 : 창의적인 아이디어를 제공하는 도우미로서, 최신 정보보다는 컨텍스트 기반의 답변이 강점
- Perplexity : 실시간 검색이 가능하며, 최신 정보를 빠르게 제공하는 것이 강점
질문의 유형에 따른 AI 한계 설명
사용자가 AI의 기대치를 올바르게 설정할 수 있도록, AI 모델이 특정 질문에 대해 스스로 한계를 설명하는 전략이 필요해요. 예를 들어, 사용자가 ChatGPT에게 '내일 날씨가 어때?'라고 물으면, AI가 단순히 날씨 정보를 제공하려 시도하는 것이 아니라, 다음과 같이 응답할 수 있죠.
"저는 기후와 관련된 감성적인 답변을 제공할 수는 있지만, 실시간 날씨 정보를 검색할 수는 없어요. 최신 정보를 원한다면 기상 전문 서비스를 참고하는 것이 좋아요."
이처럼 AI 모델이 특정한 질문에 대해 자신이 할 수 있는 것과 할 수 없는 것을 명확히 설명하면, 사용자는 AI의 한계를 이해하고 적절하게 활용할 수 있을 거에요. 이러한 접근 방식은 사용자에게 AI의 강점과 한계를 명확히 인식시켜, 신뢰할 수 있는 UX를 구축하는 데 중요한 역할을 합니다.
2. AI의 신뢰 수준을 표현하기
AI의 신뢰도를 단순한 수치로 표현하는 것은 현실적으로 어려운 문제죠. 따라서 신뢰를 효과적으로 전달하려면 출처 명확화, 결론에 대한 설명, 피드백 반영 등 다른 방법을 활용하는 것이 현실적이에요.
출처 및 결론 명확화
- 출처 제공: "이 답변은 A, B, C 연구를 기반으로 작성되었습니다."
- 해석의 여지 설명: "이 질문은 다양한 해석이 가능하며, 저는 이러한 근거를 바탕으로 이 답변을 도출했습니다."
사용자 피드백 반영
- "이 질문에 대한 다른 사용자의 만족도는 85%였습니다."
- AI가 답변을 업데이트할 수 있도록, 사용자의 평가를 반영하는 피드백 시스템 제공
3. 질문에 적합한 엔진을 추천하거나 전환하기
AI UX에서 흔히 발생하는 문제는 사용자가 AI의 특성과 한계를 정확히 이해하지 못한 채 사용한다는 거에요. 이를 해결하기 위해, AI가 사용자의 질문을 분석하고 적절한 엔진을 추천하거나 자동으로 전환하는 기능이 필요해요.
AI 모델 자동 추천
- "이 질문에는 Perplexity가 적합하여 자동으로 전환합니다."
- "이 질문을 GPT-4, Claude, Perplexity에 동시에 던져 비교해볼까요?"
이를 통해 사용자는 AI의 한계를 보완하면서 더 신뢰할 수 있는 경험을 할 수 있을 거에요.
AI UX에서 신뢰를 디자인하기
AI UX에서 신뢰를 구축하는 것은 단순히 AI의 성능을 개선한다고 가능한 것이 아니라 사용자가 AI의 특성을 이해하고 적절히 활용할 수 있도록 돕는 과정이라고 생각해요. 언젠가는 완벽한 AI가 나와서 모든 것을 믿고 맡길 수도 있겠지만, 그 과정에서 많은 사용자들이 AI의 장점을 충분히 활용할 수 있도록 돕는 것이 UX 디자이너의 몫이라면 우리가 그 과정을 잘 설명하고 전달해야 하겠죠.
단순히 정보의 '정확성'만을 고려하는 것이 아니라 AI와 사용자 간의 신뢰를 쌓는 다양한 요소들을 이해하고 이를 사용자에게 명확하게 설명할 때에 정말 사용자가 AI를 신뢰하고 더 많이 사용하게 될 거라 생각해요. AI와의 신뢰까지 디자인하는 UX를 기대하며, 오늘의 글을 마칩니다.
* 오늘의 글은 챗지피티 딥리서치와 함께 써봤어요. 딥리서치를 더 잘 사용하기 위해서 어떤 프롬프트를 쓰면 좋을지도 챗지피티에게 물어봤는데요, 덕분에 한 번에 기대 이상으로 좋은 결과를 얻었습니다. 딥리서치는 무려 30분이 넘게 리서치한 후 결과를 보여주었는데요, 매번 리서치를 시작하기 전에 저에게 몇 가지 질문을 해서 리서치 방향을 좀 더 명확히 한 후 시작하더라구요. 이 부분이 저는 특히 마음에 들었어요. 결과는 의외로 학술논문 뿐 아니라 웹에서 찾은 내용들도 많이 들어있어 개인적으로는 신뢰도가 조금 떨어졌었는데요 (이것도 신뢰와 관련 있는 내용이네요!) 제가 직접 서치하는 것 보다는 정말 적은 노력으로 많은 결과물을 얻을 수 있어서 만족스러웠어요.
매주 월요일 발행하던 IT News를 종료하고 수요레터에 더욱 집중하고 있어요. 하지만 중요한 IT 소식을 놓치지 않도록 inspireX 오픈카톡방을 통해 IT 뉴스를 수시로 전달하고 있으니 아래 링크로 들어와 주세요!
[inspire X 오픈카톡방]
https://open.kakao.com/o/gBHmseah
Reference
[1] Li, Y., Wu, B., Huang, Y., & Luan, S. (2024). Developing trustworthy artificial intelligence: insights from research on interpersonal, human-automation, and human-AI trust. Frontiers in Psychology, 15, 1382693.
[2] https://research.ibm.com/topics/trustworthy-ai
[3] Mayer, R. C., Davis, J. H., & Schoorman, F. D. (1995). An integrative model of organizational trust. Academy of management review, 20(3), 709-734.
[5] Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495-504.
의견을 남겨주세요