Monday Newsletter

AI시대에서 UX디자인을 생각합니다

인간중심 AI 이해하기 #1 - 윤리적 AI

2023.11.06 | 조회 1.61K |
2
|

inspireX

매주 월/수요일, 한주간 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

올해 가장 핫한 키워드는 무엇이었을까요? 바로 생각나는 그 단어가 있죠. 네, AI입니다. AI 기술이 발전하기만 하면 우리의 세상이 더 멋지게 변할까요? 기술을 사용하는 것은 언제나 사람입니다. 그래서 지금부터 인간중심 AI를 어떻게 디자인해야 하는지 고민해 봐야 해요. AI는 스스로 자라나지 않기 때문이죠. 

지난 10월 30일, 미국 백악관은 안전하고 신뢰할 수 있는 AI를 목표로 하는 행정 명령을 발표했습니다. ‘신뢰할 수 있는 AI’라는 말은 Human-centered AI 관련해서 여러 번 들어봤지만 이렇게 정부 차원에서 조치를 내릴 만큼 이슈가 되었구나 조금 놀랍기도 했어요.

저희의 첫 뉴스레터에서는 이렇게 이슈가 되고 있는 인간중심 AI (HCAI, Human-centered AI)라는 개념과 윤리적 AI에 대해서 알아보고 여러분들과 함께 이야기해 보려고 해요.


🙄 윤리적 AI가 왜 중요한거에요?

 

  1. 인간중심 AI 연구 분야는 기술/가치 중심인지 실생활에서 사용중인지에 따라 협업, 윤리성, 해석가능성, 디자인 방법이라는 4가지로 나눠볼 수 있습니다. 기술의 윤리성에 대한 사회적 합의가 없다면 AI기반 서비스를 안심하고 사용할 수 없습니다.
  2. 윤리적 AI를 위해서 각 국가에서는 규제 방안을 마련 중이고 글로벌 기업에서는 가이드라인을 수립하고 있습니다. 학계에서는 공정성(Fairness)과 신뢰(Trust)를 중심으로 윤리적 AI를 연구하고 있어요.
  3. 윤리적 AI는 모호하고 추상적인 키워드라도 생각할 수 있지만, 요즘 세대에게 신뢰와 공정성은 중요한 문제입니다. 브랜드가 얼마나 진정으로 윤리성을 추구하는지가 중요한 브랜드 평가 지표입니다. 그래서 젊은 세대가 사용하게 될 AI 서비스에서 어떻게 신뢰와 공정성을 전달할 수 있는지 UX 고민이 필요해요.

인간중심 AI의 네가지 연구 분야

 

HCAI라는 말은 Algorithm-focused AI의 반대 개념으로 등장했습니다. 인간적이고 윤리적이며 인간을 대체하는 것이 아니라 인간의 능력을 더 확장시켜주는 AI를 추구하는 것이 인간중심 AI인데요, 이 정의는 HCAI 분야의 대가인 Ben Shneiderman이 쓴 다수의 논문과 그의 책에서 언급되었습니다.

HCAI 분야에서 다뤄지고 있는 다양한 연구 주제들은 아래 그림처럼 크게 네 가지로 나눌 수 있습니다.

 

인간중심 AI 연구 분류 (Capel & Brereton, 2023)
인간중심 AI 연구 분류 (Capel & Brereton, 2023)

 

그림의 가로축에서 왼쪽으로 갈수록 기술 중심의 연구이고 오른쪽으로 갈수록 인간 중심 관점에서 진행된 AI 연구들입니다. 가로축의 중간에 있는 연구들은 AI의 기술적인 측면과 인간 중심적인 측면을 모두 고려하는 것이라고 해석할 수 있겠네요.

세로축은 AI가 사용된 맥락을 의미합니다. 세로축에서 위로 갈수록 실제 사용 맥락을 고려한 연구들이 표시되고 아래쪽으로 갈수록 연구실에서 설계된 AI에 대한 연구들이 표시됩니다.

이 그림을 더 간단하게 정리해 볼까요?


 

인간중심 AI는 인간의 능력을 확장시켜주는 AI를 추구하는 것이라고 말씀드렸죠. 이러한 관점에서 AI가 실제 서비스에 활용된다면 어떤 것들을 가장 고려해야 할까요. 그림 위쪽에 있는 것처럼 AI와 내가 같이 작업을 진행할 수 있을지, AI가 과연 윤리적으로 작동할지를 생각해 봐야합니다. 이것을 위해서는 AI 설계 단계부터 AI가 얼마나 해석 가능할지 어떤 식으로 AI를 디자인하고 평가해야 할지 미리 고민해야겠죠.

이번 주에는 이 중에서 최근에 이슈가 되고 있는 윤리적 AI(Ethical AI)에 대해서 좀 더 깊게 다뤄보려고 합니다.


윤리적 AI 를 위한 노력은 어떻게 진행중일까

 

윤리적 AI는 AI의 도덕적, 철학적 측면에 중점을 두어, AI 시스템과 관련 기술이 윤리적 원칙 및 가치를 준수하도록 보장하자는 주장입니다. 인권, 공정성, 편견, 책임 및 AI가 사회에 미치는 영향과 관련된 내용들을 주로 다루고 있어요.

지난 11월 1일 영국 블레츨리 파크에서 개막한 제 1회 AI Safety summit에서 28개 참가국과 EU는 AI 기술 안전에 대한 내용이 담긴 ‘블레츨리 선언’을 발표했어요. 인간 중심적이고 신뢰할 수 있으며 책임감 있는 AI를 위해 포괄적 방식으로 협력할 것을 결의하는 자리였는데요, 내년 5월 한국에서 열릴 미니 정상회의에서 좀 더 구체화된 후속 조치를 논의할 것으로 보입니다.

실제 이런 논의가 이루어지게 된 것은 아마도 ‘윤리적이지 못한’ AI로 인한 일련의 사례 때문이겠죠. 2019년 Science에 게재된 연구에서는 진료 시 의사결정을 돕는 알고리즘에서 인종적 편견(Racial bias)을 찾아냈습니다. 미국 내 저소득층이 상대적으로 더 많은 흑인의 경우, 백인과 같은 병을 앓고 있어도 관련한 지출이 더 적다고 합니다. 이 데이터를 기반으로 만든 알고리즘에는 사후 관리가 필요한 고위험군 환자를 식별할 때에 흑인들이 상대적으로 더 적게 포함되고 있었던 것입니다.

또한 요즘 많이 사용되는 딥페이크(Deep fake)는 가짜 뉴스의 온상이기도 합니다. 바이든도 본인의 딥페이크 영상을 보고 ‘내가 언제 저런말을 했지’ 라며 놀랐을 정도라고 하는데요, 특히 내년 대선을 앞둔 미국은 이를 규제하겠다는 의지가 큽니다.

이와 같은 문제를 해결하고자 Google, IBM 등의 기업에서는 AI 원칙을 세우고 윤리적 AI에 대한 내용을 포함시키기도 했습니다. Google의 AI원칙 첫번째는 사회적으로 유익해야 한다, 두번째는 불공정한 편견을 만들거나 강화하지 않아야 한다 입니다. 하지만 대기업에서 AI 원칙을 세우는 것은 대외 이미지 구축을 위한 빛좋은 개살구에 지나지 않는다는 의견도 많죠. 여전히 AI로 인한 위험이 존재함에도 불구하고 기업이 AI를 위험으로부터 자유롭게 만들었다는 잘못된 인식을 낳을 수 있습니다.

 

글로벌 기업의 AI원칙들 (https://www.outthinking-ai.com/ethics-in-ai)
글로벌 기업의 AI원칙들 (https://www.outthinking-ai.com/ethics-in-ai)

 

현재 윤리적 AI를 위한 노력은 국가적 규제 방안 논의 및 각 기업의 윤리적 가이드라인 수립 정도가 이루어지고 있는 정도라서, 관련 내용을 이해하기 위해서는 학계에서 연구되고 있는 사례들을 간단히 소개하는 게 좋을 것 같아요. 윤리적 AI 관련 연구 주제 중에서 중요한 두 가지 키워드를 뽑아봤어요.


윤리적 AI의 두 가지 연구 주제: 공정성과 신뢰

 

주제 1. 공정성 (Fairness)

공정한 AI를 위해서는 편향을 최소화 해야 합니다. 편향(Bias)은 AI 시스템이 제시하는 결과물에 편견과 왜곡이 존재하는 것을 뜻합니다. 이것은 AI 개발 프로세스 중 다양한 단계에서 발생할 수 있는데요, 크게는 데이터 편향 (AI가 학습하게 되는 데이터 자체에 편향이 포함되어 있는 경우), 알고리즘 편향 (AI의 알고리즘이 편향을 내재하고 있는 경우), 그리고 사용자 편향 (AI가 제공하는 결과물을 받아들이는 사용자로 인한 편향) 이렇게 세 가지로 분류하고 있습니다.

2021년에 발표되어 이미 3천회 이상 인용된 머신러닝에서 편향과 공정성에 대한 논문 (💡이 논문에 대한 간단 리뷰💡)에서는 현재 공정성(Fairness)의 정의에 대한 합의가 아직 이루어지지 못했고, 이것이 선행되어야 불공정성(Unfairness)을 탐지하고 제거할 수 있다고 주장하고 있습니다.

또한 평등(Equality)에 대한 논의를 넘어서 형평성(Equity)을 통해 공정성을 이루어 내기 위한 논의가 필요하다고 말합니다. 형평성에 대한 이슈는 이미 사회 전반에 다양성(Diversity), 포용성(Inclusion)과 함께 너무나 중요한 가치로 받아들여 지고 있기에 AI 역시 이를 무시할 수 없을 것으로 보입니다.

 

평등과 형평성의 차이 (Interaction Institute for Social Change, Artist: Angus Maguire)
평등과 형평성의 차이 (Interaction Institute for Social Change, Artist: Angus Maguire)

 

Trustworthy AI: From Principles to Practice 연구에 따르면 편향에 영향을 미치는 두가지 요소는 인종, 성별과 같은 특정 집단의 정체성과 시스템의 반응입니다. 정리하면, 공정한 AI를 위해서는 형평성을 기반으로 특정 집단에 대한 다양항 경로의 편향을 제거해야겠죠.

 

주제 2. 신뢰 (Trust)

European Commision에서 정의한 신뢰할 수 있는 AI(Trustworthy AI)는 합법적이고(Lawful), 윤리적이며(Ethical), 기술적 및 사회적 관점 모두에서 견고한(Robust) AI 시스템을 뜻합니다. 윤리적 AI에는 기반에 두되, 조금 더 기술적이고 운영적인 측면에 중점을 두는 것이 신뢰할 수 있는 AI라고 이해하시면 조금 편할 것 같아요.

많은 연구들은 기존에 존재하는 ‘Trust(신뢰)’라는 개념을 AI에 적용하기 위해 크게 두 가지 접근 방식을 취하고 있습니다. 하나는 사람들이 다른 사람을 대할 때 나타나는 신뢰를 AI agent에 대한 신뢰로 연결짓는 방식, 그리고 또 하나는 기술 자체의 유용성, 기능성에 대한 신뢰를 AI 시스템에 대한 신뢰로 연결짓는 방식 입니다.

 

사람과 사람 사이의 신뢰

아주 예전에 Siri가 처음 나왔을 때 헤비유저(Heavy user) 대상으로 shadowing을 한 적이 있었는데요, 그 때 사용자들이 Siri를 가상의 ‘여자’로 인식하며 그녀는 늘 나에게 좋은 답을 주기 위해 최선을 다하는 것을 알고 있기 때문에 혹시 답변이 틀려도 이해해줄 수 있다고 했던 말이 아주 오랫동안 기억에 남았어요. 이런 것이 아마 사람과 사람 사이에 존재하는 신뢰의 개념이 AI 시스템에까지 적용되는 사례일 것 같네요.

 

AI 시스템 의인화 (https://medium.com/@olabk_22180/hey-siri-who-are-you-product-case-study-of-apples-voice-assistant-186e96747430)
AI 시스템 의인화 (https://medium.com/@olabk_22180/hey-siri-who-are-you-product-case-study-of-apples-voice-assistant-186e96747430)

 

기술에 대한 신뢰

ChatGPT가 처음 나왔을 때 엄청나게 흥분해서 지인들에게 널리 전파하던 시절이 있었는데요, 그 중 한 명이 업무 관련해서 특이한 판결 사례를 찾는 데에 ChatGPT를 이용했다가 하루를 거의 날린적이 있었어요. 처음엔 해당 사례가 있다고 알려줬는데 깊게 파고 들어가다보니 결국 거짓 정보였던거죠. 그 친구는 그날 이후 더 이상 ChatGPT를 사용하지 않아요. 이것은 기술 자체의 기능성에 대한 신뢰가 낮아진 사례라고 볼 수 있을 것 같아요.

 

AI가 하는 일을 신뢰해도 될까 (https://www.engati.com/blog/chatgpt-memes)
AI가 하는 일을 신뢰해도 될까 (https://www.engati.com/blog/chatgpt-memes)

 

이렇게 중요한 주제이긴 하지만, 어떻게 과연 신뢰할 수 있는 AI를 만들 수 있을 것인가에 대한 상세한 해답은 아직 존재하지 않아요. Trustworthy artificial intelligence 연구에서도 신뢰할 수 있는 AI를 만들기 위해 기존에 다양한 논의가 있어왔지만 너무 개념적이고 실체가 없는 가이드라인에 불과했던 것을 꼬집으며, 신뢰할 수 있는 AI를 구축하기 위한 방법을 입력 데이터 검증, AI 모델 자체의 수정 및 출력 데이터의 필터링 세 가지 단계로 나누어 제안합니다.

하지만 무엇보다 ‘Blackbox’에 가까운 AI 모델을 우리가 어디까지 이해하고 이것을 신뢰할 수 있는 수준으로 끌어올릴 수 있을까에 대한 의문이 계속 남아있죠. 이 개념은 다음에 다룰 해석가능한 AI(Explainable AI)와도 연결되는 이야기인 것 같네요.


윤리적 AI라는 개념이 조금은 모호할 수도 있고, 그냥 듣기 좋은 소리 하는 거 아니냐고 생각하실 수도 있어요. 하지만 이 개념은 지금 우리의 가장 큰 고객인 젊은 세대에게 특히 중요한 가치인거 기억하시죠? 기업의 사회적 책임을 중시하는 젊은 고객들에게는 AI 역시 투명하고 지속가능하게 관리되는 것이 중요한 가치일 거에요.

인어공주도 흑인인 시대에 흑인에게 불공정한 의료 방편을 제안하는 재앙이 일어난다면 그 소비자층을 과연 잡아둘 수 있을까요? 어떤 AI 시스템을 운영하든, 자사의 AI 시스템을 윤리적으로 관리하기 위한 노력을 소비자 마케팅 단계까지 상세하게 설명하고 이해시키는 것이 앞으로 더더욱 중요할 거라 생각해요.

오늘 살펴본 윤리적 AI는 사실 지금 당장 실무에서 논하기에는 조금 이른 주제일 수도 있어요. 그렇기에 아직은 고차원적인 가이드라인, 혹은 규제 상태로 존재하고 있는 것이겠죠. 하지만 AI가 더 발전해서 확립되기 전 조금은 초기 단계에서 이런 개념들을 명확히 해두지 않으면 영원히 실현 불가능한 영역일수도 있습니다.

이런 부분에서 인간중심적 마인드셋을 가지고 있는 UX 디자이너들과 연구자들이 이 컨셉에 대해 잘 이해하고 자신의 목소리를 낼 수 있어야 한다고 생각해요. 저희와 함께 11월 한 달 동안 인간중심 AI에 대해 생각해보면서 자신만의 시각을 만들어가시길 바랍니다!


🤔 InspireX의 물음표

댓글이나 이메일로 여러분의 생각을 들려주세요!😉

 

Q1. 공정성 있는 AI를 만들기 위해서 학습데이터의 편향(Bias)을 인위적으로 제거하는 행위를 어떻게 생각하나요? 공정성에 대한 정의는 사람마다 다를 수 있는데 윤리적 AI를 디자인하기 위해서 인간이 어디까지 개입하는 것이 맞을까요?

 

Q2. 윤리적 AI라는 추상적인 개념을 UX디자이너가 실무에 적용할 수 있는 방법이 있을까요? 혹시 비슷한 고민을 해봤거나 이런 문제를 해결하기 위해 노력했던 경험이 있나요?

 


다가올 뉴스레터가 궁금하신가요?

지금 구독해서 새로운 레터를 받아보세요

✉️

이번 뉴스레터 어떠셨나요?

inspireX 님에게 ☕️ 커피와 ✉️ 쪽지를 보내보세요!

댓글 2개

의견을 남겨주세요

확인
  • MJ

    1
    11 months 전

    공정성에 대한 정의가 사람마다 다를수는 있지만 적어도 인종이나 성별로 인한 차별이 없어야 한다는 정도의 합의는 있다고 생각해요. 낮은 수준에서 시작하고 점차 그 공정성의 레벨을 높여나가면 되지 않을까 하는 생각을 해봤습니다. 좋은 뉴스레터 잘 읽었어요.

    ㄴ 답글 (1)
© 2024 inspireX

매주 월/수요일, 한주간 생각해볼 만한 IT/UX 이야기를 전달해드립니다.

자주 묻는 질문 서비스 소개서 오류 및 기능 관련 제보

서비스 이용 문의admin@team.maily.so

메일리 사업자 정보

메일리 (대표자: 이한결) | 사업자번호: 717-47-00705 | 서울 서초구 강남대로53길 8, 8층 11-7호

이용약관 | 개인정보처리방침 | 정기결제 이용약관