Emotion AI는 인간의 감정을 이해하는 AI를 의미합니다. 이를 위해 심리학, 컴퓨터 과학, 그리고 AI의 결합이 필요하죠. 최근 인공지능을 넘어 인간의 “감정”을 이해하는 것이 부상하고 있습니다. 이것이 AI 판을 바꿀 기술일지, 또 문제는 없는지 알아보겠습니다.
기계가 왜 감정을 이해해야 돼?
AI 고객센터는 분노의 찬 "그게 뭔 개소리야?"와 "그건 무슨 강아지의 소리야?"의 차이를 구분할 줄 알아야 합니다. 문맥과 감정을 이해하는 것은 인간과 기계와의 상호작용에 가장 중요한 문제일 수 있습니다.
Emotion AI의 기술
표정, 목소리부터, 어떤 말을 하는지와 기타 생리적 신호를 통해 인간의 감정 표현을 해석할 수 있습니다. 얼굴의 미세표정, 근육 움직임 등을 감지합니다. 목소리에서 패턴, 톤, 리듬을 측정하고 감정 상태를 식별할 수 있죠. 어떤 말을 하는지도 뉘앙스와 맥락에 대한 힌트를 주죠. 더 나아가 스마트워치 등의 웨어러블 장치를 통해 성능 향상에 활용합니다.
시장 방향
Emotion AI는 인간을 더 잘 이해하고, 적절한 반응을 할 것입니다. 이는 점점 더 AI 고객센터, 챗봇 등의 사용에도 신뢰를 줄 수 있죠.
대기업은 이미 움직였다.
대기업들은 Emotion AI 솔루션을 개발해 왔습니다. MS의 Emotion API, IBM의 Natural Language Understanding API, Google AI의 Cloud Vision API, Amazon의 Rekognition 서비스 등이 있죠.
스타트업도 뜨겁다.
Uniphore, MorphCast, VoiceSense, Superceed, Siena AI, audEERING, Opsis 등이 수 백억 원의 투자를 유치하고 있습니다.
하지만 AI는 만능이 아니다.
Emotion AI가 공감을 어느 정도 할 수 있더라도, 그 효과에 대한 의문이 남아 있습니다. 사람들은 자신의 감정을 드러내려 하지 않고, 숨기려 합니다. 즉, 신체적 반응으로 나오지 않는 숨겨진 감정을 분석하는 것도 꽤 중요한 숙제입니다. 게다가 감정이 정확히 무엇인지에 대한 기본적인, 합의된 정의가 없기도 합니다.
감정은 복잡하다.
우리는 감정에 대해 말할 때, “80% 화가 나 있고, 18% 두려워하고, 2% 슬퍼하고 있다”라고 말하지 않습니다. 여기에 AI 편향이라는 악명 높은 문제가 더해지죠. "당신의 감정은 훈련된 데이터를 바탕으로 분노가 확실합니다.”는 메시지는 인간의 감정을 이해한다고 볼 수 없습니다.
인간이 기계에 지배당할 수 있다.
인간의 감정을 정확하게 이해하더라도 문제는 여전합니다. 사람들의 감정을 분석하여 인간을 지배할 가능성이 높기 때문이죠. 감정을 분석하고, 취약한 부분을 발견하여 특정 행동을 유도시키는 것이 가능합니다. 그리고 그 특정 행동은 상업적이거나, 정치적일 확률이 높죠.
이윤 추구를 조심하자.
이런 오용을 막기 위해서는 감정을 상업적에 이용하기보다, 심리 치료 등 영리를 추구하지 않는 곳에서 사용되어야 합니다. 기계에게 지배를 당한다는 것은 노역을 하는 노예가 된다는 의미보다, 기계가 원하는 방식대로 생각하고, 행동하게 되는 것입니다.
의견을 남겨주세요