티스토리 뷰

중국의 인공지능 스타트업 Emotibot이 ‘감정 읽는 인공지능’ 서비스의 종합 솔루션을 준비 중입니다.



인생을 수십 년(또는 십수 년) 산 여러분들이라면 상대방의 감정을 읽어내는 일이 그렇게 어렵지는 않을 겁니다. 하지만 사실 여러분도 태초부터 감정을 읽을 줄 알았던 것은 아닙니다. 지상 최고의 신경망인 우리의 두뇌가 수 년간 얼굴 표정, 몸짓, 음성, 글 등의 여러 데이터들을 토대로 훈련을 거쳐 온 결과입니다.


감정을 이해하는 일은 꿈도 꾸지 못했던 컴퓨터가 최근 갑자기 사람의 감정을 읽을 수 있게 된 것은 바로 컴퓨터도 ‘신경망’을 장착한 이후부터 입니다. 딥러닝이 빠르게 발전하면서 감정을 읽을 수 있게 훈련된 여러 인공지능이 등장한 것입니다. 특히 2015년부터 많은 대기업과 스타트업에서 여러가지 인공지능 서비스와 API를 출시했습니다.


마이크로소프트와 구글의 Emotion API 비교


이런 ‘감정 이해 인공지능’ 서비스들은 감정을 읽기 위해 분석하는 데이터의 종류에 따라 나누어 볼 수 있습니다. 먼저, 사람의 얼굴 이미지를 토대로 감정을 파악해주는 인공지능 서비스로는 대표적으로 GoogleMicrosoft의 emotion API, 스타트업 Affectiva의 서비스 등이 있습니다. 특히, Affectiva의 경우에는 MIT 미디어 랩 출신의 CEO Rana el Kaliouby가 TED 에서 Affectiva의 기술을 소개해 화제가 된 적도 있었습니다. Affectiva는 세계에서 가장 큰 감정 분석 데이터베이스를 구축하고 있고, 감정 뿐만 아니라 이미지에서 컨텍스트, 즉 어떤 사람들이 있고 어떤 행동을 하고 있는지 등에 대해서도 딥러닝을 적용하고 있어서 높은 가치 평가를 받고 있습니다.


Affectiva CEO의 TED 강연


한편 이미지를 사용하지 않는 ‘감정 이해 인공지능’도 있습니다. IBM의 인공지능 간판스타 왓슨의 경우에는 텍스트를 기반으로 감정을 분석하는 API를 제공하고 있습니다. (하지만 정확도는 별로 높지 못한 것으로 알려져 있습니다.) 나흘 전 런던에서 펼쳐진 테크크런치 주관 해커톤(London 2016 Disrupt Hackaton)에서 The Emotion Journal (이하 TEJ)이라는 팀이 이 API를 이용해 우승을 거머쥐었습니다. TEJ은 사용자가 매일 일어난 개인적인 일들을 인공지능에게 말해주면, 자동으로 감정 상태를 파악하고 기록하여 사용자의 정신 건강 관리를 해주는 서비스입니다. 왓슨 API의 경우 텍스트 입력을 받기 때문에 TEJ 팀은 이를 위해 다른 음성 텍스트 변환 API를 함께 사용한 것 같습니다. 한편, 왓슨 API 외에도 다양한 텍스트 기반 감정 분석 인공지능, 그리고 음성을 기반으로 하는 인공지능 서비스들도 있습니다.


매일매일의 감정상태를 기록하고 관리하는 The Emotion Journal


이런 기존의 감정 이해 인공지능 서비스들은 대부분 입력으로 사용하는 데이터의 유형이 하나로 정해져 있어, 여러 용도에 사용할 수 없다는 점이 한계였습니다. 또한 사람의 경우에도 타인의 감정을 파악할 때 단지 표정 하나나 말 한마디만 보고 판단하는 것이 아니라 여러가지 요소를 복합적으로 보는 것처럼, 기계도 다양한 데이터를 함께 사용해야 더 좋은 결과를 얻을 수 있습니다.


이번에 중국에서 짧은 데모 영상이 공개된 스타트업 Emotibot은 이런 여러가지 데이터들을 종합적으로 사용해 감정을 파악하는 인공지능의 궁극체를 개발하고 있습니다. Emotibot 서비스의 주요 목적은 인공지능 개인비서 서비스나 챗봇, 상품 판매 에이전트가 사람들의 감정 상태를 정확하게 이해하고 그들을 상대하는 데 이를 반영하게 하는 것입니다. 소비자에게 어떤 서비스를 제공해야 하든 그들의 감정 상태를 고려할 줄 안다는 것은 서비스의 질을 크게 향상시킬 수 있습니다. 아직 서비스의 완전체는 출시되지 않았지만, 위챗을 통해 감정을 분석해주는 챗봇은 만나볼 수 있습니다. (아쉽게도 중국어로 구성되어 있습니다.)



Emotibot은 높은 수준의 기술력을 가지고 있습니다. 회사의 주장에 따르면, 표준 FDDB(Face Detection Data Set and Benchmark) 데이터에 인공지능을 적용한 결과 95.63%의 정확도를 선보인다고 합니다. Emotibot은 사람과의 대화 내용, 음성, 표정 등에서 종합적으로 감정을 도출해내는데, 대화 내용(텍스트)만 사용할 경우 22가지의 감정 상태, 음성이나 표정만 사용할 경우 7가지의 감정 상태로 분류를 합니다. 사람의 복합적인 감정 상태를 더 높은 정확도로 파악하는 알고리즘을 개발하기 위해 MIT 미디어 랩의 Rosalind Picard 교수와도 협력 중이라고 합니다.


이런 ‘감정 이해 인공지능’이 중요한 이유는, 단지 ‘논리’로만으로는 전통적으로 면대면으로 해왔던 서비스를 완전히 대체할 수 있을 만큼 컴퓨터 프로그램의 사용성이 좋을 수가 없기 때문입니다. 최근 챗봇이 새로운 플랫폼으로 떠오르게 된 배경에는 인공지능 기술의 발전으로 인해 상당한 수준의 자연언어처리 기술이 보급화되었던 것이 있습니다. 하지만 이런 챗봇의 상용화에 있어서 현재 가장 큰 한계가 사용자의 입력 텍스트에 대해 아주 섬세하게 반응하지는 못한다는 것입니다. 챗봇으로 사용자의 대략적 의도는 파악할 수 있지만, 사용자의 감정을 아직 반영하지 못하기 때문입니다. 그리고 사람이라면 누구나 감정과 교감에 민감하기 때문에 이런 섬세한 차이조차도 큰 사용성의 차이를 내게 됩니다.


페이스북에 인수된 스타트업 FacioMetrics가 감정 이해 및 얼굴 인식 인공지능을 다양하게 활용한 예


Emotibot의 잠재적 시장은 바로 여기에 있습니다. Emotibot은 감정을 반영하는 챗봇을 구축하려는 회사들에게 솔루션을 제공하는 것을 주요 사업으로 할 예정입니다. 물론 향후에는 감정 이해 인공지능이 개인 비서, 스마트카 등 여러 분야에서 널리 쓰이겠지만 당장 눈앞에 두고 있는 가장 큰 시장은 바로 챗봇 시장인 것 같습니다. 그리고 그 챗봇 시장이 온전히 크게 성장하기 위해서 충분한 수준의 감정 이해 인공지능을 필요로 하기 때문에, 챗봇 성공의 필요충분조건이 바로 이런 감정 이해 인공지능의 보급이 아닐까 싶습니다. Emotibot이 중국어 중심이라 언제 한국에서 만날 수 있을지 모르겠지만, 곧 유사한 높은 수준의 감정 이해 인공지능을 보게 되리라 믿습니다.


참고기사

TechCrunch, "Emotibot wants to help chatbots know how you really feel"



에티 페이스북 페이지를 통해 다른 에티 글도 받아보세요


인기 포스팅 보기

댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/03   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
글 보관함