(출처:pexels.com)
(출처:pexels.com)

[데일리포스트=김정은 기자] 그동안 IT 기술의 진화를 견인한 것이 스마트폰이라면 포스트 스마트폰 시대를 이끌 강력한 후보는 인공지능(AI) 기반의 음성비서 서비스와 스마트 스피커다.

IT 업계는 포스트 스마트폰 시대의 컨셉을 모색하는 한편, 웨어러블 및 사물인터넷(IoT) 등 다양한 기술과 디바이스에 대한 연구를 진행 중이다. 하지만 아직까지 그 무엇도 폭발적인 보급력으로 생활에 큰 변화를 몰고 온 스마트폰에 필적할만한 존재로 부상하지는 못했다.

(출처:pxhere.com)
(출처:pxhere.com)

그런 의미에서 최근 아마존 에코(Echo)와 구글홈(Google Home)으로 대표되는 스마트 스피커에 대한 인기는 주목할 만 하다. 다양한 형태로 진화중인 AI를 ‘비서’라는 가장 익숙한 형태로 구현하고 있기 때문이다.

아마존의 알렉사, 구글 어시스턴트, 애플의 시리를 비롯해 국내에서도 SK텔레콤의 누구, KT의 지니, 삼성의 빅스비 등 최근 몇 년간 다양한 AI 음성 서비스가 등장했고 폭넓은 단말에 탑재돼 일상 속으로 스며들고 있다.

인공지능(AI)이 생활 속으로 들어온 배경은?

음성비서의 핵심 기술인 AI에 대한 연구가 시작된 것은 놀랍게도 1950년대부터다. 오랜 기간 연구가 이루어진 AI 기술이 최근에서야 빛을 발하고 있는 원인은 세 가지 정도로 생각해 볼 수 있다.

첫째, 기계가 스스로 학습하고 복수의 처리를 해결하는 과정에서 복잡한 판단까지도 가능케 하는 ‘딥러닝’ 기술의 발달이다. 이 방식을 통해 한국인에게도 유명한 구글 '알파고'가 이세돌 9단과 커제 9단을 꺾을 수 있었다. 알파고는 바둑 두는 법이 프로그래밍 돼 있지 않다. 딥러닝을 통해 스스로 승리하는 법을 깨달은 것뿐이다.

둘째 컴퓨터 자체의 진화다. 딥러닝은 학습하는데 매우 복잡한 계산을 처리해야 하기 때문에 컴퓨터의 성능이 높지 않으면 불가능하다. 최근 컴퓨터 자체의 성능이 크게 향상되면서 딥러닝을 활용한 AI 개발도 급속도로 발전했다.

(출처:pixabay.com)
(출처:pixabay.com)

셋째 클라우드와의 연계다. 클라우드는 2006년 구글의 CEO인 에릭 슈미트가 "원하는 때에 원하는 만큼만 쓰고, 사용한 만큼 비용을 지불하는 인터넷 환경"을 제안한 것에서 시작됐다. 클라우드는 말 그대로 모든 컴퓨팅 자원을 물리적으로 다른 위치에 두고 인터넷이라는 구름(Cloud) 속에서 사용할 수 있도록 한 것이다.

AI 비서의 무한진화...“대화 통해 다양한 상황 예측하고 감정도 읽어”

2019년 6월 현재 아마존 알렉사에게 "가족과 영화를 보고 돌아오는 길에 식사할거야"라는계획을 말한다고 가정해보자. 일정 준비를 위해서는 우선 영화티켓 구입을 지시하고, 레스토랑 예약 및 교통편 예약을 하나씩 구체적으로 지시해야 한다. 

하지만 새롭게 탑재될 기능을 통해 이제 알렉사는 자연스러운 대화 속에서 여러 작업을 동시에 인식 할 수 있게 된다. 지시 한번이면 여러 가지 제안과 실행이 가능해지는 것.

알렉사 수석 개발자 로힛 프라사드(Rohit Prasad)는 6월 4일(현지시간) ‘MARS 2019’ 컨퍼런스에서 딥러닝 기반의 새로운 접근 방법인 ‘대화형 알렉사(Alexa Conversations)’를 발표했다. MARS는 아마존이 AI·로봇·우주 등 첨단 분야를 대상으로 개최하는 연례 컨퍼런스로 이번이 4번째다. 

(출처: MARS 홈페이지)
(출처: MARS 홈페이지)

프라사드에 따르면 알렉사는 보다 자연스럽고 유연한 대화가 가능해지며, 대화 속에서 사용자 행동을 예측해 여러 작업을 스스로 수행할 수 있게 된다.   

대화형 알렉사를 활용한 대화 이미지는 아래와 같은 느낌이다. 사용자가 "영화 티켓을 예약해"라고 지시하면 알렉사는 먼저 티켓을 구입한다. 여기까지는 기존과 동일하다.

(출처: 아마존)
(출처: 아마존)

이후 AI가 다음 대화를 예측하고 "외식을 하시겠습니까?" 혹은 "이동은 택시로 하시나요?"라는 질문을 던질 수 있다. 이 기능은 수개월 이내에 탑재될 예정이며 미국을 시작으로 점차 확대할 계획이다.

한편, 최근 아마존의 연구개발 기관인 ‘랩126(Lab126)’이 사람의 목소리에서 감정을 읽어내는 웨어러블 단말을 개발 중인 것으로 알려졌다.

언론에 공개된 아마존 내부 문서에 따르면, 아마존이 개발하고 있는 단말은 스마트폰과 연동해 사람 목소리에서 감정을 읽고 판별하는 마이크로칩이 탑재돼 있다. 개발에 성공한다면 알렉사는 인간의 감정을 읽고 판독하는 능력까지 갖추게 된다. 

아마존의 AI 감정해독 프로젝트가 상업적인 수준으로 구현될 수 있을지는 좀 더 지켜봐야겠지만, 음성 비서 영역의 기술력이 예상보다 빠르게 성장하고 있음을 방증하고 있다.    

치열한 시장 쟁탈전…승패의 열쇠는 ‘데이터’

알렉사와 같은 음성비서는 각사가 독자적으로 개발한 클라우드 기반의 AI 기술로 탄생했다. 과거 스마트폰 OS를 둘러싸고 치열한 경쟁이 펼쳐졌다면 이제 IT 업계는 클라우드 AI에 가장 주목하고 있다. 이에 따라 상호 영역의 침범과 공존이 반복되며 혼잡 양상이 나타나고 있다.

음성비서 시장은 아마존과 구글이 선도하고 있다. 양사는 지난해 AI 스피커 본고장 미국에서 각각 67%와 30%의 점유율을 기록하며 시장을 독점했다. 페이스북은 지난 4월 AI 비서 시장에 뛰어든다고 선언했고, 삼성전자도 올 하반기 빅스비가 탑재된 자사 첫 AI 스피커 ‘갤럭시 홈’으로 본격적인 출사표를 던진다.    

AI 음성비서 '빅스비'와 AI스피커 '갤럭시 홈' (사진:삼성전자)
AI 음성비서 '빅스비'와 AI스피커 '갤럭시 홈' (사진:삼성전자)

고정 관념을 깬 결합도 속속 탄생중이다. 가장 대표적인 것이 아마존 알렉사와 마이크로소프트 코타나의 협업이다.

“알렉사, 코타나를 불러(Alexa, open Cortana)” 혹은 “코타나, 알렉사를 불러(Hey Cortana, open Alexa)”라는 호출 명령을 사용해 연동하는 방식이다. 코타나는 알렉사를 호출해 아마존 스마트홈 시스템을 작동시키고, 알렉사는 코타나를 호출해 윈도 시스템을 제어하는 것. 구글 어시스턴트와 삼성전자 빅스비, LG전자 씽큐 간 연계도 비슷한 형태라고 할 수 있다.

사실 AI를 둘러싼 경쟁은 아직 여명기에 불과하다. 그렇다면 승패를 쥘 수 있는 열쇠는 과연 어디에 있을까?

각사의 클라우드 AI는 주로 딥러닝 기반이기 때문에 기술이나 구조에 큰 차이가 없다고 알려져 있다. 실제로 구글은 자사에서 사용하는 AI 소프트웨어 ‘텐서플로(TensorFlow)’를 오픈소스로 공개해 개발자라면 누구나 인공지능 응용 프로그램에 도전할 수 있는 환경을 제공하고 있다.

따라서 차별화의 핵심 요소는 ‘데이터’다. 딥러닝은 무수한 데이터를 컴퓨터 스스로 학습하여 발전하는 방식. 막대한 고객 데이터를 거머진 아마존과 구글이 현재 시장을 견인하고 있는 것도 이 때문이다. 즉, 얼마나 많은 데이터를 수집하고 연구하여 AI를 진화시킬 수 있을지가 관건인 셈이다. 결국 데이터의 주도권을 잡는 자가 포스트 스마트폰 패권 경쟁에서 우위를 점할 것으로 전망된다. 

저작권자 © 데일리포스트 무단전재 및 재배포 금지