무궁무진한 키넥트

영화를 아바타 이전과 이후로 나눈다면 게임기는 키넥트 이전과 이후로 나눌 수 있다고 생각한다. 키넥트는 WI처럼 몸으로 직접 게임을 할 수 있도록 하지만 WI에 비해 활용할 수 있는 분야가 무궁무진하다. 오늘은 다양한 분야에서 활용되고 있는 키넥트를 소개하겠다

아바타와 아바타

최근에 본 영화 중 인상에 남는 영화를 하나 꼽으라고 하면 역시 아바타(Avatar)이다. 2009년 12월에 개봉한 영화이니 사실 최근으로 보기도 힘들다. 1년도 더된 영화가 아직도 최근 영화로 기억에 남아 있는 이유는 아바타가 가져 온 충격이 워낙 크기 때문이다. 아바타를 좋아하는 사람들은 영화는 아바타 이전과 이후로 나뉜다[1]고 한다. 나 역시 이 의견에 동의한다. 아바타의 스토리는 모두 알고 있을 것이다. 또 그 영화적 가치는 이견이 없을 것이라고 생각한다.

영화의 이름이 아바타(avatar)인 이유는 영화속 주인공이 하반신이 마비된 해병과 이 해병의 생체공학 아바타이기 때문이다. 아바타는 일반적으로 컴퓨터 사용자가 자신을 묘사한 캐릭터를 말한다. 둘째 아이가 그려줘 지금까지 블로그 아이콘으로 사용하고 있는 왼쪽의 그림도 2차원 아바타인 셈이다. 컴퓨터 게임에서 아바타자신을 모사한 가상 캐릭터이며, 게이머의 의도대로 움직이는 3차원 캐릭터이기도 하다. 영화 속 아바타도 비슷하다. 주인공과 신경이 연결된 생체공학 캐릭터가 아바타이기 때문이다.

봇바타

그럼 봇바타(Bot avatar)는 무엇일까?

구글에서 Bot avatar로 검색해 보면 의외로 검색결과가 많다. 단어를 보면 알 수 있지만 로봇 아바타(Robot avatar)를 줄인 말이다. 영화 속 아바타가 생체공학 캐릭터라면 봇바타는 로봇 아바타를 말한다. 영화 속 아바타가 상상속 생체공학의 산물이라면 봇바타는 현실속 기계전자공학의 산물인 셈이다. 따라서 봇바타도 사람의 움직임을 인식하고 그대로 따라한다. 그런데 봇바타에 새로운 바람이 불고 있다. 바로 마이크로소프트(Microsoft)에서 작년에 출시한 (Kinect) 때문이다.

처음 키넥트가 등장했을 때 한 이야기가 있다. 꿈을 현실로 만드는 게임기. 그리고 키넥트 센서는 단순히 게임기뿐만 아니라 컴퓨터 보조 입력 장치부터 상당히 다양한 분야에서 사용될 것을 예측했다. 그중 하나가 키넥트 센서로 사람의 동작을 인식하고 이렇게 인식한 동작을 이지모와 같은 로봇에 적용한 봇바타(Bot Avatar)이다. 다음 두개의 영상은 키넥트 핵스에 올라온 봇바타 영상이다.

키넥트 봇바타

휴머노이드 나오

키넥트 핵스Controlling The Humanoid Robot Nao Using Kinect라는 글에 올라온 동영상이다. 휴머노이드로 유명한 이지모와 비슷하게 생긴 로봇이 사람의 동작을 그대로 따라하는 것을 볼 수 있다. 아직 로봇 제어가 원할하지 않아 움직이는 속도는 조금 느리다. 그러나 봇바타 답게 사람의 동작을 그대로 따라하는 것을 알 수 있다. 아울러 동영상에는 로봇을 제어하는 명령과 키넥트(Kinect)가 인식한 골격의 모습까지 그대로 표시된다.

휴머노이드 제어

역시 키넥트 핵스에 올라온 동영상이다. 이전 동영상의 로봇 보다 움직임이 훨씬 좋다. 이전 동영상 처럼 로봇을 사람이 직접 제어한다. 또 걷지는 못하지만 동작은 훨씬 유연하다. 역시 로봇과 로봇의 관절, 키넥트로 인식한 골격의 모습이 그대로 표시된다.

위의 두개의 동영상에 등장하는 봇바타는 영화 속 아바타처럼 자유자재로 움직이지는 못한다. 사람처럼 자유자재로 움직일 수 있는 로봇도 없거니와 아직까지 키넥트(Kinect)의 인식율이 그렇게 좋지는 못하기 때문이다. 그러나 키넥트는 이러한 작업의 첫 출발점인 셈이다. 키넥트가 단순히 게임기에 머물지 않고 산업 전반에 영향을 끼칠 것으로 본 이유는 기술 자체의 혁신성 보다는 그 가능성 때문이었다[2].

표정을 인식하는 키넥트

그리고 이제 키넥트(Kinect)의 가능성은 단순히 게임기에 머물지 않고 정말 다양한 분야에 적용되고 있다. 얼마 전 스티브 발머는 CES에서 키넥트(Kinect)로 가상 채팅을 할 수 있을 것이라고 발표했다. 지금까지는 키넥트를 이용해서 동작을 인식하는 것만 이야기해왔다. 그런데 단순히 동작만 인식할 수 있는 것이 아니다. 사람의 *표정까지 인식[3]할 수 있다. 다음 동영상은 이런 가능성을 보여주는 영상이다. 동영상을 보면 알 수 있지만 이제는 가상 공간상의 채팅도 표정을 보며 할 수 있는 세상이 된 셈이다.

키넥트를 이용한 가상 채팅

남은 이야기

외국에서 진행되는 케넥트(Kinect)에 대한 다양한 프로젝트를 생각하면 국내도 케넥트 모임을 만드는 것이 어떨까 하는 생각이 든다. 지금 생각으로는 페이스북에 '관련 그룹'을 만들 생각이다. 이외에 키넥트 모임에 대한 '좋은 의견'이 있는 분은 댓글을 남겨주기 바란다. 참고로 난 마이크로소프트라는 회사를 그리 좋아하지 않았다. 그러나 윈도 7(Windows 7)로 이미지가 많이 개선됐다. 그리고 키넥트에 의해 마이크로소프트를 다르게 보고 있다. 그 만큼 키넥트(Kinect)를 높게 평가한다는 뜻이다.

관련 글타래


  1. 얼마나 많은 사람이 동의할지 모르겠다. 그러나 난 게임기도 "키넥트 이전과 이후로 나뉜다"고 생각한다. 
  2. 누차에 걸처 이야기하지만 마이크로소프트는 기술 혁신을 선도하는 회사가 아니다. 있는 기술을 잘 활용하는 회사이다. 키넥트도 비슷하다. 
  3. 얼굴 인식과는 다른 이야기이다.