Abstract
This paper handles the UX implementation for system control using the visual input information of hand motion. Kinect sensor from Microsoft is used to acquire the user's skeleton image from the 3-D depth map at a rate of 30 frames per sec. and eventually knows the x-y coordinates of hand joints. The x-y coordinate value changes of hands between the present frame and next frame shows the direction of changes and rotation of changes and the various hand motion is used as a UX input command for remote image control on smart TV, etc. Through the experiments, we showed the implementation of the proposed idea.
본 논문에서는 손동작을 영상 입력 정보로 하여 기기의 기능을 제어하는 UX를 구현하였다 이를 위하여 Microsoft 사의 Kinect 센서를 이용하여 초당 30 프레임의 사용자의 3차원 depth map을 얻고 여기서 skeleton 이미지를 추출하여 손목 등의 관절의 위치에 대한 좌표 값을 얻는다. 전 후 프레임의 손의 위치가 변화하는 방향과 병화량으로부터 손 동작의 의미를 추출하고 다양한 손동작을 이용하여 스마트TV 등의 원격의 영상을 제어하는 명령어 입력으로 사용하는 UX를 제시하고 실험을 통하여 구현하였다.