• 제목/요약/키워드: Hand-based User Interface

검색결과 126건 처리시간 0.025초

웨어러블 응용을 위한 CNN 기반 손 제스처 인식 (CNN-Based Hand Gesture Recognition for Wearable Applications)

  • 문현철;양안나;김재곤
    • 방송공학회논문지
    • /
    • 제23권2호
    • /
    • pp.246-252
    • /
    • 2018
  • 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)로 주목받고 있다. 최근 MPEG에서는 IoT(Internet of Things) 및 웨어러블 환경에서의 효율적인 미디어 소비를 지원하기 위한 IoMT(Internet of Media Things) 표준화를 진행하고 있다. IoMT에서는 손 제스처 검출과 인식이 별도의 기기에서 수행되는 것을 가정하고 이들 모듈간의 인터페이스 규격을 제공하고 있다. 한편, 최근 인식률 개선을 위하여 딥러닝 기반의 손 제스처 인식 기법 또한 활발히 연구되고 있다. 본 논문에서는 IoMT의 유스 케이스(use case)의 하나인 웨어러블 기기에서의 미디어 소비 등 다양한 응용을 위하여 CNN(Convolutional Neural Network) 기반의 손 제스처 인식 기법을 제시한다. 제시된 기법은 스마트 글래스로 획득한 스테레오 비디오로부터 구한 깊이(depth) 정보와 색 정보를 이용하여 손 윤곽선을 검출하고, 검출된 손 윤곽선 영상을 데이터 셋으로 구성하여 CNN을 학습한 후, 이를 바탕으로 입력 손 윤곽선 영상의 제스처를 인식한다. 실험결과 제안기법은 95%의 손 제스처 인식율를 얻을 수 있음을 확인하였다.

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.

Real-Time Recognition Method of Counting Fingers for Natural User Interface

  • Lee, Doyeob;Shin, Dongkyoo;Shin, Dongil
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권5호
    • /
    • pp.2363-2374
    • /
    • 2016
  • Communication occurs through verbal elements, which usually involve language, as well as non-verbal elements such as facial expressions, eye contact, and gestures. In particular, among these non-verbal elements, gestures are symbolic representations of physical, vocal, and emotional behaviors. This means that gestures can be signals toward a target or expressions of internal psychological processes, rather than simply movements of the body or hands. Moreover, gestures with such properties have been the focus of much research for a new interface in the NUI/NUX field. In this paper, we propose a method for recognizing the number of fingers and detecting the hand region based on the depth information and geometric features of the hand for application to an NUI/NUX. The hand region is detected by using depth information provided by the Kinect system, and the number of fingers is identified by comparing the distance between the contour and the center of the hand region. The contour is detected using the Suzuki85 algorithm, and the number of fingers is calculated by detecting the finger tips in a location at the maximum distance to compare the distances between three consecutive dots in the contour and the center point of the hand. The average recognition rate for the number of fingers is 98.6%, and the execution time is 0.065 ms for the algorithm used in the proposed method. Although this method is fast and its complexity is low, it shows a higher recognition rate and faster recognition speed than other methods. As an application example of the proposed method, this paper explains a Secret Door that recognizes a password by recognizing the number of fingers held up by a user.

내장형 시스템을 위한 사용자 인터페이스 모델 기반 모바일 웹앱 자동 생성 도구 (User Interface Model Based Automatic Mobile Web Application Generation Tool for Embedded Systems)

  • 최기봉;김세화
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권1호
    • /
    • pp.13-27
    • /
    • 2017
  • 본 논문에서는 사용자 인터페이스(UI) 모델로부터 모바일 웹앱을 자동으로 생성하는 도구를 제시한다. UI 모델은 UI 중심적인 내장형 시스템을 UI 모델링을 통해 효율적으로 개발하기 위한 방법인 PELUM(Pattern and Event based Logical UI Modeling)을 기반으로 한다. 본 논문에서 제시하는 도구는 모델 편집기와 코드 생성기로 이루어져 있다. 모델 편집기는 웹 상에서 논리적 UI 모델(LUM)과 프로그래밍 인터페이스 모델(PIM)을 모델링하는 환경을 제공한다. 코드 생성기는 LUM을 기반으로 앱의 화면구성 및 이벤트 동작을 설정하고 PIM을 기반으로 로컬 데이터베이스 스키마를 자동으로 구성하여 모바일 웹앱을 생성한다. 또한 PIM에서 외부 혹은 open API 주소를 입력 받아 매쉬업 웹앱을 생성하는 기능도 제공한다. 생성된 모바일 웹앱은 사용자가 손쉽게 최적화할 수 있도록 Model-View-Controller(MVC) 아키텍처로 구현하였다. 이를 통해 사용자는 웹 상에서 UI를 모델링하여 여러 기기에서 동작 가능한 모바일 웹앱을 생성할 수 있다.

모바일 카메라 기기를 이용한 손 제스처 인터페이스 (Hand Gesture Interface Using Mobile Camera Devices)

  • 이찬수;천성용;손명규;이상헌
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권5호
    • /
    • pp.621-625
    • /
    • 2010
  • 본 논문에서는 스마트 폰, PDA와 같은 모바일 장치에 있는 카메라 기기를 이용한 손동작 제스처 인터페이스를 위한 손 움직임 추적 방법을 제안하고 이를 바탕으로 한 손 제스처 인식 시스템을 개발한다. 사용자의 손동작에 따라 카메라가 움직임으로써, 전역 optical flow가 발생하며, 이에 대한 우세한 방향 성분에 대한 움직임만 고려함으로써, 노이즈에 강인한 손움직임 추정이 가능하다. 또한 추정된 손 움직임을 바탕으로 속도 및 가속도 성분을 계산하여 동작위상을 구분하고, 동작상태를 인식하여 연속적인 제스처를 개별제스처로 구분한다. 제스처 인식을 위하여, 움직임 상태에서의 특징들을 추출하여, 동작이 끝나는 시점에서 특징들에 대한 분석을 통하여 동작을 인식한다. 추출된 특징점을 바탕으로 제스처를 인식하기 위하여 SVM(Support vector machine), k-NN(k-nearest neighborhood classifier), 베이시안 인식기를 사용했으며, 14개 제스처에 대한 인식률은 82%에 이른다.

멀티 카드 터치기반 인터랙티브 아케이드 게임 시스템 구현 (Development of Multi Card Touch based Interactive Arcade Game System)

  • 이동훈;조재익;윤태수
    • 한국엔터테인먼트산업학회논문지
    • /
    • 제5권2호
    • /
    • pp.87-95
    • /
    • 2011
  • 최근 다양한 인터랙티브 인터페이스 개발로 인해 체감형 게임 환경에 관심이 모아지고 있다. 따라서 본 논문에서는 증강현실 기술의 하나인 마커인식 인터페이스와 멀티 터치 인터랙션 인터페이스를 이용한 멀티 카드 터치 기반의 인터랙티브 아케이드 시스템을 제안한다. 이를 위해 DI 기반의 인식 알고리즘을 적용하여 카드의 위치, 방향 정보를 인식한다. 또한 사용자의 손 제스처 정보를 트래킹하여 다양한 인터랙션 메타포를 제공한다. 본 시스템은 사용자에게 좀 더 높은 몰입감을 제공하며 새로운 경험을 제공한다. 따라서 제안하는 시스템은 체감형 아케이드 게임기기에 활용될 것이다.

은닉된 손가락 예측이 가능한 실시간 손 포즈 인식 방법 (A Real-time Hand Pose Recognition Method with Hidden Finger Prediction)

  • 나민영;최재인;김태영
    • 한국게임학회 논문지
    • /
    • 제12권5호
    • /
    • pp.79-88
    • /
    • 2012
  • 본 논문에서는 키보드나 마우스를 이용하지 않고 손 포즈나 동작으로 직관적인 사용자 인터 페이스를 제공하기 위한 실시간 손 포즈 인식 방법을 제안한다. 먼저 깊이 카메라 입력영상에서 왼손과 오른손의 영역을 분할 및 잡음 보정 후 각 손 영역에 대하여 손 회전각과 손 중심점을 계산한다. 그리고 손 중심점에서 일정간격으로 원을 확장해 나가면서 손 경계 교차점의 중간 지점을 구해 손가락 관절점과 끝점을 검출한다. 마지막으로 앞서 구한 손 정보와 이전 프레임의 손 모델간의 매칭을 수행하여 손 포즈를 인식한 후 다음 프레임을 위하여 손 모델을 갱신한다. 본 방법은 연속된 프레임간의 시간 일관성을 이용하여 이전 프레임의 손 모델 정보를 통하여 은닉된 손가락의 예측이 가능하다. 양손을 사용하여 은닉된 손가락을 가진 다양한 손 포즈에 대해 실험한 결과 제안 방법은 평균 95% 이상의 정확도로 32 fps 이상의 성능을 보였다. 제안 방법은 프리젠테이션, 광고, 교육, 게임 등의 응용분야에서 비접촉식 입력 인터페이스로 사용될 수 있다.

Automatic Hand Measurement System from 2D Hand Image for Customized Glove Production

  • Han, Hyun Sook;Park, Chang Kyu
    • 한국의류산업학회지
    • /
    • 제18권4호
    • /
    • pp.468-476
    • /
    • 2016
  • Recent advancements in optics technology enable us to realize fast scans of hands using two-dimensional (2D) image scanners. In this paper, we propose an automatic hand measurement system using 2D image scanners for customized glove production. To develop the automatic hand measurement system, firstly hand scanning devices has been constructed. The devices are designed to block external lights and have user interface to guide hand posture during scanning. After hands are scanned, hand contour is extracted using binary image processing, noise elimination and outline tracing. And then, 19 hand landmarks are automatically detected using an automatic hand landmark detection algorithm based on geometric feature analysis. Then, automatic hand measurement program is executed based on the automatically extracted landmarks and measurement algorithms. The automatic hand measurement algorithms have been developed for 18 hand measurements required for custom-made glove pattern making. The program has been coded using the C++ programming language. We have implemented experiments to demonstrate the validity of the system using 11 subjects (8 males, 3 females) by comparing automatic 2D scan measurements with manual measurements. The result shows that the automatic 2D scan measurements are acceptable in the customized glove making industry. Our evaluation results confirm its effectiveness and robustness.

가상 현실 게임 환경에서의 가상 손 제어를 위한 사용자 손 인식 방법 (A Method of Hand Recognition for Virtual Hand Control of Virtual Reality Game Environment)

  • 김부년;김종호;김태영
    • 한국게임학회 논문지
    • /
    • 제10권2호
    • /
    • pp.49-56
    • /
    • 2010
  • 본 논문에서는 사용자의 손을 인식하여 가상현실 게임 환경에서 가상의 손을 제어할 수 있는 방법을 제안한다. 카메라를 통해 획득한 영상을 통하여 사용자의 손 이동과 가리키는 방향에 대한 정보를 획득하고 이를 이용하여 가상의 손을 게임 화면에 나타낸다. 사용자의 손의 움직임은 가상의 손이 물건을 선택하고 옮기도록 하는 입력 인터페이스로 활용할 수 있다. 제안하는 방법은 비전 기반 손 인식 기법으로 먼저 RGB 컬러영역에서 HSV 컬러영역으로 입력영상을 변환하고 H, S 값에 대한 이중 임계값과 연결 요소 분석을 이용하여 손 영역을 분할한다. 다음으로 분할된 영역에 대하여 0, 1차 모멘트를 적용하고 이를 이용하여 손 영역에 대한 무게 중심점을 구한다. 구해진 무게중심점은 손의 중심에 위치하게 되며, 분할된 손 영역의 픽셀 집합 중 무게중심점으로부터 멀리 떨어진 픽셀들을 손가락의 끝점으로 인식한다. 마지막으로 무게중심점과 손 끝점에 대한 벡터를 통하여 손의 축을 구한다. 인식 안정성과 성능을 높이기 위하여 누적 버퍼를 이용한 떨림 보정과 경계상자를 이용한 처리 영역을 설정하였다. 본 논문의 방법은 기존의 비전 기술을 통한 손 인식 방법들에 비하여 별도의 착용 마커를 두지 않고 실시간으로 처리가 가능하다. 다양한 입력 영상들에 대한 실험 결과는 제안 기법으로 정확하게 손을 분할하고, 안정된 인식 결과를 고속으로 처리할 수 있음을 보여주었다.

스마트 폰 추적 및 색상 통신을 이용한 동작인식 플랫폼 개발 (Development of Motion Recognition Platform Using Smart-Phone Tracking and Color Communication)

  • 오병훈
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.143-150
    • /
    • 2017
  • 본 논문에서는 스마트 폰 추적 및 색상 통신을 이용한 새로운 동작인식 플랫폼을 개발한다. 카메라가 탑재된 PC 혹은 스마트 TV와 개인 스마트 폰 가지고 영상을 기반으로 한 객체 인식 기술을 이용하여 동작 인식 유저 인터페이스를 제공한다. 사용자는 손으로 스마트 폰을 움직여 모션 컨트롤러처럼 사용할 수 있으며, 플랫폼에서는 이 스마트폰을 실시간으로 검출하고, 3차원 거리와 각도를 추정하여 사용자의 동작을 인식한다. 또한, 스마트 폰과 서버의 통신을 위하여 색상 디지털 코드를 이용한 통신 시스템이 사용된다. 사용자들은 색상 통신 방법을 이용하여 텍스트 데이터를 자유자재로 주고받을 수 있으며, 동작을 취하는 도중에도 끊임없이 데이터를 전송할 수 있다. 제안한 동작인식 플랫폼 기반의 실행 가능한 콘텐츠를 구현하여 결과를 제시한다.