• 제목/요약/키워드: Hand Gesture Detection

검색결과 61건 처리시간 0.022초

AdaBoost 학습 알고리즘과 칼만 필터를 이용한 손 영역 탐지 및 추적 (An Application of AdaBoost Learning Algorithm and Kalman Filter to Hand Detection and Tracking)

  • 김병만;김준우;이광호
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.47-56
    • /
    • 2005
  • 웨어러블 컴퓨터의 개발로 인해 인간과 컴퓨터간의 전통적인 인터페이스는 점차 사용하기 불편하게 되었고 이는 새로운 형태의 인터페이스에 대한 요구로 이어지게 되었다. 본 논문에서는 이러한 추세에 맞추어 디지털 카메라를 통해 인간의 제스처를 인식하는 새로운 인터페이스를 연구하였다. 카메라를 통해 손 제스처를 인식하는 방법은 빛과 같은 주변 환경에 영향을 받기 때문에 탐지기는 덜 민감해야 한다. 최근에 Viola 탐지기는 얼굴 탐지에 좋은 결과를 보여 주었으며, 이는 적분 이미지로부터 추출한 하얼 특징을 이용한 Adaboost 학습 알고리즘을 사용하였다. 본 논문에서는 이 방법을 손 영역 탐지에 적용하였으며 피부색을 이용한 고전적인 방법들과 비교 실험을 수행하였다. 실험 결과는 빛과 같은 방해 요소가 있는 환경에서 Viola 탐지기가 피부색을 이용한 탐지 방법보다 더 견고함을 보여 주었다.

  • PDF

3차원 추적영역 제한 기법을 이용한 손 동작 인식 시스템 (A Hand Gesture Recognition System using 3D Tracking Volume Restriction Technique)

  • 김경호;정다운;이석한;최종수
    • 전자공학회논문지
    • /
    • 제50권6호
    • /
    • pp.201-211
    • /
    • 2013
  • 본 논문에서는 손 추적과 제스처 인식 시스템을 제안한다. 제안한 시스템은 사용자 손의 3차원 기하학적 정보를 취득하기 위해 별도의 장비를 사용한다. 특히, 기존의 물체 검출 및 추적 시스템들에서 제기 되었던 추적 과정에서의 문제점을 피하기 위해 능동적인 타원체 영역을 만들고 손 추적을 위한 영역을 타원체 영역의 안으로 제한했다. 제안된 시스템은 미리 정의된 기간 동안에 손 위치의 이동평균을 계산한다. 그리고 추적영역은 3차원 공간에 편성된 공분산에 기반한 사용자 손 움직임의 불확실성을 추정하여 통계적인 데이터에 따라 능동적으로 제어하였다. 또한 손 위치가 획득되었을 때, 손 제스처를 인식하기 위해 펼쳐진 손가락을 검출한다. 사용자 인터페이스 체제 기반의 시스템을 구현하여 복잡한 환경에서 다중의 대상들이 동시에 존재하는 경우이거나 일시적인 가려짐이 발생하는 경우에도 정확성을 보여 매우 안정적으로 동작할 수 있음을 보여주며, 약 24-30fps의 프레임 비율로 사용할 수 있는 가능성을 보여주었다.

Emergency Signal Detection based on Arm Gesture by Motion Vector Tracking in Face Area

  • Fayyaz, Rabia;Park, Dae Jun;Rhee, Eun Joo
    • 한국정보전자통신기술학회논문지
    • /
    • 제12권1호
    • /
    • pp.22-28
    • /
    • 2019
  • This paper presents a method for detection of an emergency signal expressed by arm gestures based on motion segmentation and face area detection in the surveillance system. The important indicators of emergency can be arm gestures and voice. We define an emergency signal as the 'Help Me' arm gestures in a rectangle around the face. The 'Help Me' arm gestures are detected by tracking changes in the direction of the horizontal motion vectors of left and right arms. The experimental results show that the proposed method successfully detects 'Help Me' emergency signal for a single person and distinguishes it from other similar arm gestures such as hand waving for 'Bye' and stretching. The proposed method can be used effectively in situations where people can't speak, and there is a language or voice disability.

HAND GESTURE INTERFACE FOR WEARABLE PC

  • Nishihara, Isao;Nakano, Shizuo
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.664-667
    • /
    • 2009
  • There is strong demand to create wearable PC systems that can support the user outdoors. When we are outdoors, our movement makes it impossible to use traditional input devices such as keyboards and mice. We propose a hand gesture interface based on image processing to operate wearable PCs. The semi-transparent PC screen is displayed on the head mount display (HMD), and the user makes hand gestures to select icons on the screen. The user's hand is extracted from the images captured by a color camera mounted above the HMD. Since skin color can vary widely due to outdoor lighting effects, a key problem is accurately discrimination the hand from the background. The proposed method does not assume any fixed skin color space. First, the image is divided into blocks and blocks with similar average color are linked. Contiguous regions are then subjected to hand recognition. Blocks on the edges of the hand region are subdivided for more accurate finger discrimination. A change in hand shape is recognized as hand movement. Our current input interface associates a hand grasp with a mouse click. Tests on a prototype system confirm that the proposed method recognizes hand gestures accurately at high speed. We intend to develop a wider range of recognizable gestures.

  • PDF

Hand Language Translation Using Kinect

  • Pyo, Junghwan;Kang, Namhyuk;Bang, Jiwon;Jeong, Yongjin
    • 전기전자학회논문지
    • /
    • 제18권2호
    • /
    • pp.291-297
    • /
    • 2014
  • Since hand gesture recognition was realized thanks to improved image processing algorithms, sign language translation has been a critical issue for the hearing-impaired. In this paper, we extract human hand figures from a real time image stream and detect gestures in order to figure out which kind of hand language it means. We used depth-color calibrated image from the Kinect to extract human hands and made a decision tree in order to recognize the hand gesture. The decision tree contains information such as number of fingers, contours, and the hand's position inside a uniform sized image. We succeeded in recognizing 'Hangul', the Korean alphabet, with a recognizing rate of 98.16%. The average execution time per letter of the system was about 76.5msec, a reasonable speed considering hand language translation is based on almost still images. We expect that this research will help communication between the hearing-impaired and other people who don't know hand language.

Finger-Pointing Gesture Analysis for Slide Presentation

  • Harika, Maisevli;Setijadi P, Ary;Hindersah, Hilwadi;Sin, Bong-Kee
    • 한국멀티미디어학회논문지
    • /
    • 제19권8호
    • /
    • pp.1225-1235
    • /
    • 2016
  • This paper presents a method for computer-assisted slide presentation using vision-based gesture recognition. The proposed method consists of a sequence of steps, first detecting a hand in the scene of projector beam, then estimating the smooth trajectory of a hand or a pointing finger using Kalman Filter, and finally interfacing to an application system. Additional slide navigation control includes moving back and forth the pages of the presentation. The proposed method is to help speakers for an effective presentation with natural improved interaction with the computer. In particular, the proposed method of using finger pointing is believed to be more effective than using a laser pointer since the hand, the pointing or finger are more visible and thus can better grab the attention of the audience.

Design of Image Extraction Hardware for Hand Gesture Vision Recognition

  • Lee, Chang-Yong;Kwon, So-Young;Kim, Young-Hyung;Lee, Yong-Hwan
    • 한국정보기술학회 영문논문지
    • /
    • 제10권1호
    • /
    • pp.71-83
    • /
    • 2020
  • In this paper, we propose a system that can detect the shape of a hand at high speed using an FPGA. The hand-shape detection system is designed using Verilog HDL, a hardware language that can process in parallel instead of sequentially running C++ because real-time processing is important. There are several methods for hand gesture recognition, but the image processing method is used. Since the human eye is sensitive to brightness, the YCbCr color model was selected among various color expression methods to obtain a result that is less affected by lighting. For the CbCr elements, only the components corresponding to the skin color are filtered out from the input image by utilizing the restriction conditions. In order to increase the speed of object recognition, a median filter that removes noise present in the input image is used, and this filter is designed to allow comparison of values and extraction of intermediate values at the same time to reduce the amount of computation. For parallel processing, it is designed to locate the centerline of the hand during scanning and sorting the stored data. The line with the highest count is selected as the center line of the hand, and the size of the hand is determined based on the count, and the hand and arm parts are separated. The designed hardware circuit satisfied the target operating frequency and the number of gates.

핸드 제스처(Hand Gesture) 인식 기반의 파티클 시스템(Particle System)을 이용한 인터랙티브 미디어아트 작품구현 (Implementation of Interactive Media Art Work using Particle System based on Hand Gesture Detection)

  • 오민정;서용덕
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.39-41
    • /
    • 2018
  • 본 논문은 본인이 제작한 라는 인터랙티브 미디어 아트 작품에 관련한 글이다. 발전하는 디지털 기술 안에서 아날로그 감성을 이끌어내기 위한 작품 제작 방법으로 손으로 그린 나뭇잎을 입자로 사용한 파티클 시스템을 이용하였다. 그리고 NUI 인터페이스인 립모션 센서를 사용해 자연스러운 손 동작 인식을 하여 파티클 시스템과 연동하였다. 관람자는 바람을 일으키는 손 동작을 하며 가을 풍경과 같은 나뭇잎 파티클의 변화를 느끼게 되고, 계속되는 손동작에 따라 나타난 새로운 동영상을 감상하며 잃어버린 감성을 느끼게 된다. 아날로그 컨텐츠와 디지털 기술의 융합은 관람자에게 친근한 접근과 감성을 자극함으로써 인터렉티브 미디어 아트의 새로운 확장의 가능성을 보여준다.

  • PDF

Dual Autostereoscopic Display Platform for Multi-user Collaboration with Natural Interaction

  • Kim, Hye-Mi;Lee, Gun-A.;Yang, Ung-Yeon;Kwak, Tae-Jin;Kim, Ki-Hong
    • ETRI Journal
    • /
    • 제34권3호
    • /
    • pp.466-469
    • /
    • 2012
  • In this letter, we propose a dual autostereoscopic display platform employing a natural interaction method, which will be useful for sharing visual data with users. To provide 3D visualization of a model to users who collaborate with each other, a beamsplitter is used with a pair of autostereoscopic displays, providing a visual illusion of a floating 3D image. To interact with the virtual object, we track the user's hands with a depth camera. The gesture recognition technique we use operates without any initialization process, such as specific poses or gestures, and supports several commands to control virtual objects by gesture recognition. Experiment results show that our system performs well in visualizing 3D models in real-time and handling them under unconstrained conditions, such as complicated backgrounds or a user wearing short sleeves.

사용자 경험을 통한 제스처 인터페이스에 관한 연구 (A Study on Gesture Interface through User Experience)

  • 윤기태;조일혜;이주엽
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권6호
    • /
    • pp.839-849
    • /
    • 2017
  • 최근 주방의 역할은 이전의 생존 영위를 위한 공간으로부터, 현재의 생활과 문화를 보여주는 공간으로 발전하였다. 이러한 변화와 더불어, IoT 기술의 사용이 확산되고 있다. 그 결과로, 주방에서의 새로운 스마트기기의 발전과 보급이 이루어지고 있다. 때문에 이러한 스마트기기를 사용하기 위한 사용자 경험 또한 중요해지고 있다. 이는 맥락적 사용자 기반의 데이터를 통해 사용자와 컴퓨터간의 보다 자연스러우며 효율적인 상호작용을 기대할 수 있기 때문이다. 본 논문은 주방에서 사용하는 스마트기기의 사용자 인터페이스(user interface, UI)를 바탕으로 기기와 접촉을 하지 않는 자연스러운 사용자 인터페이스(natural user interface, NUI)를 고찰하고자 한다. 그 방법으로, 기기에 부착되어 있는 카메라를 이용하여 사용자의 손 제스처를 인식한 뒤 인식된 손의 모양을 인터페이스에 적용하는 영상 처리 기술을 활용하였으며 사용자의 맥락과 상황에 맞는 제스처를 제안하고자 하였다. 본 실험에 사용된 제스처의 기본방향은 직관성과 학습 용이성에 중점을 두었으며 기본적인 5개의 제스처를 분류하여 이를 인터페이스에 활용하였다.