• 제목/요약/키워드: Gesture Recognition Systems

검색결과 126건 처리시간 0.028초

3차원 영상복원 데이터를 이용한 HMM 기반 의도인식 시스템 (HMM-based Intent Recognition System using 3D Image Reconstruction Data)

  • 고광은;박승민;김준엽;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제22권2호
    • /
    • pp.135-140
    • /
    • 2012
  • 대뇌 상의 mirror neuron system은 시각 정보에 기반한 모방학습 기능을 담당한다. 관측자의 mirror neuron system 영역을 관찰할 때, 행위자가 수행하는 목적성 행위의 전체가 아닌, 부분적으로 가려지거나 보이지 않는 영역을 포함하는 경우에도 해당 영역의 뉴런이 발화되는 과정을 통해 전체 행동의 의도를 유추할 수 있다. 이러한 모방학습 기능을 3D 비전 기반 지능 시스템에 적용하는 것이 본 논문의 목표이다. 본 연구실에서 선행 연구된 스테레오 카메라를 기반으로 획득된 3차원 영상에 대한 복원을 수행한다. 이 때 3차원 입력영상은 부분적으로 가려진 영역을 포함하는 손동작의 순차적 연속영상이다. 복원 결과를 기반으로 가려진 영역을 내포한 행위에 대하여 LK optical flow, unscented Kalman filter를 이용한 특징검출을 수행하고 의도인식의 수행을 위해, Hidden Markov Model을 활용한다. 순차적 입력데이터에 대한 동적 추론 기능은 가려진 영역을 포함한 손동작 인식 수행에 있어 적합한 특성을 가진다. 본 논문에서 제안하는 의도 인식을 위해 선행 연구에서 복원 영상에서의 객체의 윤곽선 및 특징 검출을 시뮬레이션 하였으며, 검출 특징에 대한 시간적 연속 특징벡터를 생성하여 Hidden Markov Model에 적용함으로써, 의도 패턴에 따른 손동작 분류 시뮬레이션을 수행하였다. 사후 확률 값의 형태로 손 동작 분류 결과를 얻을 수 있었으며, 이를 통한 성능의 우수함을 입증하였다.

Gesture based Input Device: An All Inertial Approach

  • Chang Wook;Bang Won-Chul;Choi Eun-Seok;Yang Jing;Cho Sung-Jung;Cho Joon-Kee;Oh Jong-Koo;Kim Dong-Yoon
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권3호
    • /
    • pp.230-245
    • /
    • 2005
  • In this paper, we develop a gesture-based input device equipped with accelerometers and gyroscopes. The sensors measure the inertial measurements, i.e., accelerations and angular velocities produced by the movement of the system when a user is inputting gestures on a plane surface or in a 3D space. The gyroscope measurements are integrated to give orientation of the device and consequently used to compensate the accelerations. The compensated accelerations are doubly integrated to yield the position of the device. With this approach, a user's gesture input trajectories can be recovered without any external sensors. Three versions of motion tracking algorithms are provided to cope with wide spectrum of applications. Then, a Bayesian network based recognition system processes the recovered trajectories to identify the gesture class. Experimental results convincingly show the feasibility and effectiveness of the proposed gesture input device. In order to show practical use of the proposed input method, we implemented a prototype system, which is a gesture-based remote controller (Magic Wand).

Combining Object Detection and Hand Gesture Recognition for Automatic Lighting System Control

  • Pham, Giao N.;Nguyen, Phong H.;Kwon, Ki-Ryong
    • Journal of Multimedia Information System
    • /
    • 제6권4호
    • /
    • pp.329-332
    • /
    • 2019
  • Recently, smart lighting systems are the combination between sensors and lights. These systems turn on/off and adjust the brightness of lights based on the motion of object and the brightness of environment. These systems are often applied in places such as buildings, rooms, garages and parking lot. However, these lighting systems are controlled by lighting sensors, motion sensors based on illumination environment and motion detection. In this paper, we propose an automatic lighting control system using one single camera for buildings, rooms and garages. The proposed system is one integration the results of digital image processing as motion detection, hand gesture detection to control and dim the lighting system. The experimental results showed that the proposed system work very well and could consider to apply for automatic lighting spaces.

Artificial Neural Network for Quantitative Posture Classification in Thai Sign Language Translation System

  • Wasanapongpan, Kumphol;Chotikakamthorn, Nopporn
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1319-1323
    • /
    • 2004
  • In this paper, a problem of Thai sign language recognition using a neural network is considered. The paper addresses the problem in classifying certain signs conveying quantitative meaning, e.g., large or small. By treating those signs corresponding to different quantities as derived from different classes, the recognition error rate of the standard multi-layer Perceptron increases if the precision in recognizing different quantities is increased. This is due the fact that, to increase the quantitative recognition precision of those signs, the number of (increasingly similar) classes must also be increased. This leads to an increase in false classification. The problem is due to misinterpreting the amount of quantity the quantitative signs convey. In this paper, instead of treating those signs conveying quantitative attribute of the same quantity type (such as 'size' or 'amount') as derived from different classes, here they are considered instances of the same class. Those signs of the same quantity type are then further divided into different subclasses according to the level of quantity each sign is associated with. By using this two-level classification, false classification among main gesture classes is made independent to the level of precision needed in recognizing different quantitative levels. Moreover, precision of quantitative level classification can be made higher during the recognition phase, as compared to that used in the training phase. A standard multi-layer Perceptron with a back propagation learning algorithm was adapted in the study to implement this two-level classification of quantitative gesture signs. Experimental results obtained using an electronic glove measurement of hand postures are included.

  • PDF

Design of OpenCV based Finger Recognition System using binary processing and histogram graph

  • Baek, Yeong-Tae;Lee, Se-Hoon;Kim, Ji-Seong
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.17-23
    • /
    • 2016
  • NUI is a motion interface. It uses the body of the user without the use of HID device such as a mouse and keyboard to control the device. In this paper, we use a Pi Camera and sensors connected to it with small embedded board Raspberry Pi. We are using the OpenCV algorithms optimized for image recognition and computer vision compared with traditional HID equipment and to implement a more human-friendly and intuitive interface NUI devices. comparison operation detects motion, it proposed a more advanced motion sensors and recognition systems fused connected to the Raspberry Pi.

제스처를 이용한 스마트폰 기반 사용자 편의 홈 네트워크 제어 시스템의 설계 및 구현 (Design and Implementation of a Smartphone-based User-Convenance Home Network Control System using Gesture)

  • 전병찬;차시호
    • 디지털산업정보학회논문지
    • /
    • 제11권2호
    • /
    • pp.113-120
    • /
    • 2015
  • Under the penetration of smartphones equipped with a variety of features grows globally, the efficient using of a variety of functions of smartphones has been increased. In accordance with this trend, a lot of researches on the remote control method using the smart phone for consumer products in home networks. Input methods of the current smpartphoes are typically button-based inputs through touching. The button input methods are inconvenient for people who are not familiar touch. Therefore, the researches on the different input schemes to replace the touch methods are required. In this paper, we propose a gesture based input method to replace the touch-sensitive input that of the existing smartphone applications, and a way to apply it to home networks. The proposed method uses three-axis acceleration sensor which is built into smatphones, and it also defines six kinds of gestures patterns that may be applied to home network systems by measuring the recognition rates.

A Vision-Based Method to Find Fingertips in a Closed Hand

  • Chaudhary, Ankit;Vatwani, Kapil;Agrawal, Tushar;Raheja, J.L.
    • Journal of Information Processing Systems
    • /
    • 제8권3호
    • /
    • pp.399-408
    • /
    • 2012
  • Hand gesture recognition is an important area of research in the field of Human Computer Interaction (HCI). The geometric attributes of the hand play an important role in hand shape reconstruction and gesture recognition. That said, fingertips are one of the important attributes for the detection of hand gestures and can provide valuable information from hand images. Many methods are available in scientific literature for fingertips detection with an open hand but very poor results are available for fingertips detection when the hand is closed. This paper presents a new method for the detection of fingertips in a closed hand using the corner detection method and an advanced edge detection algorithm. It is important to note that the skin color segmentation methodology did not work for fingertips detection in a closed hand. Thus the proposed method applied Gabor filter techniques for the detection of edges and then applied the corner detection algorithm for the detection of fingertips through the edges. To check the accuracy of the method, this method was tested on a vast number of images taken with a webcam. The method resulted in a higher accuracy rate of detections from the images. The method was further implemented on video for testing its validity on real time image capturing. These closed hand fingertips detection would help in controlling an electro-mechanical robotic hand via hand gesture in a natural way.

자연스런 손동작을 이용한 모바일 로봇의 동작제어 (Motion Control of a Mobile Robot Using Natural Hand Gesture)

  • 김아람;이상용
    • 한국지능시스템학회논문지
    • /
    • 제24권1호
    • /
    • pp.64-70
    • /
    • 2014
  • 오늘날 일상생활에서 인간과 함께 생활하는 로봇들은 자연스러운 의사소통 방법이 요구된다. 따라서 기존의 단순한 로봇 제어 방식을 이용하여 제어하는 것 보다 실제 사람과 상호작용 하는 것과 같은 방식의 제어방식이 요구되고 있다. 기존의 연구들은 사람의 행동 자체를 인식하는 것에 초점이 맞추어져 있어서 자연스러운 의사소통을 하기 어렵다. 본 논문에서는 모바일 로봇을 제어하는 방법으로 자연스러운 손동작을 은닉 마르코프 모델(HMM: hidden markov model) 과 퍼지추론을 이용하는 방법을 제안한다. 키넥트 센서를 이용해 색상 데이터와 깊이 데이터를 획득하고 사람의 손을 검색하고 HMM과 Mamdani 퍼지추론을 이용하여 손동작을 인식한다. 인식된 결과를 로봇에게 전달하여 원하는 방향으로 이동시킨다.

생체 신호와 몸짓을 이용한 감정인식 방법 (Emotion Recognition Method using Physiological Signals and Gestures)

  • 김호덕;양현창;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제17권3호
    • /
    • pp.322-327
    • /
    • 2007
  • 심리학 분야의 연구자들은 Electroencephalographic(EEG)을 오래전부터 인간 두뇌의 활동을 측정 기록하는데 사용하였다. 과학이 발달함에 따라 점차적으로 인간의 두뇌에서 감정을 조절하는 기본적인 영역들이 밝혀지고 있다. 그래서 인간의 감정을 조절하는 인간의 두뇌 활동 영역들을 EEG를 이용하여 측정하였다. 손짓이나 고개의 움직임은 사람들 사이에 대화를 위한 인간의 몸 언어로 사용된다. 그리고 그것들의 인식은 컴퓨터와 인간 사이에 유용한 회화수단으로 매우 중요하다. 몸짓에 관한 연구들은 주로 영상을 통한 인식 방법이 주를 이루고 있다. 많은 연구자들의 기존 연구에서는 생체신호나 몸짓중 한 가지만을 이용하여 감정인식 방법 연구를 하였다. 본 논문에서는 EEG 신호와 몸짓을 같이 사용해서 사람의 감정을 인식하였다. 그리고 인식의 대상자를 운전자라는 특정 대상자를 설정하고 실험을 하였다. 실험 결과 생체신호와 몸짓을 같이 사용한 실점의 인식률이 둘 중 한 가지만을 사용한 것보다 높은 인식률을 보였다. 생체신호와 몸짓들의 특징 신호들은 강화학습의 개념을 이용한 IFS(Interactive Feature Selection)를 이용하여 특징 선택을 하였다.

손가락 움직임 인식을 위한 웨어러블 디바이스 설계 및 ML 기법별 성능 분석 (Design and Performance Analysis of ML Techniques for Finger Motion Recognition)

  • 정우순;이형규
    • 한국산업정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.129-136
    • /
    • 2020
  • 손가락 움직임 인식을 통한 제어는 직관적인 인간-컴퓨터 상호작용 방법의 하나이다. 본 연구에서는 여러 가지 ML (Machine learning) 기법을 사용하여 효율적인 손가락 움직임 인식을 위한 웨어러블 디바이스를 구현한다. 움직임 인식을 위한 시계열 데이터 분석에 전통적으로 사용되어 온 HMM (Hidden markov model) 및 DTW (Dynamic time warping) 기법뿐만 아니라 NN (Neural network) 기법을 적용하여 손가락 움직임 인식의 효율성 및 정확성을 비교하고 분석한다. 제안된 시스템의 경우, 경량화된 ML 모델을 설계하기 위해 각 ML 기법에 대해 최적화된 전처리 프로세스를 적용한다. 실험 결과, 최적화된 NN, HMM 및 DTW 기반 손가락 움직임 인식시스템은 각각 99.1%, 96.6%, 95.9%의 정확도를 제공한다.