• Title/Summary/Keyword: 제스처 분류

Search Result 50, Processing Time 0.027 seconds

Gesture Recognition Method using Tree Classification and Multiclass SVM (다중 클래스 SVM과 트리 분류를 이용한 제스처 인식 방법)

  • Oh, Juhee;Kim, Taehyub;Hong, Hyunki
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.6
    • /
    • pp.238-245
    • /
    • 2013
  • Gesture recognition has been widely one of the research areas for natural user interface. This paper presents a novel gesture recognition method using tree classification and multiclass SVM(Support Vector Machine). In the learning step, 3D trajectory of human gesture obtained by a Kinect sensor is classified into the tree nodes according to their distributions. The gestures are resampled and we obtain the histogram of the chain code from the normalized data. Then multiclass SVM is applied to the classified gestures in the node. The input gesture classified using the constructed tree is recognized with multiclass SVM.

Intelligent Gesture Interface Using Context Awareness (상황 인지 방법을 이용한 지능형 제스처 인터페이스)

  • Oh, Jae-Yong;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.130-135
    • /
    • 2006
  • 본 논문에서는 상황 인지(Context Aware)를 이용한 제스처 인식 방법에 대하여 기술한다. 기존의 인식 방법들은 대부분 제스처의 개별적인 의미를 중심으로 제스처를 분류하는 방법을 사용한다. 그러나 이러한 방법들은 인식 알고리즘을 일반화하는데 있어서 다음과 같은 문제점들을 가지고 있다. 첫째, 인간의 모든 제스처를 제한된 특징으로 모호하지 않게 구별하기 어렵다. 둘째, 같은 제스처라 할지라도 상황에 따라 다른 의미를 내포할 수 있다. 이러한 문제점들을 해결하고자 본 논문에서는 확률 기반의 상황 인지 모델을 이용한 제스처 인식 방법을 제안한다. 이 방법은 제스처의 개별적인 의미를 인식하기 전에 대상의 상황을 추상적으로 분류함으로써 행위자의 의도를 정확히 파악할 수 있다. 본 방법은 시스템의 상태를 [NULL], [OBJECT], [POSTURE], [GLOBAL], [LOCAL]의 5 가지 상태로 정의한 뒤, 각 상태의 천이를 바탕으로 대상의 상황을 판단한다. 이러한 상황 정보에 따라 각 상태에 최적화된 인식 알고리즘을 적용함으로써 지능적인 제스처 인식을 수행할 수 있으며, 기존 방법들이 갖는 제스처 인식의 제약을 완화 시키는 효과가 있다. 따라서, 제안하는 제스처 인터페이스는 자연스러운 상호 작용이 필요한 지능형 정보 가전 혹은 지능형 로봇의 HCI 로 활용될 수 있을 것이다.

  • PDF

A study on the increase of user gesture recognition rate using data preprocessing (데이터 전처리를 통한 사용자 제스처 인식률 증가 방안)

  • Kim, Jun Heon;Song, Byung Hoo;Shin, Dong Ryoul
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.07a
    • /
    • pp.13-16
    • /
    • 2017
  • 제스처 인식은 HCI(Human-Computer Interaction) 및 HRI(Human-Robot Interaction) 분야에서 활발히 연구되고 있는 기술이며, 제스처 데이터의 특징을 추출해내고 그에 따른 분류를 통하여 사용자의 제스처를 정확히 판별하는 것이 중요한 과제로 자리 잡았다. 본 논문에서는 EMG(Electromyography) 센서로 측정한 사용자의 손 제스처 데이터를 분석하는 방안에 대하여 서술한다. 수집된 데이터의 노이즈를 제거하고 데이터의 특징을 극대화시키기 위하여 연속적인 데이터로 변환하는 전처리 과정을 거쳐 이를 머신 러닝 알고리즘을 사용하여 분류하였다. 이 때, 기존의 raw 데이터와 전처리 과정을 거친 데이터의 성능을 decision-tree 알고리즘을 통하여 비교하였다.

  • PDF

Mobile Gesture Recognition using Hierarchical Recurrent Neural Network with Bidirectional Long Short-Term Memory (BLSTM 구조의 계층적 순환 신경망을 이용한 모바일 제스처인식)

  • Lee, Myeong-Chun;Cho, Sung-Bae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.321-323
    • /
    • 2012
  • 스마트폰 사용의 보편화와 센서기술의 발달로 이를 응용하는 다양한 연구가 진행되고 있다. 특히 가속도, GPS, 조도, 방향센서 등의 센서들이 스마트폰에 부착되어 출시되고 있어서, 이를 이용한 상황인지, 행동인식 등의 관련 연구들이 활발하다. 하지만 다양한 클래스를 분류하면서 높은 인식률을 유지하는 것은 어려운 문제이다. 본 논문에서는 인식률 향상을 위해 계층적 구조의 순환 신경망을 이용하여 제스처를 인식한다. 스마트폰의 가속도 센서를 이용하여 사용자의 제스처 데이터를 수집하고 BLSTM(Bidirectional Long Short-Term Memory) 구조의 순환신경망을 계층적으로 사용하여, 20가지 사용자의 제스처와 비제스처를 분류한다. 약 24,850개의 시퀀스 데이터를 사용하여 실험한 결과, 기존 BLSTM은 평균 89.17%의 인식률을 기록한 반면 계층적 BLSTM은 평균 91.11%의 인식률을 나타내었다.

General Touch Gesture Definition and Recognition for Tabletop display (테이블탑 디스플레이에서 활용 가능한 범용적인 터치 제스처 정의 및 인식)

  • Park, Jae-Wan;Kim, Jong-Gu;Lee, Chil-Woo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06b
    • /
    • pp.184-187
    • /
    • 2010
  • 본 논문에서는 터치 제스처의 인식을 위해 시도된 여러 방법 중 테이블탑 디스플레이상에서 HMM을 이용한 제스처의 학습과 사용에 대해 제안한다. 터치 제스처는 제스처의 획(stroke)에 따라 single stroke와 multi stroke로 분류할 수 있다. 그러므로 제스처의 입력은 영상프레임에서 터치 궤적에 따라 변하는 방향 벡터를 이용하여 방향코드로 분석될 수 있다. 그리고 분석된 방향코드를 기계학습을 통하여 학습시킨 후, 인식실험에 사용한다. 제스처 인식 학습에는 총 10개의 제스처에 대하여 100개 방향코드 데이터를 이용하였다. 형태를 갖추고 있는 제스처는 미리 정의되어 있는 제스처와 비교를 통하여 인식할 수 있다. (4 방향 드래그, 원, 삼각형, ㄱ ㄴ 모양 >, < ) 미리 정의되어 있는 제스처가 아닌 경우에는 기계학습을 통하여 사용자가 의미를 부여한 후 제스처를 정의하여 원하는 제스처를 선택적으로 사용할 수 있다. 본 논문에서는 테이블탑 디스플레이 환경에서 사용자의 터치제스처를 인식하는 시스템을 구현하였다. 앞으로 테이블탑 디스플레이 환경에서 터치 제스처 인식에 적합한 알고리즘을 찾고 멀티터치 제스처를 인식하는 연구도 이루어져야 할 것이다.

  • PDF

Virtual Block Game Interface based on the Hand Gesture Recognition (손 제스처 인식에 기반한 Virtual Block 게임 인터페이스)

  • Yoon, Min-Ho;Kim, Yoon-Jae;Kim, Tae-Young
    • Journal of Korea Game Society
    • /
    • v.17 no.6
    • /
    • pp.113-120
    • /
    • 2017
  • With the development of virtual reality technology, in recent years, user-friendly hand gesture interface has been more studied for natural interaction with a virtual 3D object. Most earlier studies on the hand-gesture interface are using relatively simple hand gestures. In this paper, we suggest an intuitive hand gesture interface for interaction with 3D object in the virtual reality applications. For hand gesture recognition, first of all, we preprocess various hand data and classify the data through the binary decision tree. The classified data is re-sampled and converted to the chain-code, and then constructed to the hand feature data with the histograms of the chain code. Finally, the input gesture is recognized by MCSVM-based machine learning from the feature data. To test our proposed hand gesture interface we implemented a 'Virtual Block' game. Our experiments showed about 99.2% recognition ratio of 16 kinds of command gestures and more intuitive and user friendly than conventional mouse interface.

Gesture Motion Estimate Using Clustering Method on Gesture Space (제스처 공간에서 클러스터링 방법을 이용한 제스처 동작 평가)

  • 이용재;이칠우
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.06a
    • /
    • pp.173-176
    • /
    • 2001
  • 본 논문에서는 저차원 제스처 특징 공간에서 연속적인 인간의 제스처 영상을 계층적 클러스터링을 이용하여 인식할 수 있는 방법에 대해 소개한다. 일반적으로 제스처 공간에서 모델 패턴들과 매칭하기 위해서는 모든 모델 영상과 연속적인 입력영상들간의 거리평가로 인식을 수행하게 된다. 여기서 제안한 방법은 모델영상들을 연속성을 가진 클러스터로 분류하여 입력 영상과 계층적으로 비교할 수 있으며 동작에 관한 구체적 정보를 얻을 수 있다. 이 방법은 매칭 속도와 인식률을 개선하고 인식결과를 학습에 이용할 수 있는 장점이 있다.

  • PDF

A Study on Machine Learning-Based Real-Time Gesture Classification Using EMG Data (EMG 데이터를 이용한 머신러닝 기반 실시간 제스처 분류 연구)

  • Ha-Je Park;Hee-Young Yang;So-Jin Choi;Dae-Yeon Kim;Choon-Sung Nam
    • Journal of Internet Computing and Services
    • /
    • v.25 no.2
    • /
    • pp.57-67
    • /
    • 2024
  • This paper explores the potential of electromyography (EMG) as a means of gesture recognition for user input in gesture-based interaction. EMG utilizes small electrodes within muscles to detect and interpret user movements, presenting a viable input method. To classify user gestures based on EMG data, machine learning techniques are employed, necessitating the preprocessing of raw EMG data to extract relevant features. EMG characteristics can be expressed through formulas such as Integrated EMG (IEMG), Mean Absolute Value (MAV), Simple Square Integral (SSI), Variance (VAR), and Root Mean Square (RMS). Additionally, determining the suitable time for gesture classification is crucial, considering the perceptual, cognitive, and response times required for user input. To address this, segment sizes ranging from a minimum of 100ms to a maximum of 1,000ms are varied, and feature extraction is performed to identify the optimal segment size for gesture classification. Notably, data learning employs overlapped segmentation to reduce the interval between data points, thereby increasing the quantity of training data. Using this approach, the paper employs four machine learning models (KNN, SVC, RF, XGBoost) to train and evaluate the system, achieving accuracy rates exceeding 96% for all models in real-time gesture input scenarios with a maximum segment size of 200ms.

Hand Gesture Recognition Method based on the MCSVM for Interaction with 3D Objects in Virtual Reality (가상현실 3D 오브젝트와 상호작용을 위한 MCSVM 기반 손 제스처 인식)

  • Kim, Yoon-Je;Koh, Tack-Kyun;Yoon, Min-Ho;Kim, Tae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.1088-1091
    • /
    • 2017
  • 최근 그래픽스 기반의 가상현실 기술의 발전과 관심이 증가하면서 3D 객체와의 자연스러운 상호작용을 위한 방법들 중 손 제스처 인식에 대한 연구가 활발히 진행되고 있다. 본 논문은 가상현실 3D 오브젝트와의 상호작용을 위한 MCSVM 기반의 손 제스처 인식을 제안한다. 먼저 다양한 손 제스처들을 립모션을 통해 입력 받아 전처리를 수행한 손 데이터를 전달한다. 그 후 이진 결정 트리로 1차 분류를 한 손 데이터를 리샘플링 한 뒤 체인코드를 생성하고 이에 대한 히스토그램으로 특징 데이터를 구성한다. 이를 기반으로 MCSVM 학습을 통해 2차 분류를 수행하여 제스처를 인식한다. 실험 결과 3D 오브젝트와 상호작용을 위한 16개의 명령 제스처에 대해 평균 99.2%의 인식률을 보였고 마우스 인터페이스와 비교한 정서적 평가 결과에서는 마우스 입력에 비하여 직관적이고 사용자 친화적인 상호작용이 가능하다는 점에서 게임, 학습 시뮬레이션, 설계, 의료분야 등 많은 가상현실 응용 분야에서의 입력 인터페이스로 활용 될 수 있고 가상현실에서 몰입도를 높이는데 도움이 됨을 알 수 있었다.

Vision-based Interface for Tetris Game (테트리스 게임을 위한 비젼 기반의 인터페이스)

  • 김상호;장재식;김항준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.775-777
    • /
    • 2004
  • 본 논문에서는 테트리스 게임을 위한 비젼 기반의 인터페이스를 제안하고 있다 제안된 인터페이스는 카메라로부터 실시간으로 입력되는 연속 영상에서 손의 제스처를 인식하고, 인식된 제스처를 게임의 명령으로 사용한다 테트리스 게임에 필요만 6개의 명령은 손의 자세로 정의되는 세 종류의 정적 제스처와 손의 자세와 움직임으로 정의되는 세 종류의 동적 제스처 정의된다. 손의 자세는 손 영역의 불변 모멘트로 표현하였고, 입력된 손 영역의 자세는 미리 학습된 불변 모멘트 값들과의 거리차이를 비교하여 분류한다. 실험 결과에서 제안된 시스템이 실시간 테트리스 게임의 인터페이스로 적용가능함을 보였다.

  • PDF