• 제목/요약/키워드: gesture classification

검색결과 65건 처리시간 0.023초

획 정보를 이용한 한글문자와 펜 제스처 인식 시스템의 설계 및 구현 (Design and Implementation for Korean Character and Pen-gesture Recognition System using Stroke Information)

  • 오준택;김욱현
    • 정보처리학회논문지B
    • /
    • 제9B권6호
    • /
    • pp.765-774
    • /
    • 2002
  • 본 논문은 멀티미디어 단말기, PDA등에 적용할 목적으로 획 정보를 이용한 한글문자와 펜 제스처 인식 시스템을 설계 및 구현한다. 한글문자 인식은 다양한 필체 유형을 수용하기 위해 한글의 특성정보와 획 정보 등을 기반으로 구축한 한글데이터베이스를 이용하며 빠른 자소분리를 수행하기 위해서 획간의 위치정보를 이용한 순차적 자소분리와 자소를 이루는 획 수의 변경에 의한 백트래킹 자소분리를 이용한다. 펜 제스처 인식은 정의한 15가지 유형의 펜 제스처에 대해서 민감한 획 정보가 아닌 획 내의 교차수, 방향변화, 방향벡터, 방향코드의 개수, 위치관계, 획에 대한 시작점과 끝점간의 거리 비율정보 등을 분류특징으로 이용함으로써 강건한 인식과 빠른 처리속도를 가진다. 제안한 방법에 의해 구현한 인식 시스템은 실시간으로 수행하며 실험결과, 높은 인식률과 빠른 처리속도를 보였다.

손 제스처 인식을 통한 인체 아바타의 지능적 자율 이동에 관한 연구 (Study on Intelligent Autonomous Navigation of Avatar using Hand Gesture Recognition)

  • 김종성;박광현;김정배;도준형;송경준;민병의;변증남
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 추계종합학술대회 논문집
    • /
    • pp.483-486
    • /
    • 1999
  • In this paper, we present a real-time hand gesture recognition system that controls motion of a human avatar based on the pre-defined dynamic hand gesture commands in a virtual environment. Each motion of a human avatar consists of some elementary motions which are produced by solving inverse kinematics to target posture and interpolating joint angles for human-like motions. To overcome processing time of the recognition system for teaming, we use a Fuzzy Min-Max Neural Network (FMMNN) for classification of hand postures

  • PDF

윤곽 분포를 이용한 이미지 기반의 손모양 인식 기술 (Hand Shape Classification using Contour Distribution)

  • 이창민;김대은
    • 제어로봇시스템학회논문지
    • /
    • 제20권6호
    • /
    • pp.593-598
    • /
    • 2014
  • Hand gesture recognition based on vision is a challenging task in human-robot interaction. The sign language of finger spelling alphabets has been tested as a kind of hand gesture. In this paper, we test hand gesture recognition by detecting the contour shape and orientation of hand with visual image. The method has three stages, the first stage of finding hand component separated from the background image, the second stage of extracting the contour feature over the hand component and the last stage of comparing the feature with the reference features in the database. Here, finger spelling alphabets are used to verify the performance of our system and our method shows good performance to discriminate finger alphabets.

합성 블록 어텐션 모듈을 이용한 운동 동작 인식 성능 분석 (Performance Analysis of Exercise Gesture-Recognition Using Convolutional Block Attention Module)

  • 경찬욱;정우용;선준호;선영규;김진영
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권6호
    • /
    • pp.155-161
    • /
    • 2021
  • 최근, 실시간으로 카메라를 통해 동작을 인식하는 기술의 연구가 많이 진행되고 있다. 기존의 연구들에서는 사람의 관절로부터 특징을 추출하는 개수가 적기 때문에 동작 분류의 정확도가 낮은 한계점들이 있다. 본 논문에서는 이러한 한계점들을 해결하기 위해 움직일 때 변하는 관절의 각도를 특징 추출하여 계산하는 알고리즘과 이미지 분류 시에 정확도가 높은 CBAM(Convolutional Block Attention Module)을 사용한 분류모델을 제안한다. AI Hub에서 제공하는 피트니스 자세 이미지로부터 5가지 운동 동작 이미지를 인용하여 분류 모델에 적용한다. 구글에서 제공하는 그래프 기반 프레임워크인 MediaPipe 기법을 사용하여, 이미지로부터 운동 동작 분류에 중요한 8가지 관절 각도 정보를 추가적으로 추출한다. 추출한 특징들을 모델의 입력으로 설정하여, 분류 모델을 학습시킨다. 시뮬레이션 결과로부터 제안한 모델은 높은 정확도로 운동 동작을 구분하는 것을 확인할 수 있다.

애니메이션 제스처의 패킷화 -LMA의 Effort 요소를 기반으로- (Making Packets from Animation Gestures -Based on the Effort Element of LMA-)

  • 이미영;홍수현;김재호
    • 한국콘텐츠학회논문지
    • /
    • 제11권3호
    • /
    • pp.179-189
    • /
    • 2011
  • 제스처는 인체의 비언어적 의미표현 전달방법 중 하나로 애니메이션에서는 인물 캐릭터들 통해 표현된다. 효율적인 제스처 표현을 위해서는 애니메이터들의 드로잉 능력과 함께 제스처의 지식기반이 요구된다. 하지만 이러한 지식기반은 다양한 전공자들을 필요로 하기 때문에 일반적인 드로잉 작가가 모든 내용을 인지하고 표현하기에는 어려운 점이 있다. 본 연구에서는 이러한 다양한 지식 기반의 학습이 요구되는 제스처 표현방법을 라반의 움직임이론과 제스처들을 패킷으로 분류하는 방법으로 각각의 제스처 특징들을 분석하고, 분석된 데이터들을 이용하여 애니메이터들에게 효율적인 제스처 표현방법과 제스처 자동생성의 기반을 마련하고자 하였다.

Hand Gesture Recognition Using an Infrared Proximity Sensor Array

  • Batchuluun, Ganbayar;Odgerel, Bayanmunkh;Lee, Chang Hoon
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제15권3호
    • /
    • pp.186-191
    • /
    • 2015
  • Hand gesture is the most common tool used to interact with and control various electronic devices. In this paper, we propose a novel hand gesture recognition method using fuzzy logic based classification with a new type of sensor array. In some cases, feature patterns of hand gesture signals cannot be uniquely distinguished and recognized when people perform the same gesture in different ways. Moreover, differences in the hand shape and skeletal articulation of the arm influence to the process. Manifold features were extracted, and efficient features, which make gestures distinguishable, were selected. However, there exist similar feature patterns across different hand gestures, and fuzzy logic is applied to classify them. Fuzzy rules are defined based on the many feature patterns of the input signal. An adaptive neural fuzzy inference system was used to generate fuzzy rules automatically for classifying hand gestures using low number of feature patterns as input. In addition, emotion expression was conducted after the hand gesture recognition for resultant human-robot interaction. Our proposed method was tested with many hand gesture datasets and validated with different evaluation metrics. Experimental results show that our method detects more hand gestures as compared to the other existing methods with robust hand gesture recognition and corresponding emotion expressions, in real time.

Study on User Interface for a Capacitive-Sensor Based Smart Device

  • Jung, Sun-IL;Kim, Young-Chul
    • 스마트미디어저널
    • /
    • 제8권3호
    • /
    • pp.47-52
    • /
    • 2019
  • In this paper, we designed HW / SW interfaces for processing the signals of capacitive sensors like Electric Potential Sensor (EPS) to detect the surrounding electric field disturbance as feature signals in motion recognition systems. We implemented a smart light control system with those interfaces. In the system, the on/off switch and brightness adjustment are controlled by hand gestures using the designed and fabricated interface circuits. PWM (Pulse Width Modulation) signals of the controller with a driver IC are used to drive the LED and to control the brightness and on/off operation. Using the hand-gesture signals obtained through EPS sensors and the interface HW/SW, we can not only construct a gesture instructing system but also accomplish the faster recognition speed by developing dedicated interface hardware including control circuitry. Finally, using the proposed hand-gesture recognition and signal processing methods, the light control module was also designed and implemented. The experimental result shows that the smart light control system can control the LED module properly by accurate motion detection and gesture classification.

립모션 센서 기반 증강현실 인지재활 훈련시스템을 위한 합성곱신경망 손동작 인식 (Hand Gesture Recognition with Convolution Neural Networks for Augmented Reality Cognitive Rehabilitation System Based on Leap Motion Controller)

  • 송근산;이현주;태기식
    • 대한의용생체공학회:의공학회지
    • /
    • 제42권4호
    • /
    • pp.186-192
    • /
    • 2021
  • In this paper, we evaluated prediction accuracy of Euler angle spectrograph classification method using a convolutional neural networks (CNN) for hand gesture recognition in augmented reality (AR) cognitive rehabilitation system based on Leap Motion Controller (LMC). Hand gesture recognition methods using a conventional support vector machine (SVM) show 91.3% accuracy in multiple motions. In this paper, five hand gestures ("Promise", "Bunny", "Close", "Victory", and "Thumb") are selected and measured 100 times for testing the utility of spectral classification techniques. Validation results for the five hand gestures were able to be correctly predicted 100% of the time, indicating superior recognition accuracy than those of conventional SVM methods. The hand motion recognition using CNN meant to be applied more useful to AR cognitive rehabilitation training systems based on LMC than sign language recognition using SVM.

Artificial Neural Network for Quantitative Posture Classification in Thai Sign Language Translation System

  • Wasanapongpan, Kumphol;Chotikakamthorn, Nopporn
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1319-1323
    • /
    • 2004
  • In this paper, a problem of Thai sign language recognition using a neural network is considered. The paper addresses the problem in classifying certain signs conveying quantitative meaning, e.g., large or small. By treating those signs corresponding to different quantities as derived from different classes, the recognition error rate of the standard multi-layer Perceptron increases if the precision in recognizing different quantities is increased. This is due the fact that, to increase the quantitative recognition precision of those signs, the number of (increasingly similar) classes must also be increased. This leads to an increase in false classification. The problem is due to misinterpreting the amount of quantity the quantitative signs convey. In this paper, instead of treating those signs conveying quantitative attribute of the same quantity type (such as 'size' or 'amount') as derived from different classes, here they are considered instances of the same class. Those signs of the same quantity type are then further divided into different subclasses according to the level of quantity each sign is associated with. By using this two-level classification, false classification among main gesture classes is made independent to the level of precision needed in recognizing different quantitative levels. Moreover, precision of quantitative level classification can be made higher during the recognition phase, as compared to that used in the training phase. A standard multi-layer Perceptron with a back propagation learning algorithm was adapted in the study to implement this two-level classification of quantitative gesture signs. Experimental results obtained using an electronic glove measurement of hand postures are included.

  • PDF

EMG 데이터를 이용한 머신러닝 기반 실시간 제스처 분류 연구 (A Study on Machine Learning-Based Real-Time Gesture Classification Using EMG Data)

  • 박하제;양희영;최소진;김대연;남춘성
    • 인터넷정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.57-67
    • /
    • 2024
  • 사용자가 제스처를 통해 입력을 할 수 있는 방안들 중에서 근전도(EMG, Electromyography)를 통한 제스처 인식은 근육 내 작은 전극을 통해 사용자의 움직임을 감지하고 이를 입력 방법으로 사용할 수 있는 방법이다. EMG 데이터를 통해 사용자 제스처를 분류하기 위해서는 사용자로부터 수집된 EMG Raw 데이터를 머신러닝으로 학습하여야 하는데 이를 위해서는 EMG 데이터를 전처리 과정을 통해 특징을 추출하여야 한다. EMG 특성은 IEMG(Integrated EMG), MAV(Mean Absolute Value), SSI(Simple Sqaure Integral), VAR(VARiance), RMS(Root Mean Square) 등과 같은 수식을 통해서 나타낼 수 있다. 또한, 제스처를 입력으로 사용하기 위해서는 사용자가 입력하는 데 필요한 지각, 인지, 반응에 필요한 시간을 기준으로 제스처 분류가 가능한 시간을 알아내야 한다. 이를 위해 최대 1,000ms에서 최소 100ms까지 세그먼트 사이즈를 변화시켜 특징을 추출 후 제스처 분류가 가능한 세그먼트 사이즈를 찾아낸다. 특히 데이터 학습은 overlapped segmentation 방법을 통해 데이터와 데이터 사이 간격을 줄여 학습 데이터 개수를 늘린다. 이를 통해 KNN, SVC, RF, XGBoost 4가지 머신러닝 방식을 통해 이를 학습하고 결과를 도출한다. 실험 결과 실시간으로 사용자의 제스처 입력이 가능한 최대 세그먼트 사이즈인 200ms에서 KNN, SVC, RF, XGboost 4가지 모든 모델에서 96% 이상의 정확도를 도출하였다.