• 제목/요약/키워드: Hand gesture recognition

검색결과 311건 처리시간 0.024초

Hand Gesture Segmentation Method using a Wrist-Worn Wearable Device

  • Lee, Dong-Woo;Son, Yong-Ki;Kim, Bae-Sun;Kim, Minkyu;Jeong, Hyun-Tae;Cho, Il-Yeon
    • 대한인간공학회지
    • /
    • 제34권5호
    • /
    • pp.541-548
    • /
    • 2015
  • Objective: We introduce a hand gesture segmentation method using a wrist-worn wearable device which can recognize simple gestures of clenching and unclenching ones' fist. Background: There are many types of smart watches and fitness bands in the markets. And most of them already adopt a gesture interaction to provide ease of use. However, there are many cases in which the malfunction is difficult to distinguish between the user's gesture commands and user's daily life motion. It is needed to develop a simple and clear gesture segmentation method to improve the gesture interaction performance. Method: At first, we defined the gestures of making a fist (start of gesture command) and opening one's fist (end of gesture command) as segmentation gestures to distinguish a gesture. The gestures of clenching and unclenching one's fist are simple and intuitive. And we also designed a single gesture consisting of a set of making a fist, a command gesture, and opening one's fist in order. To detect segmentation gestures at the bottom of the wrist, we used a wrist strap on which an array of infrared sensors (emitters and receivers) were mounted. When a user takes gestures of making a fist and opening one's a fist, this changes the shape of the bottom of the wrist, and simultaneously changes the reflected amount of the infrared light detected by the receiver sensor. Results: An experiment was conducted in order to evaluate gesture segmentation performance. 12 participants took part in the experiment: 10 males, and 2 females with an average age of 38. The recognition rates of the segmentation gestures, clenching and unclenching one's fist, are 99.58% and 100%, respectively. Conclusion: Through the experiment, we have evaluated gesture segmentation performance and its usability. The experimental results show a potential for our suggested segmentation method in the future. Application: The results of this study can be used to develop guidelines to prevent injury in auto workers at mission assembly plants.

제스처 인식을 위한 손가락 개수 인식 방법 (A Finger Counting Method for Gesture Recognition)

  • 이도엽;신동규;신동일
    • 인터넷정보학회논문지
    • /
    • 제17권2호
    • /
    • pp.29-37
    • /
    • 2016
  • 인간은 의사소통을 통해서 상호관계를 유지시키고 발전시켜나간다. 의사소통은 크게 언어적 의사소통과 비언어적 의사소통으로 나뉜다. 언어적 의사소통은 말 또는 글을 사용하는 것이고 비언어적 의사소통은 몸동작으로 의사를 전달하는 것이다. 우리는 일상생활에서 대화를 할 때 말과 더불어 제스처를 함께 사용한다. 제스처는 비언어적 의사소통에 속하며, 다양한 형태와 움직임으로 의사를 전달할 수 있다. 이러한 이유로 제스처는 HCI 분야와 HRI 분야에서 NUI/NUX를 구현하기 위한 수단으로 각광받고 있다. 본 논문에서는 키넥트와 손의 기하학적인 특징을 사용하여 손 영역 검출과 손가락 개수를 인식하는 방법을 제안한다. 키넥트가 제공하는 깊이 영상을 이용하여 영상에서 손 영역을 검출하고 손의 윤곽선과 중점의 거리를 비교하여 손가락 개수를 파악한다. 본 논문에서 제안한 방법에 따른 손가락 개수 인식률은 평균 98.5%이고 수행시간은 0.065ms이다. 이 방법은 기존의 연구와 비교 했을 때, 인식 속도가 빠르며, 복잡도가 O(n),으로써 성능 또한 우수하다. 향후 이를 통해 제스처의 인식 가능한 범위를 증가시켜 보다 컴퓨터와 인간의 상호작용이 수월해지는데 도움이 될 것이다.

제스쳐 인식 시스템 설계 및 구현 (A Design and Implementation of Gesture Recognition System)

  • 김건우;김창현;전창호;이원주
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2008년도 제38차 하계학술발표논문집 16권1호
    • /
    • pp.231-235
    • /
    • 2008
  • 컴퓨터 및 주변기기의 성능이 발전함에 따라 영상처리에 대한 관심이 높아지고, 영상으로부터 원하는 정보를 얻기 위한 연구가 활발히 진행되고 있다. 이러한 연구에서 움직임 추적, 특정 사물 추출, 동영상 검색 등으로 정보를 추출하는 과정은 높은 시스템 자원을 요구하기 때문에 멀티태스킹이 어렵다. 따라서 본 논문에서는 시스템 자원의 사용을 최소화하는 제스쳐 인식시스템을 설계하고 구현한다. 이 시스템은 동적테이블 마스킹을 이용하여 노이즈를 제거하고, 가이드라인 인식 방법을 적용하여 손동작 제스쳐를 인식한다, 또한 안면 비율 분할 방법과 음영 측정 방법을 이용하여 눈과 입술의 제스쳐를 인식한다.

  • PDF

Combining Object Detection and Hand Gesture Recognition for Automatic Lighting System Control

  • Pham, Giao N.;Nguyen, Phong H.;Kwon, Ki-Ryong
    • Journal of Multimedia Information System
    • /
    • 제6권4호
    • /
    • pp.329-332
    • /
    • 2019
  • Recently, smart lighting systems are the combination between sensors and lights. These systems turn on/off and adjust the brightness of lights based on the motion of object and the brightness of environment. These systems are often applied in places such as buildings, rooms, garages and parking lot. However, these lighting systems are controlled by lighting sensors, motion sensors based on illumination environment and motion detection. In this paper, we propose an automatic lighting control system using one single camera for buildings, rooms and garages. The proposed system is one integration the results of digital image processing as motion detection, hand gesture detection to control and dim the lighting system. The experimental results showed that the proposed system work very well and could consider to apply for automatic lighting spaces.

손 자세 인식을 이용한 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템 (MPEG-U based Advanced User Interaction Interface System Using Hand Posture Recognition)

  • 한국희;이인재;최해철
    • 방송공학회논문지
    • /
    • 제19권1호
    • /
    • pp.83-95
    • /
    • 2014
  • 최근 손과 손가락을 인식하는 기술은 HCI(human computer interaction)에서 자연스럽고 친숙한 환경을 제공하기 위한 기술로 주목 받고 있다. 본 논문에서는 깊이 카메라를 이용하여 손과 손가락의 모양을 검출 및 인식하는 방법을 제안하고, 그 인식 결과를 활용하여 다양한 기기와 상호연동 할 수 있는 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템을 제안한다. 제안하는 시스템은 깊이 카메라를 이용하여 손을 검출한 후, 손목의 위치를 찾아 최소 손 영역을 검출한다. 이어서 검출된 최소 손 영역으로부터 손가락 끝점을 검출 한 후, 최소 손 영역의 중심점과 손가락 끝점간의 뼈대를 만든다. 이렇게 만든 뼈대의 길이와 인접 뼈대간의 각도차를 분석하여 손가락을 판별한다. 또한, 제안하는 시스템은 사용자가 MPEG-U에서 정의하는 다양한 심벌들을 손 자세로 취하였을 때 제안 방법을 이용하여 손 자세를 인식하고, 인식 결과를 상호연동 가능한 MPEG-U 스키마 구조로 표현한다. 실험에서는 다양한 환경에서 제안하는 손 자세 인식 방법의 성능을 보인다. 또한, 제안 시스템의 상호연동성을 보이기 위해 인식 결과를 MPEG-U part2 표준에 맞는 XML 문서로 표현하고, MPEG-U 참조 소프트웨어를 이용하여 그 표현 결과에 대한 표준 부합성을 검증한다.

Effect of Input Data Video Interval and Input Data Image Similarity on Learning Accuracy in 3D-CNN

  • Kim, Heeil;Chung, Yeongjee
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권2호
    • /
    • pp.208-217
    • /
    • 2021
  • 3D-CNN is one of the deep learning techniques for learning time series data. However, these three-dimensional learning can generate many parameters, requiring high performance or having a significant impact on learning speed. We will use these 3D-CNNs to learn hand gesture and find the parameters that showed the highest accuracy, and then analyze how the accuracy of 3D-CNN varies through input data changes without any structural changes in 3D-CNN. First, choose the interval of the input data. This adjusts the ratio of the stop interval to the gesture interval. Secondly, the corresponding interframe mean value is obtained by measuring and normalizing the similarity of images through interclass 2D cross correlation analysis. This experiment demonstrates that changes in input data affect learning accuracy without structural changes in 3D-CNN. In this paper, we proposed two methods for changing input data. Experimental results show that input data can affect the accuracy of the model.

Artificial Neural Network for Quantitative Posture Classification in Thai Sign Language Translation System

  • Wasanapongpan, Kumphol;Chotikakamthorn, Nopporn
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1319-1323
    • /
    • 2004
  • In this paper, a problem of Thai sign language recognition using a neural network is considered. The paper addresses the problem in classifying certain signs conveying quantitative meaning, e.g., large or small. By treating those signs corresponding to different quantities as derived from different classes, the recognition error rate of the standard multi-layer Perceptron increases if the precision in recognizing different quantities is increased. This is due the fact that, to increase the quantitative recognition precision of those signs, the number of (increasingly similar) classes must also be increased. This leads to an increase in false classification. The problem is due to misinterpreting the amount of quantity the quantitative signs convey. In this paper, instead of treating those signs conveying quantitative attribute of the same quantity type (such as 'size' or 'amount') as derived from different classes, here they are considered instances of the same class. Those signs of the same quantity type are then further divided into different subclasses according to the level of quantity each sign is associated with. By using this two-level classification, false classification among main gesture classes is made independent to the level of precision needed in recognizing different quantitative levels. Moreover, precision of quantitative level classification can be made higher during the recognition phase, as compared to that used in the training phase. A standard multi-layer Perceptron with a back propagation learning algorithm was adapted in the study to implement this two-level classification of quantitative gesture signs. Experimental results obtained using an electronic glove measurement of hand postures are included.

  • PDF

각도정보를 이용한 중국식 한손 숫자표현 2,6,8 분류 방법 (Recognition Method of Chinese Finger Number 2, 6, 8 Using Angle Information)

  • 리평;이희성;김미혜
    • 한국게임학회 논문지
    • /
    • 제12권6호
    • /
    • pp.121-130
    • /
    • 2012
  • 최근 스마트 미디어가 발달함에 따라 인간과 컴퓨터 사이의 상호작용(HCI)에 대한 욕구가 증대되었다. 또 이러한 욕구에 부합하기 위하여 영상처리를 이용한 제스처 인식분야의 연구가 활발히 진행되고 있다. 이에 본 논문에서는 영상처리를 이용한 중국식 한손 숫자 표현을 인식하는 방법을 제안한다. 입력된 영상을 피부색을 기반으로 이진화 하여 관심영역을 추출하고, 펼쳐진 손가락의 각도정보를 이용하여 사용자가 표현한 숫자를 파악한다. 본 논문에서는 중국식 한손 숫자 표현 2,6,8을 인식하였고 제안한 방법은 95.83%의 인식률을 보였다.