• 제목/요약/키워드: Hand Shape Recognition

검색결과 92건 처리시간 0.023초

형상분해를 이용한 손가락 방향성 인식 알고리즘 (Finger Directivity Recognition Algorithm using Shape Decomposition)

  • 최종호
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권3호
    • /
    • pp.197-201
    • /
    • 2011
  • 최근 들어 인간과 컴퓨터와의 상호작용을 위한 인터페이스 분야에서 컴퓨터 시각 방식으로 손짓을 인식하고자 하는 연구가 널리 진행되고 있다. 손짓 인식에서 가장 중요한 이슈는 손가락의 방향성을 효율적으로 인식하는 것이다. 손짓 형상으로부터 얻은 원시형상요소들의 방향성은 손짓에 관한 중요한 정보를 내포하고 있으므로 본 논문에서는 형태론적 형상분해 기법을 사용하여 얻은 주 원시형상요소를 포함하는 원의 반경을 증가시키면서 부 원시형상요소와의 교차점을 구하여 손가락의 주 방향성을 인식하는 알고리즘을 제안하고, 실험을 통하여 그 유용성을 증명하였다.

역 투영과 휴 모멘트를 이용한 손영역 검출 및 모양 분류 (Hand Region Detection and hand shape classification using Hu moment and Back Projection)

  • 신재선;장대식
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.911-914
    • /
    • 2011
  • 손 영역을 찾는 것은 사용자 중심의 인터페이스를 제공하는 데 있어서 꼭 필요한 기술이며 이를 위해 많은 연구가 진행되어 왔다. 본 논문은 HSV 공간을 기반으로 한 역 투영 기법을 사용하여 손영역 검출을 수행하였으며, 휴 모멘트를 통해 추출된 손 영역을 분석, 손 모양 인식에 대한 방법을 제안한다. 역 투영 기법을 통해 손 영역 검출에 대한 신뢰도를 높였으며, 휴 모멘트를 통해 손모양을 구분할 수 있음을 확인하였다.

  • PDF

퀴즈게임의 체감형 제스처 인터페이스 프로토타입 개발 (A Study on Tangible Gesture Interface Prototype Development of the Quiz Game)

  • 안정호;고재필
    • 디지털콘텐츠학회 논문지
    • /
    • 제13권2호
    • /
    • pp.235-245
    • /
    • 2012
  • 우리는 본 논문에서 사용자 제스처 인터페이스 기반 퀴즈게임 콘텐츠를 제안한다. 우리는 기존의 아날로그 방식으로 수행해 오던 퀴즈게임의 요소들을 파악하여 디지털화함으로써 퀴즈 진행자의 역할을 콘텐츠 프로그램이 담당할 수 있도록 하였다. 우리는 키넥트 카메라를 사용하여 깊이영상을 획득하고 깊이영상에서 사용자 분할, 머리 위치 검출 및 추적, 손 검출 등의 전처리 작업과 손들기, 손 상하이동, 주먹 모양, 패스, 주먹 쥐고 당김 등의 명령형 손 제스처 인식기술을 개발하였다. 특히 우리는 사람이 일상생활에서 물리적인 객체를 조작하는 동작으로 인터페이스를 위한 제스처를 정의함으로써 사용자가 이동, 선택, 확인 등의 추상적인 개념을 인터페이스 과정에서 체감할 수 있도록 디자인하였다. 앞서 발표되었던 선행 작업과 비교할 때, 우리는 승리 팀에 대한 카드보상 절차를 추가하여 콘텐츠의 완성도를 높였으며, 손 상하이동 인식과 주먹 모양 인식 알고리즘 등을 개선하여 문제 보기선택의 성능을 크게 향상시켰고, 체계적인 실험을 통해 만족할 만한 인식 성능을 입증하였다. 구현된 콘텐츠는 실시간 테스트에서 만족스러운 제스처 인식 결과를 보였으며 원활한 퀴즈게임 진행이 가능하였다.

가상 칠판을 위한 손 표현 인식 (Hand Expression Recognition for Virtual Blackboard)

  • 허경용;김명자;송복득;신범주
    • 한국정보통신학회논문지
    • /
    • 제25권12호
    • /
    • pp.1770-1776
    • /
    • 2021
  • 손 표현 인식을 위해서는 손의 정적인 형태를 기반으로 하는 손 자세 인식과 손의 움직임을 기반으로 하는 손 동작 인식이 함께 사용된다. 본 논문에서는 가상의 칠판 위에서 움직이는 손의 궤적을 기반으로 기호를 인식하는 손 표현인식 방법을 제안하였다. 손으로 가상의 칠판에 그린 기호를 인식하기 위해서는 손의 움직임으로부터 기호를 인식하는 방법은 물론, 데이터 입력의 시작과 끝을 찾아내기 위한 손 자세 인식 역시 필요하다. 본 논문에서는 손 자세 인식을 위해 미디어파이프를, 시계열 데이터에서 손 동작을 인식하기 위해 순환 신경망의 한 종류인 LSTM(Long Short Term Memory)을 사용하였다. 제안하는 방법의 유효성을 보이기 위해 가상 칠판에 쓰는 숫자 인식에 제안하는 방법을 적용하였을 때 약 94%의 인식률을 얻을 수 있었다.

The Effect of Visual Feedback on One-hand Gesture Performance in Vision-based Gesture Recognition System

  • Kim, Jun-Ho;Lim, Ji-Hyoun;Moon, Sung-Hyun
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.551-556
    • /
    • 2012
  • Objective: This study presents the effect of visual feedback on one-hand gesture performance in vision-based gesture recognition system when people use gestures to control a screen device remotely. Backgroud: gesture interaction receives growing attention because it uses advanced sensor technology and it allows users natural interaction using their own body motion. In generating motion, visual feedback has been to considered critical factor affect speed and accuracy. Method: three types of visual feedback(arrow, star, and animation) were selected and 20 gestures were listed. 12 participants perform each 20 gestures while given 3 types of visual feedback in turn. Results: People made longer hand trace and take longer time to make a gesture when they were given arrow shape feedback than star-shape feedback. The animation type feedback was most preferred. Conclusion: The type of visual feedback showed statistically significant effect on the length of hand trace, elapsed time, and speed of motion in performing a gesture. Application: This study could be applied to any device that needs visual feedback for device control. A big feedback generate shorter length of motion trace, less time, faster than smaller one when people performs gestures to control a device. So the big size of visual feedback would be recommended for a situation requiring fast actions. On the other hand, the smaller visual feedback would be recommended for a situation requiring elaborated actions.

A Vision-Based Method to Find Fingertips in a Closed Hand

  • Chaudhary, Ankit;Vatwani, Kapil;Agrawal, Tushar;Raheja, J.L.
    • Journal of Information Processing Systems
    • /
    • 제8권3호
    • /
    • pp.399-408
    • /
    • 2012
  • Hand gesture recognition is an important area of research in the field of Human Computer Interaction (HCI). The geometric attributes of the hand play an important role in hand shape reconstruction and gesture recognition. That said, fingertips are one of the important attributes for the detection of hand gestures and can provide valuable information from hand images. Many methods are available in scientific literature for fingertips detection with an open hand but very poor results are available for fingertips detection when the hand is closed. This paper presents a new method for the detection of fingertips in a closed hand using the corner detection method and an advanced edge detection algorithm. It is important to note that the skin color segmentation methodology did not work for fingertips detection in a closed hand. Thus the proposed method applied Gabor filter techniques for the detection of edges and then applied the corner detection algorithm for the detection of fingertips through the edges. To check the accuracy of the method, this method was tested on a vast number of images taken with a webcam. The method resulted in a higher accuracy rate of detections from the images. The method was further implemented on video for testing its validity on real time image capturing. These closed hand fingertips detection would help in controlling an electro-mechanical robotic hand via hand gesture in a natural way.

자기 조직화 특징 지도(SOFM)와 주성분 분석을 이용한 손 형상 검출 및 인식 (Hand Shape Detection and Recognition using Self Organized Feature Map(SOMF) and Principal Component Analysis)

  • 김경호;이기준
    • 한국콘텐츠학회논문지
    • /
    • 제13권11호
    • /
    • pp.28-36
    • /
    • 2013
  • 본 논문은 손 형상 인식을 위한 보다 안정적이며 조명 변화와 회전에 강인하게 손 영역을 검출하며, 계산의 효율성과 검출 성능을 동시에 만족시키는 강인한 검출 알고리즘에 대해 제안한다. 제안한 알고리즘은 단일 카메라 환경에서 손 형상을 입력정보로 사용하여 전처리 과정을 거쳐 손 영역만을 분할한 후 자기조직화 특징 지도(SOFM: Self Organized Feature Map) 알고리즘을 이용하여 손 형상을 인식하게 된다. 그러나 조명 변화에 민감하고 자유도가 큰 손 영역을 정확히 인식하기란 쉽지 않으며 오차 범위도 크기 때문에 본 논문에서는 인식률을 높이기 위해 각각의 손 형상에 대한 회전 정보를 데이터베이스화 한 후 주성분 분석을 적용하여 군집화 함으로서 인식오차를 줄였다. 또한 차원 축소로 인해 많은 계산 량이 요구되지 않기 때문에 실시간 인식 시간도 줄일 수 있었다.

NATURAL INTERACTION WITH VIRTUAL PET ON YOUR PALM

  • Choi, Jun-Yeong;Han, Jae-Hyek;Seo, Byung-Kuk;Park, Han-Hoon;Park, Jong-Il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.341-345
    • /
    • 2009
  • We present an augmented reality (AR) application for cell phone where users put a virtual pet on their palms and play/interact with the pet by moving their hands and fingers naturally. The application is fundamentally based on hand/palm pose recognition and finger motion estimation, which is the main concern in this paper. We propose a fast and efficient hand/palm pose recognition method which uses natural features (e.g. direction, width, contour shape of hand region) extracted from a hand image with prior knowledge for hand shape or geometry (e.g. its approximated shape when a palm is open, length ratio between palm width and pal height). We also propose a natural interaction method which recognizes natural motion of fingers such as opening/closing palm based on fingertip tracking. Based on the proposed methods, we developed and tested the AR application on an ultra-mobile PC (UMPC).

  • PDF

위상회전에 의한 필기체 한글의 자동인식 (Automatic Recognition of Hand-written Hangout by the Phase Rotation)

  • 이주근;김홍기
    • 대한전자공학회논문지
    • /
    • 제13권1호
    • /
    • pp.23-30
    • /
    • 1976
  • 이 논문에서는 위상회전에 의한 오목구조의 짐출로서 필기체 한글을 인식하는 한 방법을 검토한다. 문자 Pattern를 오목구조적인 기본 Segment로 분해하여 집합으로 분류하고, 그들 집함에 대한 각 Segment의 폐상태와 위상특징을 logic으로 표현한다. 다음 그들 logic pattern의 위상회전으로서 오목구조의 topological성질과 위상특징을 검출하여 문자를 결정한다. 이 방법은 필기체의 변화와 문자의 대소, 경사 띤 위치 변위에 대한 식별의 유연성을 가지며, 인식율이 높다. In this paper, a method is proposed for the recognition of hand-written Hangeul. This is peiformed by extraction of the concave structural segments by phase rotation. Character patterns can be decomposed into the fundamental concave structural segments which are also categorized into segment sects, and the closure and phase features of each segment in set is represented by logics. By rotating the logic pattern, the topological and phase features of segment are extracted for the reliable recognition of the character. It is also evaluated that this method applies to a wide variety of shape, position and declination of the character.

  • PDF

Hand Gesture Recognition Using an Infrared Proximity Sensor Array

  • Batchuluun, Ganbayar;Odgerel, Bayanmunkh;Lee, Chang Hoon
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제15권3호
    • /
    • pp.186-191
    • /
    • 2015
  • Hand gesture is the most common tool used to interact with and control various electronic devices. In this paper, we propose a novel hand gesture recognition method using fuzzy logic based classification with a new type of sensor array. In some cases, feature patterns of hand gesture signals cannot be uniquely distinguished and recognized when people perform the same gesture in different ways. Moreover, differences in the hand shape and skeletal articulation of the arm influence to the process. Manifold features were extracted, and efficient features, which make gestures distinguishable, were selected. However, there exist similar feature patterns across different hand gestures, and fuzzy logic is applied to classify them. Fuzzy rules are defined based on the many feature patterns of the input signal. An adaptive neural fuzzy inference system was used to generate fuzzy rules automatically for classifying hand gestures using low number of feature patterns as input. In addition, emotion expression was conducted after the hand gesture recognition for resultant human-robot interaction. Our proposed method was tested with many hand gesture datasets and validated with different evaluation metrics. Experimental results show that our method detects more hand gestures as compared to the other existing methods with robust hand gesture recognition and corresponding emotion expressions, in real time.