• 제목/요약/키워드: Recognition of hand

검색결과 1,046건 처리시간 0.028초

보로노이-테셀레이션 알고리즘을 이용한 NUI를 위한 비주얼 터치 인식 (Visual Touch Recognition for NUI Using Voronoi-Tessellation Algorithm)

  • 김성관;주영훈
    • 전기학회논문지
    • /
    • 제64권3호
    • /
    • pp.465-472
    • /
    • 2015
  • This paper presents a visual touch recognition for NUI(Natural User Interface) using Voronoi-tessellation algorithm. The proposed algorithms are three parts as follows: hand region extraction, hand feature point extraction, visual-touch recognition. To improve the robustness of hand region extraction, we propose RGB/HSI color model, Canny edge detection algorithm, and use of spatial frequency information. In addition, to improve the accuracy of the recognition of hand feature point extraction, we propose the use of Douglas Peucker algorithm, Also, to recognize the visual touch, we propose the use of the Voronoi-tessellation algorithm. Finally, we demonstrate the feasibility and applicability of the proposed algorithms through some experiments.

건구동식 로봇 의수용 착용형 인터페이스 (A Wearable Interface for Tendon-driven Robotic Hand Prosthesis)

  • 정성윤;박찬영;배주환;문인혁
    • 제어로봇시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.374-380
    • /
    • 2010
  • This paper proposes a wearable interface for a tendon-driven robotic hand prosthesis. The proposed interface is composed of a dataglove to measure finger and wrist joint angle, and a micro-control board with a wireless RF module. The interface is used for posture control of the robotic hand prosthesis. The measured joint angles by the dataglove are transferred to the main controller via the wireless module. The controller works for directly controlling the joint angle of the hand or for recognizing hand postures using a pattern recognition method such as LDA and k-NN. The recognized hand postures in this study are the paper, the rock, the scissors, the precision grasp, and the tip grasp. In experiments, we show the performances of the wearable interface including the pattern recognition method.

손 동작 인식을 이용한 이동로봇의 주행 (Navigation of a Mobile Robot Using Hand Gesture Recognition)

  • 김일명;김완철;윤경식;이장명
    • 제어로봇시스템학회논문지
    • /
    • 제8권7호
    • /
    • pp.599-606
    • /
    • 2002
  • A new method to govern the navigation of a mobile robot using hand gesture recognition is proposed based on the following two procedures. One is to achieve vision information by using a 2-DOF camera as a communicating medium between a man and a mobile robot and the other is to analyze and to control the mobile robot according to the recognized hand gesture commands. In the previous researches, mobile robots are passively to move through landmarks, beacons, etc. In this paper, to incorporate various changes of situation, a new control system that manages the dynamical navigation of mobile robot is proposed. Moreover, without any generally used expensive equipments or complex algorithms for hand gesture recognition, a reliable hand gesture recognition system is efficiently implemented to convey the human commands to the mobile robot with a few constraints.

관측 시점에 강인한 손 모양 인식을 위한 손 모양과 손 구조 사이의 학습 기반 유사도 결정 방법 (Learning Similarity between Hand-posture and Structure for View-invariant Hand-posture Recognition)

  • 장효영;정진우;변증남
    • 한국지능시스템학회논문지
    • /
    • 제16권3호
    • /
    • pp.271-274
    • /
    • 2006
  • 본 논문에서는 비전 기술에 기반을 둔 손 모양 인식 시스템의 성능 향상을 위해 학습을 통해 손 모양과 손 구조 간 유사도를 결정하는 방법을 제안한다. 비전 센서에 기반을 둔 손 모양 인식은 손의 높은 자유도로 인한 자체 가림 현상과 관찰 방향 변화에 따른 입력 영상의 다양함으로 인해 인식에 어려움이 따른다. 따라서 비전 기반 손 모양 인식의 경우, 카메라와 손 간의 상대적인 각도에 제한을 두거나 여러 대의 카메라를 배치하는 것이 일반적이다. 그러나 카메라와 손 간의 상대적 각도에 제한을 두는 경우에는 사용자의 움직임에 제약이 따르게 되며, 여러 대의 카메라를 사용할 경우에는 각 입력된 영상에 대한 인식 결과를 최종 인식 결과에 반영하는 방식에 대해서 추가적으로 고려해야 한다. 본 논문에서는 비전 기반 손 모양 인식의 이러한 문제점을 개선하기 위하여 인식의 과정에서 사용되는 손 모양 특징을 손 구조적인 각도 정보와 손 영상 특징으로 나누고, 학습을 통해 각 특징 간 연관성을 정의한다.

피부색과 무게중심 프로필을 이용한 손동작 인식 알고리즘 (Hand Motion Recognition Algorithm Using Skin Color and Center of Gravity Profile)

  • 박영민
    • 문화기술의 융합
    • /
    • 제7권2호
    • /
    • pp.411-417
    • /
    • 2021
  • 인간과 컴퓨터의 상호작용을 연구하는 분야를 HCI(Human-computer interaction)라고 한다. 이 분야는 인간과 컴퓨터 간에 서로 소통하면서 정보를 인식하는 방법에 대해 연구하는 학문 분야이다. 본 연구는 사람과의 상호작용을 위한 손동작 인식에 대한 연구로써 기존 인식방법의 문제점을 살펴보고 인식률을 개선하기 위한 알고리즘을 제시한다. 사람의 손 모양이 포함된 영상을 대상으로 피부색 정보를 바탕으로 손 영역을 추출하고, 주성분 분석을 이용하여 무게중심 프로필을 계산한다. 이렇게 얻은 정보를 미리 정의된 형상들과 비교하여 손동작을 인식률을 높이는 방법을 제안하였다. 기존의 무게중심 프로필은 회전으로 인한 손의 변형에 대해 잘못된 손동작 인식을 결과를 보여주었으나, 본 연구에서는 무게중심 프로필을 이용하고 모든 윤곽선의 점들과 무게중심 사이의 거리가 가장 긴 점을 시작점으로 하여 무게중심 프로필을 다시 개선함으로써 강건한 알고리즘을 제시하였다. 손동작 인식을 위하여 센서가 부착된 장갑이나 특별한 마커를 사용하지 않으며, 별도의 청색 스크린을 설치하지도 않는다. 이 결과에 대해 가장 가까운 거리의 특징벡터를 찾아 잘못된 인식을 해결하고, 적당한 경계치를 구하여 성공과 실패를 구분한다.

A Real-Time Pattern Recognition for Multifunction Myoelectric Hand Control

  • Chu, Jun-Uk;Moon, In-Hyuk;Mun, Mu-Seong
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.842-847
    • /
    • 2005
  • This paper proposes a novel real-time EMG pattern recognition for the control of a multifunction myoelectric hand from four channel EMG signals. To cope with the nonstationary signal property of the EMG, features are extracted by wavelet packet transform. For dimensionality reduction and nonlinear mapping of the features, we also propose a linear-nonlinear feature projection composed of PCA and SOFM. The dimensionality reduction by PCA simplifies the structure of the classifier, and reduces processing time for the pattern recognition. The nonlinear mapping by SOFM transforms the PCA-reduced features to a new feature space with high class separability. Finally a multilayer neural network is employed as the pattern classifier. We implement a real-time control system for a multifunction virtual hand. From experimental results, we show that all processes, including virtual hand control, are completed within 125 msec, and the proposed method is applicable to real-time myoelectric hand control without an operation time delay.

  • PDF

HMM을 이용한 알파벳 제스처 인식 (Alphabetical Gesture Recognition using HMM)

  • 윤호섭;소정;민병우
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (2)
    • /
    • pp.384-386
    • /
    • 1998
  • The use of hand gesture provides an attractive alternative to cumbersome interface devices for human-computer interaction(HCI). Many methods hand gesture recognition using visual analysis have been proposed such as syntactical analysis, neural network(NN), Hidden Markov Model(HMM) and so on. In our research, a HMMs is proposed for alphabetical hand gesture recognition. In the preprocessing stage, the proposed approach consists of three different procedures for hand localization, hand tracking and gesture spotting. The hand location procedure detects the candidated regions on the basis of skin-color and motion in an image by using a color histogram matching and time-varying edge difference techniques. The hand tracking algorithm finds the centroid of a moving hand region, connect those centroids, and thus, produces a trajectory. The spotting a feature database, the proposed approach use the mesh feature code for codebook of HMM. In our experiments, 1300 alphabetical and 1300 untrained gestures are used for training and testing, respectively. Those experimental results demonstrate that the proposed approach yields a higher and satisfying recognition rate for the images with different sizes, shapes and skew angles.

  • PDF

사전 자세에 따른 근전도 기반 손 제스처 인식 (Recognition of hand gestures with different prior postures using EMG signals)

  • 최현태;김덕화;장원두
    • 사물인터넷융복합논문지
    • /
    • 제9권6호
    • /
    • pp.51-56
    • /
    • 2023
  • 손 제스처의 인식은 구어 사용이 어려운 사람들의 의사소통을 위한 중요한 기술이다. 제스처 인식에 널리 사용되는 근전도 신호는 사전 자세에 따라 동작이 달라지기 때문에 제스처 인식의 어려움이 있을 것으로 예상되지만, 이에 관한 연구는 찾기 어렵다. 본 연구에서는 사전 자세에 따른 제스처 인식 성능의 변화를 분석하였다. 이를 위해 총 20명의 피험자에게서 사전 자세를 가지는 동작에 대한 근전도 신호를 측정하고, 제스처 인식을 실험하였다. 그 결과, 학습 및 테스트 데이터 간 사전 상태가 단일한 경우에는 평균 89.6%의 정확도를, 상이한 경우에는 평균 52.65%의 정확도를 보였다. 반면, 사전 자세를 모두 고려한 경우에는 정확도가 다시 회복됨을 발견하였다. 이를 통해 본 연구에서는 근전도를 활용하는 손 제스처 인식시에 사전 자세가 다양하게 고려하여야 함을 실험적으로 확인하였다.

웹캠을 이용한 동적 제스쳐 인식 기반의 감성 메신저 구현 및 성능 분석 (A Implementation and Performance Analysis of Emotion Messenger Based on Dynamic Gesture Recognitions using WebCAM)

  • 이원주
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권7호
    • /
    • pp.75-81
    • /
    • 2010
  • 본 논문에서는 웹캠을 이용하여 사용자의 안면 또는 손동작을 인식하고, 그 제스쳐가 나타내는 감성(희노애락)을 플래시 콘으로 표현하여 상대방에게 전송하는 감성 메신저를 구현한다. 이 메신저는 안면 인식 모듈과 손동작 인식 모듈, 메신저 모듈로 구성된다. 안면 인식 모듈에서는 눈, 입의 각 영역을 이진 영상으로 변환하여 눈과 입의 모양 변화에 따라 윙크, 입맞춤, 하품 등을 인식한다. 또한 손동작 인식 모듈에서는 인식한 손가락 수에 따라 가위-바위-보로 인식한다. 메신저 모듈은 안면 인식 모듈과 손동작 인식 모듈에서 인식한 윙크, 입맞춤, 하품과 가위-바위-보를 플래시 콘으로 표현하여 상대방에게 전달한다. 본 논문에서는 시뮬레이션을 통하여 감성 메신저의 CPU 점유율이 최소임을 검증한다. 또한 감성 메신저의 손동작 인식 모듈의 성능이 안면 인식 모듈에 비해 우수함을 보인다.

손 자세 인식을 이용한 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템 (MPEG-U based Advanced User Interaction Interface System Using Hand Posture Recognition)

  • 한국희;이인재;최해철
    • 방송공학회논문지
    • /
    • 제19권1호
    • /
    • pp.83-95
    • /
    • 2014
  • 최근 손과 손가락을 인식하는 기술은 HCI(human computer interaction)에서 자연스럽고 친숙한 환경을 제공하기 위한 기술로 주목 받고 있다. 본 논문에서는 깊이 카메라를 이용하여 손과 손가락의 모양을 검출 및 인식하는 방법을 제안하고, 그 인식 결과를 활용하여 다양한 기기와 상호연동 할 수 있는 MPEG-U 기반 향상된 사용자 상호작용 인터페이스 시스템을 제안한다. 제안하는 시스템은 깊이 카메라를 이용하여 손을 검출한 후, 손목의 위치를 찾아 최소 손 영역을 검출한다. 이어서 검출된 최소 손 영역으로부터 손가락 끝점을 검출 한 후, 최소 손 영역의 중심점과 손가락 끝점간의 뼈대를 만든다. 이렇게 만든 뼈대의 길이와 인접 뼈대간의 각도차를 분석하여 손가락을 판별한다. 또한, 제안하는 시스템은 사용자가 MPEG-U에서 정의하는 다양한 심벌들을 손 자세로 취하였을 때 제안 방법을 이용하여 손 자세를 인식하고, 인식 결과를 상호연동 가능한 MPEG-U 스키마 구조로 표현한다. 실험에서는 다양한 환경에서 제안하는 손 자세 인식 방법의 성능을 보인다. 또한, 제안 시스템의 상호연동성을 보이기 위해 인식 결과를 MPEG-U part2 표준에 맞는 XML 문서로 표현하고, MPEG-U 참조 소프트웨어를 이용하여 그 표현 결과에 대한 표준 부합성을 검증한다.