• Title/Summary/Keyword: 제스처입력

Search Result 131, Processing Time 0.026 seconds

Gesture Recognition using Combination of Local and Global Information (로컬모션정보와 글로벌모션정보를 이용한 제스처인식)

  • 이현주;이칠우
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.277-279
    • /
    • 2003
  • 본 논문에서는 입력 시퀀스의 각 영상으로부터 신체 영역을 분리한 후 신체 영역의 2차원 특징정보들을 이용하여 제스처를 자동적으로 인식할 수 있는 알고리듬을 제안한다. 먼저, 샘플 영상들로부터 구한 2차원 특징 벡터들의 통계적 정보를 주성분 분석법으로 분석하고 제스처 모델 공간을 구성한다. 입력 영상들은 미리 구성된 모델과 비교되어지고 각각의 영상은 모델 공간의 한 부분으로 심볼화되어진다. 마지막으로 심볼 시퀀스로 형상화되어진 영상 시퀀스는 은닉 마르코프 모델(HMM)을 이용하여 하나의 제스처로 인식된다. 우리가 이용하는 2차원 특징 정보는 대략적으로 신체의 어느 부분이 움직이는지를 알 수 있는 로컬정보와 전체적인 신체 모션의 정보를 나타내는 글로벌 정보를 이용하는 것으로 실세계에서 적용하기 용이하고, 좋은 인식 결과를 얻을 수 있다.

  • PDF

Hand gesture based a pet robot control (손 제스처 기반의 애완용 로봇 제어)

  • Park, Se-Hyun;Kim, Tae-Ui;Kwon, Kyung-Su
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.13 no.4
    • /
    • pp.145-154
    • /
    • 2008
  • In this paper, we propose the pet robot control system using hand gesture recognition in image sequences acquired from a camera affixed to the pet robot. The proposed system consists of 4 steps; hand detection, feature extraction, gesture recognition and robot control. The hand region is first detected from the input images using the skin color model in HSI color space and connected component analysis. Next, the hand shape and motion features from the image sequences are extracted. Then we consider the hand shape for classification of meaning gestures. Thereafter the hand gesture is recognized by using HMMs (hidden markov models) which have the input as the quantized symbol sequence by the hand motion. Finally the pet robot is controlled by a order corresponding to the recognized hand gesture. We defined four commands of sit down, stand up, lie flat and shake hands for control of pet robot. And we show that user is able to control of pet robot through proposed system in the experiment.

  • PDF

Gesture Recognition Using HMM on Feature Subspace (저차원 특징 공간에서 HMM을 이용한 제스처 인식)

  • 이용재;이칠우
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.11a
    • /
    • pp.849-853
    • /
    • 2001
  • 본 논문에서는 연속적인 인간의 제스처 영상을 저차원 제스처 특징 공간과 HMM 이용하여 인식할 수 있는 방법에 대해 소개한다. 일반적으로 제스처 공간에서 모델 패턴들과 매칭하기 위해서는 모든 모델 영상과 연속적인 입력영상들간의 거리평가로 인식을 수행하게 된다. 여기서 제안한 방법은 연속성을 가진 모델영상들을 HMM로 포즈들의 시공간적 특성을 매칭에 이용하였다. 이 방법은 동작의 구분뿐만 인식결과를 학습에 이용할 수 있는 장점이 있다.

  • PDF

Implementing user interface through everyday gesture (일상적 행동양식을 통한 인터페이스의 구현)

  • Ahn, Jong-Yoon;Lee, Kyung-Won
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02b
    • /
    • pp.409-415
    • /
    • 2006
  • 컴퓨터와 인간사이의 원활한 의사소통 및 인터랙션을 위해 기존의 키보드, 마우스를 대체할 수 있는 다양한 입력장치들이 개발되고 있다. 하지만 정보를 탐색, 접근하는 데에 있어서 기존의 장치들은 클릭과 같은 제한적인 동작만을 입력 값으로 받아들이므로 이러한 방식에 익숙하지 않은 사용자의 입장에서는 부자연스러움을 느끼는 요인이 된다. 사용자의 제스처를 인식할 수 있는 인터페이스를 통해 일상에서 사물을 사용할 때의 행동양식을 그대로 가져올 수 있다면, 디지털 콘텐츠에 접근하는데 있어 보다 직관적이고 편리하게 컴퓨터와 의사소통 될 수 있다. 제스처는 동작의 자율성이 높고 때로 그 의미를 파악하기 모호하기 때문에 동작들을 정확히 인식하여 구분할 필요가 있다. 본 논문에서는 이를 바탕으로 효과적인 제스처 인터페이스의 구현을 위해 필요한 점들을 살펴보고, 기술적 구현을 통해 디지털 콘텐츠와의 인터랙션을 보여주고자 한다. 정보 접근에 있어 가장 익숙하고 전통적이라 할 수 있는 책의 메타포를 통해 페이지를 넘기는 행동양식을 인식할 수 있는 인터페이스를 개발하고 이를 입력장치로 사용한다. 사용자의 동작을 인식, 파악하여 책을 앞뒤로 넘기거나 탐색하며 원하는 정보에 접근할 수 있도록 유도하고 손 동작을 통한 인터페이스를 수단으로 컴퓨터와의 유연한 의사소통이 가능하도록 구현한다.

  • PDF

A Study on Hand Gesture Classification Deep learning method device based on RGBD Image (RGBD 이미지 기반 핸드제스처 분류 딥러닝 기법의 연구)

  • Park, Jong-Chan;Li, Yan;Shin, Byeong-Seok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.1173-1175
    • /
    • 2019
  • 소음이 심하거나 긴급한 상황 등에서 서로 다른 핸드제스처에 대한 인식을 컴퓨터의 입력으로 받고 이를 특정 명령으로 인식하는 등의 연구가 로봇 분야에서 연구되고 있다. 그러나 핸드제스처에 대한 전처리 과정에서 RGB데이터를 활용하거나 또는 스켈레톤을 활용하는 연구들이 다양하게 연구되었지만, 실생활에서의 노이즈가 많아 분류 정확도가 높지 않거나 컴퓨팅 파워의 사용이 과다한 문제가 발생했다. 본 논문에서는 RGBD 이미지를 사용하여 Hand Gesture를 트레이닝 받은 Keras 모델을 통해 입력받은 Hand Gesture을 분류하는 연구를 진행하였다. Depth Camera를 통하여 입력받은 Hand Gesture Raw-Data를 Image로 재구성하여 딥러닝을 진행하였다.

Hidden Markov Model for Gesture Recognition (제스처 인식을 위한 은닉 마르코프 모델)

  • Park, Hye-Sun;Kim, Eun-Yi;Kim, Hang-Joon
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.43 no.1 s.307
    • /
    • pp.17-26
    • /
    • 2006
  • This paper proposes a novel hidden Markov model (HMM)-based gesture recognition method and applies it to an HCI to control a computer game. The novelty of the proposed method is two-fold: 1) the proposed method uses a continuous streaming of human motion as the input to the HMM instead of isolated data sequences or pre-segmented sequences of data and 2) the gesture segmentation and recognition are performed simultaneously. The proposed method consists of a single HMM composed of thirteen gesture-specific HMMs that independently recognize certain gestures. It takes a continuous stream of pose symbols as an input, where a pose is composed of coordinates that indicate the face, left hand, and right hand. Whenever a new input Pose arrives, the HMM continuously updates its state probabilities, then recognizes a gesture if the probability of a distinctive state exceeds a predefined threshold. To assess the validity of the proposed method, it was applied to a real game, Quake II, and the results demonstrated that the proposed HMM could provide very useful information to enhance the discrimination between different classes and reduce the computational cost.

Recognizing Human Facial Expressions and Gesture from Image Sequence (연속 영상에서의 얼굴표정 및 제스처 인식)

  • 한영환;홍승홍
    • Journal of Biomedical Engineering Research
    • /
    • v.20 no.4
    • /
    • pp.419-425
    • /
    • 1999
  • In this paper, we present an algorithm of real time facial expression and gesture recognition for image sequence on the gray level. A mixture algorithm of a template matching and knowledge based geometrical consideration of a face were adapted to locate the face area in input image. And optical flow method applied on the area to recognize facial expressions. Also, we suggest hand area detection algorithm form a background image by analyzing entropy in an image. With modified hand area detection algorithm, it was possible to recognize hand gestures from it. As a results, the experiments showed that the suggested algorithm was good at recognizing one's facial expression and hand gesture by detecting a dominant motion area on images without getting any limits from the background image.

  • PDF

State-of-the-Art on Gesture Sensing Technology Based on Infrared Proximity Sensor (적외선 근접센서 기반 제스처 센싱기술 동향)

  • Suk, J.H.;Jeon, Y.D.;Lyuh, C.G.
    • Electronics and Telecommunications Trends
    • /
    • v.30 no.6
    • /
    • pp.31-41
    • /
    • 2015
  • 사람은 User Interface(UI)를 통해 기기와 접촉하고 활용하며, 서비스를 제공받는다. 대부분의 입력 도구들은 사용자의 접촉을 필요로 하기 때문에 기기에 접촉이 불가능한 상황에서는 사용자의 의도를 기기에 전달하기 어렵다. 본고에서는 접촉 없이 사용자 입력을 가능하게 하는 기술 중 적외선 근접센서에 기반을 둔 제스처 센싱기술을 소개한다.

  • PDF

Kinect 센서를 활용한 제스처 수화인식 시스템

  • O, Dong-Sik;Sin, Min-Ho
    • Korea Information Processing Society Review
    • /
    • v.20 no.3
    • /
    • pp.45-49
    • /
    • 2013
  • 현재 전 세계 적으로 미래 수익 사업의 일환으로 각광받고 있는 분야 중 하나는 GUS(guestures user interface) 이다. GUS는 키넥트 장비가 도입된 이후 빠르게 발전하여 의학, 로봇, 유통 분야로 까지 융합되고 있으며, 오랫동안 PC의 입력장치로 활용되어 온 마우스의 차세대 대용 입력장치로 서서히 두각을 나타내고 있다 본 연구주제는 GUS의 한 방식인 키넥트를 활용하여 장애인과 비장애인과의 소통을 원활하게 할 수 있는 키넥트 센서를 활용하여 제스처 한국형 수화인식 시스템을 연구개발 하는데 있다.

  • PDF

State-of-the-Art on Gesture Sensing Technology Based on Infrared Proximity Sensor (스마트폰 시장동향 - 적외선 근접센서 기반 제스처 센싱기술 동향)

  • Suk, J.H.;Jeon, J.D.;Lyuh, C.G.
    • The Optical Journal
    • /
    • s.161
    • /
    • pp.58-73
    • /
    • 2016
  • 사람은 User Interface(UI)를 통해 기기와 접촉하고, 활용하며 서비스를 제공받는다. 대부분의 입력 도구들은 사용자의 접촉을 필요로 하기 때문에 기기에 접촉이 불가능한 상황에서는 사용자의 의도를 기기에 전달하기 어렵다. 본고에서는 접촉 없이 사용자의 입력을 가능하게 하는 기술 중 적외선 근접센서에 기반을 둔 제스처 센싱기술을 소개한다.

  • PDF