• Title/Summary/Keyword: 제스처 제안

Search Result 265, Processing Time 0.029 seconds

A Study on Design and Implementation of Gesture Proposal System (제스처 제안 시스템의 설계 및 구현에 관한 연구)

  • Moon, Sung-Hyun;Yoon, Tae-Hyun;Hwang, In-Sung;Kim, Seok-Kyoo;Park, Jun;Han, Sang-Yong
    • Journal of Korea Multimedia Society
    • /
    • v.14 no.10
    • /
    • pp.1311-1322
    • /
    • 2011
  • Gesture is applied in many applications such as smart-phone, tablet-PC, and web-browser since it is a fast and simple way to invoke commands. For gesture applications, a gesture designer needs to consider both user and system during designing gestures. In spite of development of gesture design tools, some difficulties for gesture design still remains as followings; first, a designer must design every gesture manually one by one, and, second, a designer must repeatedly train gestures. In this paper, we propose a gesture proposal system that automates gesture training and gesture generation to provide more simple gesture design environment. Using automation of gesture training, a designer does not need to manually train gestures. Proposed gesture proposal system would decrease difficulties of gesture design by suggesting gestures of high recognition possibility that are generated based on mahalanobis distance calculation among generated and pre-existing gestures.

Gesture-based User-Interface Through Hand-region Detection and Hand-movement Recognition (손영역 획득과 손동작 인식에 의한 제스처 기반 사용자 인터페이스의 구현)

  • Ko, Il-Ju;Bae, Young-Lae;Choi, Hyung-Il
    • Korean Journal of Cognitive Science
    • /
    • v.8 no.4
    • /
    • pp.35-53
    • /
    • 1997
  • 본 논문은 컴퓨터 시각을 이용하여 제스처를 인식함으로써 사용자에게 보다 편리한 인터페이스를 제공하는 것을 목표로 한다. 제안하는 제스처 인식 방법은 손영역을 획득하는 손영역 획득 모듈?손영역을 인식하는 인식 모듈로 나누어 수행한다. 손영역 획득 모듈에서는 손색상 모델?손색상 결정함수를 정의하여 칼라영상의 영역 분리를 수행하였고, 칼만필터를 이용하여 손색상 모델을 갱신하고 탐색영역을 제한하여 영역 추적을 용이하게 하였다. 영역 추적은 전 시점의 손영역 정보를 이용하여 현 시점의 손영역을 획득한다. 인식 모듈에서는 정적인 제스처를 표현하는 객체 프레임?행동 프레임, 그리고 동적인 제스처를 표현하는 스키마를 정의한다. 그리고 획득된 손영역?정합을 수행함으로써 제스처를 인식한다. 실험 결갬灌?제안하는 제스처 기반 인터페이스를 적용한 삼목(Tic-Tac-Toe) 게임 프로그램을 구현하였다. 사용자는 제스처를 이용하여 컴퓨터와 게임을 진행한다. 제안하는 시스템은 다른 종류의 게임 프로그램이나 마우스의 역할을 수행하는 윈도우 시스템의 제어, 그리고 가상 현실 시스템에 적용될 수 있다.

  • PDF

A Gesture-based interface for interactive computer games (게임을 위한 제스처 기반의 인터페이스)

  • Park, Hye-Sun;Kang, Hyun;Jung, Kee-Chul;Kim, Eun-Yi;Park, Min-Ho;Kim, Hang-Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.631-633
    • /
    • 2003
  • 본 논문에서는 사용자의 연속적인 제스처들을 실시간으로 제스처를 적출하고 인식하는 게임 인터페이스를 제안한다. 제안된 인터페이스는 동영상에서 사용자의 자세를 예측하는 포즈 추정 모듈과 연속된 포즈 심벌열로부터 제스처를 적출하고 인식하는 제스처 인식 모듈로 구성되어 있다. 사용자의 자세는 영상에 나타난 머리, 양손의 좌표를 취하여 대표되는 자세를 클러스터링을 통해 구하였다. 제스처를 적출하기 위해서 연속된 포즈 심벌열로부터 가제스처들을 생성한다. 생성된 가제스처의 인식엔진의 인식값을 기준으로하여 제스처를 판별한다. 제안된 논문에서 정의한 제스처를 인터페이스로 사용하여 실제 게임인 퀘이크II에 적용해 봄으로써, 컴퓨터 게임 안에서, 제안된 인터페이스가 타탕함을 증명하였다.

  • PDF

Smartphone Accelerometer-Based Gesture Recognition and its Robotic Application (스마트폰 가속도 센서 기반의 제스처 인식과 로봇 응용)

  • Nam, Sang-Ha;Kim, Joo-Hee;Heo, Se-Kyeong;Kim, In-Cheol
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.2 no.6
    • /
    • pp.395-402
    • /
    • 2013
  • We propose an accelerometer-based gesture recognition method for smartphone users. In our method, similarities between a new time series accelerometer data and each gesture exemplar are computed with DTW algorithm, and then the best matching gesture is determined based on k-NN algorithm. In order to investigate the performance of our method, we implemented a gesture recognition program working on an Android smartphone and a gesture-based teleoperating robot system. Through a set of user-mixed and user-independent experiments, we showed that the proposed method and implementation have high performance and scalability.

Intelligent Gesture Interface Using Context Awareness (상황 인지 방법을 이용한 지능형 제스처 인터페이스)

  • Oh, Jae-Yong;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.130-135
    • /
    • 2006
  • 본 논문에서는 상황 인지(Context Aware)를 이용한 제스처 인식 방법에 대하여 기술한다. 기존의 인식 방법들은 대부분 제스처의 개별적인 의미를 중심으로 제스처를 분류하는 방법을 사용한다. 그러나 이러한 방법들은 인식 알고리즘을 일반화하는데 있어서 다음과 같은 문제점들을 가지고 있다. 첫째, 인간의 모든 제스처를 제한된 특징으로 모호하지 않게 구별하기 어렵다. 둘째, 같은 제스처라 할지라도 상황에 따라 다른 의미를 내포할 수 있다. 이러한 문제점들을 해결하고자 본 논문에서는 확률 기반의 상황 인지 모델을 이용한 제스처 인식 방법을 제안한다. 이 방법은 제스처의 개별적인 의미를 인식하기 전에 대상의 상황을 추상적으로 분류함으로써 행위자의 의도를 정확히 파악할 수 있다. 본 방법은 시스템의 상태를 [NULL], [OBJECT], [POSTURE], [GLOBAL], [LOCAL]의 5 가지 상태로 정의한 뒤, 각 상태의 천이를 바탕으로 대상의 상황을 판단한다. 이러한 상황 정보에 따라 각 상태에 최적화된 인식 알고리즘을 적용함으로써 지능적인 제스처 인식을 수행할 수 있으며, 기존 방법들이 갖는 제스처 인식의 제약을 완화 시키는 효과가 있다. 따라서, 제안하는 제스처 인터페이스는 자연스러운 상호 작용이 필요한 지능형 정보 가전 혹은 지능형 로봇의 HCI 로 활용될 수 있을 것이다.

  • PDF

Gesture recognition with wearable device based on deep learning (딥러닝 기반의 웨어러블 디바이스에서의 제스처 인식)

  • Byeon, Seong-U;Lee, Seok-Pil;Kim, Geon-Nyeon;Han, Sang-Hyeon
    • Broadcasting and Media Magazine
    • /
    • v.22 no.1
    • /
    • pp.10-18
    • /
    • 2017
  • 본 연구는 비접촉식 센서 기반의 웨어러블 디바이스를 이용한 딥러닝 기반의 제스처 인식에 대한 연구이다. 이를 위하여 Flexible MSG 센서를 기반으로 한 Flexible Epidermal Tactile Sensor를 사용하였으며, Flexible Epidermal Tactile Sensor는 손, 손가락 제스처를 취했을 때 손목, 손가락과 연결되어 있는 근육들의 움직임에 따라 발생하는 피부 표면의 전극을 취득하는 센서이다. 실험을 위하여 7가지 손, 손가락 제스처를 정의하였으며, 손목의 꺾임, 손목의 뒤틀림, 손가락의 오므림과 펴짐, 아무 동작도 취하지 않은 기본 상태에 대한 제스처로 정의하였다. 실험 데이터 수집에는 손목이나 손가락에 부상, 장애등이 없는 일반적인 8명의 참가자가 참가하였으며 각각 한 제스처에 대하여 20번씩 반복하여 1120개의 샘플을 수집하였다. 입력신호에 대한 제스처를 학습하기 위해 본 논문에서는 1차원 Convolutional Neural Network를 제안하였으며, 성능 비교를 위해 신호의 크기를 반영하는 특징벡터인 Integral Absolute Value와 Difference Absolute Mean Value를 입력신호에서 추출하고 Support Vector Machine을 사용하여 본 논문에서 제안한 1차원 CNN과 성능비교를 하였다. 그 결과 본 논문에서 제안한 1차원 CNN의 분류 정확도가 우수한 성능을 나타냈다.

A Hierarchical Bayesian Network for Real-Time Continuous Hand Gesture Recognition (연속적인 손 제스처의 실시간 인식을 위한 계층적 베이지안 네트워크)

  • Huh, Sung-Ju;Lee, Seong-Whan
    • Journal of KIISE:Software and Applications
    • /
    • v.36 no.12
    • /
    • pp.1028-1033
    • /
    • 2009
  • This paper presents a real-time hand gesture recognition approach for controlling a computer. We define hand gestures as continuous hand postures and their movements for easy expression of various gestures and propose a Two-layered Bayesian Network (TBN) to recognize those gestures. The proposed method can compensate an incorrectly recognized hand posture and its location via the preceding and following information. In order to vertify the usefulness of the proposed method, we implemented a Virtual Mouse interface, the gesture-based interface of a physical mouse device. In experiments, the proposed method showed a recognition rate of 94.8% and 88.1% for a simple and cluttered background, respectively. This outperforms the previous HMM-based method, which had results of 92.4% and 83.3%, respectively, under the same conditions.

Vision-Based Two-Arm Gesture Recognition by Using Longest Common Subsequence (최대 공통 부열을 이용한 비전 기반의 양팔 제스처 인식)

  • Choi, Cheol-Min;Ahn, Jung-Ho;Byun, Hye-Ran
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.33 no.5C
    • /
    • pp.371-377
    • /
    • 2008
  • In this paper, we present a framework for vision-based two-arm gesture recognition. To capture the motion information of the hands, we perform color-based tracking algorithm using adaptive kernel for each frame. And a feature selection algorithm is performed to classify the motion information into four different phrases. By using gesture phrase information, we build a gesture model which consists of a probability of the symbols and a symbol sequence which is learned from the longest common subsequence. Finally, we present a similarity measurement for two-arm gesture recognition by using the proposed gesture models. In the experimental results, we show the efficiency of the proposed feature selection method, and the simplicity and the robustness of the recognition algorithm.

Gesture Recognition Using a 3D Skeleton Model (3D Skeleton Model을 이용한 제스처 인식)

  • Ahn, Yang-Keun;Jung, Kwnag-Mo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1677-1678
    • /
    • 2015
  • 본 논문에서는 3D Skeleton Model로부터 획득된 관절 정보를 이용하여 제스처를 인식할 수 있는 방법을 제안한다. 사람의 신체 크기나 비율은 다르더라도 구조는 같다는 사실을 바탕으로, 관절과 관절이 이루는 각도를 이용해 제스처를 인식한다. 몇 가지 제스처를 선정한 뒤, 실험을 통해 제안한 방법의 인식률을 측정해 보았다. 또한 동적 제스처 인식을 위한 기초를 다지기 위해 이동 방향과 이동 거리, 이동 위치를 측정하는 실험을 해 보았다.

Robot Control using Vision based Hand Gesture Recognition (비전기반 손 제스처 인식을 통한 로봇 컨트롤)

  • Kim, Dae-Soo;Kang, Hang-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.197-200
    • /
    • 2007
  • 본 논문에서는 로봇 컨트롤 시스템을 위해 입력 받은 영상부터 몇 가지의 손 제스처를 인식하는 비전기반 손 제스처 인식방법을 제안한다. 로봇으로부터 입력 받은 이미지는 로봇의 위치, 주변환경, 조명 등 여러 요인에 따라 다양하게 존재한다. 본 논문은 다양한 환경에서 입력되는 영상으로부터 시스템이 로봇 컨트롤을 위해 미리 지정한 몇 가지 제스처를 인식하도록 한다. 먼저 이미지 조명 변화에 강한 손 제스처 인식을 위하여 레티넥스 이미지 정규화를 적용한 후, YCrCb 공간 상에서 입력된 영상에서 손 영역을 검출 후 위치를 추정한다. 인식된 손 영역에서 특징벡터를 추출함으로서 입력 영상내의 존재할 수 있는 손의 크기나 손의 회전각도 등에 상관없이 필요로 하는 제스처를 인식하도록 한다. 제안된 제스처 인식 결과는 로봇컨트롤을 위한 기존의 제스처인식과 비교하여 성능을 측정하였다.

  • PDF