• 제목/요약/키워드: 제스처 인식

검색결과 329건 처리시간 0.027초

최대 공통 부열을 이용한 비전 기반의 양팔 제스처 인식 (Vision-Based Two-Arm Gesture Recognition by Using Longest Common Subsequence)

  • 최철민;안정호;변혜란
    • 한국통신학회논문지
    • /
    • 제33권5C호
    • /
    • pp.371-377
    • /
    • 2008
  • 본 논문은 비전에 기반한 사람의 양팔 제스처의 모델링과 인식에 관한 연구이다. 우리는 양팔 제스처 인식을 위한 특징점의 추출에서부터 제스처의 분류에 이르는 전체적 틀을 제안하였다. 먼저, 양팔 제스처의 모델링을 위해 색채 기반의 양손 추적 방법을 제안하였고, 추출된 양손의 궤적 정보를 효과적으로 선택하게 하는 제스처 구(Phrase) 분석법을 제시하였다. 선택된 특징 점들의 시퀀스(sequence) 들로 이루어진 훈련 데이터들의 최대 공통부열(Longest Common Subsequence) 정보를 이용하여 제스처를 모델링하고 이에 따른 유사도 척도를 제안하였다. 제안된 방법론을 공항 등에서 이용하는 항공기 유도 수신호에 적용하였고, 실험을 통해 제안된 방법론의 효율성과 인식성능을 보였다.

무대 공연을 위한 제스처 인식 기반 동적 프로젝션 맵핑 프레임워크 구현 (Implementation of Dynamic Projection Mapping Framework based on Gesture Recognition for Stage Performance)

  • 고유진;김태원;최유주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.633-634
    • /
    • 2020
  • 본 논문에서는 미디어영상을 기반한 무대 공연의 다양한 미디어 효과를 분석하고, 무대 공연을 위한 제스처 기반 동적 프로젝션 맵핑 프레임워크를 설계 구현한다. 이를 위하여, 동적 프로젝션 맵핑 기반 기존 공연에서 공연자의 제스처와 이에 따른 미디어 효과를 분석하고, 동적 프로젝션 맵핑기술을 효율적으로 구현하기 위하여 모션 히스토리 이미지를 이용한 CNN(Convolutional Neural Network) 기반의 제스처 인식 기술을 구현한다. 또한, 구현된 제스처인식 기술을 기반으로 공연자의 서로 다른 제스처와 미디어 효과를 매칭시킬 수 있는 프레임 워크 구현 내용을 소개한다.

손 제스처 기반의 애완용 로봇 제어 (Hand gesture based a pet robot control)

  • 박세현;김태의;권경수
    • 한국산업정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.145-154
    • /
    • 2008
  • 본 논문에서는 애완용 로봇에 장착된 카메라로부터 획득된 연속 영상에서 사용자의 손 제스처를 인식하여 로봇을 제어하는 시스템을 제안한다. 제안된 시스템은 손 검출, 특징 추출, 제스처 인식 로봇 제어의 4단계로 구성된다. 먼저 카메라로부터 입력된 영상에서 HSI 색상공간에 정의된 피부색 모델과 연결성분 분석을 이용하여 손 영역을 검출한다. 다음은 연속 영상에서 손 영역의 모양과 움직임에 따른 특징을 추출한다. 이때 의미 있는 제스처의 구분을 위해 손의 모양을 고려한다. 그 후에 손의 움직임에 의해 양자화된 심볼들을 입력으로 하는 은닉 마르코프 모델을 이용하여 손 제스처는 인식된다. 마지막으로 인식된 제스처에 대응하는 명령에 따라 애완용 로봇이 동작하게 된다. 애완용 로봇을 제어하기 위한 명령으로 앉아, 일어서, 엎드려, 악수 등의 제스처를 정의하였다. 실험결과로 제안한 시스템을 이용하여 사용자가 제스처로 애완용 로봇을 제어 할 수 있음을 보였다.

  • PDF

스테레오 카메라를 이용한 동작 인식 인터페이스에 관한 연구 (A Study on Gesture Recognition Interface System using Stereo Camera)

  • 장영대;박지헌
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.97-100
    • /
    • 2007
  • 이 논문에서는 비전 시스템 기반 동작 인식 인터페이스 시스템으로 스테레오 카메라와 동적 제스처를 이용한 방식을 제안한다. 스테레오 카메라로부터 얻은 영상으로 손의 3차원 위치를 검출하고 이를 바탕으로 손의 동작을 추적하고 이를 인식함으로써 동적 제스처에 기반 한 동작 인식 방법을 제시한다. 이러한 깊이에 따른 제스처 동작을 인식하는 방법으로 단순한 컨트롤러부터 IPTV 제어나 가상의 마우스 제작이 가능한 본질적으로 편하고 자연스러운 인터페이스 구현 방향을 제시한다.

  • PDF

얼굴의 포즈정보를 이용한 헤드 제스처 인식에 관한 연구 (The Recognition of Head Gestures using Face Pose Information)

  • 김정연;박형철;전병환
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2000년도 춘계정기학술대회 e-Business를 위한 지능형 정보기술 / 한국지능정보시스템학회
    • /
    • pp.463-468
    • /
    • 2000
  • 본 논문에서는 얼굴의 9가지 상태를 인식하고 이를 상태 시퀀스로 생성한 후, 오토마타 기법을 적용하여 13가지(준비, 상측, 하측, 좌측, 우측, 전진, 후퇴, 좌 윙크, 우 윙크, 좌 더블 윙크, 우 더블 윙크, 긍정, 부정) 헤드 제스처를 인식하는 방법을 제안한다. 얼굴 영역을 추출하는 방법에서는 최적의 얼굴색 정보와 적응적 움직임 정보를 이용하여 얼굴 영역을 추출한다. 눈의 후보 영역을 추출하는 방법에서는 소벨 연산자와 투영 기법을 이용한다. 이 때 눈의 후보들을 제거하기 위하여 눈의 기하학적 정보와 눈은 쌍으로 존재한다는 정보를 이용한다. 얼굴의 상태를 인식하기 위해서는 계층적인 특징분석 방법을 사용한다. 13가지 헤드 제스처는 얼굴 상태 인식의 처리에서 생성된 상태 시퀀스를 이용한 오토마타 기법에 의해 인식된다. 실험 결과, 93.3%의 헤드제스처 인식률을 얻었다.

  • PDF

인터액티브 가상 환경을 위한 손 제스처 인식 시스템 (A Hand Gesture Recognition System for Interactive Virtual Environment)

  • 조오영;김형곤;고성제;안상철
    • 전자공학회논문지S
    • /
    • 제36S권4호
    • /
    • pp.70-82
    • /
    • 1999
  • 본 논문에서는 복잡한 영상에서 추출해낸 손 영역으로부터 제스처를 인식하여 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)을 위한 보다 자연스러운 인터페이스를 제공한다. 제안하는 방법은 정규화된 RGB 색상 공간에 정의한 피부색의 가우시안 분포를 이용해 조명의 변화나 개인의 차이에도 안정적으로 손 영역을 추출하며, 배경에 대한 상대적인 움직임을 이용해 복잡한 영상에서도 효과적으로 손 영역을 추출해 낸다. 추출된 손 영역은 RBF(Radial Basis Function) 신경망을 이용해 각 제스처로 인식된다. 가상 환경과의 상호작용을 제공하기 위해 두 종류의 기본적인 정적 제스처들을 정의하며 간단한 구문론적 규칙을 사용해 하나 이상의 인식 결과들을 조합함으로써 적은 수의 제스처들만으로 보다 효율적이고 다양한 상호작용이 가능하게 한다. 제안하는 시스템은 TM320C80 DSP 칩을 사용하여 구현되었으며 300×240 영상을 12Hz로 처리함으로써 빠른 속도로 가상 환경의 인터페이스를 제공한다.

  • PDF

타이젠 프레임워크 가속도계 센서를 이용한 제스처 인식기능 확장 (Extension of Gesture Recognition Function Using Tizen Framework Accelerometer Sensor)

  • 이성준;신병석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.1086-1087
    • /
    • 2017
  • 타이젠은 오픈 소스 소프트웨어 플랫폼이다. 타이젠 SDK를 통해 개발자는 타이젠 프레임워크 상에서 동작하는 애플리케이션을 손쉽게 구현할 수 있다. 그러나 타이젠 SDK에서는 제스처를 인식하는 API를 제공하지 않는다. 따라서 제스처를 이용한 앱을 개발하기 위해서는 앱 개발자가 센서 값을 분석해 제스처를 인식하는 기능을 구현해야 한다. 여기서는 제스처를 인식하는 기능을 기존 플랫폼에 추가해 앱 개발 시간을 단축한 구현사례를 소개한다.

HMM을 이용한 제스처 기반의 게임 인터페이스 (A Gesture-based Game Interface using HMM)

  • 장상수;박혜선;김상호;김항준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 봄 학술발표논문집 Vol.31 No.1 (B)
    • /
    • pp.496-498
    • /
    • 2004
  • 본 논문에서는 컴퓨터 액션 게임 중에 하나인, 퀘이크 II 게임을 위한 제스처 기반의 인터페이스를 제안한다. 제안된 인터페이스는 연속된 입력 영상열로부터 재스처를 검출하고 인식하기 위해 HMM 올 사용한다. 먼저 재스처를 검출하기 위해 입력 영상열로부터 포즈 심볼열을 추출하여 사용한다. 인식하기 위해 사용된 HMM은 추출된 포즈 심볼을 입력받아, 상태 확률값을 계산하여 계속적으로 갱신한다 이때 갱신되는 상태 확률값 중에 각 제스처에 속하는 특정상태의 확률값이, 미리 정의된 임계간과 비교하여 초과하면 검출되고 인식된다. 현재 제안된 시스템은 실제 퀘이크 II 게임에서 키보드버튼과 마우스를 통해 입력되는 명령어들 중에서 게임을 진행하기 위해 먼저 필요한 움지임과 시점 변환에 관계되는 명령어들을 13 개의 제스처로 표현하고 이 제스처 명령어를 검출하고 인식한다.

  • PDF

가속도 센서 데이터를 이용한 스마트폰 사용자의 제스처 인식 (Gesture Recognition from Accelerometer Data on a Smartphone)

  • 남상하;김주희;허세경;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.385-388
    • /
    • 2012
  • 본 논문에서는 스마트 폰에 내장된 3축 가속도 센서를 이용해 제스처 훈련 및 테스터 데이터를 수집하고, DTW(Dynamic Time Warping) 알고리즘을 근간으로 하는 효과적인 제스처 인식 방법을 제안한다. 본 논문에서 제안하는 제스처 인식 방법의 성능을 분석하기 위해 안드로이드 스마트 폰에서 동작하는 제스처 인식 프로그램을 개발하였고, 이것을 이용해 수행한 성능실험 결과를 소개한다.

HMM인식기 상에서 방향, 속도 및 공간 특징량에 따른 제스처 인식 성능 비교 ((A Comparison of Gesture Recognition Performance Based on Feature Spaces of Angle, Velocity and Location in HMM Model))

  • 윤호섭;양현승
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권5_6호
    • /
    • pp.430-443
    • /
    • 2003
  • 본 논문은 카메라로부터 획득된 영상 시퀀스로부터 얻어진 제스처 궤적 정보를 바탕으로 가장 기본적인 방향, 속도 및 공간 특징을 추출한 후, 각각의 특징 정보들의 인식 결과를 비교하여 어떠한 정보가 가장 유용한지 평가한다. 이를 위해 제스처 궤적 추적을 위해선 컬러 정보 및 모션 정보를 사용하였고, 인식모델로는 시간 데이타 처리에 적합한 HMM을 구성하였다. 실험을 위한 제스처 DB로는 인식하고자 하는 그래픽, 숫자, 알파벳모양의 48개 제스처에 대해 20명으로부터 5개씩 총 4800개의 데이타를 구축하였다.