• Title/Summary/Keyword: hand gesture

Search Result 402, Processing Time 0.034 seconds

Hand Gesture Recognition Using Curvature Scale Space Map of Depth Edges (깊이 에지 기반의 Curvature Scale Space Map을 이용한 손 제스처 인식)

  • Yi, Chang-Ju;Yi, June-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.731-734
    • /
    • 2007
  • 본 연구는 구조광 기반의 깊이 에지를 이용하여 조명의 변화와 복잡한 배경에 상관없이 손 제스처의 외곽선 영상을 안정적으로 획득하였고, 제스처 영상을 표현하기 위하여 Curvature Scale Space(CSS) map을 이용하였다. 기존의 CSS map은 외곽선 영상의 깊은 굴곡과 완만한 굴곡을 잘 구분하지 못하는 문제점이 있었으나, 본 연구에서는 이러한 문제점을 분석하고, 이를 개선하기 위해서 각도 좌표를 이용한 CSS map 생성 방법을 제안하였다. 실험을 통해서 제안한 방법이 기존의 CSS map보다 우수한 인식 성능이 있음을 보였다.

  • PDF

Dynamic Hand Gesture Recognition Using a CNN Model with 3D Receptive Fields (3 차원 수용영역 구조의 CNN 모델을 이용한 동적 수신호 인식 기법)

  • Park, Jin-Hee;Lee, Joseph S.;Kim, Ho-Joon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.459-462
    • /
    • 2007
  • 본 연구에서는 동적 수신호 인식문제를 위하여 CNN 모델을 사용한 특징추출 기법과, FMM 신경망을 사용한 특징 분석 기법을 상호 결합한 형태의 패턴 인식 모델을 제안한다. 수신호 인식을 위하여 영상패턴에서 대상물의 움직임 정보에 기초한 3 차원 형식의 데이터 표현 기법과, 이로부터 인식을 위한 특징추출 기법을 제시한다. 특징추출 모듈에서는 3 차원으로 확장된 구조의 수용영역을 고려한 CNN 모델을 제안하며, 이로부터 학습패턴에서 특징점의 공간적 변이에 대한 영향을 최소화할 수 있음을 고찰한다. 또한 인식효율의 개선을 위하여 방대한 양의 특징집합으로부터 효과적인 특징을 선별하기 위한 방법론으로서 WFMM 모델 기반의 특징분석 기법을 정의하고 이로부터 선별된 특징을 사용하는 인식 기법을 소개한다.

  • PDF

A Hand Gesture Recognition System for Interactive Virtual Environment (인터액티브 가상 환경을 위한 손 제스처 인식 시스템)

  • 조오영;김형곤;고성제;안상철
    • Journal of the Korean Institute of Telematics and Electronics S
    • /
    • v.36S no.4
    • /
    • pp.70-82
    • /
    • 1999
  • 본 논문에서는 복잡한 영상에서 추출해낸 손 영역으로부터 제스처를 인식하여 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)을 위한 보다 자연스러운 인터페이스를 제공한다. 제안하는 방법은 정규화된 RGB 색상 공간에 정의한 피부색의 가우시안 분포를 이용해 조명의 변화나 개인의 차이에도 안정적으로 손 영역을 추출하며, 배경에 대한 상대적인 움직임을 이용해 복잡한 영상에서도 효과적으로 손 영역을 추출해 낸다. 추출된 손 영역은 RBF(Radial Basis Function) 신경망을 이용해 각 제스처로 인식된다. 가상 환경과의 상호작용을 제공하기 위해 두 종류의 기본적인 정적 제스처들을 정의하며 간단한 구문론적 규칙을 사용해 하나 이상의 인식 결과들을 조합함으로써 적은 수의 제스처들만으로 보다 효율적이고 다양한 상호작용이 가능하게 한다. 제안하는 시스템은 TM320C80 DSP 칩을 사용하여 구현되었으며 300×240 영상을 12Hz로 처리함으로써 빠른 속도로 가상 환경의 인터페이스를 제공한다.

  • PDF

Immersive Electronic Cooking System on Table Top Display (테이블 탑 디스플레이 기반 실감형 전자 요리 시스템)

  • Jang, Han-Byul;Kim, Song-Gook;Kim, Jang-Woon;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.561-566
    • /
    • 2007
  • 본 논문에서는 실감형 요리 시스템의 제작에 대하여 기술한다. 실감형 요리 시스템은 요리를 만드는 과정을 컴퓨터를 이용해 가상적으로 체험해 볼 수 있게 한다. 증강현실 기술을 이용, 모의부엌에서 요리 재료 카드를 인식함으로써 요리재료를 요리 용기에 투입하고 투입된 요리 재료는 증강현실 부엌에 나타나게 된다. 또한 멀티 터치가 가능한 지능형 인터페이스 플랫폼인 테이블 탑 디스플레이를 기반으로 증강현실 오브젝트와 사용자가 서로 상호작용할 수 있도록 한다. 테이블 탑 디스플레이에서의 터치와 hand gesture를 인식하여 맨손의 손동작에 의해 상호작용을 구현한다. 이 시스템은 특히 어린이들을 대상으로 하여 실감나는 요리 체험을 할 수 있으며, 요리 과정을 보다 효과적으로 학습하는데 활용될 수 있다.

  • PDF

CNN-Based Hand Gesture Recognition for Wearable Applications (웨어러블 응용을 위한 CNN 기반 손 제스처 인식)

  • Moon, Hyeonchul;Yang, Anna;Chun, Sungmoon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.11a
    • /
    • pp.58-59
    • /
    • 2017
  • 손 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)를 구현하기 위한 수단으로 주목받고 있다. 최근 손 제스처 인식에서의 인식률 개선을 위하여 다양한 인식기법이 제안되고 있으며, 딥러닝 기반의 손 제스처 인식 기법 또한 활발히 연구되고 있다. 본 눈문에서는 웨어러블 기기에서의 미디어 소비 등 다양한 응용을 위하여 CNN(Convolutional Neural Network) 기반의 손 제스처 인식 기법을 제시한다. 제시된 기법은 스테레오 영상으로부터 깊이 정보와 색 정보를 이용하여 손 윤곽선을 검출하고, 검출된 손 윤곽선 영상을 데이터 셋으로 구성하여 CNN 에 학습을 시킨 후, 이를 바탕으로 손 윤곽선 영상으로부터 제스처를 인식하는 알고리즘을 제안한다.

  • PDF

Natural hand gesture-based medical imaging interface for surgical environments (수술환경에 적합한 자연스러운 손동작 기반 의료 영상 제어 인터페이스)

  • Lee, Daeseon;Choi, Junyeong;Seo, Byung-Kuk;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.62-63
    • /
    • 2013
  • 본 논문에서는 실제 수술환경에서 자연스러운 손 동작을 이용해 의료영상을 제어하고 동시에 관심 있는 환부의 영상을 획득할 수 있는 인터페이스를 제안한다. 특히 제안하는 인터페이스는 손을 들어올리는 등의 수술을 방해하는 동작을 강요하지 않음으로써 자연스러운 상호작용을 가능하게 하며, 또한 수술 영역에 수술 부위를 표시하고 저장하는 것과 같은 부가적인 기능을 제공하여 의사의 수술여건과 편의를 보장한다.

  • PDF

A Development of Intuitive Single-Hand Gesture Interface For writing Hangul by Leap motion (립모션 기반의 직관적 한글 입력 핸드 제스처 인터페이스 개발)

  • Kim, Seonghyeon;Kim, Daecheon;Park, Yechan;Yeom, Sanggil;Choo, Hyunseung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.768-770
    • /
    • 2016
  • 현재 NUI(Natural User Interface)는 차세대 입력 방식으로 주목을 받고 있다. 이미 한글 입력에 관한 NUI가 다양하게 연구 및 개발되고 있지만, 한글 입력 NUI는 직관성과 정확도의 부족과 불완전한 인식률 등의 한계점이 존재한다. 본 연구에서는 사용자의 핸드 제스처를 인식하기 위해 Leap Motion 장치를 사용하고, 한글의 글자 조합 원리를 바탕으로 자음과 모음 입력의 제스처를 분리하여 인식의 정확도를 높인다. 그리고 모음의 방향성을 참고하여 한글 입력에 직관성을 향상할 수 있는 핸드 제스처를 연구한다. 이를 통해 사용자가 NUI 환경의 디바이스를 좀 더 정확하고 빠르게 조작할 수 있도록 돕는다.

Vision-based 3D Hand Gesture Recognition for Human-Robot Interaction (휴먼-로봇 상호작용을 위한 비전 기반3차원 손 제스처 인식)

  • Roh, Myung-Cheol;Chang, Hye-Min;Kang, Seung-Yeon;Lee, Seong-Whan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10b
    • /
    • pp.421-425
    • /
    • 2006
  • 최근 들어서 휴머노이드 로봇을 비롯한 로봇에 대하여 관심이 증대되고 있다. 이에 따라, 외모를 닮은 로봇 뿐 만 아니라, 사람과 상호 작용을 할 수 있는 로봇 기술의 중요성이 부각되고 있다. 이러한 상호 작용을 위한 효율적이고, 가장 자연스러운 방법 중의 하나가 비전을 기반으로 한 제스처 인식이다. 제스처를 인식하는데 있어서 가장 중요한 것은 손의 모양과 움직임을 인식하는3차원 제스처 인식이다. 본 논문에서는 3차원 손 제스처를 인식하기 위하여3차원 손 모델 추정 방법과 명령형 제스처 인식 시스템을 소개하고, 수화, 지화 등으로의 확장성을 위한 프레임워크를 제안한다.

  • PDF

Biped Walking Robot Control using Hand Gesture (손 제스처를 사용한 보행로봇 제어)

  • Seo, In-Gyo;Jang, Sang-Su;Kim, Hang-Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.577-579
    • /
    • 2005
  • 본 논문에서는 손 제스처를 사용한 2족 보행로봇 제어방법을 제안한다. 제안된 방법은 연속된 입력 영상으로부터 사용자의 손을 검출하기 위해, 피부색 정보와 Hue의 불변 모멘트 정보를 사용한다. 검출된 손 영역은 Active Contour Model를 사용하여 추적한다. 손 제스처를 인식하기 위해 Hue의 불변 모멘 정보로부터, 검출된 손의 모양을판단하고 그 결과를 미리 정해둔 심벌 중에 하나로 할당한다. 이렇게 연속적으로 할당된 심벌들은 HMM(Hidden Markov Model) 인식기를 통해 인식 되고 로봇 명령어를 출력하며, 출력된 명령어에 따라 로봇이 제어된다. 제안된 방법의 효율성을 증명하기 위해, 자체 제작한 2족 보행로봇(KAI)으로 6개의 손 제스처를 이용하여 사용자가 원격지에 있는 로봇의 보행을 제어하는 원격 로봇 보행 제어 시스템에 응용해 보았다. 실험 결과, $94\%$의 인식률을 보였다.

  • PDF

Detection of Hand Gesture and its Recognition for Wearable Applications in IoMTW (IoMTW 에서의 웨어러블 응용을 위한 손 제스처 검출 및 인식)

  • Yang, Anna;Hong, Jeong Hun;Kang, Han;Chun, Sungmoon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.11a
    • /
    • pp.33-35
    • /
    • 2016
  • 손 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)를 구현하기 위한 수단으로 각광받고 있다. 최근 MPEG 에서는 IoT(Internet of Things) 및 웨어러블 환경에서의 미디어 소비를 지원하기 위한 IoMTW(Internet of Media-Things and Wearables) 표준화를 진행하고 있다. 본 논문에서는 손 제스처를 웨어러블 기기의 NUI 로 사용하여 웨어러블 기기 제어 및 미디어 소비를 제어하기 위한 손 제스처 검출과 인식 기법를 제시한다. 제시된 기법은 스테레오 영상으로부터 깊이 정보와 색 정보를 이용하여 손 윤곽선을 검출하여 이를 베지어(Bezier) 곡선으로 표현하고, 표현된 손 윤곽선으로부터 손가락 수 등의 특징을 바탕으로 제스처를 인식한다.

  • PDF