• Title/Summary/Keyword: Gesture Interface

Search Result 231, Processing Time 0.027 seconds

An Implementation of User Interface Using Vision-based Gesture Recognition (비전 기반 제스처 인식을 이용한 사용자 인터페이스 구현)

  • Ko, Min-Sam;Lee, Kwang-Hee;Kim, Chang-Woo;Ahn, Jun-Ho;Kim, In-Jung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.507-511
    • /
    • 2008
  • 컴퓨터 비전을 기반으로 한 영상처리 및 제스처인식 기술을 이용하여 편리하게 응용프로그램을 제어 할 수 있는 인터페이스를 구성하였다. 카메라로 얻어진 영상을 HSV 색상계로 변환 후 색상 정보를 이용하여 손 영역을 추출한다. 추출된 손 영역의 무게중심과 크기 변화를 추적하여 제스처를 인식한다. 인식한 제스처는 응용프로그램의 동작을 제어하거나 마우스의 입력을 대체하는데 사용된다. 이는 별도의 입력장치 없이 컴퓨터 비전 기술만으로 제스처를 인식하여 응용프로그램을 실행할 수 있어 자연스러우며 사용자 친화적인 인터페이스 환경을 제공한다.

  • PDF

Gesture-based User-Interface Through Hand-region Detection and Hand-movement Recognition (손영역 획득과 손동작 인식에 의한 제스처 기반 사용자 인터페이스의 구현)

  • Ko, Il-Ju;Bae, Young-Lae;Choi, Hyung-Il
    • Korean Journal of Cognitive Science
    • /
    • v.8 no.4
    • /
    • pp.35-53
    • /
    • 1997
  • 본 논문은 컴퓨터 시각을 이용하여 제스처를 인식함으로써 사용자에게 보다 편리한 인터페이스를 제공하는 것을 목표로 한다. 제안하는 제스처 인식 방법은 손영역을 획득하는 손영역 획득 모듈?손영역을 인식하는 인식 모듈로 나누어 수행한다. 손영역 획득 모듈에서는 손색상 모델?손색상 결정함수를 정의하여 칼라영상의 영역 분리를 수행하였고, 칼만필터를 이용하여 손색상 모델을 갱신하고 탐색영역을 제한하여 영역 추적을 용이하게 하였다. 영역 추적은 전 시점의 손영역 정보를 이용하여 현 시점의 손영역을 획득한다. 인식 모듈에서는 정적인 제스처를 표현하는 객체 프레임?행동 프레임, 그리고 동적인 제스처를 표현하는 스키마를 정의한다. 그리고 획득된 손영역?정합을 수행함으로써 제스처를 인식한다. 실험 결갬灌?제안하는 제스처 기반 인터페이스를 적용한 삼목(Tic-Tac-Toe) 게임 프로그램을 구현하였다. 사용자는 제스처를 이용하여 컴퓨터와 게임을 진행한다. 제안하는 시스템은 다른 종류의 게임 프로그램이나 마우스의 역할을 수행하는 윈도우 시스템의 제어, 그리고 가상 현실 시스템에 적용될 수 있다.

  • PDF

Detection of Hand Gesture and its Recognition for Wearable Applications in IoMTW (IoMTW 에서의 웨어러블 응용을 위한 손 제스처 검출 및 인식)

  • Yang, Anna;Hong, Jeong Hun;Kang, Han;Chun, Sungmoon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.11a
    • /
    • pp.33-35
    • /
    • 2016
  • 손 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)를 구현하기 위한 수단으로 각광받고 있다. 최근 MPEG 에서는 IoT(Internet of Things) 및 웨어러블 환경에서의 미디어 소비를 지원하기 위한 IoMTW(Internet of Media-Things and Wearables) 표준화를 진행하고 있다. 본 논문에서는 손 제스처를 웨어러블 기기의 NUI 로 사용하여 웨어러블 기기 제어 및 미디어 소비를 제어하기 위한 손 제스처 검출과 인식 기법를 제시한다. 제시된 기법은 스테레오 영상으로부터 깊이 정보와 색 정보를 이용하여 손 윤곽선을 검출하여 이를 베지어(Bezier) 곡선으로 표현하고, 표현된 손 윤곽선으로부터 손가락 수 등의 특징을 바탕으로 제스처를 인식한다.

  • PDF

Hand Pose and Gesture Recognition Using Infrared Sensor (적외선 센서를 사용한 손 동작 인식)

  • Ahn, Joon-young;Lee, Sang-hwa;Cho, Nam-ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.11a
    • /
    • pp.119-122
    • /
    • 2016
  • 최근 IT기술 영역에서 미래기술로 촉망받는 증강현실(AR)과 가상현실(VR)환경을 구축함에 있어서, 마우스나 키보드 등의 별도 장치 없이 기기에 원하는 동작을 입력 하도록 하는 NUI(Natural User Interface)기술이 각광받고 있다. 또한 NUI를 구현하는데 중요한 기술 중 하나로 손동작 인식 기술, 얼굴 인식 기술 등이 대두되고 있다. 이에 본 논문은 적외선 센서의 일종인 Leapmotion 센서를 사용하여 손동작 인식을 구현하고자 하였다. 첫 번째로 우선 거리변환 행렬을 사용하여 손바닥의 중심을 찾았다. 이후 각각의 손가락을 convex hull 알고리즘을 사용하여 추출한다. 제안한 알고리즘에서는 손가락, 손바닥 부분의optical flow를 구한 후, 두 optical flow의 특성을 사용하여 손의 이동, 정지, 클릭 동작을 구분 할 수 있도록 하였다.

  • PDF

A Gesture-based interface for interactive computer games (게임을 위한 제스처 기반의 인터페이스)

  • Park, Hye-Sun;Kang, Hyun;Jung, Kee-Chul;Kim, Eun-Yi;Park, Min-Ho;Kim, Hang-Joon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.631-633
    • /
    • 2003
  • 본 논문에서는 사용자의 연속적인 제스처들을 실시간으로 제스처를 적출하고 인식하는 게임 인터페이스를 제안한다. 제안된 인터페이스는 동영상에서 사용자의 자세를 예측하는 포즈 추정 모듈과 연속된 포즈 심벌열로부터 제스처를 적출하고 인식하는 제스처 인식 모듈로 구성되어 있다. 사용자의 자세는 영상에 나타난 머리, 양손의 좌표를 취하여 대표되는 자세를 클러스터링을 통해 구하였다. 제스처를 적출하기 위해서 연속된 포즈 심벌열로부터 가제스처들을 생성한다. 생성된 가제스처의 인식엔진의 인식값을 기준으로하여 제스처를 판별한다. 제안된 논문에서 정의한 제스처를 인터페이스로 사용하여 실제 게임인 퀘이크II에 적용해 봄으로써, 컴퓨터 게임 안에서, 제안된 인터페이스가 타탕함을 증명하였다.

  • PDF

Gesture-Based NUI 3D Rehabilitation System Using Kinect and Unity3D (Kinect와 Unity3D를 이용하여 제스처 기반 NUI를 적용한 3D 재활 치료 시스템)

  • Son, Hyun-Ho;Koo, Dong-Hyeon;Jeong, Sang-Cheol;Lee, Young-Man;Lee, Sang-Min;Lee, DoHoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.11a
    • /
    • pp.1142-1144
    • /
    • 2014
  • 본 논문에서는 뇌졸중, 치매 등 재활치료가 필요한 환자를 대상으로 하는 재활 프로그램을 Kinect와 Unity3D를 이용하여 구현하고, 이를 제어하기 위한 효과적인 제스처 기반 Natural User Interface를 적용하였다. 이는 동작 인식을 위해 Kinect 주변에 가까이 있기 어려운 프로그램 사용 환경을 원거리 조작이 가능케 하여 더욱 편하게 조작할 수 있게 하며, 직관적이고 단순한 제스처를 정의함으로써 가정에서도 손쉽게 사용할 수 있게 하였다.

A Gesture-based Game Interface using HMM (HMM을 이용한 제스처 기반의 게임 인터페이스)

  • 장상수;박혜선;김상호;김항준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.496-498
    • /
    • 2004
  • 본 논문에서는 컴퓨터 액션 게임 중에 하나인, 퀘이크 II 게임을 위한 제스처 기반의 인터페이스를 제안한다. 제안된 인터페이스는 연속된 입력 영상열로부터 재스처를 검출하고 인식하기 위해 HMM 올 사용한다. 먼저 재스처를 검출하기 위해 입력 영상열로부터 포즈 심볼열을 추출하여 사용한다. 인식하기 위해 사용된 HMM은 추출된 포즈 심볼을 입력받아, 상태 확률값을 계산하여 계속적으로 갱신한다 이때 갱신되는 상태 확률값 중에 각 제스처에 속하는 특정상태의 확률값이, 미리 정의된 임계간과 비교하여 초과하면 검출되고 인식된다. 현재 제안된 시스템은 실제 퀘이크 II 게임에서 키보드버튼과 마우스를 통해 입력되는 명령어들 중에서 게임을 진행하기 위해 먼저 필요한 움지임과 시점 변환에 관계되는 명령어들을 13 개의 제스처로 표현하고 이 제스처 명령어를 검출하고 인식한다.

  • PDF

Biosign Recognition based on the Soft Computing Techniques with application to a Rehab -type Robot

  • Lee, Ju-Jang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 2001.10a
    • /
    • pp.29.2-29
    • /
    • 2001
  • For the design of human-centered systems in which a human and machine such as a robot form a human-in system, human-friendly interaction/interface is essential. Human-friendly interaction is possible when the system is capable of recognizing human biosigns such as5 EMG Signal, hand gesture and facial expressions so the some humanintention and/or emotion can be inferred and is used as a proper feedback signal. In the talk, we report our experiences of applying the Soft computing techniques including Fuzzy, ANN, GA and rho rough set theory for efficiently recognizing various biosigns and for effective inference. More specifically, we first observe characteristics of various forms of biosigns and propose a new way of extracting feature set for such signals. Then we show a standardized procedure of getting an inferred intention or emotion from the signals. Finally, we present examples of application for our model of rehabilitation robot named.

  • PDF

Dialing Interface Design for Safe Driving using Hand Gesture (손동작을 이용한 운전 안전성을 높이기 위한 전화 다이얼 인터페이스 설계)

  • Jang, WonAng;Lee, DoHoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.04a
    • /
    • pp.449-452
    • /
    • 2012
  • 운전 중에 주의를 분산시키는 요소는 대부분 인터페이스 조작에 있으며 교통사고의 직접적인 원인이 된다. 스마트 자동차에 대한 관심이 높아지면서 운전자 안전에 대한 다양한 연구가 모색되고 있다. 순간의 시선이동으로 인해 판단력과 조작능력을 상실 할 수 있는 현재의 인터페이스는 안전성이 보장 되지 못한다. 본 논문에서는 이러한 운전자의 주의를 분산시키는 요소로 부터 안전성을 확보하기 위해서 차량 내 카메라를 이용하여 손동작을 인식하여 직관적인 제스처로 전화번호를 입력하거나 검색할 수 있는 안전한 인터페이스를 제안한다. 제안한 시스템은 직관적 동작과 TTS(Text To Speech)를 활용하여 사용자 편의성과 안전성을 높였다.

Virtual Object Generation Technique Using Multimodal Interface With Speech and Hand Gesture (음성 및 손동작 결합 인터페이스를 통한 가상객체의 생성)

  • Kim, Changseob;Nam, Hyeongil;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.06a
    • /
    • pp.147-149
    • /
    • 2019
  • 가상현실 기술의 발전으로 보다 많은 사람이 가상현실 콘텐츠를 즐길 수 있게 되었다. PC나 스마트폰과 같은 이전의 콘텐츠 플랫폼과 달리 가상현실에서는 3차원 정보를 전달할 수 있는 인터페이스가 요구된다. 2차원에서 3차원으로의 변화는 보다 높은 자유도를 가지는 반면, 사용자는 새로운 인터페이스에 적응해야 하는 불편함 또한 존재한다. 이러한 불편함을 해소하기 위하여 본 논문에서는 가상현실상에서 음성과 손동작을 결합한 인터페이스를 제안한다. 제안하는 인터페이스는 음성과 손동작은 현실 세계에서의 의사소통을 모방하여 구현하였다. 현실 세계의 의사소통을 모방하였기 때문에 사용자는 추가적인 학습이 없이 가상현실 플랫폼에 보다 쉽게 적응할 수 있다. 또한, 본 논문에서는 가상객체를 생성하는 예제를 통하여 기존의 3차원 입력장치를 대신할 수 있음을 보인다.

  • PDF