DOI QR코드

DOI QR Code

Presentation Control System using Gesture Recognition and Sensor

제스처 인식과 센서를 이용한 프레젠테이션 제어 시스템

  • 장문수 (서경대학교 컴퓨터과학과) ;
  • 곽선동 (서경대학교 전자컴퓨터공학과) ;
  • 강선미 (서경대학교 전자공학과)
  • Received : 2011.04.29
  • Accepted : 2011.07.10
  • Published : 2011.08.25

Abstract

Recently, most presentations have been presented on the screen using the computer. This paper suggests that the computer can be controlled by the gesturing recognition, without the help of any person or tools. If we use only information in the form of images, we should have a high-resolution camera for capturing the images and a computer that can treat high-resolution images. However, this paper will present a solution whereby a low-resolution camera can be used at the stage. It uses the supersonic sensor to trace the presenter's location and a low-resolution camera for capturing the necessary limited and small area. The gesture is defined by the number of fingers and one's hand positions which are recognized by the Erosion / Dilation and Subtraction algorithm. The system this paper addresses has improved 13%, when comparing tests between the image-only data system and this paper's system. The gesture recognition tests have a 98% success rate.

요즘 발표 현장에는 대부분 컴퓨터를 사용하여 발표자료를 스크린에 비춰서 발표를 진행한다. 본 논문은 제스처 인식을 이용하여 프레젠테이션 컴퓨터를 제어함으로써 발표자가 별도의 도구나 사람을 통하지 않고 혼자서 발표를 진행할 수 있는 시스템을 제안한다. 영상 정보만을 이용하여 발표자가 발표 무대의 어느 위치에 있더라도 제스처를 인식하기 위해서는 무대 전체를 촬영할 수 있는 고해상도 카메라와 이 카메라에서 출력되는 고해상도 이미지를 처리할 수 있는 고성능 컴퓨터가 필요하다. 본 논문에서는 초음파 센서를 무대에 설치하여 발표자의 위치를 추적하고, 저해상도 카메라로 필요한 영역만 추출하여 제스처를 인식한다. 제스처는 손가락의 모양과 팔의 움직임으로 표현하고, 침식/팽창과 차연산 알고리즘으로 제스처를 인식한다. 영상 정보만을 이용하는 알고리즘과의 비교 실험에서 제안하는 시스템이 최소한 13%의 속도 향상을 보였다. 제스처 인식 실험에서는 약 98%의 인식률을 확인하였다.

Keywords

References

  1. 이민호, 장문수, 강선미 "레이저 포인터 추적 알고리즘을 이용한 프레젠테이션 제어 인터페이스" 한국지능시스템학회 2009년도 춘계학술대회 학술발표논문집, 제19권, 1호 pp. 191-192, 2009.
  2. 최경묵, 나용길, 채승병, 정경훈, "손 제스처 기반의 로봇 원격제어" 한국방송공학회 2010년도 추계학술발표대회 논문집, pp. 196- 199, 2010.
  3. Ing. Mario S. Ganzeboom, "User-independent recognition of dynamic hand gestures using a dataglove", master's thesis, university of Twente, 2010.
  4. 심재호, 김종훈, 김태간, 한승진, 임기욱, 이정현, "스마트 홈 환경을 위한 관성 센서기반의 사용자 위치 추정 방법", 한국정보과학회 2007년도 가을학술발표논문집, 제34권, 2호, pp. 575-579, 2007.
  5. 기석철, "지능형 로봇과 얼굴 인식 융합기술", 한국정보보호학회지, 제17권, 5호, pp. 25-31, 2007.
  6. 이동규, 이기정, 황보택근, 임혁규, "신경망을 이용한 동작분석과 원격 응급상황 검출 시스템", 한국콘텐츠학회논문지, 제6권, 9호, pp.50-59, 2006.
  7. 복창순, 손연미, 방영철, 나보균, "손 인식을 이용한 컴퓨터 제어", 한국정보과학회 가을학술발표논문집, 제35권, 2호(B), pp. 192-195, 2008.
  8. 김주황, 박정훈, 전종서, 강민구, 이승현, "OpenCV를 이용한 마우스의 손 동작 인식", 한국인터넷정보학회 2009년도 추계학술발표대회논문집, pp. 303-306, 2009.
  9. Vezhnevets V, Sazonov V, Andreeva A, "A Survey on Pixel-Based Skin Color Detection Techniques" IN PROC. GRAPHICON, pp.85-92, 2003.
  10. A. Mulder, "Hand gesture for hci," Technical Report 96-1, Simon Fraster University, 1996.

Cited by

  1. Marionette Control System using Gesture Mode Change vol.21, pp.2, 2015, https://doi.org/10.5302/J.ICROS.2015.14.0105
  2. The Effect of Visual Feedback on One-hand Gesture Performance in Vision-based Gesture Recognition System vol.31, pp.4, 2012, https://doi.org/10.5143/JESK.2012.31.4.551