• Title/Summary/Keyword: hand gesture interface

Search Result 115, Processing Time 0.026 seconds

A Study on the Gesture Based Virtual Object Manipulation Method in Multi-Mixed Reality

  • Park, Sung-Jun
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.2
    • /
    • pp.125-132
    • /
    • 2021
  • In this paper, We propose a study on the construction of an environment for collaboration in mixed reality and a method for working with wearable IoT devices. Mixed reality is a mixed form of virtual reality and augmented reality. We can view objects in the real and virtual world at the same time. And unlike VR, MR HMD does not occur the motion sickness. It is using a wireless and attracting attention as a technology to be applied in industrial fields. Myo wearable device is a device that enables arm rotation tracking and hand gesture recognition by using a triaxial sensor, an EMG sensor, and an acceleration sensor. Although various studies related to MR are being progressed, discussions on developing an environment in which multiple people can participate in mixed reality and manipulating virtual objects with their own hands are insufficient. In this paper, We propose a method of constructing an environment where collaboration is possible and an interaction method for smooth interaction in order to apply mixed reality in real industrial fields. As a result, two people could participate in the mixed reality environment at the same time to share a unified object for the object, and created an environment where each person could interact with the Myo wearable interface equipment.

A Study on Children Edutainment Contents Development with Hand Gesture Recognition and Electronic Dice (전자주사위 및 손동작 인식을 활용한 아동용 에듀테인먼트 게임 콘텐츠 개발에 관한 연구)

  • Ok, Soo-Yol
    • Journal of Korea Multimedia Society
    • /
    • v.14 no.10
    • /
    • pp.1348-1364
    • /
    • 2011
  • As the existing edutainment contents for children are mostly comprised of educational tools which unilaterally induce educatees to passively respond to them, the content-creating methodologies in terms of which active and voluntary learning is made possible is urgently needed. In this paper, we present the implementation of the tangible 'electronic dice' interface as an interactive tool for behavior-based edutainment contents, and propose a methodology for developing edutainment contents for children by utilizing the recognition technique of hand movement based on depth-image information. Also proposed in the paper are an authoring and management tool of learning quizzes that allows educators to set up and manage their learning courseware, and a log analysis system of learning achievement for real-time monitoring of educational progress. The behavior-based tangible interface and edutainment contents that we propose provide the easy-to-operate interaction with a real object, which augments educatees' interest in learning, thus leading to their active and voluntary attitude toward learning. Furthermore, The authoring and management tool and log analysis system allow us to construct learning programs by children's achievement level and to monitor in real-time the learning development of children educatees by understanding the situation and behavior of their learning development from the analytic results obtained by observing the processes of educatees' solving problems for themselves, and utilizing them for evaluation materials for lesson plans.

Robust Hand Region Extraction Using a Joint-based Model (관절 기반의 모델을 활용한 강인한 손 영역 추출)

  • Jang, Seok-Woo;Kim, Sul-Ho;Kim, Gye-Young
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.20 no.9
    • /
    • pp.525-531
    • /
    • 2019
  • Efforts to utilize human gestures to effectively implement a more natural and interactive interface between humans and computers have been ongoing in recent years. In this paper, we propose a new algorithm that accepts consecutive three-dimensional (3D) depth images, defines a hand model, and robustly extracts the human hand region based on six palm joints and 15 finger joints. Then, the 3D depth images are adaptively binarized to exclude non-interest areas, such as the background, and accurately extracts only the hand of the person, which is the area of interest. Experimental results show that the presented algorithm detects only the human hand region 2.4% more accurately than the existing method. The hand region extraction algorithm proposed in this paper is expected to be useful in various practical applications related to computer vision and image processing, such as gesture recognition, virtual reality implementation, 3D motion games, and sign recognition.

Detection of Hand Gesture and its Description for Wearable Applications in IoMTW (IoMTW 에서의 웨어러블 응용을 위한 손 제스처 검출 및 서술)

  • Yang, Anna;Park, Do-Hyun;Chun, Sungmoon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.338-339
    • /
    • 2016
  • 손 제스처는 스마트 글래스 등 웨어러블 기기의 NUI(Natural User Interface)로 부각되고 있으며 이를 위해서는 손 제스처 검출 및 인식 기능이 요구된다. 또한, 최근 MPEG 에서는 IoT(Internet of Thing) 환경에서의 미디어 소비를 위한 표준으로 IoMTW(Media-centric IoT and Wearable) 사전 탐색이 진행되고 있으며, 손 제스처를 표현하기 위한 메타데이터도 하나의 표준 기술요소로 논의되고 있다. 본 논문에서는 스마트 글래스 환경에서의 손 제스처 인식을 위한 과정으로 스테레오 영상을 통한 손 윤곽선 검출과 이를 메타데이터로 서술하기 위하여 베지에(Bezier) 곡선으로 표현하는 기법을 제시한다.

  • PDF

Repetitive hand gesture recognition based on frequency analysis (주파수 분석을 이용한 반복적인 손동작 인식)

  • Kim, Jiye;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.06a
    • /
    • pp.166-167
    • /
    • 2017
  • 가상 현실에 대한 관심이 높아지면서, 가상 물체와 사람 사이의 보다 자연스러운 상호작용이 중요하게 되었다. 그 중 가장 많이 사용되는 방식 중 하나가 바로 손동작이다. 사람들은 손동작을 통해 자신의 감정을 전달하거나 자신의 의견을 표현할 수 있기 때문에 손동작은 Natural User Interface(NUI)의 중요한 위치를 차지하고 있다. 본 논문에서는 사람들의 손동작 중 비교적 큰 비중을 차지하는 반복적인 궤적을 그리는 손동작 인식을 위한 방법을 제안한다. 손이 움직이는 방향과 거리의 3 차원 좌표 값을 이용하여 벡터화를 한 후, 이 데이터를 Fast Fourier transform(FFT)와 Support Vector Machine(SVM)을 통해 반복적인 손동작을 인식함으로써 자연스러운 손동작을 비교적 정확히 인식할 수 있다.

  • PDF

Developing User-friendly Hand Mouse Interface via Gesture Recognition (손 동작 인식을 통한 사용자에게 편리한 핸드마우스 인터페이스 구현)

  • Kang, Sung-Won;Kim, Chul-Joong;Sohn, Won
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.129-132
    • /
    • 2009
  • 컴퓨터의 소형화로 휴대성과 공간의 제약이 없는 컴퓨터 인터페이싱 방법의 필요성이 증가하고 있으며, 이와 관련하여 인간-컴퓨터 상호작용(HCI)을 위한 제스처 기반의 제어방식에 대한 연구가 활발하게 진행되고 있다. 기존의 손동작 인터페이스 구현들은 컴퓨터를 제어하기 위하여 사용방법에 대한 선행학습이 필요하였다. 이 논문은 사용자의 손 모양과 손끝 정보만을 가지고 선행학습이 요구되지 않는 간편한 인터페이스 구현방법을 제안하였다. 이를 위해 1대의 웹캠과 인텔의 오픈소스 영상처리 라이브러리 OpenCv를 사용하였다. 차영상과 화소값 기반의 영상처리과정을 통해 실시간으로 손 영역을 추적하고 이를 이진화 시켰다. 손가락의 움직임도 값이 변하지 않도록 중심모멘트를 설정하여 마우스 커서 움직임을 상대적으로 활용하였다. 상황에 따라 손 끝점을 절대적 좌표로 활용하여 손이 웹캠에서 벋어날 때 움직임을 자연스럽게 연결시켰다. 마지막으로 검지의 움직임 하나 만으로 마우스 클릭 이벤트를 수행함으로써 보다 사용자에게 친숙한 핸드마우스 인터페이스를 구현하였다.

  • PDF

Hand-Gesture-Based Augmented Reality Interface on Mobile Phone (휴대폰 상에서의 손 동작 기반 증강 현실 인터페이스)

  • Choi, Junyeong;Park, Hanhoon;Park, Jungsik;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.61-64
    • /
    • 2011
  • 본 논문은 휴대폰 상에서 손(손가락) 동작을 이용한 가상 정보(객체)와의 자연스러운 상호작용을 제공하는 비전 기반 인터페이스를 제안한다. 이 인터페이스는 사용자가 한 손에 휴대폰을 들고 휴대폰의 카메라를 통해서 다른 손의 손바닥을 바라보는 상황을 가정한다. 사용자의 손바닥 위에 가상 객체가 증강되고, 사용자는 자신의 손과 손가락의 움직임을 통해서 가상 객체와 상호작용 할 수 있다. 제안하는 인터페이스는 사용자에게 친숙한 손동작 기반으로 동작하며 추가적인 센서나 마커를 요구하지 않기 때문에, 사용자는 별도의 훈련 과정 없이 원하는 시간과 장소에서 자유롭게 가상 객체와 상호작용 할 수 있다. 일부 시간이 많이 걸리는 처리 과정을 모바일 환경에 맞도록 최적화, 고속화함으로써, 제안하는 인터페이스는 상용화된 휴대폰(Galaxy S2)에서 5fps 로 동작한다.

  • PDF

Real-Time Hand Gesture Recognition Interface Based on IR Camera (적외선 카메라를 이용한 실시간 손동작 인식 인터페이스)

  • Hong, Seok-Min;Shyong, Yeo Hui;Lee, Byung-Gook
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2012.05a
    • /
    • pp.22-25
    • /
    • 2012
  • 본 논문에서는 키보드나 마우스와 같은 인풋 디바이스 없이 손동작만으로 컴퓨터를 조작할 수 있는 차세대 인터페이스인 에어 인터페이스를 구현하였다. 이 시스템 구현을 위해 먼저 적외선 카메라와 적외선 LED를 사용하였고, 또한 적외선의 전반사의 원리를 이용하였다. 이를 통해 획득된 적외선 영상은 다양한 영상처리 기술을 통해 손 영역을 분할, 검출하게 되고, 검출된 정보를 이용하여 다양한 메타포를 구현 하였으며, 최종적으로 개별적인 제어 이벤트에 각각 맵핑되어 컴퓨터를 제어 및 동작하는 과정을 수행하게 된다. 본 연구에서는 손 영역의 검출과 추적, 인식과정 등을 자세히 서술하였으며, 다양한 메타포도 함께 소개가 된다. 그리고 본 연구에서 사용된 기술을 더욱 발전시키면 사회 전반적으로 다양한 부분에서 적극 활용될 것으로 기대된다.

  • PDF

CNN-Based Hand Gesture Recognition for Wearable Applications (웨어러블 응용을 위한 CNN 기반 손 제스처 인식)

  • Moon, Hyeonchul;Yang, Anna;Chun, Sungmoon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.11a
    • /
    • pp.58-59
    • /
    • 2017
  • 손 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)를 구현하기 위한 수단으로 주목받고 있다. 최근 손 제스처 인식에서의 인식률 개선을 위하여 다양한 인식기법이 제안되고 있으며, 딥러닝 기반의 손 제스처 인식 기법 또한 활발히 연구되고 있다. 본 눈문에서는 웨어러블 기기에서의 미디어 소비 등 다양한 응용을 위하여 CNN(Convolutional Neural Network) 기반의 손 제스처 인식 기법을 제시한다. 제시된 기법은 스테레오 영상으로부터 깊이 정보와 색 정보를 이용하여 손 윤곽선을 검출하고, 검출된 손 윤곽선 영상을 데이터 셋으로 구성하여 CNN 에 학습을 시킨 후, 이를 바탕으로 손 윤곽선 영상으로부터 제스처를 인식하는 알고리즘을 제안한다.

  • PDF

Natural hand gesture-based medical imaging interface for surgical environments (수술환경에 적합한 자연스러운 손동작 기반 의료 영상 제어 인터페이스)

  • Lee, Daeseon;Choi, Junyeong;Seo, Byung-Kuk;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.62-63
    • /
    • 2013
  • 본 논문에서는 실제 수술환경에서 자연스러운 손 동작을 이용해 의료영상을 제어하고 동시에 관심 있는 환부의 영상을 획득할 수 있는 인터페이스를 제안한다. 특히 제안하는 인터페이스는 손을 들어올리는 등의 수술을 방해하는 동작을 강요하지 않음으로써 자연스러운 상호작용을 가능하게 하며, 또한 수술 영역에 수술 부위를 표시하고 저장하는 것과 같은 부가적인 기능을 제공하여 의사의 수술여건과 편의를 보장한다.

  • PDF