• Title/Summary/Keyword: LeapMotion

Search Result 77, Processing Time 0.039 seconds

Motion recognition hand rehabilitation game contents using Leap Motion (Leap Motion을 활용한 모션인식 수부 재활 게임 콘텐츠)

  • Jeon, Hee-Won;Sung, Nak-Jun;Hong, Min
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.676-677
    • /
    • 2019
  • 수부 봉합 수술 환자, 뇌졸중과 중풍으로 인한 수부 마비 환자, 깁스 후 수부 근육 수축 환자 등 수부 재활 치료가 필요한 환자의 수는 계속해서 증가하고 있지만 그에 비해 재활 치료사의 수는 현저히 부족하다. 또한 수부 재활에 대한 예산 부족으로 환자들의 경제적 부담이 증가하고 있다. 이를 해결하고자 본 논문에서는 모션인식 수부 재활 콘텐츠를 리듬 게임의 형태로 구현하였다. 추후 이 콘텐츠를 통해 수부 재활 치료가 필요한 사람들이 비교적 저렴한 가격으로 지속적인 자가 재활 치료를 진행할 수 있을 것으로 기대된다.

Virtual Home Training - Virtual Reality Small Scale Rehabilitation System (가상 홈 트레이닝 - 가상현실 기반 소근육 재활 시스템)

  • Yu, Gyeongho;Kim, Hae-Ji;Kim, Han-Seob;Lee, Jieun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.24 no.3
    • /
    • pp.93-100
    • /
    • 2018
  • This paper proposes a small-scale rehabilitation system that allows stroke patients to perform daily rehabilitation training in a virtual home. Stroke patients have limited activities of daily living due to paralysis, and there are many rehabilitation exercises for them to reproduce activities that take place in the house, such as turning lights on and off, door opening and closing, gas valve locking. In this paper, we have implemented a virtual home with the above mentioned daily rehabilitation training elements, by using virtual reality technology. We use Leap Motion, a hand motion recognition device, for rehabilitation of hands and fingers. It is expected that stroke patients can rehabilitate small muscles without having to visit the clinic with uncomfortable body, and will be able to get interesting rehabilitation training by avoiding monotony of existing rehabilitation tools.

3D Object Location Identification Using Finger Pointing and a Robot System for Tracking an Identified Object (손가락 Pointing에 의한 물체의 3차원 위치정보 인식 및 인식된 물체 추적 로봇 시스템)

  • Gwak, Dong-Gi;Hwang, Soon-Chul;Ok, Seo-Won;Yim, Jung-Sae;Kim, Dong Hwan
    • Journal of the Korean Society of Manufacturing Technology Engineers
    • /
    • v.24 no.6
    • /
    • pp.703-709
    • /
    • 2015
  • In this work, a robot aimed at grapping and delivering an object by using a simple finger-pointing command from a hand- or arm-handicapped person is introduced. In this robot system, a Leap Motion sensor is utilized to obtain the finger-motion data of the user. In addition, a Kinect sensor is also used to measure the 3D (Three Dimensional)-position information of the desired object. Once the object is pointed at through the finger pointing of the handicapped user, the exact 3D information of the object is determined using an image processing technique and a coordinate transformation between the Leap Motion and Kinect sensors. It was found that the information obtained is transmitted to the robot controller, and that the robot eventually grabs the target and delivers it to the handicapped person successfully.

A Development of Intuitive Single-Hand Gesture Interface For writing Hangul by Leap motion (립모션 기반의 직관적 한글 입력 핸드 제스처 인터페이스 개발)

  • Kim, Seonghyeon;Kim, Daecheon;Park, Yechan;Yeom, Sanggil;Choo, Hyunseung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.768-770
    • /
    • 2016
  • 현재 NUI(Natural User Interface)는 차세대 입력 방식으로 주목을 받고 있다. 이미 한글 입력에 관한 NUI가 다양하게 연구 및 개발되고 있지만, 한글 입력 NUI는 직관성과 정확도의 부족과 불완전한 인식률 등의 한계점이 존재한다. 본 연구에서는 사용자의 핸드 제스처를 인식하기 위해 Leap Motion 장치를 사용하고, 한글의 글자 조합 원리를 바탕으로 자음과 모음 입력의 제스처를 분리하여 인식의 정확도를 높인다. 그리고 모음의 방향성을 참고하여 한글 입력에 직관성을 향상할 수 있는 핸드 제스처를 연구한다. 이를 통해 사용자가 NUI 환경의 디바이스를 좀 더 정확하고 빠르게 조작할 수 있도록 돕는다.

An Image Processing based Method for HMD-Leap Motion Position Calibration (HMD-립모션 위치 캘리브레이션을 위한 영상처리 기법)

  • Park, San;Cho, Seoungjae;Jang, Hyeonjun;Sung, Yunsick;Cho, Kyungeun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.952-953
    • /
    • 2017
  • 립모션(Leap Motion)은 가상현실 환경의 상호작용 장치로 각광받는 기기이다. 이에 따라 가상현실 출력장치인 HMD에 립모션을 부착해 사용하는 콘텐츠가 늘고 있다. 하지만, 립모션이 HMD상의 부착된 위치가 매번 다르기 때문에, 립모션의 손가락 감지범위와 HMD의 출력 범위가 서로 다르다는 문제점이 있다. 이를 해결하기 위해 본 논문에서는 번들 조정 알고리즘을 이용해 HMD와 립모션의 상대위치를 추정하는 기법을 제안한다. 제안하는 기법을 통해 HMD와 립모션을 부착해 이용하는 콘텐츠에 전처리기로 활용할 수 있을 전망이다.

A study on Dart Game using Virtual Reality (가상현실 기술을 활용한 다트 게임에 관한 연구)

  • Jo, Min-Hyeok;Ko, JunHyung;Lee, Ho-Jae;Kim, Ki-Yong;Song, Eun-Jee
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2017.10a
    • /
    • pp.663-664
    • /
    • 2017
  • 최근 4차 산업혁명에서 주목을 받고 있는 가상현실(VR:Virtual Reality)은 시각, 청각, 촉각 등 인간의 오감을 활용한 상호작용을 통하여 공간적, 물리적 제약 때문에 현실세계에서는 직접 경험하지 못하는 상황을 사용자가 현실과 가상세계의 구분 없이 체험이 가능하여 국방, 의료, 교육 등에 활용이 되며 특히, 가상현실 스포츠나 게임 등의 개발이 활발하다. 본 연구에서는 가상현실 게임, 미디어 등에 손짓을 컴퓨터가 인식하게 할 수 있는 입력장치인 립모션(Leap motion)을 이용하여 VR다트 게임을 제안하고 구현한다. 다트게임은 방향 뿐 아니라 힘과 속도 등의 변수가 중요하며 바로 결과를 알 수 있고 위험하지 않는 장점으로 남녀노소 누구나 즐길 수 있는 VR스포츠게임이다.

  • PDF

Real-time Make up Mirror simulation using Leap Motion (LeapMotion을 이용한 실시간 Make up Mirror 시뮬레이션 구현)

  • Ra, Gyeong-Jin;Kim, Won-Bin;Park, Sung-Wook;Lee, Im-Yeong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1057-1060
    • /
    • 2015
  • 온라인 화장품을 판매하는 종합 쇼핑몰 또는 전문 쇼핑몰이 증가하는 추세에 따라 온라인상에서 일어나는 위험에 대한 지각 보완을 위해 시뮬레이션에 대한 많은 연구가 이루어지고 있다. 국내 외 유명 화장품 회사들은 인터넷과 매장을 통해서 시뮬레이터를 제공하여 얼굴에 화장한 모습을 보여주는데 이때 사용되는 이미지는 정지된 사진과 같은 2차원 방식이다. 정면이 아닌 다양한 각도의 얼굴에 메이크업을 수행하거나 결과를 확인하는 과정이 어렵고 사용자가 이미지를 매번 준비해야하는 불편함이 따른다. 본 논문에서는 실시간영상에서 사용자의 피부색과 주변 환경요소를 고려한 메이크업 시뮬레이션으로서 보다 객관적인 시각적 자료를 제공한다. 또한 NUI(Natural User Interface)방식의 동작입력컨트롤러를 사용함으로서 사용자의 화장하는 동작에 따라 시뮬레이션을 제공받게 하여 현실감을 부여한다.

Real-Time Hand Gesture Recognition Based on Deep Learning (딥러닝 기반 실시간 손 제스처 인식)

  • Kim, Gyu-Min;Baek, Joong-Hwan
    • Journal of Korea Multimedia Society
    • /
    • v.22 no.4
    • /
    • pp.424-431
    • /
    • 2019
  • In this paper, we propose a real-time hand gesture recognition algorithm to eliminate the inconvenience of using hand controllers in VR applications. The user's 3D hand coordinate information is detected by leap motion sensor and then the coordinates are generated into two dimensional image. We classify hand gestures in real-time by learning the imaged 3D hand coordinate information through SSD(Single Shot multibox Detector) model which is one of CNN(Convolutional Neural Networks) models. We propose to use all 3 channels rather than only one channel. A sliding window technique is also proposed to recognize the gesture in real time when the user actually makes a gesture. An experiment was conducted to measure the recognition rate and learning performance of the proposed model. Our proposed model showed 99.88% recognition accuracy and showed higher usability than the existing algorithm.

Leap-Motion Based Tracking Framework for Practice and Analysis of User's Arm Muscle (확장현실에서 사용자의 팔 근육 연습 및 분석을 위한 립모션 기반 추적 프레임워크)

  • Park, Seonga;Park, Soyeon;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.469-472
    • /
    • 2020
  • 본 논문에서는 립모션 디바이스를 이용하여 손의 움직임을 계산하고 이로부터 저글링 운동 동작뿐 만 아니라 이것을 이용한 팔 근육을 연습할 수 있는 새로운 프레임워크를 제안한다. 제안된 방법은 실시간으로 동작하기 때문에 사용자의 동작에 맞춰진 분석을 할 수 있다. 본 논문의 프레임워크는 크게 세 부분으로 나누어진다. 우선, 1) 사용자가 공을 튕기는 이벤트 트리거를 손목 움직임으로부터 정의한 뒤, 2) 사용자의 손 위치를 기준으로 저글링 형태의 움직임을 공에 매핑시키기 위한 포물선 기반 입자 기법을 제안한다. 마지막으로, 3) 손목의 굽힘을 기반으로 근육의 활동 양을 시각화할 수 있는 기법을 제안한다. 결과적으로 본 논문의 프레임워크를 이용하면 실시간 저글링 게임을 할 수 있을 뿐만 아니라 사용자의 팔 근육 움직임을 실시간으로 분석할 수 있다.

  • PDF

Searching Human Motion Data by Sketching 3D Trajectories (3차원 이동 궤적 묘사를 통한 인간 동작 데이터 검색)

  • Lee, Kang Hoon
    • Journal of the Korea Computer Graphics Society
    • /
    • v.19 no.2
    • /
    • pp.1-8
    • /
    • 2013
  • Captured human motion data has been widely utilized for understanding the mechanism of human motion and synthesizing the animation of virtual characters. Searching for desired motions from given motion data is an important prerequisite of analyzing and editing those selected motions. This paper presents a new method of content-based motion retrieval without the need of additional metadata such as keywords. While existing search methods have focused on skeletal configurations of body pose or planar trajectories of locomotion, our method receives a three-dimensional trajectory as its input query and retrieves a set of motion intervals in which the trajectories of body parts such as hands, foods, and pelvis are similar to the input trajectory. In order to allow the user to intuitively sketch spatial trajectories, we used the Leap Motion controller that can precisely trace finger movements as the input device for our experiments. We have evaluated the effectiveness of our approach by conducting a user study in which the users search for dozens of pre-selected motions from baseketball motion data including a variety of moves such as dribbling and shooting.