• 제목/요약/키워드: LeapMotion

검색결과 77건 처리시간 0.028초

Leap Motion을 활용한 모션인식 수부 재활 게임 콘텐츠 (Motion recognition hand rehabilitation game contents using Leap Motion)

  • 전희원;성낙준;홍민
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 춘계학술발표대회
    • /
    • pp.676-677
    • /
    • 2019
  • 수부 봉합 수술 환자, 뇌졸중과 중풍으로 인한 수부 마비 환자, 깁스 후 수부 근육 수축 환자 등 수부 재활 치료가 필요한 환자의 수는 계속해서 증가하고 있지만 그에 비해 재활 치료사의 수는 현저히 부족하다. 또한 수부 재활에 대한 예산 부족으로 환자들의 경제적 부담이 증가하고 있다. 이를 해결하고자 본 논문에서는 모션인식 수부 재활 콘텐츠를 리듬 게임의 형태로 구현하였다. 추후 이 콘텐츠를 통해 수부 재활 치료가 필요한 사람들이 비교적 저렴한 가격으로 지속적인 자가 재활 치료를 진행할 수 있을 것으로 기대된다.

가상 홈 트레이닝 - 가상현실 기반 소근육 재활 시스템 (Virtual Home Training - Virtual Reality Small Scale Rehabilitation System)

  • 유경호;김해지;김한섭;이지은
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권3호
    • /
    • pp.93-100
    • /
    • 2018
  • 본 논문은 뇌졸중 환자가 가상의 집에서 일상 재활 훈련을 할 수 있는 소근육 재활 시스템을 제안한다. 뇌졸중 환자는 마비증상으로 인해 일상생활 활동이 제한적이며 이들을 위한 재활 훈련에는 전등 켜고 끄기, 문 여닫기, 가스 밸브 잠그기, 자물쇠 열기 등 집안에서 일어나는 활동을 재현하는 작업 치료 훈련이 다수 있다. 본 논문에서는 가상현실 기술로 집 내부를 구현하여 앞서 언급한 일상 재활 훈련 요소를 배치하고 손동작 인식 장치인 립모션(Leap Motion)을 활용하여 환자가 손과 손가락을 충분히 사용하여 재활 훈련을 할 수 있는 재활 시스템을 제안하였다. 이 시스템을 이용하면 뇌졸중 환자는 불편한 몸으로 치료 기관에 방문하지 않고도 가상현실로 소근육 재활이 가능하며, 기존 작업 치료 도구의 단조로움을 탈피하여 흥미롭게 재활 훈련을 받을 수 있을 것으로 기대된다.

손가락 Pointing에 의한 물체의 3차원 위치정보 인식 및 인식된 물체 추적 로봇 시스템 (3D Object Location Identification Using Finger Pointing and a Robot System for Tracking an Identified Object)

  • 곽동기;황순철;옥서원;임정세;김동환
    • 한국생산제조학회지
    • /
    • 제24권6호
    • /
    • pp.703-709
    • /
    • 2015
  • In this work, a robot aimed at grapping and delivering an object by using a simple finger-pointing command from a hand- or arm-handicapped person is introduced. In this robot system, a Leap Motion sensor is utilized to obtain the finger-motion data of the user. In addition, a Kinect sensor is also used to measure the 3D (Three Dimensional)-position information of the desired object. Once the object is pointed at through the finger pointing of the handicapped user, the exact 3D information of the object is determined using an image processing technique and a coordinate transformation between the Leap Motion and Kinect sensors. It was found that the information obtained is transmitted to the robot controller, and that the robot eventually grabs the target and delivers it to the handicapped person successfully.

립모션 기반의 직관적 한글 입력 핸드 제스처 인터페이스 개발 (A Development of Intuitive Single-Hand Gesture Interface For writing Hangul by Leap motion)

  • 김성현;김대천;박예찬;염상길;추현승
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 추계학술발표대회
    • /
    • pp.768-770
    • /
    • 2016
  • 현재 NUI(Natural User Interface)는 차세대 입력 방식으로 주목을 받고 있다. 이미 한글 입력에 관한 NUI가 다양하게 연구 및 개발되고 있지만, 한글 입력 NUI는 직관성과 정확도의 부족과 불완전한 인식률 등의 한계점이 존재한다. 본 연구에서는 사용자의 핸드 제스처를 인식하기 위해 Leap Motion 장치를 사용하고, 한글의 글자 조합 원리를 바탕으로 자음과 모음 입력의 제스처를 분리하여 인식의 정확도를 높인다. 그리고 모음의 방향성을 참고하여 한글 입력에 직관성을 향상할 수 있는 핸드 제스처를 연구한다. 이를 통해 사용자가 NUI 환경의 디바이스를 좀 더 정확하고 빠르게 조작할 수 있도록 돕는다.

HMD-립모션 위치 캘리브레이션을 위한 영상처리 기법 (An Image Processing based Method for HMD-Leap Motion Position Calibration)

  • 박산;조성재;장현준;성연식;조경은
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.952-953
    • /
    • 2017
  • 립모션(Leap Motion)은 가상현실 환경의 상호작용 장치로 각광받는 기기이다. 이에 따라 가상현실 출력장치인 HMD에 립모션을 부착해 사용하는 콘텐츠가 늘고 있다. 하지만, 립모션이 HMD상의 부착된 위치가 매번 다르기 때문에, 립모션의 손가락 감지범위와 HMD의 출력 범위가 서로 다르다는 문제점이 있다. 이를 해결하기 위해 본 논문에서는 번들 조정 알고리즘을 이용해 HMD와 립모션의 상대위치를 추정하는 기법을 제안한다. 제안하는 기법을 통해 HMD와 립모션을 부착해 이용하는 콘텐츠에 전처리기로 활용할 수 있을 전망이다.

가상현실 기술을 활용한 다트 게임에 관한 연구 (A study on Dart Game using Virtual Reality)

  • 조민혁;고준형;이호재;김기용;송은지
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 추계학술대회
    • /
    • pp.663-664
    • /
    • 2017
  • 최근 4차 산업혁명에서 주목을 받고 있는 가상현실(VR:Virtual Reality)은 시각, 청각, 촉각 등 인간의 오감을 활용한 상호작용을 통하여 공간적, 물리적 제약 때문에 현실세계에서는 직접 경험하지 못하는 상황을 사용자가 현실과 가상세계의 구분 없이 체험이 가능하여 국방, 의료, 교육 등에 활용이 되며 특히, 가상현실 스포츠나 게임 등의 개발이 활발하다. 본 연구에서는 가상현실 게임, 미디어 등에 손짓을 컴퓨터가 인식하게 할 수 있는 입력장치인 립모션(Leap motion)을 이용하여 VR다트 게임을 제안하고 구현한다. 다트게임은 방향 뿐 아니라 힘과 속도 등의 변수가 중요하며 바로 결과를 알 수 있고 위험하지 않는 장점으로 남녀노소 누구나 즐길 수 있는 VR스포츠게임이다.

  • PDF

LeapMotion을 이용한 실시간 Make up Mirror 시뮬레이션 구현 (Real-time Make up Mirror simulation using Leap Motion)

  • 라경진;김원빈;박성욱;이임영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.1057-1060
    • /
    • 2015
  • 온라인 화장품을 판매하는 종합 쇼핑몰 또는 전문 쇼핑몰이 증가하는 추세에 따라 온라인상에서 일어나는 위험에 대한 지각 보완을 위해 시뮬레이션에 대한 많은 연구가 이루어지고 있다. 국내 외 유명 화장품 회사들은 인터넷과 매장을 통해서 시뮬레이터를 제공하여 얼굴에 화장한 모습을 보여주는데 이때 사용되는 이미지는 정지된 사진과 같은 2차원 방식이다. 정면이 아닌 다양한 각도의 얼굴에 메이크업을 수행하거나 결과를 확인하는 과정이 어렵고 사용자가 이미지를 매번 준비해야하는 불편함이 따른다. 본 논문에서는 실시간영상에서 사용자의 피부색과 주변 환경요소를 고려한 메이크업 시뮬레이션으로서 보다 객관적인 시각적 자료를 제공한다. 또한 NUI(Natural User Interface)방식의 동작입력컨트롤러를 사용함으로서 사용자의 화장하는 동작에 따라 시뮬레이션을 제공받게 하여 현실감을 부여한다.

딥러닝 기반 실시간 손 제스처 인식 (Real-Time Hand Gesture Recognition Based on Deep Learning)

  • 김규민;백중환
    • 한국멀티미디어학회논문지
    • /
    • 제22권4호
    • /
    • pp.424-431
    • /
    • 2019
  • In this paper, we propose a real-time hand gesture recognition algorithm to eliminate the inconvenience of using hand controllers in VR applications. The user's 3D hand coordinate information is detected by leap motion sensor and then the coordinates are generated into two dimensional image. We classify hand gestures in real-time by learning the imaged 3D hand coordinate information through SSD(Single Shot multibox Detector) model which is one of CNN(Convolutional Neural Networks) models. We propose to use all 3 channels rather than only one channel. A sliding window technique is also proposed to recognize the gesture in real time when the user actually makes a gesture. An experiment was conducted to measure the recognition rate and learning performance of the proposed model. Our proposed model showed 99.88% recognition accuracy and showed higher usability than the existing algorithm.

확장현실에서 사용자의 팔 근육 연습 및 분석을 위한 립모션 기반 추적 프레임워크 (Leap-Motion Based Tracking Framework for Practice and Analysis of User's Arm Muscle)

  • 박성아;박소연;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2020년도 제62차 하계학술대회논문집 28권2호
    • /
    • pp.469-472
    • /
    • 2020
  • 본 논문에서는 립모션 디바이스를 이용하여 손의 움직임을 계산하고 이로부터 저글링 운동 동작뿐 만 아니라 이것을 이용한 팔 근육을 연습할 수 있는 새로운 프레임워크를 제안한다. 제안된 방법은 실시간으로 동작하기 때문에 사용자의 동작에 맞춰진 분석을 할 수 있다. 본 논문의 프레임워크는 크게 세 부분으로 나누어진다. 우선, 1) 사용자가 공을 튕기는 이벤트 트리거를 손목 움직임으로부터 정의한 뒤, 2) 사용자의 손 위치를 기준으로 저글링 형태의 움직임을 공에 매핑시키기 위한 포물선 기반 입자 기법을 제안한다. 마지막으로, 3) 손목의 굽힘을 기반으로 근육의 활동 양을 시각화할 수 있는 기법을 제안한다. 결과적으로 본 논문의 프레임워크를 이용하면 실시간 저글링 게임을 할 수 있을 뿐만 아니라 사용자의 팔 근육 움직임을 실시간으로 분석할 수 있다.

  • PDF

3차원 이동 궤적 묘사를 통한 인간 동작 데이터 검색 (Searching Human Motion Data by Sketching 3D Trajectories)

  • 이강훈
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제19권2호
    • /
    • pp.1-8
    • /
    • 2013
  • 실제 사람의 움직임을 촬영하여 얻은 동작 데이터는 인체운동의 메커니즘을 이해하거나 가상 캐릭터의 애니메이션을 합성하기 위한 목적으로 널리 활용되고 있다. 주어진 동작 데이터로부터 원하는 동작을 검색하는 작업은 찾아낸 동작을 분석하고 편집하기 전에 선행되어야 하는 주요 과정이다. 본 논문은 기술어와 같은 별도의 메타 데이터 없이 원본 데이터에 내재된 정보만을 이용하여 검색을 수행하는 새로운 내용 기반 동작 데이터 검색 방법을 제안한다. 주로 신체 자세의 골격 형태나 평면 상의 이동 궤적에 초점을 맞춘 기존 검색 방식과 달리, 본 논문에서 제안하는 방법은 3차원 공간 상의 궤적을 질의로 입력 받아서 손, 발, 허리와 같은 신체 부위의 이동 궤적이 그와 가장 유사한 일련의 동작 구간들을 검출한다. 사용자가 직관적으로 공간적 궤적을 묘사할 수 있도록 하기 위하여, 본 논문의 실험에서는 손가락의 공간적 움직임을 정밀하게 추적할 수 있는 Leap Motion 제어기를 입력 도구로 사용하였다. 드리블, 슈팅 등의 다양한 동작이 포함된 농구 동작 데이터로부터 미리 선택된 수십 여개의 동작을 검색하는 사용자 테스트를 수행하여 제안된 방법의 효용성을 평가하였다.