• 제목/요약/키워드: hand motion

검색결과 917건 처리시간 0.037초

립모션 센서 기반 증강현실 인지재활 훈련시스템을 위한 합성곱신경망 손동작 인식 (Hand Gesture Recognition with Convolution Neural Networks for Augmented Reality Cognitive Rehabilitation System Based on Leap Motion Controller)

  • 송근산;이현주;태기식
    • 대한의용생체공학회:의공학회지
    • /
    • 제42권4호
    • /
    • pp.186-192
    • /
    • 2021
  • In this paper, we evaluated prediction accuracy of Euler angle spectrograph classification method using a convolutional neural networks (CNN) for hand gesture recognition in augmented reality (AR) cognitive rehabilitation system based on Leap Motion Controller (LMC). Hand gesture recognition methods using a conventional support vector machine (SVM) show 91.3% accuracy in multiple motions. In this paper, five hand gestures ("Promise", "Bunny", "Close", "Victory", and "Thumb") are selected and measured 100 times for testing the utility of spectral classification techniques. Validation results for the five hand gestures were able to be correctly predicted 100% of the time, indicating superior recognition accuracy than those of conventional SVM methods. The hand motion recognition using CNN meant to be applied more useful to AR cognitive rehabilitation training systems based on LMC than sign language recognition using SVM.

인간의 행동 인식을 위한 얼굴 방향과 손 동작 해석 (Analysis of Face Direction and Hand Gestures for Recognition of Human Motion)

  • 김성은;조강현;전희성;최원호;박경섭
    • 제어로봇시스템학회논문지
    • /
    • 제7권4호
    • /
    • pp.309-318
    • /
    • 2001
  • In this paper, we describe methods that analyze a human gesture. A human interface(HI) system for analyzing gesture extracts the head and hand regions after taking image sequence of and operators continuous behavior using CCD cameras. As gestures are accomplished with operators head and hands motion, we extract the head and hand regions to analyze gestures and calculate geometrical information of extracted skin regions. The analysis of head motion is possible by obtaining the face direction. We assume that head is ellipsoid with 3D coordinates to locate the face features likes eyes, nose and mouth on its surface. If was know the center of feature points, the angle of the center in the ellipsoid is the direction of the face. The hand region obtained from preprocessing is able to include hands as well as arms. For extracting only the hand region from preprocessing, we should find the wrist line to divide the hand and arm regions. After distinguishing the hand region by the wrist line, we model the hand region as an ellipse for the analysis of hand data. Also, the finger part is represented as a long and narrow shape. We extract hand information such as size, position, and shape.

  • PDF

A Comparison of Head-Hand Coordination Patterns during Squash Forehand Strokes in Expert and Less-Skilled Squash Players

  • Roh, Miyoung
    • 한국운동역학회지
    • /
    • 제28권2호
    • /
    • pp.109-117
    • /
    • 2018
  • Objective: To compare head and hand movement patterns during squash forehand motions between experts and less-skilled squash players. Method: Four experts and four less-skilled squash players participated in this study. They performed squash forehand swings and a VICON motion analysis system was used to obtain displacement and velocity data of the head and right hand during the movement. Mann-Whitney U-tests were performed to compare head and hand range of motion and peak velocity, and cross-correlation was performed to analyze the head-hand coordination pattern between groups in three movement directions. Results: In terms of head and hand kinematic data, experts had greater head range of motion during down swings than less-skilled squash players. Experts seemed to reach peak hand velocity at impact by reaching peak head velocity followed by hand peak velocity within a given temporal sequence. In terms of head-hand coordination patterns, both groups revealed high positive correlations in the medial-lateral direction, indicating a dominant allocentric coordination pattern. However, experts had uncoupled coordination patterns in the vertical direction and less-skilled squash players had high positive correlations. These results indicate that the head-hand movement pattern likely an important factor squash forehand movement. Conclusion: Analysis of head and hand movement patterns could be a key variable in squash training to reach expert-level performance.

FPGA를 이용한 범용 모션 컨트롤러의 개발 (Development of a General Purpose Motion Controller Using a Field Programmable Gate Array)

  • 김성수;정슬
    • 제어로봇시스템학회논문지
    • /
    • 제10권1호
    • /
    • pp.73-80
    • /
    • 2004
  • We have developed a general purpose motion controller using an FPGA(Field Programmable Gate Array). The multi-PID controllers and GUI are implemented as a system-on-chip for multi-axis motion control. Comparing with the commercial motion controller LM 629, since it has multi-independent PID controllers, we have several advantages such as space effectiveness, low cost and lower power consumption. In order to test the performance of the proposed controller, motion of the robot hand is controlled. The robot hand has three fingers with 2 joints each. Finger movements show that tracking was very effective. Another experiment of balancing an inverted pendulum on a cart has been conducted to show the generality of the proposed FPGA PID controller. The controller has well maintained the balance of the pendulum.

수신호 인식기를 이용한 로봇 사용자 제어 시스템 (Robot User Control System using Hand Gesture Recognizer)

  • 손수원;배정훈;양철종;왕한;고한석
    • 제어로봇시스템학회논문지
    • /
    • 제17권4호
    • /
    • pp.368-374
    • /
    • 2011
  • This paper proposes a robot control human interface using Markov model (HMM) based hand signal recognizer. The command receiving humanoid robot sends webcam images to a client computer. The client computer then extracts the intended commanding hum n's hand motion descriptors. Upon the feature acquisition, the hand signal recognizer carries out the recognition procedure. The recognition result is then sent back to the robot for responsive actions. The system performance is evaluated by measuring the recognition of '48 hand signal set' which is created randomly using fundamental hand motion set. For isolated motion recognition, '48 hand signal set' shows 97.07% recognition rate while the 'baseline hand signal set' shows 92.4%. This result validates the proposed hand signal recognizer is indeed highly discernable. For the '48 hand signal set' connected motions, it shows 97.37% recognition rate. The relevant experiments demonstrate that the proposed system is promising for real world human-robot interface application.

모션 식별 룰을 이용한 컴퓨터의 프레젠테이션 제어 (Presentation control of the computer using the motion identification rules)

  • 이상용;이규원
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 춘계학술대회
    • /
    • pp.586-589
    • /
    • 2015
  • 손동작 식별 룰을 통한 컴퓨터의 프레젠테이션 제어 시스템을 제안한다. 발표자의 손 동작 식별을 위해 (일반적인 웹캠을 사용하여) 이미지를 입력받아 하르 분류기를 이용하여 사용자의 얼굴영역을 추출한다. YCbCr 컬러모델을 이용하여 손 영역을 추출한 후에 사용자의 얼굴과 손의 무게중심을 이용하여 손의 현재 움직임 상태와 위치를 판별 하였다. 사용자의 손이 모션 감지 룰에 적용되어 프레젠테이션 제어 명령이 실행된다. 제안하는 시스템은 모션 식별 룰을 이용하여 부가적인 기기를 사용하지 않고 배경의 복잡도에 독립적인 프레젠테이션을 제어가 가능한 시스템이다. 실험은 어두운 실내 분위기인 조도범위(lx) 15-20-30에서 프레젠테이션 실험을 통해 안정적인 제어동작을 확인하였다.

  • PDF

Fuzzy rule-based Hand Motion Estimation for A 6 Dimensional Spatial Tracker

  • Lee, Sang-Hoon;Kim, Hyun-Seok;Suh, Il-Hong;Park, Myung-Kwan
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.82-86
    • /
    • 2004
  • A fuzzy rule-based hand-motion estimation algorithm is proposed for a 6 dimensional spatial tracker in which low cost accelerometers and gyros are employed. To be specific, beginning and stopping of hand motions needs to be accurately detected to initiate and terminate integration process to get position and pose of the hand from accelerometer and gyro signals, since errors due to noise and/or hand-shaking motions accumulated by integration processes. Fuzzy rules of yes or no of hand-motion-detection are here proposed for rules of accelerometer signals, and sum of derivatives of accelerometer and gyro signals. Several experimental results and shown to validate our proposed algorithms.

  • PDF

3-D Glove를 이용한 손동작의 분석 시스템 개발 (Develipment of a hand motion analysis system using a 3-D Glove)

  • 윤명환;권오채;한수미;박재희;이경태
    • 대한인간공학회:학술대회논문집
    • /
    • 대한인간공학회 1997년도 추계학술대회논문집
    • /
    • pp.393-397
    • /
    • 1997
  • 본 연구에서는 손동작(Hand Motion)과 수작업(Manual Task) 분석에 VR환경에서 사용되는 각도 측정 장갑(3-D Glove)을 이용하는 방법을 제안하였다. 본 연구에서 개발된 손동작(Hand Motion)과 수작업(Manual Task)의 분석 시스템은 18-sensor $Cyberglove^{TM}$정 시스템으로부터 측정된 angle data를 기초로 손동작이나 수작업에 대한 totalmuscle moment값과 total muscle excursion값을 구하고, digit와 joint의 moment값을 X,Y.Z방향별고 구하는 기능을 가지고 있다. 시스템의 구성은 : (1) $Cyberglove^{TM}$ System과 분석 시스템의 digital data 처리를 기반으로 하는 손동작의 측정 시스템 ; (2) $Cyberglove^{TM}$ System에서 얻어진 자료를 바탕으로 3차원 공간에서 손동작을 표현할 수 있는 Kinematic Hand Model ; (3) Hand Model과 $Cyberglove^{TM}$ Systme을 기반으로 3차원에서 손동작의 역학적 분석을 할 수 있는 3-D Hand Biomechanical Model ; 등으로 되어있다. 본 시스템은 Telerobotics, Medicine, Virtual Reality 등 다양한 분야에 응용이 가능하며, 수작업에 관련되는 Product Design, Manual Control Device, Computer I/O Device의 설계에도 도움이 될 것으로 기대된다.

  • PDF

수화소 분석을 통한 손동작 움직임 표현방법 (Advanced Representation Method of Hand Motion by Cheremes Analysis in KSL)

  • 이부형;송필재
    • 한국멀티미디어학회논문지
    • /
    • 제9권8호
    • /
    • pp.1067-1075
    • /
    • 2006
  • 본 논문에서는 손동작 인식을 위한 개선된 손동작 움직임 표현방법을 제안한다. 제안된 방법은 다양하고 통일된 손동작 움직임을 인식하기 위해서 수화(한글수화) 시 사용되는 손동작에 적용시킨 표현방법이다. 수화 특히, 한글수화(KSL)는 수화소(Cheremes)라는 요소들, 즉, 손의 이동 방향, 손가락모양, 손의 위치 등의 조합에 의해 단어 또는 문장이 완성되어 의미 있는 수화가 완성된다. 본 논문에서는 한글 수화에서 이용되는 수화소(Cheremes)를 5개의 수화소 즉, 손의 이동방향(HMO),손가락모양(FS), 손의 방향(H0), 손의 위치(HP) 및 사용하는 손의 수(HN)로 분류, 표현한다. 손의 이동방향(HMO)은 수화에서 단어 또는 문장을 표현하는데 사용되는 방향을 고려하여 17개의 방향성분으로 표현한다. 손가락 모양(FS)은 수화동작에서 사용되는 손가락의 모양에 따라 17개의 성분으로 표현할 수 있으며, 또한, 손의 바닥을 이용하는지 손등을 이용하는지에 따라 손의 방향(HO)이 2가지 특징으로 표현된다. 손의 현재 위치(HP)는 수화동작에서 손이 놓이는 위치를 의미하며, 머리영역에서 가슴영역까지 전체 8개의 영역으로 나뉘어 표현한다. 마지막으로 사용하는 손의수는 수화동작에서 손 하나만을 사용하는지 양쪽 모두를 사용하는 지를 나타내는 것으로, 2가지 특징으로 표현한다. 제안된 손동작 표현방법을 한글수화의 단어 및 문장 모두에 적용한 결과 모든 KSL이 제안된 표현방법으로 완벽하게 표현됨을 보였다.

  • PDF

Leap Motion Framework for Juggling Motion According to User Motion in Virtual Environment

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권11호
    • /
    • pp.51-57
    • /
    • 2021
  • 본 논문에서는 립모션 디바이스를 이용하여 사용자의 손 움직임을 계산하고, 이로부터 저글링 동작뿐만 아니라 이것을 활용하여 팔 근육을 연습 및 분석할 수 있는 새로운 프레임워크를 제안한다. 제안하는 방법은 실시간으로 사용자의 손동작에 맞춰 가상환경에서 공의 움직임을 매핑 할 수 있고, 근육의 이완과 수축을 시각화하여 운동량을 분석할 수 있다. 제안하는 프레임워크는 크게 세 부분으로 구성된다 : 1) 립모션 디바이스를 이용하여 사용자의 손 위치를 추적한다. 2) 저글링을 하듯이, 사용자가 공을 던지는 행동 패턴을 이벤트로 정의한다. 3) 사용자의 손 위치를 기준으로 저글링 형태의 움직임을 공에 매핑하기 위한 포물선 기반 입자 기법을 제안한다. 결과적으로 본 논문의 프레임워크를 이용하면 실시간 저글링 게임을 할 수 있다.