• 제목/요약/키워드: Gesture Recognition.

검색결과 558건 처리시간 0.031초

KS 표준 시표를 어용한 손-동작 인식 기반의 자가 시력 측정 시스템 (A Self Visual-Acuity Testing System based on the Hand-Gesture Recognition by the KS Standard Optotype)

  • 최창열;이우범
    • 융합신호처리학회논문지
    • /
    • 제11권4호
    • /
    • pp.303-309
    • /
    • 2010
  • 본 논문에서는 KS 표준 시표(Optotype)를 이용한 자가 시력 측정의 새로운 방법을 제안한다. 제안한 시스템은 시력 측정 응답에 있어서 피검자 편의성을 위한 피검사자의 손-동작 인식(Hand-Gesture Recognition) 방법을 제공한다. 또한 검사자가에 필요 없는 컴퓨터에 의한 무작위 자동 시표 조정으로 검사자의 주관적인 판단이나 피검자의 암기에 의한 추측이 배제된 객관적 시력 측정이 가능하다. 특히, 2006년에 한국 표준 협회에서 정의한 표준 시표와 그 제시법(KS P ISO 8596)에 따라 시스템을 구현함으로써 시스템에 대한 신뢰성이 보장되고, 측정된 시력 정보의 데이터베이스 관리 기능은 피검자의 시력 정보가 필요한 전자의료기록(EMR) 시스템을 위한 전자 정보 전달이 용이하다. 구현된 시력 측정 시스템은 피검자를 대상으로 실제 시력표를 이용하여 측정한 방법과 비교 실험한 결과, 오차한계 ${\pm}1$ 시력등급 내에서 98%의 정확성을 보였다.

합성 블록 어텐션 모듈을 이용한 운동 동작 인식 성능 분석 (Performance Analysis of Exercise Gesture-Recognition Using Convolutional Block Attention Module)

  • 경찬욱;정우용;선준호;선영규;김진영
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권6호
    • /
    • pp.155-161
    • /
    • 2021
  • 최근, 실시간으로 카메라를 통해 동작을 인식하는 기술의 연구가 많이 진행되고 있다. 기존의 연구들에서는 사람의 관절로부터 특징을 추출하는 개수가 적기 때문에 동작 분류의 정확도가 낮은 한계점들이 있다. 본 논문에서는 이러한 한계점들을 해결하기 위해 움직일 때 변하는 관절의 각도를 특징 추출하여 계산하는 알고리즘과 이미지 분류 시에 정확도가 높은 CBAM(Convolutional Block Attention Module)을 사용한 분류모델을 제안한다. AI Hub에서 제공하는 피트니스 자세 이미지로부터 5가지 운동 동작 이미지를 인용하여 분류 모델에 적용한다. 구글에서 제공하는 그래프 기반 프레임워크인 MediaPipe 기법을 사용하여, 이미지로부터 운동 동작 분류에 중요한 8가지 관절 각도 정보를 추가적으로 추출한다. 추출한 특징들을 모델의 입력으로 설정하여, 분류 모델을 학습시킨다. 시뮬레이션 결과로부터 제안한 모델은 높은 정확도로 운동 동작을 구분하는 것을 확인할 수 있다.

스마트폰 가속도 센서를 이용한 숫자인식 (Number Recognition Using Accelerometer of Smartphone)

  • 배석찬;강보경
    • 정보교육학회논문지
    • /
    • 제15권1호
    • /
    • pp.147-154
    • /
    • 2011
  • 본 연구에서는 가속도 센서의 각 축의 값들을 이용해 숫자나 특정 입력 값을 기기에 전달할 수 있는 제스처 인식을 위한 센서 값들의 효율적인 사전 보정 알고리즘과 분류 알고리즘에 대해서 제안한다. 실험결과 보정 전과 보정 후의 X축과 Z축의 에러율을 통하여 전처리 된 데이터가 생성됨을 알 수 있었다. 또한 전처리 된 데이터에 적용할 정규화와 분류 알고리즘으로 구현한 인식기가 높은 인식률을 보여주었다.

  • PDF

한글 수화용 동적 손 제스처의 실시간 인식 시스템의 구현에 관한 연구 (On-line dynamic hand gesture recognition system for the korean sign language (KSL))

  • 김종성;이찬수;장원;변증남
    • 전자공학회논문지C
    • /
    • 제34C권2호
    • /
    • pp.61-70
    • /
    • 1997
  • Human-hand gestures have been used a means of communication among people for a long time, being interpreted as streams of tokens for a language. The signed language is a method of communication for hearing impaired person. Articulated gestures and postures of hands and fingers are commonly used for the signed language. This paper presents a system which recognizes the korean sign language (KSL) and translates the recognition results into a normal korean text and sound. A pair of data-gloves are used a sthe sensing device for detecting motions of hands and fingers. In this paper, we propose a dynamic gesture recognition mehtod by employing a fuzzy feature analysis method for efficient classification of hand motions, and applying a fuzzy min-max neural network to on-line pattern recognition.

  • PDF

Multimodal Interface Based on Novel HMI UI/UX for In-Vehicle Infotainment System

  • Kim, Jinwoo;Ryu, Jae Hong;Han, Tae Man
    • ETRI Journal
    • /
    • 제37권4호
    • /
    • pp.793-803
    • /
    • 2015
  • We propose a novel HMI UI/UX for an in-vehicle infotainment system. Our proposed HMI UI comprises multimodal interfaces that allow a driver to safely and intuitively manipulate an infotainment system while driving. Our analysis of a touchscreen interface-based HMI UI/UX reveals that a driver's use of such an interface while driving can cause the driver to be seriously distracted. Our proposed HMI UI/UX is a novel manipulation mechanism for a vehicle infotainment service. It consists of several interfaces that incorporate a variety of modalities, such as speech recognition, a manipulating device, and hand gesture recognition. In addition, we provide an HMI UI framework designed to be manipulated using a simple method based on four directions and one selection motion. Extensive quantitative and qualitative in-vehicle experiments demonstrate that the proposed HMI UI/UX is an efficient mechanism through which to manipulate an infotainment system while driving.

신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처 인식 (Depth Image Poselets via Body Part-based Pose and Gesture Recognition)

  • 박재완;이칠우
    • 스마트미디어저널
    • /
    • 제5권2호
    • /
    • pp.15-23
    • /
    • 2016
  • 본 논문에서는 신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처를 인식하는 방법을 제안한다. 제스처는 순차적인 포즈로 구성되어 있기 때문에, 제스처를 인식하기 위해서는 시계열 포즈를 획득하는 것에 중점을 두고 있어야 한다. 하지만 인간의 포즈는 자유도가 높고 왜곡이 많기 때문에 포즈를 정확히 인식하는 것은 쉽지 않은 일이다. 그래서 본 논문에서는 신체의 전신 포즈를 사용하지 않고 포즈 특징을 정확히 얻기 위해 부분 포즈를 사용하였다. 본 논문에서는 16개의 제스처를 정의하였으며, 학습 영상으로 사용하는 깊이 영상 포즈렛은 정의된 제스처를 바탕으로 생성하였다. 본 논문에서 제안하는 깊이 영상 포즈렛은 신체 부분의 깊이 영상과 해당 깊이 영상의 주요 3차원 좌표로 구성하였다. 학습과정에서는 제스처를 학습하기 위하여 깊이 카메라를 이용하여 정의된 제스처를 입력받은 후, 3차원 관절 좌표를 획득하여 깊이 영상 포즈렛이 생성되었다. 그리고 깊이 영상 포즈렛을 이용하여 부분 제스처 HMM을 구성하였다. 실험과정에서는 실험을 위해 깊이 카메라를 이용하여 실험 영상을 입력받은 후, 전경을 추출하고 학습된 제스처에 해당하는 깊이 영상 포즈렛을 비교하여 입력 영상의 신체 부분을 추출한다. 그리고 HMM을 적용하여 얻은 결과를 이용하여 제스처 인식에 필요한 부분 제스처를 확인한다. 부분 제스처를 이용한 HMM을 이용하여 효과적으로 제스처를 인식할 수 있으며, 관절 벡터를 이용한 인식률은 약 89%를 확인할 수 있었다.

몰입형 가상현실의 착용식 사용자 인터페이스를 위한 Mixture-of-Experts 기반 제스처 인식 (Gesture Recognition based on Mixture-of-Experts for Wearable User Interface of Immersive Virtual Reality)

  • 윤종원;민준기;조성배
    • 한국HCI학회논문지
    • /
    • 제6권1호
    • /
    • pp.1-8
    • /
    • 2011
  • 최근 가상현실에 대한 관심이 높아짐에 따라 다양한 서비스와 어플리케이션이 개발되고 있으며, 이와 더불어 몰입형 상호작용을 위한 제스처 기반 사용자 인터페이스가 활발히 연구되고 있다. 본 논문에서는 가상현실 환경 내 사용자 움직임을 효과적으로 반영하고 몰입감을 높이기 위해 제스처 인식 기반 착용식 사용자 인터페이스를 제안한다. 제안하는 인터페이스는 적외선 LED가 부착되어 있는 헬멧과 적외선 수신기를 이용하여 사용자의 머리 움직임을 인식하며, 양 손에 착용한 데이터 글로브로부터 사용자의 손 제스처를 인식한다. 또한, 헤드 마운트 디스플레이 장치(HMD)를 이용하여 직접 사용자의 시점 변화와 가상환경의 시점 변화를 일치시킨다. 손 제스처의 경우 다수의 관절로 이루어져 있는 손의 특성상 다양한 동작이 가능하며 손 크기나 손동작이 사람마다 모두 다르기 때문에 다양한 사용자들을 대상으로 할 때, 일반적인 모델로는 정확한 인식이 어렵다. 본 논문에서는 다양한 사용자를 대상으로 정확히 손 제스처를 인식하기 위해 Mixture-of-Experts 기반 인식 방법을 적용하였다. 제안하는 인터페이스의 유용성을 평가하기 위해 가상 오케스트라 지휘 환경을 구현하여 인터페이스의 동작 성능을 분석하고 사용성 평가를 수행하였다. 그 결과, 사용자들이 쉽고 직관적으로 사용할 수 있으며 흥미를 유발함을 확인하였다.

  • PDF

Vision- Based Finger Spelling Recognition for Korean Sign Language

  • Park Jun;Lee Dae-hyun
    • 한국멀티미디어학회논문지
    • /
    • 제8권6호
    • /
    • pp.768-775
    • /
    • 2005
  • For sign languages are main communication means among hearing-impaired people, there are communication difficulties between speaking-oriented people and sign-language-oriented people. Automated sign-language recognition may resolve these communication problems. In sign languages, finger spelling is used to spell names and words that are not listed in the dictionary. There have been research activities for gesture and posture recognition using glove-based devices. However, these devices are often expensive, cumbersome, and inadequate for recognizing elaborate finger spelling. Use of colored patches or gloves also cause uneasiness. In this paper, a vision-based finger spelling recognition system is introduced. In our method, captured hand region images were separated from the background using a skin detection algorithm assuming that there are no skin-colored objects in the background. Then, hand postures were recognized using a two-dimensional grid analysis method. Our recognition system is not sensitive to the size or the rotation of the input posture images. By optimizing the weights of the posture features using a genetic algorithm, our system achieved high accuracy that matches other systems using devices or colored gloves. We applied our posture recognition system for detecting Korean Sign Language, achieving better than $93\%$ accuracy.

  • PDF

연속 영상에서의 얼굴표정 및 제스처 인식 (Recognizing Human Facial Expressions and Gesture from Image Sequence)

  • 한영환;홍승홍
    • 대한의용생체공학회:의공학회지
    • /
    • 제20권4호
    • /
    • pp.419-425
    • /
    • 1999
  • 본 논문에서는 흑백 동영상을 사용하여 얼굴 표정 및 제스처를 실시간으로 인식하는 시스템을 개발하였다. 얼굴 인식분야에서는 형판 정합법과 얼굴의 기하학적 고찰에 의한 사전지식을 바탕으로 한 방법을 혼합하여 사용하였다. 혼합 방법에 의해 입력영상에서 얼굴 부위만을 제한하였으며, 이 영역에 옵티컬 플로우를 적용하여 얼굴 표정을 인식하였다. 제스처 인식에서는 엔트로피를 분석하여 복잡한 배경영상으로부터 손 영역을 분리하는 방법을 제안하였으며 , 이 방법을 개선하여 손동작에 대한 제스처를 인식하였다. 실험 결과, 입력 영상의 배경에 크게 영향을 받지 않고서도 동일 영상에서 움직임이 큰 부위를 검출하여 얼굴의 표정 및 손 제스처를 실시간적으로 인식할 수 있었다.

  • PDF