• 제목/요약/키워드: gesture tracking

검색결과 110건 처리시간 0.023초

손 제스쳐 인식을 위한 상호작용 시각정보 추출 (Interactive visual knowledge acquisition for hand-gesture recognition)

  • 양선옥;최형일
    • 전자공학회논문지B
    • /
    • 제33B권9호
    • /
    • pp.88-96
    • /
    • 1996
  • Computer vision-based gesture recognition systems consist of image segmentation, object tracking and decision. However, it is difficult to segment an object from image for gesture in computer systems because of vaious illuminations and backgrounds. In this paper, we describe a method to learn features for segmentation, which improves the performance of computer vision-based hand-gesture recognition systems. Systems interact with a user to acquire exact training data and segment information according to a predefined plan. System provides some models to the user, takes pictures of the user's response and then analyzes the pictures with models and a prior knowledge. The system sends messages to the user and operates learning module to extract information with the analyzed result.

  • PDF

Gesture based Natural User Interface for e-Training

  • Lim, C.J.;Lee, Nam-Hee;Jeong, Yun-Guen;Heo, Seung-Il
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.577-583
    • /
    • 2012
  • Objective: This paper describes the process and results related to the development of gesture recognition-based natural user interface(NUI) for vehicle maintenance e-Training system. Background: E-Training refers to education training that acquires and improves the necessary capabilities to perform tasks by using information and communication technology(simulation, 3D virtual reality, and augmented reality), device(PC, tablet, smartphone, and HMD), and environment(wired/wireless internet and cloud computing). Method: Palm movement from depth camera is used as a pointing device, where finger movement is extracted by using OpenCV library as a selection protocol. Results: The proposed NUI allows trainees to control objects, such as cars and engines, on a large screen through gesture recognition. In addition, it includes the learning environment to understand the procedure of either assemble or disassemble certain parts. Conclusion: Future works are related to the implementation of gesture recognition technology for a multiple number of trainees. Application: The results of this interface can be applied not only in e-Training system, but also in other systems, such as digital signage, tangible game, controlling 3D contents, etc.

Particle Filter를 이용한 제스처 인식 연구 (A Study on the Gesture Recognition Using the Particle Filter Algorithm)

  • 이양원;김철원
    • 한국정보통신학회논문지
    • /
    • 제10권11호
    • /
    • pp.2032-2038
    • /
    • 2006
  • 연속되는 이미지 중에서 인간의 동작을 인식하는 것은 인간과 컴퓨터 의 상호 작용에서 매우 중요하고 도전할 분야이다. 본 논문에서는 CONDENSATION 알고리즘을 이용하여 입자 필터(particle filter)에 기반한 동작 인식 알고리즘을 제안한다. 입자 필터는 조건 확률 전파 모델(Conditional Density Propagation)인 베이시안(Bayesian) 추정 규칙을 적용하는 추적구조를 갖고 있기 때문에 다른 어떤 종류의 추적 알고리즘보다 뛰어난 성능을 보인다. 본 논문에서는 알고리즘의 성능평가를 위해서 두 개의 동작 모델을 가정하였고, 영상에 대한 전처리를 위해서는 MATLAB를 이용하였으며 입자필터는 고속 처리를 위하여 C++로 구현하였다. 두 개의 동작 실험 결과를 통해, 동작 인식 입자 필터가 복잡한 환경 속에서 강인한 추적 성능을 나타냄을 확인하였다.

CONDENSATION 알고리즘을 이용한 입자필터 기반 동작 인식 연구 (A Study on the Gesture Recognition Based on the Particle Filter Using CONDENSATION Algorithm)

  • 이양원
    • 한국정보통신학회논문지
    • /
    • 제11권3호
    • /
    • pp.584-591
    • /
    • 2007
  • 연속되는 이미지 중에서 인간의 동작을 인식하는 것은 인간과 컴퓨터의 상호 작용에서 매우 중요하고 도전할 분야이다. 본 논문에서는 CONDENSATION 알고리즘을 이용하여 입자 필터(particle filter)에 기반한 동작 인식 알고리즘을 제안한다. 입자 필터는 조건 확률 전파 모델(Conditional Density Propagation)인 베이시안(Bayesian) 추정 규칙을 적용하는 추적구조를 갖고 있기 때문에 일반적으로 기존 추적 알고리즘보다 뛰어난 성능을 갖는 경향이 있다. 본 논문에서는 알고리즘의 성능 평가를 위해서 두 개의 동작 모델을 가정하였고, 영상에 대한 전처리를 위해서는 MATLAB를 이용하였으며 입자필터는 고속 처리를 위하여 C++로 구현하였다. 두 개의 동작 실험 결과를 통해, 동작 인식 입자 필터가 근접한 동작 환경 속에서 강인한 추적 성능을 나타냄을 확인하였다.

구조적 템플렛 매칭에 기반을 둔 실시간 손 추적 및 인식 (Real-time hand tracking and recognition based on structured template matching)

  • 김송국;배기태;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1037-1043
    • /
    • 2006
  • 본 논문에서는 유비쿼터스 컴퓨팅 오피스 환경에서 가장 직관적인 HCI 수단인 손 제스처를 사용하여 대형 스크린 상의 응용 프로그램들을 쉽게 제어할 수 있는 시스템을 제안한다. 손 제스처는 손 영역의 정보, 손 중심점의 위치 변화값과 손가락 형상을 이용하여 시스템 제어에 필요한 종류들을 미리 정의해 둔다. 먼저 효율적으로 손 영역 획득을 위해 적외선 카메라를 사용하여 연속된 영상을 획득한다. 획득된 영상 프레임으로부터 구조적 템플레이트 매칭 방법을 사용하여 손의 중심(centroid) 및 손가락끝(fingertip)을 검출한다. 인식과정에서는 양손의 Euclidean distance와 손가락 형상 정보를 이용하여 미리 정의된 제스처와 비교하여 인식을 행한다. 본 논문에서 제안한 비전 기반 hand gesture 제어 시스템은 인간과 컴퓨터의 상호작용을 이해하는데 많은 이점을 제공할 수 있다. 실험 결과를 통해 본 논문에서 제안한 방법의 효율성을 입증한다.

  • PDF

시간 간격 특징 벡터를 이용한 AdaBoost 기반 제스처 인식 (AdaBoost-Based Gesture Recognition Using Time Interval Trajectory Features)

  • 황승준;안광표;박승제;백중환
    • 한국항행학회논문지
    • /
    • 제17권2호
    • /
    • pp.247-254
    • /
    • 2013
  • 본 논문에서는 키넥트 센서를 이용한 AdaBoost 기반 제스처 인식에 관한 알고리즘을 제안한다. 최근 스마트 TV에 대한 보급으로 관련 산업이 주목받고 있다. 기존 리모컨을 이용하여 TV를 컨트롤 하던 시대에서 벗어나 제스처를 이용하여 TV를 컨트롤 할 수 있는 새로운 접근을 제안한다. AdaBoost 학습 모델에 신체 정규화 된 시간 간격 특징 벡터의 집합을 특징 패턴으로 하여, 속도가 다른 동작들을 인식할 수 있도록 하였다. 또한 속도가 다른 다양한 제스처를 인식하기 위해 다중 AdaBoost 알고리즘을 적용하였다. 제안된 알고리즘을 실제 동영상 플레이어와 연결하여 적용하였고, 실험 후 좌표 변화를 이용한 알고리즘에 비해 정확도가 향상되었음을 확인하였다.

Investigating Key User Experience Factors for Virtual Reality Interactions

  • Ahn, Junyoung;Choi, Seungho;Lee, Minjae;Kim, Kyungdoh
    • 대한인간공학회지
    • /
    • 제36권4호
    • /
    • pp.267-280
    • /
    • 2017
  • Objective: The aim of this study is to investigate key user experience factors of interactions for Head Mounted Display (HMD) devices in the Virtual Reality Environment (VRE). Background: Virtual reality interaction research has been conducted steadily, while interaction methods and virtual reality devices have improved. Recently, all of the virtual reality devices are head mounted display based ones. Also, HMD-based interaction types include Remote Controller, Head Tracking, and Hand Gesture. However, there is few study on usability evaluation of virtual reality. Especially, the usability of HMD-based virtual reality was not investigated. Therefore, it is necessary to study the usability of HMD-based virtual reality. Method: HMD-based VR devices released recently have only three interaction types, 'Remote Controller', 'Head Tracking', and 'Hand Gesture'. We search 113 types of research to check the user experience factors or evaluation scales by interaction type. Finally, the key user experience factors or relevant evaluation scales are summarized considering the frequency used in the studies. Results: There are various key user experience factors by each interaction type. First, Remote controller's key user experience factors are 'Ease of learning', 'Ease of use', 'Satisfaction', 'Effectiveness', and 'Efficiency'. Also, Head tracking's key user experience factors are 'Sickness', 'Immersion', 'Intuitiveness', 'Stress', 'Fatigue', and 'Ease of learning'. Finally, Hand gesture's key user experience factors are 'Ease of learning', 'Ease of use', 'Feedback', 'Consistent', 'Simple', 'Natural', 'Efficiency', 'Responsiveness', 'Usefulness', 'Intuitiveness', and 'Adaptability'. Conclusion: We identified key user experience factors for each interaction type through literature review. However, we did not consider objective measures because each study adopted different performance factors. Application: The results of this study can be used when evaluating HMD-based interactions in virtual reality in terms of usability.

안정적 사람 검출 및 추적을 위한 검증 프로세스 (Verification Process for Stable Human Detection and Tracking)

  • 안정호;최종호
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권3호
    • /
    • pp.202-208
    • /
    • 2011
  • 최근 들어 인간과 컴퓨터의 상호작용을 통해 컴퓨터 시스템을 제어하는 기술에 관한 연구가 진행되고 있다. 이러한 응용분야의 대부분은 얼굴검출을 통해 사용자의 위치를 파악하고 사용자의 제스처를 인식하는 방법을 포함하고 있으나, 얼굴검출 성능은 아직 미흡한 실정이다. 사용자의 위치가 안정적으로 검출되지 못 하는 경우에는 제스처 인식 등의 인터페이스 성능은 현격하게 저하된다. 따라서 본 논문에서는 피부색과 얼굴검출의 누적 분포를 이용하여 동영상에서 안정적으로 얼굴을 검출할 수 있는 알고리즘을 제안하고, 실험을 통해 알고리즘의 유용성을 증명하였다. 제안한 알고리즘은 대응행렬 분석을 적용하여 사람을 추적하는 분야에 응용이 가능하다.

A Prototype Design for a Real-time VR Game with Hand Tracking Using Affordance Elements

  • Yu-Won Jeong
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권5호
    • /
    • pp.47-53
    • /
    • 2024
  • 본 연구는 어포던스 개념을 적용하여 가상 환경에서의 제스처 인식 과정에서 자연스러운 동작을 유도함으로써 상호작용과 몰입감을 향상하기 위한 인터랙티브 기술 활용을 제안한다. 이를 위해 샘플링 및 정규화 과정을 포함한 선분 인식 알고리즘을 활용하여 실제 손동작과 유사한 제스처를 인식하는 기법을 제안한다. 이러한 선분 인식은 본 논문에서 설계한 <VR Spell> 게임에서 마법진을 그리는 동작에 적용되었다. 실험 방법으로는 4개의 선분 인식 동작에 대한 인식률을 검증하였다. 본 논문은 실시간 핸드 트래킹 기술을 가상 환경, 특히 VR 게임과 같은 실감 콘텐츠에 적용하여 사용자에게 더 높은 몰입감과 재미를 추구하는 VR 게임을 제안하고자 한다.

RealBook: TouchFace-V 인터페이스 기반 실감형 전자책 (RealBook: A Tangible Electronic Book Based on the Interface of TouchFace-V)

  • 송대현;배기태;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제13권12호
    • /
    • pp.551-559
    • /
    • 2013
  • 본 논문에서는 사용자 중심의 제스처 인식과 직관적인 다중 터치가 가능한 TouchFace-V 인터페이스를 기반으로 제작된 실감형 전자책 RealBook시스템에 대하여 제안한다. 제안한 인터페이스는 기존 테이블탑 디스플레이의 단점으로 지적되는 제한적인 공간 활용 및 이동성 문제를 개선한 인터페이스로 테이블과 같이 평평한 곳이면 사용자가 언제 어디서나 자유롭게 간단한 설치 및 사용이 가능하다. 또한 영상 처리 기술 외에 별도의 센싱 기술을 사용하지 않고 손가락 다중 터치 기능 및 다양한 손 제스쳐 인식 기능을 구현했을 뿐만 아니라, 컴퓨터와 사용자간의 상호작용을 쉽고 자연스럽게 해주는 장점이 있다. 제안한 실감형 RealBook은 종이책의 아날로그적 감성과 디지털 전자책의 멀티미디어 효과를 접목시킨 전자책으로, 책에 있는 내용을 바탕으로 다양한 스토리를 구현하여 독자의 선택에 따라 각기 다른 스토리 진행이 가능하다. 독자들은 책 공간 안에서 다양한 상호작용을 통한 새로운 경험을 체험할 수 있다. 실험을 통해 제안한 시스템의 효율성을 입증하고 나아가 다중 터치 기술을 이용한 콘텐츠 시장이 발전할 수 있는 방안을 제시한다.