• 제목/요약/키워드: gesture tracking

검색결과 110건 처리시간 0.026초

사용자 손동작 추적에 기반한 증강현실 게임 인터페이스 (Augmented Reality Game Interface Using Hand Gestures Tracking)

  • 윤종현;박종승
    • 한국게임학회 논문지
    • /
    • 제6권2호
    • /
    • pp.3-12
    • /
    • 2006
  • 최근 게임 시장에서 한층 강화된 몰입감을 부여하는 증강현실 기술 기반의 3D 게임들이 등장하고 있다. 본 논문에서는 사용자의 손동작을 인식하여 게임 응용프로그램과 상호작용하는 증강현실 게임의 구현 기법을 제시한다. 웹캠을 통해 입력되는 영상 프레임에서 특징점들을 추출한다. 추출된 특징점들의 움직임을 통해 추적 대상의 움직임을 분석하여 사용자의 의도된 행위를 인식한다. 손동작 추적으로부터의 움직임의 궤적의 형태와 메뉴나 가상객체 위치 관계로부터 사용자의 의도된 움직임을 신뢰성있게 판단하는 기법을 제시한다. 제시한 방법의 우수성 입증을 위해 두 개의 증강현실 응용 시스템을 구현하고 인식의 정확도를 실험하였다. 응용으로 사람의 움직임을 감지해 동작하는 뮤직플레이어와 사용자가 위치한 현실공간에 대응되는 가상공간 내에서 가상농구게임을 개발하였다. 뮤직플레이어에서는 사용자가 손동작으로 다양한 메뉴를 선택할 수 있다. 가상농구게임에서는 가상의 공이 가상공간에 추가되고 이를 사용자가 물리공갈에서 직접 손을 움직여서 가상의 공과 상호작용한다. 사용자의 움직임 인식에 대하여 정상적인 움직임의 사용자에 대해서 평균 94%의 정확도를 보였으며 급격한 움직임의 사용자에 대해서는 약 84%의 정확도를 보였다.

  • PDF

모노 카메라 영상기반 시간 간격 윈도우를 이용한 광역 및 지역 특징 벡터 적용 AdaBoost기반 제스처 인식 (AdaBoost-based Gesture Recognition Using Time Interval Window Applied Global and Local Feature Vectors with Mono Camera)

  • 황승준;고하윤;백중환
    • 한국정보통신학회논문지
    • /
    • 제22권3호
    • /
    • pp.471-479
    • /
    • 2018
  • 최근 안드로이드, iOS 등의 셋톱박스 기반의 스마트 TV에 대한 보급에 따라 제스처로 TV를 컨트롤 할 수 있는 새로운 접근을 제안한다. 본 논문에서는 모노 카메라 센서를 이용한 AdaBoost 기반 제스처 인식에 관한 알고리즘을 제안한다. 우선, 신체 좌표 추출을 위해 가우시안 배경 제거 및 Camshift 기반 자세 추적 및 추정 알고리즘을 사용한다. AdaBoost 학습 모델을 신체 정규화된 광역 및 지역 특징 벡터의 집합을 특징 패턴으로 하여, 속도가 다른 동작들을 인식할 수 있도록 하였다. 또한 속도가 다른 다양한 제스처를 인식하기 위해 다중 AdaBoost 알고리즘을 적용하였다. CART 알고리즘을 이용하여 성공적인 중요 특징 벡터를 확인하고 중요도가 낮은 특징벡터를 제거하는 방식을 적용하면서 분류 성공률이 높은 최적의 특징 벡터를 탐색하였다. 그 결과 24개의 주성분 특징 벡터를 찾았으며, 기존 알고리즘에 비해 낮은 오분류율(3.73%)과 높은 인식률(95.17%)을 지닌 특징 벡터 및 분류기를 설계하였다.

손동작 인식에 의한 컴퓨터 비전 인터페이스 설계 (Design of Computer Vision Interface by Recognizing Hand Motion)

  • 윤진현;이종호
    • 전자공학회논문지CI
    • /
    • 제47권3호
    • /
    • pp.1-10
    • /
    • 2010
  • 손동작을 통한 입력방법은 컴퓨터와 디지털 기기의 발전에 따라 요구되는 새로운 HCI(Human-Computer Interaction) 방법으로써 그 가능성을 가지고 있으며 이에 대한 다양한 시도가 있었다. 본 논문에서는 컴퓨터 비전을 기반으로 단일 카메라를 사용하는 손 영역 검출 및 추적방법을 제시하고 이에 의한 컴퓨터 인터페이스를 제안한다. 기존에 많이 쓰이는 피부색 매치 방법에 추가하여 형태 정보를 더함으로써 손 영역 검출능력을 향상 시켰다. 이러한 형태 정보를 추출하는 방법으로써 주요 방향 에지 기술자라는 방법을 제안하였고 이는 강력하여 학습 시간 없이 한 가지 손 모델만을 사용하여 손 영역 검출을 할 수 있다. 또한 손 영역 검출과 추적하는 방법을 나누어 추적할 때는 회전에 대한 자유도를 높이도록 설계 하였다. 위 방법을 이용하여 3차원 공간에 그려지는 필기체 숫자 인식에 적용해 보았으며 분류 방법으로 DNAC 알고리즘을 사용하였다. 결과적으로 손 영역 검출은 82%의 검출률을 보였고 필기체 숫자 인식은 90%의 인식률을 보였다.

화자의 긍정·부정 의도를 전달하는 실용적 텔레프레즌스 로봇 시스템의 개발 (Development of a Cost-Effective Tele-Robot System Delivering Speaker's Affirmative and Negative Intentions)

  • 진용규;유수정;조혜경
    • 로봇학회논문지
    • /
    • 제10권3호
    • /
    • pp.171-177
    • /
    • 2015
  • A telerobot offers a more engaging and enjoyable interaction with people at a distance by communicating via audio, video, expressive gestures, body pose and proxemics. To provide its potential benefits at a reasonable cost, this paper presents a telepresence robot system for video communication which can deliver speaker's head motion through its display stanchion. Head gestures such as nodding and head-shaking can give crucial information during conversation. We also can assume a speaker's eye-gaze, which is known as one of the key non-verbal signals for interaction, from his/her head pose. In order to develop an efficient head tracking method, a 3D cylinder-like head model is employed and the Harris corner detector is combined with the Lucas-Kanade optical flow that is known to be suitable for extracting 3D motion information of the model. Especially, a skin color-based face detection algorithm is proposed to achieve robust performance upon variant directions while maintaining reasonable computational cost. The performance of the proposed head tracking algorithm is verified through the experiments using BU's standard data sets. A design of robot platform is also described as well as the design of supporting systems such as video transmission and robot control interfaces.

3D 가상현실기반의 발표훈련시스템 (Presentation Training System based on 3D Virtual Reality)

  • 정영기
    • 문화기술의 융합
    • /
    • 제4권4호
    • /
    • pp.309-316
    • /
    • 2018
  • 본 연구에서는 실제와 같은 가상발표환경을 구현하여 실전에서 자신감 있게 발표할 수 있도록 도와주기 위한 3D 가상현실기반의 발표훈련시스템을 제안한다. 제안시스템은 발표자의 음성과 행동을 실시간으로 분석하여 가상공간의 청중들에게 반영되게 함으로서 사실감 있고 몰입도 높은 발표 및 면접 환경을 제공하였다. 발표자는 6DOF Tracking이 되는 HMD와 VR Controller를 착용하고 Kinect를 이용하여 가상공간 속에서의 시점 변화 및 인터랙션을 줄 수 있으며 가상공간은 사용자가 설정한 다양한 환경으로 변경이 가능하도록 하였다. 발표자는 가상공간 속에 별도로 제공되는 뷰에 표시된 프리젠테이션 파일 및 스크립트를 보며 내용 숙지 및 발표 숙달 연습을 하게 된다.

하이브리드 센싱 기반 다중참여형 가상현실 이동 플랫폼 개발에 관한 연구 (A Study on the Development of Multi-User Virtual Reality Moving Platform Based on Hybrid Sensing)

  • 장용훈;장민혁;정하형
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.355-372
    • /
    • 2021
  • Recently, high-performance HMDs (Head-Mounted Display) are becoming wireless due to the growth of virtual reality technology. Accordingly, environmental constraints on the hardware usage are reduced, enabling multiple users to experience virtual reality within a single space simultaneously. Existing multi-user virtual reality platforms use the user's location tracking and motion sensing technology based on vision sensors and active markers. However, there is a decrease in immersion due to the problem of overlapping markers or frequent matching errors due to the reflected light. Goal of this study is to develop a multi-user virtual reality moving platform in a single space that can resolve sensing errors and user immersion decrease. In order to achieve this goal hybrid sensing technology was developed, which is the convergence of vision sensor technology for position tracking, IMU (Inertial Measurement Unit) sensor motion capture technology and gesture recognition technology based on smart gloves. In addition, integrated safety operation system was developed which does not decrease the immersion but ensures the safety of the users and supports multimodal feedback. A 6 m×6 m×2.4 m test bed was configured to verify the effectiveness of the multi-user virtual reality moving platform for four users.

Active Appearance Model을 이용한 얼굴 추적 시스템 (Face Tracking System using Active Appearance Model)

  • 조경식;김용국
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1044-1049
    • /
    • 2006
  • 얼굴 추적은 Vision base HCI의 핵심인 얼굴인식, 표정인식 그리고 Gesture recognition등의 다른 여러 기술을 지원하는 중요한 기술이다. 이런 얼굴 추적기술에는 영상(Image)의 Color또는 Contour등의 불변하는 특징들을 사용 하거나 템플릿(template)또는 형태(appearance)를 사용하는 방법 등이 있는데 이런 방법들은 조명환경이나 주위 배경등의 외부 환경에 민감하게 반응함으로 해서 다양한 환경에 사용할 수 없을 뿐더러 얼굴영상만을 정확하게 추출하기도 쉽지 않은 실정이다. 이에 본 논문에서는 deformable한 model을 사용하여 model과 유사한 shape과 appearance를 찾아 내는 AAM(Active Appearance Model)을 사용하는 얼굴 추적 시스템을 제안하고자 한다. 제안된 시스템에는 기존의 Combined AAM이 아닌 Independent AAM을 사용하였고 또한 Fitting Algorithm에 Inverse Compositional Image Alignment를 사용하여 Fitting 속도를 향상 시켰다. AAM Model을 만들기 위한 Train set은 150장의 4가지 형태에 얼굴을 담고 있는 Gray-scale 영상을 사용 하였다. Shape Model은 각 영상마다 직접 표기한 47개의 Vertex를 Trianglize함으로서 생성되는 71개의 Triangles을 하나의 Mesh로 구성하여 생성 하였고, Appearance Model은 Shape 안쪽의 모든 픽셀을 사용해서 생성하였다. 시스템의 성능 평가는 Fitting후 Shape 좌표의 정확도를 측정 함으로서 평가 하였다.

  • PDF

비디오 편집을 위한 손동작 추적 및 인식 (Hand Gesture Tracking and Recognition for Video Editing)

  • 박호식;차승주;정하영;나상동;배철수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 춘계학술발표대회
    • /
    • pp.697-700
    • /
    • 2006
  • 본 논문에서는 동작에 근거한 새로운 비디오 편집 방법을 제안한다. 강의 비디오에서 전자 슬라이드 내용을 자동으로 검출하고 비디오와 동기화한다. 각 동기화된 표제의 동작을 연속적으로 추적 및 인식한 후, 등록된 화면과 슬라이드에서 변환 내용을 찾아 동작이 일어 나는 영역을 확인한다. 인식된 동작과 등록된 지점에서 슬라이드의 정보를 추출하여 슬라이드 영역을 부분적으로 확대한다거나 원본 비디오를 자동으로 편집함으로써 비디오의 질을 향상 시킬 수가 있다. 2 개의 비디오 가지고 실험한 결과 각각 95.5, 96.4%의 동작 인식 결과를 얻을 수 있었다.

  • PDF

손 제스처 인식을 위한 손 영역 추적 및 손가락 검출 방법 (Hand Region Tracking and Finger Detection for Hand Gesture Recognition)

  • 박세호;김태곤;이지은;이경택
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2014년도 하계학술대회
    • /
    • pp.34-35
    • /
    • 2014
  • 본 논문에서는 손가락 제스처 인식을 위해서 깊이 영상 카메라를 이용하여 손 영역을 추적하고 손가락 끝점을 찾는 방법을 제시하고자 한다. 실시간 영역 추적을 위해 적은 연산량으로 손 영역의 중심점을 검출하고 추적이 가능하여야 하며, 다양한 제스처를 효과적으로 인식하기 위해서는 손 모양에서 손가락을 인식하여야 하기 때문에 손가락 끝점을 찾는 방법도 함꼐 제시하고자 한다. 또한 손가락이 정확히 검출되었는지를 확인하기 위해서 손가락의 이동과 손가락의 클릭 제스처를 마우스에 연동하여 검출 결과를 테스트 하였다.

  • PDF

몰입형 무대 연출을 위한 시나리오 및 콘텐츠 설계 시스템 (Scenario and Content Design System for Immersive Stage Direction)

  • 문명운;치옥용;국윤창;홍성욱;김준오;조경은
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.1079-1080
    • /
    • 2017
  • Today multimedia technologies are playing an increasingly important role in games, movies, and live performances. In this paper, we design a flexible interactive system integrated with gesture recognition, skeleton tracking, internet communication, and content edition using multi-sensors to direct and control the performance on stage. In this system, the performer can control the elements showed on stage through corresponding gestures and body movements during the performance. The system provides an easier way for users to change the content of the performance if they intent to do.