• 제목/요약/키워드: pose tracking

검색결과 155건 처리시간 0.028초

Pose Tracking of Moving Sensor using Monocular Camera and IMU Sensor

  • Jung, Sukwoo;Park, Seho;Lee, KyungTaek
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권8호
    • /
    • pp.3011-3024
    • /
    • 2021
  • Pose estimation of the sensor is important issue in many applications such as robotics, navigation, tracking, and Augmented Reality. This paper proposes visual-inertial integration system appropriate for dynamically moving condition of the sensor. The orientation estimated from Inertial Measurement Unit (IMU) sensor is used to calculate the essential matrix based on the intrinsic parameters of the camera. Using the epipolar geometry, the outliers of the feature point matching are eliminated in the image sequences. The pose of the sensor can be obtained from the feature point matching. The use of IMU sensor can help initially eliminate erroneous point matches in the image of dynamic scene. After the outliers are removed from the feature points, these selected feature points matching relations are used to calculate the precise fundamental matrix. Finally, with the feature point matching relation, the pose of the sensor is estimated. The proposed procedure was implemented and tested, comparing with the existing methods. Experimental results have shown the effectiveness of the technique proposed in this paper.

RBFNNs 패턴분류기와 객체 추적 알고리즘을 이용한 얼굴인식 및 추적 시스템 설계 (Design of Face Recognition and Tracking System by Using RBFNNs Pattern Classifier with Object Tracking Algorithm)

  • 오승훈;오성권;김진율
    • 전기학회논문지
    • /
    • 제64권5호
    • /
    • pp.766-778
    • /
    • 2015
  • In this paper, we design a hybrid system for recognition and tracking realized with the aid of polynomial based RBFNNs pattern classifier and particle filter. The RBFNN classifier is built by learning the training data for diverse pose images. The optimized parameters of RBFNN classifier are obtained by Particle Swarm Optimization(PSO). Testing data for pose image is used as a face image obtained under real situation, where the face image is detected by AdaBoost algorithm. In order to improve the recognition performance for a detected image, pose estimation as preprocessing step is carried out before the face recognition step. PCA is used for pose estimation, the pose of detected image is assigned for the built pose by considering the featured difference between the previously built pose image and the newly detected image. The recognition of detected image is performed through polynomial based RBFNN pattern classifier, and if the detected image is equal to target for tracking, the target will be traced by particle filter in real time. Moreover, when tracking is failed by PF, Adaboost algorithm detects facial area again, and the procedures of both the pose estimation and the image recognition are repeated as mentioned above. Finally, experimental results are compared and analyzed by using Honda/UCSD data known as benchmark DB.

머리의 자세를 추적하기 위한 효율적인 카메라 보정 방법에 관한 연구 (An Efficient Camera Calibration Method for Head Pose Tracking)

  • 박경수;임창주;이경태
    • 대한인간공학회지
    • /
    • 제19권1호
    • /
    • pp.77-90
    • /
    • 2000
  • The aim of this study is to develop and evaluate an efficient camera calibration method for vision-based head tracking. Tracking head movements is important in the design of an eye-controlled human/computer interface. A vision-based head tracking system was proposed to allow the user's head movements in the design of the eye-controlled human/computer interface. We proposed an efficient camera calibration method to track the 3D position and orientation of the user's head accurately. We also evaluated the performance of the proposed method. The experimental error analysis results showed that the proposed method can provide more accurate and stable pose (i.e. position and orientation) of the camera than the conventional direct linear transformation method which has been used in camera calibration. The results of this study can be applied to the tracking head movements related to the eye-controlled human/computer interface and the virtual reality technology.

  • PDF

A Vision-based Approach for Facial Expression Cloning by Facial Motion Tracking

  • Chun, Jun-Chul;Kwon, Oryun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제2권2호
    • /
    • pp.120-133
    • /
    • 2008
  • This paper presents a novel approach for facial motion tracking and facial expression cloning to create a realistic facial animation of a 3D avatar. The exact head pose estimation and facial expression tracking are critical issues that must be solved when developing vision-based computer animation. In this paper, we deal with these two problems. The proposed approach consists of two phases: dynamic head pose estimation and facial expression cloning. The dynamic head pose estimation can robustly estimate a 3D head pose from input video images. Given an initial reference template of a face image and the corresponding 3D head pose, the full head motion is recovered by projecting a cylindrical head model onto the face image. It is possible to recover the head pose regardless of light variations and self-occlusion by updating the template dynamically. In the phase of synthesizing the facial expression, the variations of the major facial feature points of the face images are tracked by using optical flow and the variations are retargeted to the 3D face model. At the same time, we exploit the RBF (Radial Basis Function) to deform the local area of the face model around the major feature points. Consequently, facial expression synthesis is done by directly tracking the variations of the major feature points and indirectly estimating the variations of the regional feature points. From the experiments, we can prove that the proposed vision-based facial expression cloning method automatically estimates the 3D head pose and produces realistic 3D facial expressions in real time.

포즈 추적 센서를 활용한 모바일 증강 가시화 기술 (Mobile Augmented Visualization Technology Using Vive Tracker)

  • 이동춘;김항기;이기석
    • 한국게임학회 논문지
    • /
    • 제21권5호
    • /
    • pp.41-48
    • /
    • 2021
  • 본 논문은 2개의 포즈(위치 및 회전) 추적 센서를 사용하여 마네킹 모델위에 3차원의 가상 인체를 증강하는 모바일 증강 가시화 기술에 대해서 소개한다. 증강 가시화를 위해 사용된 종래의 카메라 트래킹 기술은 카메라 영상을 사용하기 때문에 카메라의 떨림이나 빠른 이동시 카메라의 포즈 계산에 실패하는 단점이 있으나, 바이브 트래커를 이용하게 되면 이러한 단점을 극복할 수 있다. 또한 증강하고자 하는 객체인 마네킹의 위치가 바뀌거나 회전을 하게 되더라도 마네킹에 부착된 포즈 추적 센서를 사용하여 증강 가시화가 가능한 장점이 있으며 무엇보다 카메라 트래킹을 위한 부하가 없다는 장점을 가진다.

이동정보를 배제한 위치추정 알고리즘 (SIFT-Like Pose Tracking with LIDAR using Zero Odometry)

  • 김지수;곽노준
    • 제어로봇시스템학회논문지
    • /
    • 제22권11호
    • /
    • pp.883-887
    • /
    • 2016
  • Navigating an unknown environment is a challenging task for a robot, especially when a large number of obstacles exist and the odometry lacks reliability. Pose tracking allows the robot to determine its location relative to its previous location. The ICP (iterative closest point) has been a powerful method for matching two point clouds and determining the transformation matrix between the maps. However, in a situation where odometry is not available and the robot moves far from its original location, the ICP fails to calculate the exact displacement. In this paper, we suggest a method that is able to match two different point clouds taken a long distance apart. Without using any odometry information, it only exploits the features of corner points containing information on the surroundings. The algorithm is fast enough to run in real time.

계층적 샘플 생성 방법을 이용한 상체 추적과 포즈 인식 (Upper Body Tracking Using Hierarchical Sample Propagation Method and Pose Recognition)

  • 조상현;강행봉
    • 대한전자공학회논문지SP
    • /
    • 제45권5호
    • /
    • pp.63-71
    • /
    • 2008
  • 본 논문에서는 다관절체 추적을 위해 기존에 물체 추적에 자주 이용되는 파티클 필터를 확장한 계층적 파티클 필터 방법을 제안한다. 칼라 특징은 부분 겹침, 회전등에 강건한 특징을 가지고 있어서, 칼라 기반 파티클 필터는 물체 추적에 널리 쓰이고 있다. 다관절체 추적에서 상태 벡터는 높은 차원을 가지기 때문에 기존의 파티클 필터를 이용해 바람직한 추적 결과를 얻기 위해서는 많은 수의 샘플이 요구된다. 이러한 문제점을 해결하기 위해, 본 논문에서는 이미 알고 있는 다른 신체 부위의 위치를 이용해 계층적으로 신체 부위를 추적한다. 계층적 추적 방법에 의해 복잡한 환경에서 강건한 추적을 위한 샘플의 수를 줄일 수 있었다. 또한 포즈를 인식하기 위해 상박과 하박의 각도를 이용한 SVM(Support Vector Machine)을 이용해 8개의 포즈를 분류한다. 실험 결과는 세안한 방법이 기존의 칼라 기반의 파티클 필터보다 효율적임을 보여준다.

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.

실내 환경에서의 쿼드로터형 무인 비행체를 위한 비전 기반의 궤적 추종 제어 시스템 (Vision-Based Trajectory Tracking Control System for a Quadrotor-Type UAV in Indoor Environment)

  • 시효석;박현;김헌희;박광현
    • 한국통신학회논문지
    • /
    • 제39C권1호
    • /
    • pp.47-59
    • /
    • 2014
  • 본 논문은 실내 환경에서의 엔터테인먼트 활용을 목적으로 쿼드로터형 비행체를 위한 비전 기반의 궤적 추종제어 시스템을 다룬다. 항공촬영 및 감시 등의 특수임무를 완수하기 위해 자율성이 강조되는 실외 비행체와 비교할 때, 엔터테인먼트를 목적으로 하는 실내 환경에서의 비행체를 위해서는 안정성 및 정밀성이 특히 고려된 호버링 및 궤적추종 기능 등이 요구된다. 이에, 본 논문은 동작생성, 자세추정, 궤적추종 모듈로 구성된 궤적추종 제어시스템을 제안한다. 동작생성 모듈은 매 시간에서의 3차원 자세로 기술되는 동작들에 대한 연속적인 시퀀스를 생성한다. 자세추정 모듈은 비행체에 장착된 원형 링 패턴의 인식을 통해 쿼드로터의 3차원 자세정보를 추정한다. 궤적추종 모듈은 동작생성 모듈과 자세추정 모듈로부터 제공되는 정보를 이용하여 쿼드로터 비행체의 3차원 위치를 실시간적으로 제어한다. 제안된 시스템의 성능은 단일 점 추종, 다점 추종, 곡선궤적 추종에 대한 실험을 통해 평가된다.

실내 자율 주행을 위한 3D Map 생성 시스템 (3D Map Generation System for Indoor Autonomous Navigation)

  • 문성태;한상혁;엄위섭;김연규
    • 항공우주기술
    • /
    • 제11권2호
    • /
    • pp.140-148
    • /
    • 2012
  • 자율 주행을 위해 주행 지도, 위치 추적 및 목적지까지의 최단 경로 설정 연구가 필요하다. 특히 실내에서는 GPS 신호를 수신 받을 수 없기 때문에 이미지 프로세싱과 같은 방법을 통해 현재 위치를 인식하고 3차원 지도를 생성해야 한다. 본 논문에서는 Depth 카메라인 키넥트를 이용하여 3차원 지도를 생성하고, 일반 카메라로 촬영한 2차원 이미지를 이용하여 3차원 지도에서 현재 위치를 파악하는 방법에 대해 설명한다. 그리고 지도에서 장애물을 확인하고 단순화하는 방법에 대해서도 설명한다.