• 제목/요약/키워드: camera pose estimation

검색결과 122건 처리시간 0.023초

2.5D human pose estimation for shadow puppet animation

  • Liu, Shiguang;Hua, Guoguang;Li, Yang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권4호
    • /
    • pp.2042-2059
    • /
    • 2019
  • Digital shadow puppet has traditionally relied on expensive motion capture equipments and complex design. In this paper, a low-cost driven technique is presented, that captures human pose estimation data with simple camera from real scenarios, and use them to drive virtual Chinese shadow play in a 2.5D scene. We propose a special method for extracting human pose data for driving virtual Chinese shadow play, which is called 2.5D human pose estimation. Firstly, we use the 3D human pose estimation method to obtain the initial data. In the process of the following transformation, we treat the depth feature as an implicit feature, and map body joints to the range of constraints. We call the obtain pose data as 2.5D pose data. However, the 2.5D pose data can not better control the shadow puppet directly, due to the difference in motion pattern and composition structure between real pose and shadow puppet. To this end, the 2.5D pose data transformation is carried out in the implicit pose mapping space based on self-network and the final 2.5D pose expression data is produced for animating shadow puppets. Experimental results have demonstrated the effectiveness of our new method.

멀티카메라를 이용한 영상정보 기반의 소형무인기 실내비행시험환경 연구 (Vision-based Small UAV Indoor Flight Test Environment Using Multi-Camera)

  • 원대연;오현동;허성식;박봉균;안종선;심현철;탁민제
    • 한국항공우주학회지
    • /
    • 제37권12호
    • /
    • pp.1209-1216
    • /
    • 2009
  • 본 논문에서는 실내 공간에 설치된 복수의 카메라로부터 획득한 영상정보를 소형무인기의 자세 추정 및 제어에 이용하는 시스템에 대한 연구를 기술하였다. 제안된 시스템은 실외 비행시험의 제한을 극복하고 효율적인 비행시험 환경을 구축하기 위한 것으로 무인기의 위치 및 자세를 측정하기 위해 별도의 센서를 탑재할 필요가 없어 저가의 장비로 테스트베드를 구성할 수 있다는 장점을 갖는다. 시스템 구현을 위해 요구되는 카메라 보정, 마커 검출, 자세 추정 기법을 소개하였으며 테스트베드를 이용한 실험 결과를 통해 제안된 방법의 타당성 및 성능을 보였다.

얼굴 포즈 추정을 이용한 다중 RGB-D 카메라 기반의 2D - 3D 얼굴 인증을 위한 시스템 (2D - 3D Human Face Verification System based on Multiple RGB-D Camera using Head Pose Estimation)

  • 김정민;이성철;김학일
    • 정보보호학회논문지
    • /
    • 제24권4호
    • /
    • pp.607-616
    • /
    • 2014
  • 현재 영상감시 시스템에서 얼굴 인식을 통한 사람의 신원 확인은 정면 얼굴이 아닌 관계로 매우 어려운 기술에 속한다. 일반적인 사람들의 얼굴 영상과 입력된 얼굴 영상을 비교하여 유사도를 파악하고 신원을 확인 하는 기술은 각도의 차이에 따라 정확도의 오차가 심해진다. 이런 문제를 해결하기 위해 본 논문에서는 POSIT을 사용하여 얼굴 포즈 측정을 하고, 추정된 각도를 이용하여 3D 얼굴 영상을 제작 후 매칭 하여 일반적인 정면 영상끼리의 매칭이 아닌 rotated face를 이용한 매칭을 해보기로 한다. 얼굴을 매칭 하는 데는 상용화된 얼굴인식 알고리즘을 사용하였다. 얼굴 포즈 추정은 $10^{\circ}$이내의 오차를 보였고, 얼굴인증 성능은 약 95% 정도임을 확인하였다.

수직이착륙 무인항공기 자동 착륙을 위한 영상기반 항법 (Vision-based Navigation for VTOL Unmanned Aerial Vehicle Landing)

  • 이상훈;송진모;배종수
    • 한국군사과학기술학회지
    • /
    • 제18권3호
    • /
    • pp.226-233
    • /
    • 2015
  • Pose estimation is an important operation for many vision tasks. This paper presents a method of estimating the camera pose, using a known landmark for the purpose of autonomous vertical takeoff and landing(VTOL) unmanned aerial vehicle(UAV) landing. The proposed method uses a distinctive methodology to solve the pose estimation problem. We propose to combine extrinsic parameters from known and unknown 3-D(three-dimensional) feature points, and inertial estimation of camera 6-DOF(Degree Of Freedom) into one linear inhomogeneous equation. This allows us to use singular value decomposition(SVD) to neatly solve the given optimization problem. We present experimental results that demonstrate the ability of the proposed method to estimate camera 6DOF with the ease of implementation.

An Algorithm for a pose estimation of a robot using Scale-Invariant feature Transform

  • 이재광;허욱열;김학일
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.517-519
    • /
    • 2004
  • This paper describes an approach to estimate a robot pose with an image. The algorithm of pose estimation with an image can be broken down into three stages : extracting scale-invariant features, matching these features and calculating affine invariant. In the first step, the robot mounted mono camera captures environment image. Then feature extraction is executed in a captured image. These extracted features are recorded in a database. In the matching stage, a Random Sample Consensus(RANSAC) method is employed to match these features. After matching these features, the robot pose is estimated with positions of features by calculating affine invariant. This algorithm is implemented and demonstrated by Matlab program.

  • PDF

다중 카메라 시스템을 위한 전방위 Visual-LiDAR SLAM (Omni-directional Visual-LiDAR SLAM for Multi-Camera System)

  • 지샨 자비드;김곤우
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.353-358
    • /
    • 2022
  • Due to the limited field of view of the pinhole camera, there is a lack of stability and accuracy in camera pose estimation applications such as visual SLAM. Nowadays, multiple-camera setups and large field of cameras are used to solve such issues. However, a multiple-camera system increases the computation complexity of the algorithm. Therefore, in multiple camera-assisted visual simultaneous localization and mapping (vSLAM) the multi-view tracking algorithm is proposed that can be used to balance the budget of the features in tracking and local mapping. The proposed algorithm is based on PanoSLAM architecture with a panoramic camera model. To avoid the scale issue 3D LiDAR is fused with omnidirectional camera setup. The depth is directly estimated from 3D LiDAR and the remaining features are triangulated from pose information. To validate the method, we collected a dataset from the outdoor environment and performed extensive experiments. The accuracy was measured by the absolute trajectory error which shows comparable robustness in various environments.

HigherHRNet 기반의 발추정 기법을 통한 횡단보도 보행자 인식 (Pedestrian Recognition of Crosswalks Using Foot Estimation Techniques Based on HigherHRNet)

  • 정경민;한주훈;이현
    • 대한임베디드공학회논문지
    • /
    • 제16권5호
    • /
    • pp.171-177
    • /
    • 2021
  • It is difficult to accurately extract features of pedestrian because the pedestrian is photographed at a crosswalk using a camera positioned higher than the pedestrian. In addition, it is more difficult to extract features when a part of the pedestrian's body is covered by an umbrella or parasol or when the pedestrian is holding an object. Representative methods to solve this problem include Object Detection, Instance Segmentation, and Pose Estimation. Among them, this study intends to use the Pose Estimation method. In particular, we intend to increase the recognition rate of pedestrians in crosswalks by maintaining the image resolution through HigherHRNet and applying the foot estimation technique. Finally, we show the superiority of the proposed method by applying and analyzing several data sets covered by body parts to the existing method and the proposed method.

다중크기와 다중객체의 실시간 얼굴 검출과 머리 자세 추정을 위한 심층 신경망 (Multi-Scale, Multi-Object and Real-Time Face Detection and Head Pose Estimation Using Deep Neural Networks)

  • 안병태;최동걸;권인소
    • 로봇학회논문지
    • /
    • 제12권3호
    • /
    • pp.313-321
    • /
    • 2017
  • One of the most frequently performed tasks in human-robot interaction (HRI), intelligent vehicles, and security systems is face related applications such as face recognition, facial expression recognition, driver state monitoring, and gaze estimation. In these applications, accurate head pose estimation is an important issue. However, conventional methods have been lacking in accuracy, robustness or processing speed in practical use. In this paper, we propose a novel method for estimating head pose with a monocular camera. The proposed algorithm is based on a deep neural network for multi-task learning using a small grayscale image. This network jointly detects multi-view faces and estimates head pose in hard environmental conditions such as illumination change and large pose change. The proposed framework quantitatively and qualitatively outperforms the state-of-the-art method with an average head pose mean error of less than $4.5^{\circ}$ in real-time.

사용자의 얼굴과 카메라 영상 간의 호모그래피를 이용한 실시간 얼굴 움직임 추정 (Online Face Pose Estimation based on A Planar Homography Between A User's Face and Its Image)

  • 구 떠올라;이석한;두경수;최종수
    • 전자공학회논문지CI
    • /
    • 제47권4호
    • /
    • pp.25-33
    • /
    • 2010
  • 본 논문에서는 단일 카메라를 이용하여 얼굴의 움직임 정보를 추정하고 3차원 모델을 합성하기 위한 기법을 제안한다. 먼저 단일 카메라 입력 영상에서 사용자의 얼굴 영역 특징 점 취득을 위한 4개의 하부 이미지를 획득한다. 획득된 4개의 하부 이미지를 템플릿으로 사용하여 사용자 얼굴 영역의 정보를 추출하며, 이들 4개의 특징 점을 사용하여 사용자 얼굴과 카메라 영상 평면 사이의 사영 관계를 계산한다. 취득된 카메라 행렬로부터 얼굴의 움직임 정보인 이동과 회전 성분을 추정할 수 있으며, 이를 기반으로 3차원 모델의 자세 정보를 설정한 다음 이를 사용자 얼굴에 가상의 객체를 합성하기 위한 정보로 이용한다. 다양한 실험을 통하여 사용자 얼굴의 움직임에 대한 정보 추출의 정확도를 검증하였다.

QR코드 기반의 온라인 모바일 증강현실 시스템의 구현 (An Implementation of QR Code based On-line Mobile Augmented Reality System)

  • 박민우;박정필;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제15권8호
    • /
    • pp.1004-1016
    • /
    • 2012
  • 본 논문에서는 제품에 삽입된 QR코드를 사용해 제품의 상세한 정보를 제공해주는 모바일 증강현실 시스템을 제안한다. 본 시스템에서는 마커기반의 자세 추정 기법과 마커리스 기반의 기법을 함께 적용하여 보다 강인한 카메라 자세 추정을 수행한다. QR코드가 근거리에 있거나, QR코드 전체가 영상 내에 들어올 경우에는 QR코드 내/외부의 사각형 집합을 추적하여 카메라 자세를 추정한다. 하지만, 영상 내에서 마커가 사라지거나, 모바일 기기가 QR코드 식별이 힘든 먼 거리에 위치할 경우 프레임간의 호모그래피에 기반을 둔 카메라 자세 보정을 수행한다. 또한 제안된 시스템은 증강현실 콘텐츠 제작을 위해서 메타데이터를 사용함으로서 사용자가 프로그램 수정 없이 메타데이터 파일을 작성하는 것만으로 다양한 시나리오의 콘텐츠를 제작 및 수정하는 것이 가능하다. 특히 증강현실 콘텐츠 가시화를 위한 메타데이터와 미디어 파일을 온라인 서버를 통해 항상 최신의 상태로 전송받을 수 있기 때문에 프로그램 업데이트와 같은 불필요한 작업을 최소화할 수 있다.