• 제목/요약/키워드: camera pose estimation

검색결과 121건 처리시간 0.043초

사진계측기반 6자유도 포즈 예측의 오차 정량화 (Error Quantification of Photogrammetric 6DOF Pose Estimation)

  • 김상진;유흥철;류태규
    • 한국항공우주학회지
    • /
    • 제41권5호
    • /
    • pp.350-356
    • /
    • 2013
  • 먼거리에서 접촉하지 않고 측정할 수 있다는 장점으로 인해 사진계측은 항공분야에서도 널리 활용되고 있다. 본 연구에서는 한 대의 카메라로 6자유도 해석을 수행하는 사진계측에서 발생할 수 있는 오차를 분석하였다. 사진계측의 오차 분석 프로그램을 개발하였으며, 사진계측 문제를 공선조건에 기반한 기하학적 문제로 변환하여 프로그램을 검증하였다. 각 좌표계간 6자유도 해석을 위해 필요한 카메라 포즈에 대한 통계량은 정규분포한다는 것을 수치실험을 통해 유추할 수 있었으며, 모표준편차를 이용하여 사진계측의 오차를 정량화하였다.

RGB-D 영상으로 복원한 점 집합을 위한 고화질 텍스쳐 추출 (High-quality Texture Extraction for Point Clouds Reconstructed from RGB-D Images)

  • 서웅;박상욱;임인성
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권3호
    • /
    • pp.61-71
    • /
    • 2018
  • RGB-D 카메라 촬영 영상에 대한 카메라 포즈 추정을 통하여 복원한 3차원 전역 공간의 점 집합으로부터 삼각형 메쉬를 생성할 때, 일반적으로 메쉬의 크기가 커질수록 3차원 모델의 품질 또한 향상된다. 하지만 어떤 한계를 넘어서 삼각형 메쉬의 해상도를 높일 경우, 메모리 요구량의 과도한 증가나 실시간 렌더링 성능저하 문제뿐만 아니라 RGB-D 센서의 정밀도 한계로 인한 접 집합 데이터의 노이즈에 민감해지는 문제가 발생한다. 본 논문에서는 실시간 응용에 적합한 3차원 모델 생성을 위하여 비교적 적은 크기의 삼각형 메쉬에 대하여 3차원 점 집합의 촬영 색상으로부터 고화질의 텍스쳐를 생성하는 기법을 제안한다. 특히 카메라 포즈 추정을 통하여 생성한 3차원 점 집합 공간과 2차원 텍스쳐 공간 간의 매핑 관계를 활용한 간단한 방법을 통하여 RGB-D 카메라 촬영 영상으로부터 복원한 3차원 모델에 대하여 효과적으로 텍스쳐를 생성할 수 있음을 보인다.

발의 움직임 추적에 의한 3차원 신발모델 정합 시스템 (Registration System of 3D Footwear data by Foot Movements)

  • 정다운;서융호;최종수
    • 대한전자공학회논문지SP
    • /
    • 제44권6호
    • /
    • pp.24-34
    • /
    • 2007
  • 정보화 성장과 함께 인간의 생활도 발전하면서, 정보의 접근이 보다 간편한 시스템들이 개발되고 있다. 본 논문에서는 한대의 카메라를 사용하여 3차원 신발 모델을 발에 정합하는 시스템을 제안한다. 인체 움직임 분석에서 전신 움직임에 대한 연구가 대부분인 것과 달리, 우리는 발의 움직임을 기반으로 한 새로운 움직임 분석 시스템을 제안한다. 본 논문은 시스템이 구현되는 과정과 결과를 설명한다. 3차원 신발모델을 이미지의 발에 투영하기 위해 발 추적, 투영, 자세 추정 과정으로 구성했다. 이 시스템은 2차원 영상 분석과 3차원 자세추정으로 나눠진다. 먼저 발 추적을 위해 발의 형태학적 특성에 따라 특징점을 찾는 방식을 제안한다. 그리고 별도의 영상 교정 없이 한 대의 카메라로 2차원 좌표와 3차원 좌표의 관계를 설정하는 기하학적 수식을 제안한다. 제안한 방법에 따라 응용 시스템을 구현하고 거리 오차를 측정한 결과 거의 유사한 위치로 정합 되는 것을 확인할 수 있었다.

다수 마커를 활용한 영상 기반 다중 사용자 증강현실 시스템 (An Image-based Augmented Reality System for Multiple Users using Multiple Markers)

  • 문지원;박동우;정현석;김영헌;황성수
    • 한국멀티미디어학회논문지
    • /
    • 제21권10호
    • /
    • pp.1162-1170
    • /
    • 2018
  • This paper presents an augmented reality system for multiple users. The proposed system performs ar image-based pose estimation of users and pose of each user is shared with other uses via a network server. For camera-based pose estimation, we install multiple markers in a pre-determined space and select the marker with the best appearance. The marker is detected by corner point detection and for robust pose estimation. the marker's corner points are tracked by optical flow tracking algorithm. Experimental results show that the proposed system successfully provides an augmented reality application to multiple users even when users are rapidly moving and some of markers are occluded by users.

3D 스켈레톤을 이용한 3D 포인트 클라우드의 캘리브레이션 (A New Calibration of 3D Point Cloud using 3D Skeleton)

  • 박병서;강지원;이솔;박정탁;최장환;김동욱;서영호
    • 방송공학회논문지
    • /
    • 제26권3호
    • /
    • pp.247-257
    • /
    • 2021
  • 본 논문에서는 3D(dimensional) 스켈레톤을 이용하여 다시점 RGB-D 카메라를 캘리브레이션 하는 새로운 기법을 제안하고자 한다. 다시점 카메라를 캘리브레이션 하기 위해서는 일관성 있는 특징점이 필요하다. 또한 높은 정확도의 캘리브레이션 결과를 얻기 위해서는 정확한 특징점의 획득이 필요하다. 우리는 다시점 카메라를 캘리브레이션 하기 위한 특징점으로 사람의 스켈레톤을 사용한다. 사람의 스켈레톤은 최신의 자세 추정(pose estimation) 알고리즘들을 이용하여 쉽게 구할 수 있게 되었다. 우리는 자세 추정 알고리즘을 통해서 획득된 3D 스켈레톤의 관절 좌표를 특징점으로 사용하는 RGB-D 기반의 캘리브레이션 알고리즘을 제안한다. 다시점 카메라에 촬영된 인체 정보는 불완전할 수 있기 때문에, 이를 통해 획득된 영상 정보를 바탕으로 예측된 스켈레톤은 불완전할 수 있다. 불완전한 다수의 스켈레톤을 효율적으로 하나의 스켈레톤으로 통합한 후에, 통합된 스켈레톤을 이용하여 카메라 변환 행렬을 구함으로써 다시점 카메라들을 캘리브레이션 할 수 있다. 캘리브레이션의 정확도를 높이기 위해서 시간적인 반복을 통해서 다수의 스켈레톤을 최적화에 이용한다. 우리는 실험을 통해서 불완전한 다수의 스켈레톤을 이용하여 다시점 카메라를 캘리브레이션 할 수 있음을 증명한다.

2차원 영상에서 패턴매칭을 이용한 3차원 물체의 변환정보 추정 (The Estimation of the Transform Parameters Using the Pattern Matching with 2D Images)

  • 조택동;이호영;양상민
    • 한국정밀공학회지
    • /
    • 제21권7호
    • /
    • pp.83-91
    • /
    • 2004
  • The determination of camera position and orientation from known correspondences of 3D reference points and their images is known as pose estimation in computer vision or space resection in photogrammetry. This paper discusses estimation of transform parameters using the pattern matching method with 2D images only. In general, the 3D reference points or lines are needed to find out the 3D transform parameters, but this method is applied without the 3D reference points or lines. It uses only two images to find out the transform parameters between two image. The algorithm is simulated using Visual C++ on Windows 98.

Head Pose Estimation by using Morphological Property of Disparity Map

  • Jun, Se-Woong;Park, Sung-Kee;Lee, Moon-Key
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.735-739
    • /
    • 2005
  • This paper presents a new system to estimate the head pose of human in interactive indoor environment that has dynamic illumination change and large working space. The main idea of this system is to suggest a new morphological feature for estimating head angle from stereo disparity map. When a disparity map is obtained from stereo camera, the matching confidence value can be derived by measurements of correlation of the stereo images. Applying a threshold to the confidence value, we also obtain the specific morphology of the disparity map. Therefore, we can obtain the morphological shape of disparity map. Through the analysis of this morphological property, the head pose can be estimated. It is simple and fast algorithm in comparison with other algorithm which apply facial template, 2D, 3D models and optical flow method. Our system can automatically segment and estimate head pose in a wide range of head motion without manual initialization like other optical flow system. As the result of experiments, we obtained the reliable head orientation data under the real-time performance.

  • PDF

TRT Pose를 이용한 모바일 로봇의 사람 추종 기법 (Development of Human Following Method of Mobile Robot Using TRT Pose)

  • 최준현;주경진;윤상석;김종욱
    • 대한임베디드공학회논문지
    • /
    • 제15권6호
    • /
    • pp.281-287
    • /
    • 2020
  • In this paper, we propose a method for estimating a walking direction by which a mobile robots follows a person using TRT (Tensor RT) pose, which is motion recognition based on deep learning. Mobile robots can measure individual movements by recognizing key points on the person's pelvis and determine the direction in which the person tries to move. Using these information and the distance between robot and human, the mobile robot can follow the person stably keeping a safe distance from people. The TRT Pose only extracts key point information to prevent privacy issues while a camera in the mobile robot records video. To validate the proposed technology, experiment is carried out successfully where human walks away or toward the mobile robot in zigzag form and the robot continuously follows human with prescribed distance.

RGB 카메라 기반 실시간 21 DoF 손 추적 (RGB Camera-based Real-time 21 DoF Hand Pose Tracking)

  • 최준영;박종일
    • 방송공학회논문지
    • /
    • 제19권6호
    • /
    • pp.942-956
    • /
    • 2014
  • 본 논문은 단안의 RGB 카메라를 이용하는 실시간 손 추적 방법을 제안한다. 손은 높은 degrees of freedom을 가지고 있기 때문에 손 추적은 높은 모호성을 가지고 있다. 따라서 제안하는 방법에서는 손 추적의 모호성을 줄이기 위해서 단계별 손 추적 전략을 채택하였다. 제안하는 방법의 추적 과정은 손바닥 포즈 추적, 손가락 yaw 움직임 추적, 그리고 손가락 pitch 움직임 추적, 세 단계로 구성되어 있으며, 각 단계는 순서대로 수행된다. 제안하는 방법은 손은 평면으로 간주할 수 있다고 가정하고, 평면 손 모델을 이용한다. 평면 손 모델은 손 모델을 현재의 사용자 손 모양에 맞춰서 변경하는 손 모델 재생성을 가능하게 하는데, 이는 제안하는 방법의 강건성과 정확도를 증가시킨다. 그리고 제안하는 방법은 실시간 연산이 가능하고 GPU 기반 연산을 요구하지 않기 때문에, Google Glass와 같은 모바일 장비를 포함한 다양한 환경에 적용가능하다. 본 논문은 다양한 실험을 통해서 제안하는 방법의 성능과 효용성을 입증한다.

특징점 병합과 카메라 외부 파라미터 추정 결과를 고려한 B-snake기반 차선 검출 (B-snake Based Lane Detection with Feature Merging and Extrinsic Camera Parameter Estimation)

  • 하상헌;김경환
    • 전자공학회논문지
    • /
    • 제50권1호
    • /
    • pp.215-224
    • /
    • 2013
  • 본 논문은 주행중 차량에 장착된 카메라의 자세 변화를 카메라 외부 파라미터의 변화로 간주하고, 이의 추정을 통하여 도로의 요철과 전방 도로의 기울기 변화 등에 강건한 차선 검출 알고리즘을 제안한다. 제안하는 알고리즘에서 차선은 실세계 좌표에서 좌우가 평행하고 고정된 폭을 가진다 가정하며, 카메라 움직임을 고려한 연속된 영상들의 병합된 특징맵에서 B-snake를 이용하여 차선 검출과 카메라 외부 파라미터 추정이 동시에 수행된다. 실험을 통하여 카메라 외부 파라미터에 영향을 주는 주행 도로 환경의 변화에 강건한 차선 검출 결과를 확인하였으며, 추정된 카메라 외부 파라미터의 정확성은 전방 차량에 대한 레이더 실측 거리와의 비교를 통해 확인했다.