• 제목/요약/키워드: camera motion parameter

검색결과 45건 처리시간 0.026초

A Defocus Technique based Depth from Lens Translation using Sequential SVD Factorization

  • Kim, Jong-Il;Ahn, Hyun-Sik;Jeong, Gu-Min;Kim, Do-Hyun
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.383-388
    • /
    • 2005
  • Depth recovery in robot vision is an essential problem to infer the three dimensional geometry of scenes from a sequence of the two dimensional images. In the past, many studies have been proposed for the depth estimation such as stereopsis, motion parallax and blurring phenomena. Among cues for depth estimation, depth from lens translation is based on shape from motion by using feature points. This approach is derived from the correspondence of feature points detected in images and performs the depth estimation that uses information on the motion of feature points. The approaches using motion vectors suffer from the occlusion or missing part problem, and the image blur is ignored in the feature point detection. This paper presents a novel approach to the defocus technique based depth from lens translation using sequential SVD factorization. Solving such the problems requires modeling of mutual relationship between the light and optics until reaching the image plane. For this mutuality, we first discuss the optical properties of a camera system, because the image blur varies according to camera parameter settings. The camera system accounts for the camera model integrating a thin lens based camera model to explain the light and optical properties and a perspective projection camera model to explain the depth from lens translation. Then, depth from lens translation is proposed to use the feature points detected in edges of the image blur. The feature points contain the depth information derived from an amount of blur of width. The shape and motion can be estimated from the motion of feature points. This method uses the sequential SVD factorization to represent the orthogonal matrices that are singular value decomposition. Some experiments have been performed with a sequence of real and synthetic images comparing the presented method with the depth from lens translation. Experimental results have demonstrated the validity and shown the applicability of the proposed method to the depth estimation.

  • PDF

비전 시스템을 이용한 로봇 머니퓰레이터의 동력학 추적 제어 (Dynamic tracking control of robot manipulators using vision system)

  • 한웅기;국태용
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1997년도 한국자동제어학술회의논문집; 한국전력공사 서울연수원; 17-18 Oct. 1997
    • /
    • pp.1816-1819
    • /
    • 1997
  • Using the vision system, robotic tasks in unstructured environments can be accompished, which reduces greatly the cost and steup time for the robotic system to fit to he well-defined and structured working environments. This paper proposes a dynamic control scheme for robot manipulator with eye-in-hand camera configuration. To perfom the tasks defined in the image plane, the camera motion Jacobian (image Jacobian) matrix is used to transform the camera motion to the objection position change. In addition, the dynamic learning controller is designed to improve the tracking performance of robotic system. the proposed control scheme is implemented for tasks of tracking moving objects and shown to outperform the conventional visual servo system in convergence and robustness to parameter uncertainty, disturbances, low sampling rate, etc.

  • PDF

인접 영상 프레임에서 기하학적 대칭점을 이용한 카메라 움직임 추정 (Camera Motion Estimation using Geometrically Symmetric Points in Subsequent Video Frames)

  • 전대성;문성헌;박준호;윤영우
    • 전자공학회논문지CI
    • /
    • 제39권2호
    • /
    • pp.35-44
    • /
    • 2002
  • 카메라의 이동과 회전은 영상 프레임 전체에 영향을 미치는 전역 움직임(global motion)을 유발한다. 이러한 전역 움직임을 포함하는 영상을 부호화하는 경우, 변화성분 검출(change detection) 기법을 사용하여 정확한 오브젝트를 분할하는 것은 실제적으로는 불가능하며 큰 움직임 벡터로 인해 높은 압축률을 얻기 어렵다. 이러한 문제는 전역 움직임이 보상된 영상 시퀀스를 사용함으로써 해결할 수 있다. 전역 움직임 보상을 위한 기존의 카메라 움직임 추정 방법들은 계산량이 많다는 문제점을 가지고 있다. 따라서, 본 논문에서는 간단한 선 형식으로 구성되는 전역 움직임 추정 알고리즘을 제안한다 제안 알고리즘은 영상 프레임 내의 대칭점(symmetric points)의 움직임 정보를 이용하여 패닝(panning)과 틸팅(tilting), 줌잉(zooming)에 대한 전역 움직임 파라미터를 산출한다. 전역 움직임 계산에는 카메라 회전에 대해 깊이(depth)에 독립적인 원경만이 사용되며, 영상 내에서 원경을 구분하기 위한 판별식도 논문에 제시된다. 또한, MPEG 시험 영상을 사용한 실험 결과도 나타내었다. 본 논문에서 제안한 기법의 실시간 수행 능력은 많은 영상처리 분야의 전처리 단계에서 사용될 수 있다.

기하학적 불변벡터 기탄 2D 호모그래피와 비선형 최소화기법을 이용한 카메라 외부인수 측정 (Camera Extrinsic Parameter Estimation using 2D Homography and Nonlinear Minimizing Method based on Geometric Invariance Vector)

  • 차정희
    • 인터넷정보학회논문지
    • /
    • 제6권6호
    • /
    • pp.187-197
    • /
    • 2005
  • 본 논문에서는 불변 점 특징에 기반한 카메라 동작인수 측정방법을 제안한다. 일반적으로 영상의 특징정보는 카메라 뷰포인트에 따라 변하는 단점이 있어 시간이 지나면 정보량이 증가하게 된다. 또한 카메라 외부인수 산출을 위한 비선형 최소제곱 측정을 이용한 LM 방법은 초기값에 따라 최소점에 근접하는 반복회수가 다르고 지역 최소점에 빠질 경우 수렴시간이 증가하는 단점이 있다. 본 논문에서는 이러한 문제를 개선하기 위해 첫째, 기하학의 불변 벡터를 사용하여 특징 모델을 구성하는 것을 제안하였다. 둘째, 2D 호모그래피와 LM 방법을 이용하여 정확도와 수렴도를 향상시키는 2단계 측정 방법을 제안하였다. 실험에서는 제안한 알고리즘의 우수성을 입증하기 위해 기존방법과 제안한 방법을 비교 분석하였다.

  • PDF

움직임 벡터의 신뢰도에 기반한 이동 목표물 추적 기법 (Moving Target Tracking Algorithm based on the Confidence Measure of Motion Vectors)

  • 이진성;이광연;김성대
    • 대한전자공학회논문지SP
    • /
    • 제38권2호
    • /
    • pp.160-168
    • /
    • 2001
  • 목표물의 위치 정보를 알아내고 그것을 추적하기 위한 대표적인 방법 중의 하나로 차영상을 이용한 움직임 영역 검출 기법이 지금까지 많이 사용되어 왔다. 이 방법은 배경이 고정되어 있는 상황이라는 가정이 필요하며, 카메라가 움직이는 경우에는 전역 움직임 보상 기법이 반드시 필요하게 된다. 따라서 본 논문에서는 카메라가 움직이는 경우에도 차영상 정보를 이용하여 실제 이동하는 목표물을 포함하는 최소 사각형을 정확하게 찾는 방법을 제안한다. 전역 움직임 보상을 위해서 움직임 계수를 구할 때, 오류 벡터로 인해서 전역 움직임 계수를 잘못 추정하게 되면 이동 목표물의 검출에 실패하는 결과를 낳는다. 이러한 문제점으로 인하여 여기에서는 배경 영상의 신뢰성 있는 움직임 벡터를 선별하여 보다 정확한 전역 보상이 이루어지는 알고리즘을 제안하여, 결과적으로 정확한 이동 목표물의 위치를 얻는 방법에 대해서 기술하고 있다. 제안된 기법으로 다양한 영상에 적용한 결과, 배경을 효과적으로 제거하고 목표물의 위치를 대체로 정확하게 찾을 수 있다는 것을 보여 주었다. 특히 움직이는 카메라에서 얻은 영상에 대해서는 기존의 방법보다 매우 우수한 결과를 얻는다는 것을 확인할 수 있었다.

  • PDF

3D-2D 모션 추정을 위한 LiDAR 정보 보간 알고리즘 (LiDAR Data Interpolation Algorithm for 3D-2D Motion Estimation)

  • 전현호;고윤호
    • 한국멀티미디어학회논문지
    • /
    • 제20권12호
    • /
    • pp.1865-1873
    • /
    • 2017
  • The feature-based visual SLAM requires 3D positions for the extracted feature points to perform 3D-2D motion estimation. LiDAR can provide reliable and accurate 3D position information with low computational burden, while stereo camera has the problem of the impossibility of stereo matching in simple texture image region, the inaccuracy in depth value due to error contained in intrinsic and extrinsic camera parameter, and the limited number of depth value restricted by permissible stereo disparity. However, the sparsity of LiDAR data may increase the inaccuracy of motion estimation and can even lead to the result of motion estimation failure. Therefore, in this paper, we propose three interpolation methods which can be applied to interpolate sparse LiDAR data. Simulation results obtained by applying these three methods to a visual odometry algorithm demonstrates that the selective bilinear interpolation shows better performance in the view point of computation speed and accuracy.

광학식 모션캡처를 위한 다중 카메라 보정 방법 (Multi-camera Calibration Method for Optical Motion Capture System)

  • 신기영;문정환
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.41-49
    • /
    • 2009
  • 본 논문에서는 광학식 모션캡처 장비를 위한 다중 카메라 보정 방법을 제안한다. 이 방법은 DLT(Direct linear transformation) 알고리즘을 이용하여 7개의 마커가 있는 3축 보정틀의 영상을 획득하여 1차 카메라 보정을 한다. 그리고 2개의 마커가 있는 보정봉을 측정하고자 하는 영역에서 움직여서 2차 카메라 보정을 실시한다. 1차 카메라 보정에서는 카메라 보정뿐만 아니라 렌즈 왜곡 계수를 계산하여 2차 카메라 보정에서의 최적화를 위한 초기해로 사용한다. 2차 카메라 보정에서는 보정봉에 있는 마커사이의 거리가 일정하기 때문에 계산된 마커 거리와 실제 마커 거리의 차가 최소화 되도록 최적화를 수행한다. 제안한 방법에 의한 다중 카메라 보정 방법을 검증하기 위하여 재투영에러를 계산하였고 3축 보정틀에 있는 마커사이의 거리와 보정봉에 있는 마커사이의 거리를 계산하여 다른 상용장비의 값과 비교하였다. 3축 보정틀에 있는 마커를 복원하여 에러를 비교한 결과 평균오차가 상용장비의 1.7042mm에 비해 0.8765mm로 51.4% 수준으로 나타났고, 보정봉에 있는 마커를 복원하여 에러를 비교한 결과 상용장비의 평균에러 1.8897mm에 비해 2.0183mm로 0.1286mm 크게 나타났다.

모션 블러된 이미지로부터 블러 파라미터를 추출하는 기법에 대한 연구 (A Study on The Identification of Blur Parameters from a Motion Blurred Image)

  • 양홍택;황주연;백두원
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.693-696
    • /
    • 2008
  • 촬영 순간 카메라와 촬영대상간의 상대적인 움직임에 의해 촬영된 이미지에는 움직인 방향으로 모션 블러가 발생할 수 있다. 의도 되지 않은 블러 효과는 이미지 품질에 손상을 주므로 블러 효과에 의해 손상된 이미지를 복원할 필요가 있다. 블러 효과에 의해 손상된 이미지의 복원을 위해서는 블러 효과별 발생시키는 블러의 성분을 정확히 알아내어야 한다. 본 논문에서는 모션 블러가 발생된 이미지로부터 모션 블러의 성분을 추출하는 새로운 방법을 제안하고 실험을 통해 제안된 방법의 성능을 검증하였다. 실험 결과는 제안된 방법이 오브젝트의 크기와 블러의 크기에 상관없이 블러의 크기를 정확히 추출함을 보여 주었다.

  • PDF

Development of TPF Generation SIW for KOMPSAT-2 X-Band Antenna Motion Control

  • Kang C. H.;Park D. J.;Seo S. B.;Koo I. H.;Ahn S. I.;Kim E. K.
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.485-488
    • /
    • 2005
  • The 2nd KOrea Multi-Purpose Satellite (KOMPSAT -2) has been developed by Korea Aerospace Research Institute (KARI) since 2000. Multi Spectral Camera (MSC) is the payload for KOMPSAT -2, which will provide the observation imagery around Korean peninsula with high resolution. KOMPSAT-2 has adopted X-band Tracking System (XTS) for transmitting earth observation data to ground station. For this, data which describes and controls the pre-defined motion of each on-board X-Band antenna in XTS, must be transmitted to the spacecraft as S-Band command and it is called as Tracking Parameter Files (TPF). In this paper, the result of the development of TPF Generation S/W for KOMPSAT-2 X-Band Antenna Motion Control.

  • PDF

Spatial Multilevel Optical Flow Architecture-based Dynamic Motion Estimation in Vehicular Traffic Scenarios

  • Fuentes, Alvaro;Yoon, Sook;Park, Dong Sun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권12호
    • /
    • pp.5978-5999
    • /
    • 2018
  • Pedestrian detection is a challenging area in the intelligent vehicles domain. During the last years, many works have been proposed to efficiently detect motion in images. However, the problem becomes more complex when it comes to detecting moving areas while the vehicle is also moving. This paper presents a variational optical flow-based method for motion estimation in vehicular traffic scenarios. We introduce a framework for detecting motion areas with small and large displacements by computing optical flow using a multilevel architecture. The flow field is estimated at the shortest level and then successively computed until the largest level. We include a filtering parameter and a warping process using bicubic interpolation to combine the intermediate flow fields computed at each level during optimization to gain better performance. Furthermore, we find that by including a penalization function, our system is able to effectively reduce the presence of outliers and deal with all expected circumstances in real scenes. Experimental results are performed on various image sequences from Daimler Pedestrian Dataset that includes urban traffic scenarios. Our evaluation demonstrates that despite the complexity of the evaluated scenes, the motion areas with both moving and static camera can be effectively identified.