• 제목/요약/키워드: camera parameters

검색결과 748건 처리시간 0.029초

영상처리를 이용한 머리의 움직임 추적 시스템 (Head tracking system using image processing)

  • 박경수;임창주;반영환;장필식
    • 대한인간공학회지
    • /
    • 제16권3호
    • /
    • pp.1-10
    • /
    • 1997
  • This paper is concerned with the development and evaluation of the camera calibration method for a real-time head tracking system. Tracking of head movements is important in the design of an eye-controlled human/computer interface and the area of virtual environment. We proposed a video-based head tracking system. A camera was mounted on the subject's head and it took the front view containing eight 3-dimensional reference points(passive retr0-reflecting markers) fixed at the known position(computer monitor). The reference points were captured by image processing board. These points were used to calculate the position (3-dimensional) and orientation of the camera. A suitable camera calibration method for providing accurate extrinsic camera parameters was proposed. The method has three steps. In the first step, the image center was calibrated using the method of varying focal length. In the second step, the focal length and the scale factor were calibrated from the Direct Linear Transformation (DLT) matrix obtained from the known position and orientation of the camera. In the third step, the position and orientation of the camera was calculated from the DLT matrix, using the calibrated intrinsic camera parameters. Experimental results showed that the average error of camera positions (3- dimensional) is about $0.53^{\circ}C$, the angular errors of camera orientations are less than $0.55^{\circ}C$and the data aquisition rate is about 10Hz. The results of this study can be applied to the tracking of head movements related to the eye-controlled human/computer interface and the virtual environment.

  • PDF

격자형 선폭들의 투영변화비를 이용한 카메라 교정 파라메터 추정 (Camera calibration parameters estimation using perspective variation ratio of grid type line widths)

  • Jeong, Jun-Ik;Choi, Seong-Gu;Rho, Do-Hwan
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.30-32
    • /
    • 2004
  • With 3-D vision measuring, camera calibration is necessary to calculate parameters accurately. Camera calibration was developed widely in two categories. The first establishes reference points in space, and the second uses a grid type frame and statistical method. But, the former has difficulty to setup reference points and the latter has low accuracy. In this paper we present an algorithm for camera calibration using perspective ratio of the grid type frame with different line widths. It can easily estimate camera calibration parameters such as lens distortion, focal length, scale factor, pose, orientations, and distance. The advantage of this algorithm is that it can estimate the distance of the object. Also, the proposed camera calibration method is possible estimate distance in dynamic environment such as autonomous navigation. To validate proposed method, we set up the experiments with a frame on rotator at a distance of 1, 2, 3, 4[m] from camera and rotate the frame from -60 to 60 degrees. Both computer simulation and real data have been used to test the proposed method and very good results have been obtained. We have investigated the distance error affected by scale factor or different line widths and experimentally found an average scale factor that includes the least distance error with each image. The average scale factor tends to fluctuate with small variation and makes distance error decrease. Compared with classical methods that use stereo camera or two or three orthogonal planes, the proposed method is easy to use and flexible. It advances camera calibration one more step from static environments to real world such as autonomous land vehicle use.

  • PDF

점 대응 기법을 이용한 카메라의 교정 파라미터 추정에 관한 연구 (A Study on the Estimation of Camera Calibration Parameters using Cooresponding Points Method)

  • 최성구;고현민;노도환
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제50권4호
    • /
    • pp.161-167
    • /
    • 2001
  • Camera calibration is very important problem in 3D measurement using vision system. In this paper is proposed the simple method for camera calibration. It is designed that uses the principle of vanishing points and the concept of corresponding points extracted from the parallel line pairs. Conventional methods are necessary for 4 reference points in one frame. But we proposed has need for only 2 reference points to estimate vanishing points. It has to calculate camera parameters, focal length, camera attitude and position. Our experiment shows the validity and the usability from the result that absolute error of attitude and position is in $10^{-2}$.

  • PDF

A HIGH PRECISION CAMERA OPERATING PARAMETER MEASUREMENT SYSTEM AND ITS APPLICATION TO IMAGE MOTION INFERRING

  • Wentao-Zheng;Yoshiaki-Shishikui;Yasuaki-Kanatsugu;Yutaka-Tanaka
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.77-82
    • /
    • 1999
  • Information about camera operating such as zoom, focus, pan, tilt and tracking is useful not only for efficient video coding, but also for content-based video representation. A camera operating parameter measurement system designed specifically for these applications is therefore developed. This system, implemented in real time and synchronized with the video signal, measures the precise camera operating parameters. We calibrated the camera lens using a camera model that accounts for redial lens distortion. The system is then applied to infer image motion from pan and tilt operating parameters. The experimental results show that the inferred motion coincides with the actual motion very well, with an error of less than 0.5 pixel even for large motion up to 80 pixels.

단일카메라 전방향 스테레오 비전 시스템을 이용한 거리측정 (Depth Measurement using an Omnidirectional Stereo Vision System with a Single Camera)

  • 이수영;김순철
    • 제어로봇시스템학회논문지
    • /
    • 제19권11호
    • /
    • pp.955-959
    • /
    • 2013
  • It is possible to obtain an omnidirectional stereo image via a single camera by using a catadioptric approach with a convex mirror and concave lens. In order to measure three-dimensional distance using the imaging system, the optical parameters of the system are required. In this paper, a calibration procedure to extract the parameters of the imaging system is described. Based on the parameters, experiments are carried out to verify the performance of the three-dimensional distance measurement of a single camera omnidirectional stereo imaging system.

Multi-camera System Calibration with Built-in Relative Orientation Constraints (Part 2) Automation, Implementation, and Experimental Results

  • Lari, Zahra;Habib, Ayman;Mazaheri, Mehdi;Al-Durgham, Kaleel
    • 한국측량학회지
    • /
    • 제32권3호
    • /
    • pp.205-216
    • /
    • 2014
  • Multi-camera systems have been widely used as cost-effective tools for the collection of geospatial data for various applications. In order to fully achieve the potential accuracy of these systems for object space reconstruction, careful system calibration should be carried out prior to data collection. Since the structural integrity of the involved cameras' components and system mounting parameters cannot be guaranteed over time, multi-camera system should be frequently calibrated to confirm the stability of the estimated parameters. Therefore, automated techniques are needed to facilitate and speed up the system calibration procedure. The automation of the multi-camera system calibration approach, which was proposed in the first part of this paper, is contingent on the automated detection, localization, and identification of the object space signalized targets in the images. In this paper, the automation of the proposed camera calibration procedure through automatic target extraction and labelling approaches will be presented. The introduced automated system calibration procedure is then implemented for a newly-developed multi-camera system while considering the optimum configuration for the data collection. Experimental results from the implemented system calibration procedure are finally presented to verify the feasibility the proposed automated procedure. Qualitative and quantitative evaluation of the estimated system calibration parameters from two-calibration sessions is also presented to confirm the stability of the cameras' interior orientation and system mounting parameters.

쿼터니언을 이용한 반자동 카메라 캘리브레이션 (Semi-automatic Camera Calibration Using Quaternions)

  • 김의명
    • 한국측량학회지
    • /
    • 제36권2호
    • /
    • pp.43-50
    • /
    • 2018
  • 영상을 기반으로 하는 3차원 위치결정에서 카메라는 핵심적인 요소이며 이러한 카메라의 내부적인 특성을 제대로 결정하는 카메라 캘리브레이션 작업은 대상물의 3차원 좌표를 결정하기 위해서 필수적으로 선행되어야 할 과정이다. 본 연구에서는 캘리브레이션을 위한 체크보드의 크기와 형태에 영향을 받지 않고 반자동으로 카메라의 내부표정요소를 결정하는 방법론을 제안하였다. 제안한 방법론은 쿼터니언을 이용한 외부표정요소 추정, 캘리브레이션 타겟의 인식, 번들블록조정을 통한 내부표정요소 매개변수 결정으로 구성되어 있다. 체스보드 형태의 캘리브레이션 타겟을 이용하여 내부표정요소를 결정한 후 소규모 3차원 모형에 대한 3차원 위치를 결정하였으며 검사점을 이용한 정확도 평가를 통해서 수평위치와 수직위치 오차는 각각 약 ${\pm}0.006m$${\pm}0.007m$를 얻을 수 있었다.

개선된 화질의 영상을 이용한 열화상 카메라 캘리브레이션 (Calibration of Thermal Camera with Enhanced Image)

  • 김주오;이덕우
    • 한국산학기술학회논문지
    • /
    • 제22권4호
    • /
    • pp.621-628
    • /
    • 2021
  • 본 논문에서는 3개의 시점을 가진 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하고, 카메라의 내부 파라미터 추정 및 그 결과의 정확도를 파악하기 위해 역투영 오류값을 제시한다. 3개의 시점을 가진 카메라는 일반 카메라와 다르게 각 시점마다 겹치는 영상이 존재하지 않고, 획득한 영상의 화질은 일반 카메랄 획득한 영상보다 낮다. 카메라 캘리브레이션은 3차원 실제 영상의 좌표 정보 또는 카메라와 목표물체 사이의 거리를 계산하기 전에 반드시 수행되어야 하는 작업이다. 카메라 캘리브레이션 작업을 통해 얻는 것은 카메라의 내부 및 외부 파라미터이며 내부 파라미터는 카메라의 초점거리, 비대칭계수, 이미지 중심점으로 구성되어 있고, 외부 파라미터는 사용되는 카메라들 사이 또는 사용되는 카메라의 상대적 위치인 회전행렬과 변위벡터로 구성되어 있다. 본 논문에서는 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하며, 열화상 카메라의 캘리브레이션 수행을 위해 온도에 반응하는 열상 체커보드를 활용한다. 캘리브레이션이 안정적으로 수행되기 위해 본 논문에서는 심층 학습 기반 촬영대상 물체의 화질을 개선하여 코너 추출의 정확도를 높인 후 캘리브레이션 파라미터 계산을 수행하고, 개선된 화질의 영상이 캘리브레이션을 개선한 결과를 제시한다.

신경망을 이용한 간단한 카메라교정 (Simple Camera Calibration Using Neural Networks)

  • 전정희;김충원
    • 한국정보통신학회논문지
    • /
    • 제3권4호
    • /
    • pp.867-873
    • /
    • 1999
  • 카메라 교정(Camera calibration)은 알고있는 월드 좌표계(world coordinate system)의 제어점(control points)들에 대하여 카메라의 내부/외부 인자(internal and external parameters)들을 계산하는 과정이다. 정확한 카메라 교정은 정밀한 측정을 위해서 반드시 요구된다. 본 논문에서, 우리는 3D 기하학이나 카메라 광학에 대한 특별한 지식을 요구하지 않는 신경망을 이용하여 간단하면서도 유연한 카메라 교정을 제안한다. 제안한 방법은 내부/외부 인자를 요구하지 않는 응용 분야에 매우 유용하다. 또한 제안한 카메라 교정은 물체가 이미지 평면과 거의 평행할 경우에 발생하는 악조건(ill-condition)문제를 해결할 수 있는 장점을 가졌다. 이러한 악조건은 시각 시스템을 이용하여 제품 검사를 할 경우에 흔히 발생한다. 좀더 정확한 교정을 위해 획득한 이미지는 렌즈의 방사형 왜곡에 따라 두 개의 지역으로 분할하여 교정된다. 그리고 Tsai의 알고리즘을 이용한 결과와 제안한 방법을 이용하여 교정한 결과를 실험을 통해 타당성을 증명한다.

  • PDF

사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법 (Omnidirectional Camera Motion Estimation Using Projected Contours)

  • 황용호;이재만;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.35-44
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 응용되고 있다. 실 세계에 존재하는 직선 성분들은 전방향 카메라 모델에 의해 컨투어로 사영(projection)되기 때문에, 영상간에 대응되는 컨투어 성분은 카메라의 회전 및 이동 등의 추정에 효과적으로 활용될 수 있다. 본 논문에서는 전방향 카메라의 변환 파라미터를 추정하기 위한 2단계 최소화 알고리즘이 제안된다. 제안된 알고리즘은 컨투어를 이루는 대응점에 대한 에피폴라(epipolar) 평면과 3차원 벡터간의 각도 오차함수 및 사영된 컨투어의 거리 오차를 단계별로 최소화하는 카메라 파라미터를 계산한다. 등거리(equidistance) 사영된 합성영상과 어안렌즈(fisheye lens)로 취득한 실제 영상을 대상으로 제안된 알고리즘이 카메라의 위치 정보를 정확하게 추정함을 확인하였다.