• 제목/요약/키워드: 2D camera calibration

검색결과 116건 처리시간 0.024초

2단계 샘플링을 이용한 카메라 움직임 및 장면 구조 복원 (Camera Motion and Structure Recovery Using Two-step Sampling)

  • 서정국;조청운;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제40권5호
    • /
    • pp.347-356
    • /
    • 2003
  • 비디오 영상으로부터 카메라의 움직임과 3차인 구조를 복원하는 기술은 다양한 분야에 응용되고 있다. 특히 비교정(un calibrated) 동영상을 해석하기 위해서는 대상 영상의 정보만을 이용하는 카메라의 자동 보정(auto-calibration)기술이 필수적이다. 그러나 비디오 상의 많은 프레임에 안정적으로 이를 적용하려면 기존의 자동 보정기술은 무기조정(bundle adjustment) 또는 비선형 최적화 등의 매우 복잡한 과정이 요구된다. 본 논문에서는 최적화 과정 없이도 정확하게 대상 카메라의 궤적과 3차원 구조를 복원하는 새로운 방법이 제안된다. 첫 번째 단계에서 대상 시퀀스에서 카메라 궤적의 해석에 적절한 키프레임(key-frame)을 선택하여 전체 연산 시간을 줄이며, 두 번째 과정에서 보다 정확한 카메라 자동 보정을 하기 위해 이미 추출된 키프레임 가운데 적대 2차 원추곡면(absolute quadric)의 추정을 통해 오차가 많이 포함된 키프레임을 제거한다. 가상 및 실사영상에 대한 실험결과로부터 제안된 방법의 성능을 확인하였으며, 다양한 실사 영상을 대상으로 가상의 3차원 모델을 합성한 결과도 제시하였다.

사진측량 관점에서 차량측량시스템 영상을 이용한 3차원 위치의 정밀도 분석 (Analysis on 3D Positioning Precision Using Mobile Mapping System Images in Photograrmmetric Perspective)

  • 조우석;황현덕
    • 대한원격탐사학회지
    • /
    • 제19권6호
    • /
    • pp.431-445
    • /
    • 2003
  • 본 연구에서는 사진측량 관점에서 4S-Van 영상을 이용한 3차원 위치결정의 정밀도를 실험적으로 검증하였다. 실외에 3차원 검정타겟을 설치하고 45-Van에 탑재된 2대의 CCD카메라로부터 검정타겟 영상을 개별적으로 취득하여 자체검정기법으로 각각의 CCD카메라에 대한 내부표정요소를 개별적으로 정확하게 결정하였다. 이와 같이 얻어진 내부표정요소와 검정타겟의 지상좌표 및 검정타겟을 동시에 촬영한 좌ㆍ우측 카메라의 영상좌표를 이용하여 광속조정법으로 2대 CCD카메라의 외부표정요소를 동시에 결정하였다. 또한, 렌즈왜곡이 고려된 에피폴라선을 이용하기 위하여 역렌즈왜곡계수를 최소제곱법을 이용하여 결정하였다. 역렌즈왜곡계수를 이용하여 약 0.5 pixel 이내로 렌즈왜곡이 포함된 영상좌표로 변환이 가능하였다. 렌즈왜곡이 고려된 에피폴라선을 이용한 반자동 영상매칭을 적용하여 3차원 위치결정의 정밀도를 검증하였다. 실험적으로 촬영거리 20m이내에서는 대략2cm 정도의 정밀도를 얻을 수 있었다.

얼굴의 3차원 위치 및 움직임 추정에 의한 시선 위치 추적 (Facial Gaze Detection by Estimating Three Dimensional Positional Movements)

  • 박강령;김재희
    • 대한전자공학회논문지SP
    • /
    • 제39권3호
    • /
    • pp.23-35
    • /
    • 2002
  • 시선 위치 추적이란 모니터상에 사용자가 쳐다보고 있는 지점을 파악해 내는 기술이다 이 논문에서는 컴퓨터 비젼 방법을 이용하여 사용자가 모니터 상에 어느 지점을 쳐다보고 있는지를 파악(시선 위치 추적)하는 새로운 방법을 제안한다. 시선위치를 파악하기 위해 본 논문에서는 얼굴 영역 및 얼굴 특징점(양 눈, 양 콧구멍, 입술 끝점 등)을 2차원 카메라 영상으로부터 추출하였으며, 이들의 움직임으로부터 카메라 보정 및 매개변수 추정 방법등을 이용하여 초기 3차원 위치를 추정해 내었다. 이후 모니터 상의 한 지점을 쳐다보기 위해 사용자가 얼굴을 움직이는 경우 이러한 얼굴의 3차원 움직임 량 역시 자동으로 추정하였다. 이로부터 변화된 얼굴 특징점의 3차원 위치를 계산해 낼 수 있었으며, 이를 바탕으로 모니터 상의 시선 위치를 구하였다. 실험 결과, 19인치 모니터상의 임의의 지점을 사용자가 쳐다보았을 때, 약 2.01인치의 시선 위치에러 성능을 얻었다.

2D 패시브마커 영상을 이용한 3차원 리지드 바디 추적 알고리즘 (3D Rigid Body Tracking Algorithm Using 2D Passive Marker Image)

  • 박병서;김동욱;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.587-588
    • /
    • 2022
  • 본 논문에서는 다수의 모션 캡처 카메라의 2D 패시브마커 영상을 이용한 3차원 공간에서의 리지드 바디(Rigid Body) 추적 방법을 제안한다. 1차로 개별 카메라의 내부 변수를 구하기 위해 체스보드를 이용한 칼리브레이션 과정을 수행하고, 2차 보정 과정에서 3개의 마커가 있는 삼각형 구조물을 모든 카메라가 관찰 가능하도록 움직인 후 프레임별 누적된 데이터를 계산하여 카메라간의 상대적인 위치정보의 보정 및 업데이트를 진행한다. 이 후 각 카메라의 좌표계를 3D월드 좌표계로 변환하는 과정을 통해 3개 마커의 3차원 좌표를 복원하여 각 마커간 거리를 계산하여 실제 거리와의 차이를 비교한 결과 2mm 이내의 오차를 측정하였다.

  • PDF

소실점을 이용한 2차원 영상의 물체 변환 (3D Motion of Objects in an Image Using Vanishing Points)

  • 김대원;이동훈;정순기
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권11호
    • /
    • pp.621-628
    • /
    • 2003
  • 본 논문은 한 장의 영상 속에 포함되어 있는 물체들이 외관상의 3차원 운동이 가능하도록 하는 방법을 제시한다. 이전 연구들은 여러 장의 영상으로부터 영상 기반 모델링 기법들을 이용하여 3차원 모델을 생성하거나 소실점을 이용한 카메라 보정을 통하여 장면을 입방체로 모델링하여 3차원 모델을 생성하는 방식으로 접근하였다. 그러나 본 논문에서는 장면의 기하학적 정보나 카메라 보정 없이 장면 속 물체의 영상 기반 운동(image-based motion)의 가능성을 제시한다. 구현된 시스템은 영상을 시점에 관한 사영 평면으로 생각하고 사용자에 의해 입력된 선과 점의 정보를 이용하여 사영된 3차원 물체의 2차원 모양을 모델링한다. 그리고 모델링된 물체는 3차원 운동을 하기 위한 지역 좌표계로서 소실점을 이용한다.

사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법 (Omnidirectional Camera Motion Estimation Using Projected Contours)

  • 황용호;이재만;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.35-44
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 응용되고 있다. 실 세계에 존재하는 직선 성분들은 전방향 카메라 모델에 의해 컨투어로 사영(projection)되기 때문에, 영상간에 대응되는 컨투어 성분은 카메라의 회전 및 이동 등의 추정에 효과적으로 활용될 수 있다. 본 논문에서는 전방향 카메라의 변환 파라미터를 추정하기 위한 2단계 최소화 알고리즘이 제안된다. 제안된 알고리즘은 컨투어를 이루는 대응점에 대한 에피폴라(epipolar) 평면과 3차원 벡터간의 각도 오차함수 및 사영된 컨투어의 거리 오차를 단계별로 최소화하는 카메라 파라미터를 계산한다. 등거리(equidistance) 사영된 합성영상과 어안렌즈(fisheye lens)로 취득한 실제 영상을 대상으로 제안된 알고리즘이 카메라의 위치 정보를 정확하게 추정함을 확인하였다.

구형물체의 중심좌표를 이용한 VLP-16 라이다 센서와 비전 카메라 사이의 보정 (Calibration of VLP-16 Lidar Sensor and Vision Cameras Using the Center Coordinates of a Spherical Object)

  • 이주환;이근모;박순용
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권2호
    • /
    • pp.89-96
    • /
    • 2019
  • 전방향 3차원 라이다 센서와 비전 카메라는 자동차나 드론 등의 자율주행기술 개발에 활용되고 있다. 한편 라이다 센서와 카메라 좌표계 사이의 변환 관계를 보정하기 위한 기존의 기술들은 특수한 보정물체를 제작하거나 보정물체의 크기가 큰 단점이 있다. 본 논문에서는 한 개의 구형물체를 사용하여 두 센서 사이의 기하보정을 간편하게 구현하는 방법을 소개한다. 구형 물체의 3차원 거리정보에서 RANSAC으로 네 개의 3차원 점을 선택하여 구의 중심좌표를 계산하고, 카메라 영상에서 물체의 2차원 중심점을 구하여 두 센서를 보정하였다. 구는 다양한 각도에서 영상을 획득하여도 항상 원형의 형상을 유지하기 때문에 데이터 획득 시 유리한 장점이 있다. 본 논문에서 제안하는 방법으로 약 2픽셀의 투영오차의 결과를 얻었고, 기존의 방법과의 비교실험을 통하여 제안 기술의 성능을 분석하였다.

원격지 물체의 삼차원 위치 측정시스템의 개발 (Development of a Remote Object's 3D Position Measuring System)

  • 박강
    • 한국정밀공학회지
    • /
    • 제17권8호
    • /
    • pp.60-70
    • /
    • 2000
  • In this paper a 3D position measuring device that finds the 3D position of an arbitarily placed object using a camersa system is introduced. The camera system consists of three stepping motors and a CCD camera and a laser. The viewing direction of the camera is controlled by two stepping motors (pan and tilt motors) and the direction of a laser is also controlled by a stepping motors(laser motor). If an object in a remote place is selected from a live video image the x,y,z coordinates of the object with respect to the reference coordinate system can be obtained by calculating the distance from the camera to the object using a structured light scheme and by obtaining the orientation of the camera that is controlled by two stepping motors. The angles o f stepping motors are controlled by a SGI O2 workstation through a parallel port. The mathematical model of the camera and the distance measuring system are calibrated to calculate an accurate position of the object. This 3D position measuring device can be used to acquire information that is necessary to monitor a remote place.

  • PDF

사진측량기법을 이용한 엑스선영상의 3차원 모형화 (Three-dimensional Reconstruction of X-ray Imagery Using Photogrammetric Technique)

  • 김의명
    • 대한토목학회논문집
    • /
    • 제28권2D호
    • /
    • pp.277-285
    • /
    • 2008
  • 엑스선 영상은 의료분야에서 많이 활용되고 있으며 특히 인간의 골격형성 과정에서 발생할 수 있는 척추만곡의 변형을 파악하는 데 아주 효율적이다. 본 연구에서는 엑스선 영상의 사진기 검정과 엑스선 영상을 이용한 대상물의 3차원 좌표 결정에 중점을 두었다. 엑스선 사진기를 이용한 대상물의 좌표결정 과정은 엑스선 사진기 검정을 위해서 방사선이 투과되지 않게 제작된 쇠볼이 배치된 1차 검정대상물을 이용하여 엑스선 영상의 내부표정요소와 외부표정요소를 결정하고 이로 부터 엑스선에 교차하게 아크릴로 제작된 두 면을 가지고 있는 엑스선 검정장의 3차원 좌표를 결정하는 2단계 과정을 거쳤다. 사진측량기법에 의해 결정된 엑스선 검정장의 3차원 좌표값은 정밀하게 관측된 CMM과의 비교를 통하여 그 정확도를 평가하였으며 엑스선의 진행방향(X축)에 대한 오차가 Y축과 Z축에 비해 상대적으로 높게 나타났으나 Y축과 Z축에 대한 위치오차는 수 mm의 정확도를 나타내었다. 본 연구를 통해서 사진측량기법은 환자의 3차원 위치결정이나 의료용 교정기기를 제작하는데 도움을 줄 수 있을 것으로 사료된다.

컴퓨터 비젼 방법을 이용한 3차원 물체 위치 결정에 관한 연구 (A Study on the Determination of 3-D Object's Position Based on Computer Vision Method)

  • 김경석
    • 한국생산제조학회지
    • /
    • 제8권6호
    • /
    • pp.26-34
    • /
    • 1999
  • This study shows an alternative method for the determination of object's position, based on a computer vision method. This approach develops the vision system model to define the reciprocal relationship between the 3-D real space and 2-D image plane. The developed model involves the bilinear six-view parameters, which is estimated using the relationship between the camera space location and real coordinates of known position. Based on estimated parameters in independent cameras, the position of unknown object is accomplished using a sequential estimation scheme that permits data of unknown points in each of the 2-D image plane of cameras. This vision control methods the robust and reliable, which overcomes the difficulties of the conventional research such as precise calibration of the vision sensor, exact kinematic modeling of the robot, and correct knowledge of the relative positions and orientation of the robot and CCD camera. Finally, the developed vision control method is tested experimentally by performing determination of object position in the space using computer vision system. These results show the presented method is precise and compatible.

  • PDF