• 제목/요약/키워드: Epipolar Image

검색결과 94건 처리시간 0.025초

객체분할을 위한 에피폴라 Rectification (An Epipolar Rectification for Object Segmentation)

  • 정승도;강성숙;조정원;최병욱
    • 한국통신학회논문지
    • /
    • 제29권1C호
    • /
    • pp.83-91
    • /
    • 2004
  • 에피폴라 Rectification은 서로 다른 시점에서 얻은 두 영상에 대해 각 영상의 에피폴을 미리 정해진 점으로 옮기는 호모그래피를 적용함으로써 두 영상의 에피폴라 지오메트리를 동일한 기준 평면으로 변환하여 에피폴라 라인을 수평 방향으로 정렬시키는 과정이다. 이때 호모그래피에 의해 변환된 영상 사이에서도 에피폴라 제약조건이 성립해야 하며, 이를 만족시키는 호모그래피가 여러 개 존재하므로 제약조건을 추가하여 응용에 적합한 호모그래피를 구하게 된다. Rectification 결과 두 영상은 스테레오 영상화되어 쉽게 변위값을 구할 수 있으므로 영상 내객체의 3차원 정보를 추정하여 영상분할에 활용할 수 있다. 본 논문에서는 객체분할에 적용할 수 있는 Rectification 방법을 제안하고 이 결과를 객체분할에 적용하였다. 객체분할을 위해 색상정보와 상대적인 변위값의 연속성을 동시에 이용하면 단일 객체가 색상에 의해 분할되거나 혹은 색상이 비슷하여 다른 객체가 병합되는 문제를 보완할 수 있다. 실험을 통해 Rectification 결과영상으로부터 획득한 단일 객체의 변위값이 연속성을 갖음을 확인하였고 이를 통해 제안하는 Rectification 방법이 객체분할에 적합함을 보였다.

아리랑3호 스테레오 영상의 에피폴라 기하 분석 및 영상 리샘플링 (Epipolar Image Resampling from Kompsat-3 In-track Stereo Images)

  • 오재홍;서두천;이창노
    • 한국측량학회지
    • /
    • 제31권6_1호
    • /
    • pp.455-461
    • /
    • 2013
  • 아리랑 3호는 2012년 5월 18일에 발사된 다목적실용위성으로서, 탑재된 AEISS센서는 고도 685km의 태양주기 궤도상에서 0.7m의 공간해상도 흑백 영상과 2.8m 공간해상도의 다중 파장대 영상을 폭 16.8km로 획득한다. 아리랑 3호는 아리랑 2호에 비해 많은 부분에서 성능의 향상이 이루어졌으며 그 중 단일 패스에서 스테레오 영상이 취득 가능하도록 설계되었다. 아리랑 3호를 이용하여 3차원 지형 정보의 추출을 하기 위해서는 정확한 에피폴라 기하를 규명하는 것이 필수적이며, 따라서 본 연구에서는 아리랑 3호 스테레오 영상으로부터 에피폴라 영상 제작을 위한 최적의 영상 변환식을 도출하기 위한 에피폴라 곡선의 특성에 대해 분석하였다. 영상과 함께 제공되는 RPCs(Rational Polynomial Coefficients)를 기반으로 영상 전역에 해당하는 에피폴라 커브를 도출하고 이에 대한 모양분석을 통해 에피폴라 커브가 최소 3차 다항식 이상의 변환식으로 모델링 될 수 있음을 알 수 있었다. 또한 아리랑 3호 AEISS센서의 두 개의 CCDs라인 특징 또한 확인 가능하였다. RPCs 업데이트 시에도 샘플 방향의 영상 오차를 최소화하기 위해 3차식이 필요했으며, 에피폴라 영상 리샘플링 시에도 3차 영상 변환식을 활용한 경우 최대 0.7 픽셀이내의 정밀한 y시차를 확보할 수 있었다.

SYNTHESIS OF STEREO-MATE THROUGH THE FUSION OF A SINGLE AERIAL PHOTO AND LIDAR DATA

  • Chang, Ho-Wook;Choi, Jae-Wan;Kim, Hye-Jin;Lee, Jae-Bin;Yu, Ki-Yun
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2006년도 Proceedings of ISRS 2006 PORSEC Volume I
    • /
    • pp.508-511
    • /
    • 2006
  • Generally, stereo pair images are necessary for 3D viewing. In the absence of quality stereo-pair images, it is possible to synthesize a stereo-mate suitable for 3D viewing with a single image and a depth-map. In remote sensing, DEM is usually used as a depth-map. In this paper, LiDAR data was used instead of DEM to make a stereo pair from a single aerial photo. Each LiDAR point was assigned a brightness value from the original single image by registration of the image and LiDAR data. And then, imaginary exposure station and image plane were assumed. Finally, LiDAR points with already-assigned brightness values were back-projected to the imaginary plane for synthesis of a stereo-mate. The imaginary exposure station and image plane were determined to have only a horizontal shift from the original image's exposure station and plane. As a result, the stereo-mate synthesized in this paper fulfilled epipolar geometry and yielded easily-perceivable 3D viewing effect together with the original image. The 3D viewing effect was tested with anaglyph at the end.

  • PDF

On Design of Visual Servoing using an Uncalibrated Camera and a Calibrated Robot

  • Uchikado, Shigeru;Morita, Masahiko;Osa, Yasuhiro;Mabuchi, Tesuo;Tanya, Kanya
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.23.2-23
    • /
    • 2001
  • In this paper we deal with visual servoing that can control a robot arm with a camera using information of images only, without estimating 3D position and rotation of the robot arm. Here it is assumed that the robot arm is calibrated and the camera is uncalibrated. We use a pinhole camera model as the camera one. The essential notion can be show, that is, epipolar geometry, epipole, epipolar equation, and epipolar constrain. These play an important role in designing visual servoing. For easy understanding of the proposed method we first show a design in case of the calibrated camera. The design is constructed by 4 steps and the directional motion of the robot arm is fixed only to a constant direction. This means that an estimated epipole denotes the direction, to which the robot arm translates in 3D space, on the image plane.

  • PDF

영상 내 건설인력 위치 추적을 위한 등극선 기하학 기반의 개체 매칭 기법 (Entity Matching for Vision-Based Tracking of Construction Workers Using Epipolar Geometry)

  • 이용주;김도완;박만우
    • 한국BIM학회 논문집
    • /
    • 제5권2호
    • /
    • pp.46-54
    • /
    • 2015
  • Vision-based tracking has been proposed as a means to efficiently track a large number of construction resources operating in a congested site. In order to obtain 3D coordinates of an object, it is necessary to employ stereo-vision theories. Detecting and tracking of multiple objects require an entity matching process that finds corresponding pairs of detected entities across the two camera views. This paper proposes an efficient way of entity matching for tracking of construction workers. The proposed method basically uses epipolar geometry which represents the relationship between the two fixed cameras. Each pixel coordinate in a camera view is projected onto the other camera view as an epipolar line. The proposed method finds the matching pair of a worker entity by comparing the proximity of the all detected entities in the other view to the epipolar line. Experimental results demonstrate its suitability for automated entity matching for 3D vision-based tracking of construction workers.

Fast and Accurate Visual Place Recognition Using Street-View Images

  • Lee, Keundong;Lee, Seungjae;Jung, Won Jo;Kim, Kee Tae
    • ETRI Journal
    • /
    • 제39권1호
    • /
    • pp.97-107
    • /
    • 2017
  • A fast and accurate building-level visual place recognition method built on an image-retrieval scheme using street-view images is proposed. Reference images generated from street-view images usually depict multiple buildings and confusing regions, such as roads, sky, and vehicles, which degrades retrieval accuracy and causes matching ambiguity. The proposed practical database refinement method uses informative reference image and keypoint selection. For database refinement, the method uses a spatial layout of the buildings in the reference image, specifically a building-identification mask image, which is obtained from a prebuilt three-dimensional model of the site. A global-positioning-system-aware retrieval structure is incorporated in it. To evaluate the method, we constructed a dataset over an area of $0.26km^2$. It was comprised of 38,700 reference images and corresponding building-identification mask images. The proposed method removed 25% of the database images using informative reference image selection. It achieved 85.6% recall of the top five candidates in 1.25 s of full processing. The method thus achieved high accuracy at a low computational complexity.

사각영상을 이용한 물체의 고도정보 추출에 관한 연구 (A Study on Extraction Depth Information Using a Non-parallel Axis Image)

  • 이우영;엄기문;박찬응;이쾌희
    • 대한원격탐사학회지
    • /
    • 제9권2호
    • /
    • pp.7-19
    • /
    • 1993
  • In stereo vision, when we use two parallel axis images, small portion of object is contained and B/H(Base-line to Height) ratio is limited due to the size of object and depth information is inaccurate. To overcome these difficulities we take a non-parallel axis image which is rotated $\theta$ about y-axis and match other parallel-axis image. Epipolar lines of non-parallel axis image are not same as those of parallel-axis image and we can't match these two images directly. In this paper, we transform the non-parallel axis image geometrically with camera parameters, whose epipolar lines are alingned parallel. NCC(Normalized Cross Correlation) is used as match measure, area-based matching technique is used find correspondence and 9$\times$9 window size is used, which is chosen experimentally. Focal length which is necessary to get depth information of given object is calculated with least-squares method by CCD camera characteristics and lenz property. Finally, we select 30 test points from given object whose elevation is varied to 150 mm, calculate heights and know that height RMS error is 7.9 mm.

고품질의 3D 콘텐츠 제작을 위한 베이지안 접근방식의 사진측량기반 편위수정기법 개발 (Development of Photogrammetric Rectification Method Applying Bayesian Approach for High Quality 3D Contents Production)

  • 김재인;김태정
    • 방송공학회논문지
    • /
    • 제18권1호
    • /
    • pp.31-42
    • /
    • 2013
  • 본 논문에서는 고품질의 3D 콘텐츠 제작에 있어 입체피로를 최소화하기 위한 영상의 수직시차 교정방법으로, 베이지안 접근방식을 적용한 사진측량기반의 강인 편위수정 기법을 제안하고자 한다. 영상의 수직시차 제거 과정은 크게 기하추정 단계와 에피폴라 변환 단계로 구성된다. 본 논문에서는 기하추정을 위해 사진측량에서 널리 활용되고 있는 공면조건 기반의 상대표정 알고리즘을 적용한다. 이때 상대표정 알고리즘에는 자동 정합점 추출에 따른 오정합과 위치오차에 강인성을 확보하기 위해 제약조건을 도입한 베이지안 접근방식을 적용하고자 하며, 이를 바탕으로 수행되는 에피폴라 변환에는 영상의 왜곡과 원 영상 대비 변형을 최소화하기 위한 공선조건기반의 중심투영변환기법을 적용하고자 한다. 알고리즘의 성능검증을 위한 비교 알고리즘으로, 기하추정에는 일반적인 상대표정 알고리즘과 컴퓨터비전분야의 8점 알고리즘 및 스테레오 캘리브레이션 기법이 사용되었으며, 에피폴라 변환에는 Hartley 방법과 Bouguet 방법이 사용되었다. 실험결과는 제안 알고리즘의 높은 정확도와 여러 오차요인들에 대한 강인성, 그리고 최소화된 영상변형의 결과를 보여주었다.

투영곡선의 자동정합을 이용한 전방향 카메라 보정 (Using Contour Matching for Omnidirectional Camera Calibration)

  • 황용호;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.125-132
    • /
    • 2008
  • 감시 및 로보트 분야 등에서 다양하게 사용되는 전방향(omnidirectional) 카메라 시스템은 넓은 시야각을 제공한다. 전방향 카메라의 사영모델과 외부변수를 추정하는 대부분의 기존 연구에서는 사전에 설정된 영상 간의 대응관계를 가정한다. 본 논문에서는 두 장의 전방향 영상으로부터 투영곡선을 자동으로 정합하여 카메라의 외부변수를 추정하는 새로운 알고리즘이 제안된다. 먼저 두 영상에서 대응되는 특징점으로부터 에피폴라 구속조건을 계산하여 초기 카메라 변수를 계산한다. 검출된 특징점과 투영곡선을 대상으로 능동적(active) 정합방법으로 대응관계를 결정한다. 최종 단계에서 대응 투영곡선을 구성하는 양 끝점의 에피폴라(epipolar) 평면과 3차원 벡터의 각도 오차를 최소화하는 카메라 변수를 추정한다. 합성영상과 어안렌즈(fisheye lens)로 취득된 실제 영상을 대상으로 제안된 알고리즘이 기존 방법에 비해 카메라의 외부변수를 정확하게 추정함을 확인하였다.

사진측량 관점에서 차량측량시스템 영상을 이용한 3차원 위치의 정밀도 분석 (Analysis on 3D Positioning Precision Using Mobile Mapping System Images in Photograrmmetric Perspective)

  • 조우석;황현덕
    • 대한원격탐사학회지
    • /
    • 제19권6호
    • /
    • pp.431-445
    • /
    • 2003
  • 본 연구에서는 사진측량 관점에서 4S-Van 영상을 이용한 3차원 위치결정의 정밀도를 실험적으로 검증하였다. 실외에 3차원 검정타겟을 설치하고 45-Van에 탑재된 2대의 CCD카메라로부터 검정타겟 영상을 개별적으로 취득하여 자체검정기법으로 각각의 CCD카메라에 대한 내부표정요소를 개별적으로 정확하게 결정하였다. 이와 같이 얻어진 내부표정요소와 검정타겟의 지상좌표 및 검정타겟을 동시에 촬영한 좌ㆍ우측 카메라의 영상좌표를 이용하여 광속조정법으로 2대 CCD카메라의 외부표정요소를 동시에 결정하였다. 또한, 렌즈왜곡이 고려된 에피폴라선을 이용하기 위하여 역렌즈왜곡계수를 최소제곱법을 이용하여 결정하였다. 역렌즈왜곡계수를 이용하여 약 0.5 pixel 이내로 렌즈왜곡이 포함된 영상좌표로 변환이 가능하였다. 렌즈왜곡이 고려된 에피폴라선을 이용한 반자동 영상매칭을 적용하여 3차원 위치결정의 정밀도를 검증하였다. 실험적으로 촬영거리 20m이내에서는 대략2cm 정도의 정밀도를 얻을 수 있었다.