• 제목/요약/키워드: fisheye images

검색결과 43건 처리시간 0.022초

투영곡선의 자동정합을 이용한 전방향 카메라 보정 (Using Contour Matching for Omnidirectional Camera Calibration)

  • 황용호;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.125-132
    • /
    • 2008
  • 감시 및 로보트 분야 등에서 다양하게 사용되는 전방향(omnidirectional) 카메라 시스템은 넓은 시야각을 제공한다. 전방향 카메라의 사영모델과 외부변수를 추정하는 대부분의 기존 연구에서는 사전에 설정된 영상 간의 대응관계를 가정한다. 본 논문에서는 두 장의 전방향 영상으로부터 투영곡선을 자동으로 정합하여 카메라의 외부변수를 추정하는 새로운 알고리즘이 제안된다. 먼저 두 영상에서 대응되는 특징점으로부터 에피폴라 구속조건을 계산하여 초기 카메라 변수를 계산한다. 검출된 특징점과 투영곡선을 대상으로 능동적(active) 정합방법으로 대응관계를 결정한다. 최종 단계에서 대응 투영곡선을 구성하는 양 끝점의 에피폴라(epipolar) 평면과 3차원 벡터의 각도 오차를 최소화하는 카메라 변수를 추정한다. 합성영상과 어안렌즈(fisheye lens)로 취득된 실제 영상을 대상으로 제안된 알고리즘이 기존 방법에 비해 카메라의 외부변수를 정확하게 추정함을 확인하였다.

비대칭 왜곡 어안렌즈를 위한 영상 손실 최소화 왜곡 보정 기법 (Image Data Loss Minimized Geometric Correction for Asymmetric Distortion Fish-eye Lens)

  • 조영주;김성희;박지영;손진우;이중렬;김명희
    • 한국시뮬레이션학회논문지
    • /
    • 제19권1호
    • /
    • pp.23-31
    • /
    • 2010
  • 180도 이상의 영역을 획득하는 어안렌즈(fisheye lens)는 최소의 카메라로 최대 시야각을 확보할 수 있는 장점으로 인해 차량 장착 시도가 늘고 있다. 이와 같이 어안렌즈를 통해 시야를 확보하고, 영상센서로 사용하기 위해서는 캘리브레이션 작업이 선행되어야 하며, 운전자에게 현실감 있는 영상을 제공하기 위해서는 이를 이용하여 방사왜곡(radial distortion)에 따른 기하학적인 왜곡 보정이 필요하다. 본 논문에서는 비대칭 왜곡을 가진 180도 이상 화각의 차량용 대각선 어안렌즈를 위해 영상 손실을 최소화하는 왜곡 보정 기법을 제안한다. 왜곡 보정은 왜곡 모델이 포함된 카메라 모델을 설정하고 캘리브레이션 과정을 통해 카메라 파라미터를 구한 후 왜곡이 보정된 뷰를 생성하는 과정으로 이루어진다. 먼저 왜곡모델로서 비선형의 왜곡 형상을 모방한 FOV(Field of View)모델을 사용한다. 또한 비대칭 왜곡렌즈의 경우 운전자의 좌우 시야각 확보에 중점을 두어 수직 화각보다 수평 화각이 크게 설계되었기 때문에 영상의 장축, 단축의 비율을 일치시킨 후 비선형 최적화 알고리즘을 사용하여 카메라 파라미터를 추정한다. 최종적으로 왜곡이 보정된 뷰 생성 시 역방향 사상과 함께 수평, 수직 방향에 대한 왜곡 보정 정도를 제어 가능하도록 함으로써 화각이 180도 이상인 영상에 대해서 핀홀 카메라 모델을 적용하여 2차원 평면으로 영상을 보정하는 경우 발생하는 영상 손실을 최소화하고 시각적 인지도를 높일 수 있도록 하였다.

Use of Unmanned Aerial Vehicle for Multi-temporal Monitoring of Soybean Vegetation Fraction

  • Yun, Hee Sup;Park, Soo Hyun;Kim, Hak-Jin;Lee, Wonsuk Daniel;Lee, Kyung Do;Hong, Suk Young;Jung, Gun Ho
    • Journal of Biosystems Engineering
    • /
    • 제41권2호
    • /
    • pp.126-137
    • /
    • 2016
  • Purpose: The overall objective of this study was to evaluate the vegetation fraction of soybeans, grown under different cropping conditions using an unmanned aerial vehicle (UAV) equipped with a red, green, and blue (RGB) camera. Methods: Test plots were prepared based on different cropping treatments, i.e., soybean single-cropping, with and without herbicide application and soybean and barley-cover cropping, with and without herbicide application. The UAV flights were manually controlled using a remote flight controller on the ground, with 2.4 GHz radio frequency communication. For image pre-processing, the acquired images were pre-treated and georeferenced using a fisheye distortion removal function, and ground control points were collected using Google Maps. Tarpaulin panels of different colors were used to calibrate the multi-temporal images by converting the RGB digital number values into the RGB reflectance spectrum, utilizing a linear regression method. Excess Green (ExG) vegetation indices for each of the test plots were compared with the M-statistic method in order to quantitatively evaluate the greenness of soybean fields under different cropping systems. Results: The reflectance calibration methods used in the study showed high coefficients of determination, ranging from 0.8 to 0.9, indicating the feasibility of a linear regression fitting method for monitoring multi-temporal RGB images of soybean fields. As expected, the ExG vegetation indices changed according to different soybean growth stages, showing clear differences among the test plots with different cropping treatments in the early season of < 60 days after sowing (DAS). With the M-statistic method, the test plots under different treatments could be discriminated in the early seasons of <41 DAS, showing a value of M > 1. Conclusion: Therefore, multi-temporal images obtained with an UAV and a RGB camera could be applied for quantifying overall vegetation fractions and crop growth status, and this information could contribute to determine proper treatments for the vegetation fraction.