• 제목/요약/키워드: Fisheye Distortion

검색결과 33건 처리시간 0.028초

비대칭 왜곡 어안렌즈를 위한 영상 손실 최소화 왜곡 보정 기법 (Image Data Loss Minimized Geometric Correction for Asymmetric Distortion Fish-eye Lens)

  • 조영주;김성희;박지영;손진우;이중렬;김명희
    • 한국시뮬레이션학회논문지
    • /
    • 제19권1호
    • /
    • pp.23-31
    • /
    • 2010
  • 180도 이상의 영역을 획득하는 어안렌즈(fisheye lens)는 최소의 카메라로 최대 시야각을 확보할 수 있는 장점으로 인해 차량 장착 시도가 늘고 있다. 이와 같이 어안렌즈를 통해 시야를 확보하고, 영상센서로 사용하기 위해서는 캘리브레이션 작업이 선행되어야 하며, 운전자에게 현실감 있는 영상을 제공하기 위해서는 이를 이용하여 방사왜곡(radial distortion)에 따른 기하학적인 왜곡 보정이 필요하다. 본 논문에서는 비대칭 왜곡을 가진 180도 이상 화각의 차량용 대각선 어안렌즈를 위해 영상 손실을 최소화하는 왜곡 보정 기법을 제안한다. 왜곡 보정은 왜곡 모델이 포함된 카메라 모델을 설정하고 캘리브레이션 과정을 통해 카메라 파라미터를 구한 후 왜곡이 보정된 뷰를 생성하는 과정으로 이루어진다. 먼저 왜곡모델로서 비선형의 왜곡 형상을 모방한 FOV(Field of View)모델을 사용한다. 또한 비대칭 왜곡렌즈의 경우 운전자의 좌우 시야각 확보에 중점을 두어 수직 화각보다 수평 화각이 크게 설계되었기 때문에 영상의 장축, 단축의 비율을 일치시킨 후 비선형 최적화 알고리즘을 사용하여 카메라 파라미터를 추정한다. 최종적으로 왜곡이 보정된 뷰 생성 시 역방향 사상과 함께 수평, 수직 방향에 대한 왜곡 보정 정도를 제어 가능하도록 함으로써 화각이 180도 이상인 영상에 대해서 핀홀 카메라 모델을 적용하여 2차원 평면으로 영상을 보정하는 경우 발생하는 영상 손실을 최소화하고 시각적 인지도를 높일 수 있도록 하였다.

차량용 어안렌즈영상의 기하학적 왜곡 보정 (Geometric Correction of Vehicle Fish-eye Lens Images)

  • 김성희;조영주;손진우;이중렬;김명희
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.601-605
    • /
    • 2009
  • $180^{\circ}$ 이상의 영역을 획득하는 어안렌즈(fish-eye lens)는 최소의 카메라로 최대 시야각을 확보할 수 있는 장점으로 인해 차량 장착 시도가 늘고 있다. 운전자에게 현실감 있는 영상을 제공하고 센서로 이용하기 위해서는 캘리브레이션을 통해 방사왜곡(radial distortion)에 따른 기하학적인 왜곡 보정이 필요하다. 그런데 차량용 어안렌즈의 경우, 대각선 어안렌즈로 일반 원상 어안렌즈로 촬영한 둥근 화상의 바깥둘레에 내접하는 부분을 잘라낸 직사각형 영상과 같으며, 수직, 수평 화각에 따라 왜곡이 비대칭구조로 설계되었다. 본 논문에서는, 영상의 특징점(feature points)을 이용하여 차량용 어안렌즈에 적합한 카메라 모델 및 캘리브레이션 기법을 소개한다. 캘리브레이션한 결과, 제안한 방법은 화각이 다른 차량용 어안렌즈에도 적용 가능하다.

  • PDF

어안렌즈를 이용한 비전 기반의 이동 로봇 위치 추정 및 매핑 (Vision-based Mobile Robot Localization and Mapping using fisheye Lens)

  • 이종실;민홍기;홍승홍
    • 융합신호처리학회논문지
    • /
    • 제5권4호
    • /
    • pp.256-262
    • /
    • 2004
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다. 본 논문에서는 어안렌즈를 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특징을 갖는 고급의 영상 특징을 구하고, 이 특징들을 맵 빌딩과 위치 추정에 이용하였다. 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 이용하여 보정된 영상에서 천정영역과 벽영역으로 분할한다. 최초 맵 빌딩시에는 분할된 영역에 대해 특징점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특징점들을 구하고 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맵에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩 과정과 맵 상에서 로봇의 위치를 찾는데 이용된다. 로봇의 위치에서 구해진 특징점들은 로봇의 실제 위치를 추정하기 위해 기존의 맵과 매칭을 행하고 동시에 기존의 맵 데이터베이스는 갱신된다. 제안한 방법을 적용하면 50㎡의 영역에 대한 맵 빌딩 소요 시간은 2분 이내, 위치 추정시 위치 정확도는 ±13cm, 로봇의 자세에 대한 각도 오차는 ±3도이다.

  • PDF

차량용 어안렌즈 카메라 캘리브레이션 및 왜곡 보정 (Camera Calibration and Barrel Undistortion for Fisheye Lens)

  • 허준영;이동욱
    • 전기학회논문지
    • /
    • 제62권9호
    • /
    • pp.1270-1275
    • /
    • 2013
  • A lot of research about camera calibration and lens distortion for wide-angle lens has been made. Especially, calibration for fish-eye lens which has 180 degree FOV(field of view) or above is more tricky, so existing research employed a huge calibration pattern or even 3D pattern. And it is important that calibration parameters (such as distortion coefficients) are suitably initialized to get accurate calibration results. It can be achieved by using manufacturer information or lease-square method for relatively narrow FOV(135, 150 degree) lens. In this paper, without any previous manufacturer information, camera calibration and barrel undistortion for fish-eye lens with over 180 degree FOV are achieved by only using one calibration pattern image. We applied QR decomposition for initialization and Regularization for optimization. With the result of experiment, we verified that our algorithm can achieve camera calibration and image undistortion successfully.

어안 이미지 기반의 움직임 추정 기법을 이용한 전방향 영상 SLAM (Omni-directional Vision SLAM using a Motion Estimation Method based on Fisheye Image)

  • 최윤원;최정원;대염염;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권8호
    • /
    • pp.868-874
    • /
    • 2014
  • This paper proposes a novel mapping algorithm in Omni-directional Vision SLAM based on an obstacle's feature extraction using Lucas-Kanade Optical Flow motion detection and images obtained through fish-eye lenses mounted on robots. Omni-directional image sensors have distortion problems because they use a fish-eye lens or mirror, but it is possible in real time image processing for mobile robots because it measured all information around the robot at one time. In previous Omni-Directional Vision SLAM research, feature points in corrected fisheye images were used but the proposed algorithm corrected only the feature point of the obstacle. We obtained faster processing than previous systems through this process. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we remove the feature points of the floor surface using a histogram filter, and label the candidates of the obstacle extracted. Third, we estimate the location of obstacles based on motion vectors using LKOF. Finally, it estimates the robot position using an Extended Kalman Filter based on the obstacle position obtained by LKOF and creates a map. We will confirm the reliability of the mapping algorithm using motion estimation based on fisheye images through the comparison between maps obtained using the proposed algorithm and real maps.

주거용 건물에서의 투영법에 의한 조망의 정량적 분석에 관한 연구 (A Study on the Quantitative Analysis of View by the Projection Method in the Residential Buildings)

  • 김용이;김광우
    • 한국주거학회논문집
    • /
    • 제14권5호
    • /
    • pp.37-46
    • /
    • 2003
  • The quantitative analysis of view tells how surroundings and sky are showed, and requires understanding of visual perception and three dimensional information of buildings. The visual perception and the existing projection methods for view analysis are examined. The results of this study are as follows: The visual perception on the size is determined by the visual angle, which can be described as a solid angle. The analysis of view by planar projection can be narrow-sighted according to the size of the window and the location of the viewpoint, which will cause the obstacles in the normal direction of the window interfere the view. For the analysis of view by fisheye projection, the area around the focus point is calculated wider than other areas, and so the view ratio depends on the position of the focus point. When analyzing sky view by dividing the sky vault into the differential area, the distortion by projection can be minimized.

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.

가혹한 조건에 대응하기 위한 차량용 카메라의 개선된 영상복원 알고리즘 (Improved Image Restoration Algorithm about Vehicle Camera for Corresponding of Harsh Conditions)

  • 장영민;조상복;이종화
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.114-123
    • /
    • 2014
  • 자동차용 영상 사고기록장치(블랙박스)는 도로위의 일반적인 상황만을 촬영하게 된다. 또한, 급격한 조도변화의 상황에서는 주위의 환경을 제대로 인식하기 어렵고 렌즈 자체의 왜곡이 매우 심하기 때문에 사고 발생 시 명확한 증거로 사용하기 어렵다. 이러한 문제를 해결하기 위한 첫 번째 방법으로 정규화된 밝기 정보의 수표현자인 NLD(Normalized Luminance Descriptor)값과 정규화된 명암정보의 수표현자인 NCD(Normalized Contrast Descriptor)값을 정의하여 추출하고 두 값의 관계를 갖는 영상의 수표현자인 NIQ(Normalized Image Quality)값을 사용하여 급격한 조도변화에 대응하였다. 두 번째로, 어안렌즈가 디자인되는 방법을 기본으로 하는 FOV(Field Of View)모델을 이용하여 렌즈의 왜곡을 보정한다. 결과적으로 두 가지 영상왜곡은 각각 감마보정 및 렌즈왜곡보정의 영상처리 기법을 사용하여 병렬로 처리한 후 이를 하나의 영상으로 통합하는 알고리즘을 제안한다.

보정 이미지의 최 근접 좌표를 이용한 실시간 방사 왜곡 보정 하드웨어 설계 (A Hardware Design for Realtime Correction of a Barrel Distortion Using the Nearest Pixels on a Corrected Image)

  • 송남훈;이준환
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권12호
    • /
    • pp.49-60
    • /
    • 2012
  • 본 논문은 보정 이미지에서 최 근접 좌표를 이용한 방사 왜곡 보정 하드웨어 구조를 제안한다. 기존 보간법과는 달리 보정 이미지에서 최근접한 좌표의 거리를 이용하기 때문에 이미지 전체 영역의 화질 향상과 함께 외각영역에서 발생하는 계단 현상을 해결할 수 있다. 그러나 양 선형 보간법을 적용한 기존 구조에서 추가되는 연산으로 인해 하드웨어 크기가 증가한다. 이를 해결하기 위해 룩 업 테이블 구조를 제안하고, 코르딕 알고리즘을 적용한다. Design compiler를 이용하여 합성한 결과 보간법의 모든 과정을 하드웨어로 구현한 구조는 기존 구조에 비해 처리량이 높고, 차량용 후방 카메라의 경우 룩 업 테이블과 하드웨어를 함께 사용한 구조는 모든 과정을 하드웨어로 구현한 구조보다 하드웨어 크기를 10% 줄일 수 있다.

스케일 불변 특징을 이용한 이동 로봇의 위치 추정 및 매핑 (Mobile Robot Localization and Mapping using Scale-Invariant Features)

  • 이종실;신동범;권오상;이응혁;홍승홍
    • 전기전자학회논문지
    • /
    • 제9권1호
    • /
    • pp.7-18
    • /
    • 2005
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다 본 논문에서는 스케일 불변 특정을 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특정을 갖는 고급의 영상 특정을 구하여 맹 빌딩과 위치 추정을 수행한다. 먼저, 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 적용하여 천정영역과 벽영역으로 분할한다 최초 맵 빌딩시에는 분할된 영역에 대해 특정점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특정점들을 구하고 이미 작성된 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맴에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩과정에서 매칭되는 점들을 찾을 때 동시에 수행되어 진다. 그리고 임의의 위치에서 기존의 작성된 맵과 매칭되는 점들을 찾음으로서 위치 추정이 행해지며 동시에 기존의 맵 데이터베이스의 특정점들을 갱신하게 된다. 제안한 방법은 $50m^2$의 영역에 대해 맵 빌딩을 2 분내에 수행할 수 있었으며, 위치의 정확도는 ${\pm}13cm$, 위치에 대한 로봇의 자세(각도)는 ${\pm}3$도의 오차를 갖는다.

  • PDF