• 제목/요약/키워드: fisheye camera

검색결과 53건 처리시간 0.033초

영상합성을 위한 3D 공간 해석 및 조명환경의 재구성 (3D Analysis of Scene and Light Environment Reconstruction for Image Synthesis)

  • 황용호;홍현기
    • 한국게임학회 논문지
    • /
    • 제6권2호
    • /
    • pp.45-50
    • /
    • 2006
  • 실 세계 공간에 가상 물체를 사실적으로 합성하기 위해서는 공간 내에 존재하는 조명정보 등을 분석해야 한다. 본 논문에서는 카메라에 대한 사전 교정(calibration)없이 카메라 및 조명의 위치 등을 추정하는 새로운 조명공간 재구성 방법이 제안된다. 먼저, 어안렌즈(fisheye lens)로부터 얻어진 전방향(omni-directional) 다중 노출 영상을 이용해 HDR (High Dynamic Range) 래디언스 맵(radiance map)을 생성한다. 그리고 다수의 대응점으로부터 카메라의 위치를 추정한 다음, 방향벡터를 이용해 조명의 위치를 재구성한다. 또한 대상 공간 내 많은 영향을 미치는 전역 조명과 일부 지역에 국한되어 영향을 주는 방향성을 갖는 지역 조명으로 분류하여 조명 환경을 재구성한다. 재구성된 조명환경 내에서 분산광선추적(distributed ray tracing) 방법으로 렌더링한 결과로부터 사실적인 합성영상이 얻어짐을 확인하였다. 제안된 방법은 카메라의 사전 교정 등이 필요하지 않으며 조명공간을 자동으로 재구성할 수 있는 장점이 있다.

  • PDF

어안렌즈를 이용한 비전 기반의 이동 로봇 위치 추정 및 매핑 (Vision-based Mobile Robot Localization and Mapping using fisheye Lens)

  • 이종실;민홍기;홍승홍
    • 융합신호처리학회논문지
    • /
    • 제5권4호
    • /
    • pp.256-262
    • /
    • 2004
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다. 본 논문에서는 어안렌즈를 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특징을 갖는 고급의 영상 특징을 구하고, 이 특징들을 맵 빌딩과 위치 추정에 이용하였다. 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 이용하여 보정된 영상에서 천정영역과 벽영역으로 분할한다. 최초 맵 빌딩시에는 분할된 영역에 대해 특징점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특징점들을 구하고 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맵에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩 과정과 맵 상에서 로봇의 위치를 찾는데 이용된다. 로봇의 위치에서 구해진 특징점들은 로봇의 실제 위치를 추정하기 위해 기존의 맵과 매칭을 행하고 동시에 기존의 맵 데이터베이스는 갱신된다. 제안한 방법을 적용하면 50㎡의 영역에 대한 맵 빌딩 소요 시간은 2분 이내, 위치 추정시 위치 정확도는 ±13cm, 로봇의 자세에 대한 각도 오차는 ±3도이다.

  • PDF

비대칭 왜곡 어안렌즈를 위한 영상 손실 최소화 왜곡 보정 기법 (Image Data Loss Minimized Geometric Correction for Asymmetric Distortion Fish-eye Lens)

  • 조영주;김성희;박지영;손진우;이중렬;김명희
    • 한국시뮬레이션학회논문지
    • /
    • 제19권1호
    • /
    • pp.23-31
    • /
    • 2010
  • 180도 이상의 영역을 획득하는 어안렌즈(fisheye lens)는 최소의 카메라로 최대 시야각을 확보할 수 있는 장점으로 인해 차량 장착 시도가 늘고 있다. 이와 같이 어안렌즈를 통해 시야를 확보하고, 영상센서로 사용하기 위해서는 캘리브레이션 작업이 선행되어야 하며, 운전자에게 현실감 있는 영상을 제공하기 위해서는 이를 이용하여 방사왜곡(radial distortion)에 따른 기하학적인 왜곡 보정이 필요하다. 본 논문에서는 비대칭 왜곡을 가진 180도 이상 화각의 차량용 대각선 어안렌즈를 위해 영상 손실을 최소화하는 왜곡 보정 기법을 제안한다. 왜곡 보정은 왜곡 모델이 포함된 카메라 모델을 설정하고 캘리브레이션 과정을 통해 카메라 파라미터를 구한 후 왜곡이 보정된 뷰를 생성하는 과정으로 이루어진다. 먼저 왜곡모델로서 비선형의 왜곡 형상을 모방한 FOV(Field of View)모델을 사용한다. 또한 비대칭 왜곡렌즈의 경우 운전자의 좌우 시야각 확보에 중점을 두어 수직 화각보다 수평 화각이 크게 설계되었기 때문에 영상의 장축, 단축의 비율을 일치시킨 후 비선형 최적화 알고리즘을 사용하여 카메라 파라미터를 추정한다. 최종적으로 왜곡이 보정된 뷰 생성 시 역방향 사상과 함께 수평, 수직 방향에 대한 왜곡 보정 정도를 제어 가능하도록 함으로써 화각이 180도 이상인 영상에 대해서 핀홀 카메라 모델을 적용하여 2차원 평면으로 영상을 보정하는 경우 발생하는 영상 손실을 최소화하고 시각적 인지도를 높일 수 있도록 하였다.

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.

사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법 (Omnidirectional Camera Motion Estimation Using Projected Contours)

  • 황용호;이재만;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.35-44
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 응용되고 있다. 실 세계에 존재하는 직선 성분들은 전방향 카메라 모델에 의해 컨투어로 사영(projection)되기 때문에, 영상간에 대응되는 컨투어 성분은 카메라의 회전 및 이동 등의 추정에 효과적으로 활용될 수 있다. 본 논문에서는 전방향 카메라의 변환 파라미터를 추정하기 위한 2단계 최소화 알고리즘이 제안된다. 제안된 알고리즘은 컨투어를 이루는 대응점에 대한 에피폴라(epipolar) 평면과 3차원 벡터간의 각도 오차함수 및 사영된 컨투어의 거리 오차를 단계별로 최소화하는 카메라 파라미터를 계산한다. 등거리(equidistance) 사영된 합성영상과 어안렌즈(fisheye lens)로 취득한 실제 영상을 대상으로 제안된 알고리즘이 카메라의 위치 정보를 정확하게 추정함을 확인하였다.

차량용 어안렌즈영상의 기하학적 왜곡 보정 (Geometric Correction of Vehicle Fish-eye Lens Images)

  • 김성희;조영주;손진우;이중렬;김명희
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.601-605
    • /
    • 2009
  • $180^{\circ}$ 이상의 영역을 획득하는 어안렌즈(fish-eye lens)는 최소의 카메라로 최대 시야각을 확보할 수 있는 장점으로 인해 차량 장착 시도가 늘고 있다. 운전자에게 현실감 있는 영상을 제공하고 센서로 이용하기 위해서는 캘리브레이션을 통해 방사왜곡(radial distortion)에 따른 기하학적인 왜곡 보정이 필요하다. 그런데 차량용 어안렌즈의 경우, 대각선 어안렌즈로 일반 원상 어안렌즈로 촬영한 둥근 화상의 바깥둘레에 내접하는 부분을 잘라낸 직사각형 영상과 같으며, 수직, 수평 화각에 따라 왜곡이 비대칭구조로 설계되었다. 본 논문에서는, 영상의 특징점(feature points)을 이용하여 차량용 어안렌즈에 적합한 카메라 모델 및 캘리브레이션 기법을 소개한다. 캘리브레이션한 결과, 제안한 방법은 화각이 다른 차량용 어안렌즈에도 적용 가능하다.

  • PDF

투영곡선의 자동정합을 이용한 전방향 카메라 보정 (Using Contour Matching for Omnidirectional Camera Calibration)

  • 황용호;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.125-132
    • /
    • 2008
  • 감시 및 로보트 분야 등에서 다양하게 사용되는 전방향(omnidirectional) 카메라 시스템은 넓은 시야각을 제공한다. 전방향 카메라의 사영모델과 외부변수를 추정하는 대부분의 기존 연구에서는 사전에 설정된 영상 간의 대응관계를 가정한다. 본 논문에서는 두 장의 전방향 영상으로부터 투영곡선을 자동으로 정합하여 카메라의 외부변수를 추정하는 새로운 알고리즘이 제안된다. 먼저 두 영상에서 대응되는 특징점으로부터 에피폴라 구속조건을 계산하여 초기 카메라 변수를 계산한다. 검출된 특징점과 투영곡선을 대상으로 능동적(active) 정합방법으로 대응관계를 결정한다. 최종 단계에서 대응 투영곡선을 구성하는 양 끝점의 에피폴라(epipolar) 평면과 3차원 벡터의 각도 오차를 최소화하는 카메라 변수를 추정한다. 합성영상과 어안렌즈(fisheye lens)로 취득된 실제 영상을 대상으로 제안된 알고리즘이 기존 방법에 비해 카메라의 외부변수를 정확하게 추정함을 확인하였다.

An Observation System of Hemisphere Space with Fish eye Image and Head Motion Detector

  • Sudo, Yoshie;Hashimoto, Hiroshi;Ishii, Chiharu
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.663-668
    • /
    • 2003
  • This paper presents a new observation system which is useful to observe the scene of the remote controlled robot vision. This system is composed of a motionless camera and head motion detector with a motion sensor. The motionless camera has a fish eye lens and is for observing a hemisphere space. The head motion detector has a motion sensor is for defining an arbitrary subspace of the hemisphere space from fish eye lens. Thus processing the angular information from the motion sensor appropriately, the direction of face is estimated. However, since the fisheye image is distorted, it is unclear image. The partial domain of a fish eye image is selected by head motion, and this is converted to perspective image. However, since this conversion enlarges the original image spatially and is based on discrete data, crevice is generated in the converted image. To solve this problem, interpolation based on an intensity of the image is performed for the crevice in the converted image (space problem). This paper provides the experimental results of the proposed observation system with the head motion detector and perspective image conversion using the proposed conversion and interpolation methods, and the adequacy and improving point of the proposed techniques are discussed.

  • PDF

Economical image stitching algorithm for portable panoramic image assistance in automotive application

  • Demiryurek, Ahmet;Kutluay, Emir
    • Advances in Automotive Engineering
    • /
    • 제1권1호
    • /
    • pp.143-152
    • /
    • 2018
  • In this study an economical image stitching algorithm for use in automotive industry is developed for retrofittable panoramic image assistance applications. The aim of this project is to develop a driving assistance system known as Panoramic Parking Assistance (PPA) which is cheap, retrofittable and compatible for every type of automobiles. PPA generates bird's eye view image using cameras installed on the automobiles. Image stitching requires to get bird's eye view position of the vehicle. Panoramic images are wide area images that cannot be available by taking one shot, attained by stitching the overlapping areas. To achieve correct stitching many algorithms are used. This study includes some type of these algorithms and presents a simple one that is economical and practical. Firstly, the mathematical model of a wide view of angle camera is provided. Then distorted image correction is performed. Stitching is implemented by using the SIFT and SURF algorithms. It has been seen that using such algorithms requires complex image processing knowledge and implementation of high quality digital processors, which would be impracticle and costly for automobile use. Thus a simpler algorithm has been developed to decrase the complexity. The proposed algorithm uses one matching point for every couple of images and has ease of use and does not need high power processors. To show the efficiency, images coming from four distinct cameras are stitched by using the algorithm developed for the study and usability for automotive application is analyzed.

여러 개의 조명등을 이용한 이동 로봇의 위치 추정 (Localization of a Mobile Robot Using Multiple Ceiling Lights)

  • 한연주;박태형
    • 제어로봇시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.379-384
    • /
    • 2013
  • We propose a new global positioning method for the indoor mobile robots. The multiple indoor lights fixed in ceiling are used as the landmarks of positioning system. The ceiling images are acquired by the fisheye lens camera mounted on the moving robot. The position and orientation of the lights are extracted by binarization and labeling techniques. Also the boundary lines between ceiling and walls are extracted to identify the order of each light. The robot position is then calculated from the extracted position and known position of the lights. The proposed system can increase the accuracy and reduce the computation time comparing with the other positioning methods using natural landmark. Experimental results are presented to show the performance of the method.