• 제목/요약/키워드: fisheye-lens

검색결과 61건 처리시간 0.027초

영상합성을 위한 3D 공간 해석 및 조명환경의 재구성 (3D Analysis of Scene and Light Environment Reconstruction for Image Synthesis)

  • 황용호;홍현기
    • 한국게임학회 논문지
    • /
    • 제6권2호
    • /
    • pp.45-50
    • /
    • 2006
  • 실 세계 공간에 가상 물체를 사실적으로 합성하기 위해서는 공간 내에 존재하는 조명정보 등을 분석해야 한다. 본 논문에서는 카메라에 대한 사전 교정(calibration)없이 카메라 및 조명의 위치 등을 추정하는 새로운 조명공간 재구성 방법이 제안된다. 먼저, 어안렌즈(fisheye lens)로부터 얻어진 전방향(omni-directional) 다중 노출 영상을 이용해 HDR (High Dynamic Range) 래디언스 맵(radiance map)을 생성한다. 그리고 다수의 대응점으로부터 카메라의 위치를 추정한 다음, 방향벡터를 이용해 조명의 위치를 재구성한다. 또한 대상 공간 내 많은 영향을 미치는 전역 조명과 일부 지역에 국한되어 영향을 주는 방향성을 갖는 지역 조명으로 분류하여 조명 환경을 재구성한다. 재구성된 조명환경 내에서 분산광선추적(distributed ray tracing) 방법으로 렌더링한 결과로부터 사실적인 합성영상이 얻어짐을 확인하였다. 제안된 방법은 카메라의 사전 교정 등이 필요하지 않으며 조명공간을 자동으로 재구성할 수 있는 장점이 있다.

  • PDF

하늘시계지수 비교 및 도시기온 상관성 연구: 강남 선정릉지역을 중심으로 (A Study on a Comparison of Sky View Factors and a Correlation with Air Temperature in the City)

  • 이채연;신이레;안승만
    • 대기
    • /
    • 제27권4호
    • /
    • pp.483-498
    • /
    • 2017
  • Sky view factor can quantify the influence of complex obstructions. This study aims to evaluate the best available SVF method that represents an urban thermal condition with land cover in complex city of Korea and also to quantify a correlation between SVF and mean air temperature; the results are as follows. First, three SVF methods comparison result shows that urban thermal study should consider forest canopy induced effects because the forest canopy test (on/off) on SVF reveals significant difference range (0.8, between maximum value and minimum value) in comparison with the range (0.1~0.3) of SVFs (Fisheye, SOLWEIG and 3DPC) difference. The significance is bigger as a forest cover proportion become larger. Second, R-square between SVF methods and urban local mean air temperature seems more reliable at night than a day. And as the value of SVF increased, it showed a positive slope in summer day and a negative slope in winter night. In the SVF calculation method, Fisheye SVF, which is the observed value, is close to the 3DPC SVF, but the grid-based SWG SVF is higher in correlation with the temperature. However, both urban climate monitoring and model/analysis study need more development because of the different between SVF and mean air temperature correlation results in the summer night period, which imply other major factors such as cooling air by the forest canopy, warming air by anthropogenic heat emitted from fuel oil combustion and so forth.

An Observation System of Hemisphere Space with Fish eye Image and Head Motion Detector

  • Sudo, Yoshie;Hashimoto, Hiroshi;Ishii, Chiharu
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.663-668
    • /
    • 2003
  • This paper presents a new observation system which is useful to observe the scene of the remote controlled robot vision. This system is composed of a motionless camera and head motion detector with a motion sensor. The motionless camera has a fish eye lens and is for observing a hemisphere space. The head motion detector has a motion sensor is for defining an arbitrary subspace of the hemisphere space from fish eye lens. Thus processing the angular information from the motion sensor appropriately, the direction of face is estimated. However, since the fisheye image is distorted, it is unclear image. The partial domain of a fish eye image is selected by head motion, and this is converted to perspective image. However, since this conversion enlarges the original image spatially and is based on discrete data, crevice is generated in the converted image. To solve this problem, interpolation based on an intensity of the image is performed for the crevice in the converted image (space problem). This paper provides the experimental results of the proposed observation system with the head motion detector and perspective image conversion using the proposed conversion and interpolation methods, and the adequacy and improving point of the proposed techniques are discussed.

  • PDF

가혹한 조건에 대응하기 위한 차량용 카메라의 개선된 영상복원 알고리즘 (Improved Image Restoration Algorithm about Vehicle Camera for Corresponding of Harsh Conditions)

  • 장영민;조상복;이종화
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.114-123
    • /
    • 2014
  • 자동차용 영상 사고기록장치(블랙박스)는 도로위의 일반적인 상황만을 촬영하게 된다. 또한, 급격한 조도변화의 상황에서는 주위의 환경을 제대로 인식하기 어렵고 렌즈 자체의 왜곡이 매우 심하기 때문에 사고 발생 시 명확한 증거로 사용하기 어렵다. 이러한 문제를 해결하기 위한 첫 번째 방법으로 정규화된 밝기 정보의 수표현자인 NLD(Normalized Luminance Descriptor)값과 정규화된 명암정보의 수표현자인 NCD(Normalized Contrast Descriptor)값을 정의하여 추출하고 두 값의 관계를 갖는 영상의 수표현자인 NIQ(Normalized Image Quality)값을 사용하여 급격한 조도변화에 대응하였다. 두 번째로, 어안렌즈가 디자인되는 방법을 기본으로 하는 FOV(Field Of View)모델을 이용하여 렌즈의 왜곡을 보정한다. 결과적으로 두 가지 영상왜곡은 각각 감마보정 및 렌즈왜곡보정의 영상처리 기법을 사용하여 병렬로 처리한 후 이를 하나의 영상으로 통합하는 알고리즘을 제안한다.

대칭 그래픽 방식을 이용한 광학계의 색수차 보정 설계 (Design of an Achromatic Optical System Using a Symmetry Graphical Method)

  • 임태연;안병인;조선형;김정윤;박성찬
    • 한국광학회지
    • /
    • 제29권1호
    • /
    • pp.13-18
    • /
    • 2018
  • 본 연구에서는 여러 매의 렌즈들로 구성된 광학계의 색수차 보정을 위해 색수차 보정 지도에서 대칭 그래픽 방식을 제시한다. 광학계를 구성하는 렌즈의 공기간격과 매수를 고려하여 대칭 그래픽 방식을 적용하기 위해 각 렌즈에서 근축광선의 상대적인 높이 비와 등가 단일렌즈 개념을 이용한다. 임의의 광학계를 여러 종류의 이중렌즈 광학계들로 변경한 다음, 소재선택과 굴절능재분배를 통해 색수차 보정에 가장 효과적인 이중렌즈를 선택한다. 이러한 설계방법을 가시광선 영역의 어안렌즈 설계에 적용한 결과 색수차가 보정된 광학계를 효과적으로 얻을 수 있었다.

여러 개의 조명등을 이용한 이동 로봇의 위치 추정 (Localization of a Mobile Robot Using Multiple Ceiling Lights)

  • 한연주;박태형
    • 제어로봇시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.379-384
    • /
    • 2013
  • We propose a new global positioning method for the indoor mobile robots. The multiple indoor lights fixed in ceiling are used as the landmarks of positioning system. The ceiling images are acquired by the fisheye lens camera mounted on the moving robot. The position and orientation of the lights are extracted by binarization and labeling techniques. Also the boundary lines between ceiling and walls are extracted to identify the order of each light. The robot position is then calculated from the extracted position and known position of the lights. The proposed system can increase the accuracy and reduce the computation time comparing with the other positioning methods using natural landmark. Experimental results are presented to show the performance of the method.

360 도 파노라마 영상 생성 기법의 품질 측정 기법 비교 (Quality Benchmark of 360 Panoramic Image Generation)

  • 김수지;박인규
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.212-215
    • /
    • 2021
  • 본 논문에서는 6 Fisheye lens 원본 영상에 대하여 Insta360 stitcher, AutoStitch[4], As-Projective-AsPossible(APAP)[5] 스티칭 방법으로 360 도 파노라마 영상을 생성하고 기하학적 왜곡과 컬러 왜곡을 비교 평가한다. 360 도 파노라마 Image Quality Assessment(IQA) 메트릭으로 Natural Image Quality Evaluator(NIQE)[6], Blind/Referenceless Image Spatial Quality Evaluator (BRISQUE)[7], Perception based Image Quality Evaluator(PIQE)[8], Feature Similarity(FSIM)[9] 그리고 high frequency feature 에 대한 Structural Similarity(SSIM)[10]을 측정하여 정량적 평가를 하며 정성적인 비교를 통하여 파노라마 영상의 품질과 평가 메트릭에 대한 벤치마크를 제공한다.

  • PDF

어안 이미지 기반의 전방향 영상 SLAM을 이용한 충돌 회피 (Collision Avoidance Using Omni Vision SLAM Based on Fisheye Image)

  • 최윤원;최정원;임성규;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제22권3호
    • /
    • pp.210-216
    • /
    • 2016
  • This paper presents a novel collision avoidance technique for mobile robots based on omni-directional vision simultaneous localization and mapping (SLAM). This method estimates the avoidance path and speed of a robot from the location of an obstacle, which can be detected using the Lucas-Kanade Optical Flow in images obtained through fish-eye cameras mounted on the robots. The conventional methods suggest avoidance paths by constructing an arbitrary force field around the obstacle found in the complete map obtained through the SLAM. Robots can also avoid obstacles by using the speed command based on the robot modeling and curved movement path of the robot. The recent research has been improved by optimizing the algorithm for the actual robot. However, research related to a robot using omni-directional vision SLAM to acquire around information at once has been comparatively less studied. The robot with the proposed algorithm avoids obstacles according to the estimated avoidance path based on the map obtained through an omni-directional vision SLAM using a fisheye image, and returns to the original path. In particular, it avoids the obstacles with various speed and direction using acceleration components based on motion information obtained by analyzing around the obstacles. The experimental results confirm the reliability of an avoidance algorithm through comparison between position obtained by the proposed algorithm and the real position collected while avoiding the obstacles.

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.

인라이어 분포를 이용한 전방향 카메라의 보정 (Calibration of Omnidirectional Camera by Considering Inlier Distribution)

  • 홍현기;황용호
    • 한국게임학회 논문지
    • /
    • 제7권4호
    • /
    • pp.63-70
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 감시, 3차원 해석 등의 분야에 널리 응용되고 있다. 본 논문에서는 어안(fisheye) 렌즈를 이용한 전방향 카메라로 입력된 영상으로부터 카메라의 이동 및 회전 파라미터를 자동으로 추정하는 새로운 자동보정 알고리즘이 제안되었다. 먼저, 카메라 위치를 임의의 각 도로 변환하여 얻어진 영상을 이용해 일차 매개변수로 표현된 카메라의 사영(projection)모델을 추정한다. 그리고 이후 다양하게 변환되는 카메라의 위치에 따라 에센셜(essential) 행렬을 구하며, 이 과정에서 대상 영상으로부터 적합한 인라이어(inlier) 집합을 구하기 위해 특징점이 영역 내에 분포 정도를 반영하는 표준편차(standard deviation)를 정량적(quantitative) 기준으로 이용한다. 다양한 실험을 통해 제안된 알고리즘이 전방향 카메라의 사영 모델과 회전, 이동 등의 변환 파라미터를 정확하게 추정함을 확인하였다.

  • PDF