• 제목/요약/키워드: Omni-directional Camera

검색결과 41건 처리시간 0.03초

옴니 카메라의 전방향 영상을 이용한 이동 로봇의 위치 인식 시스템 (Omni Camera Vision-Based Localization for Mobile Robots Navigation Using Omni-Directional Images)

  • 김종록;임미섭;임준홍
    • 제어로봇시스템학회논문지
    • /
    • 제17권3호
    • /
    • pp.206-210
    • /
    • 2011
  • Vision-based robot localization is challenging due to the vast amount of visual information available, requiring extensive storage and processing time. To deal with these challenges, we propose the use of features extracted from omni-directional panoramic images and present a method for localization of a mobile robot equipped with an omni-directional camera. The core of the proposed scheme may be summarized as follows : First, we utilize an omni-directional camera which can capture instantaneous $360^{\circ}$ panoramic images around a robot. Second, Nodes around the robot are extracted by the correlation coefficients of Circular Horizontal Line between the landmark and the current captured image. Third, the robot position is determined from the locations by the proposed correlation-based landmark image matching. To accelerate computations, we have assigned the node candidates using color information and the correlation values are calculated based on Fast Fourier Transforms. Experiments show that the proposed method is effective in global localization of mobile robots and robust to lighting variations.

단일 전방향 영상을 이용한 공간 정보의 측정 (Localization of 3D Spatial Information from Single Omni-Directional Image)

  • 강현덕;조강현
    • 제어로봇시스템학회논문지
    • /
    • 제12권7호
    • /
    • pp.686-692
    • /
    • 2006
  • This paper shows the calculation of 3D geometric information such as height, direction and distance under the constraints of a catadioptric camera system. The catadioptric camera system satisfies the single viewpoint constraints adopting hyperboloidal mirror. To calculate the 3D information with a single omni-directional image, the points are assumed to lie in perpendicular to the ground. The infinite plane is also detected as a circle from the structure of the mirror and camera. The analytic experiments verify the correctness of theory using real images taken in indoor environments like rooms or corridors. Thus, the experimental results show the applicability to calculate the 3D geometric information using single omni-directional images.

전방위 카메라를 이용한 객체 추적 시스템 (An Object Tracking System Using an Omni-Directional Camera)

  • 김진환;안재균;김창수
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.781-782
    • /
    • 2008
  • An object tracking system, which uses an omni-directional camera, is proposed in this work. First, we construct a mapping table, which describes the relationships between image coordinates and omni-directional angles Then, we develop a surveillance system to detect unexpected objects automatically from omni-directional images. Finally, we generate perspective views for detected objects by using the mapping table. Simulation results demonstrate that the proposed algorithm provides efficient performances.

  • PDF

변수화된 영상 보정을 통한 전방향 영상 생성 방법 (Omni-directional Image Generation Algorithm with Parametric Image Compensation)

  • 김유나;심동규
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.396-406
    • /
    • 2006
  • 본 논문에서는 변수화된 영상 보정을 통한 전방향 영상 (Omni-directional image) 생성 방법을 제안한다. 제안한 방법은 모든 방향의 영상을 포함하고 영상 합성 시에 발생하는 왜곡과 에러를 최소화하는 전방향 영상을 생성하기 위해, 원형 좌표계를 기반으로 평면 영상을 원형 영상으로 변환한다. 카메라로 획득한 각각의 영상은 카메라의 시스템과 외부 환경 조건에 따라 발생하는 비그네이팅 효과와 조명 변화를 포함하고 있으므로, 최적의 비그네이팅 및 조명 변수를 추출하여 자연스러운 전방향 영상 생성을 위한 영상 보정 과정을 수행한다. 실험 결과에서는 제안한 방법에 따라 생성된 전방향 영상을 확인하고 비그네이팅 효과 및 조명 변화를 고려하지 않은 방법과 제안한 방법의 성능을 비교, 분석하여 제안한 방법이 $1{\sim}4dB$ 정도 더 효과적임을 보인다.

어안 렌즈와 레이저 스캐너를 이용한 3차원 전방향 영상 SLAM (3D Omni-directional Vision SLAM using a Fisheye Lens Laser Scanner)

  • 최윤원;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.634-640
    • /
    • 2015
  • This paper proposes a novel three-dimensional mapping algorithm in Omni-Directional Vision SLAM based on a fisheye image and laser scanner data. The performance of SLAM has been improved by various estimation methods, sensors with multiple functions, or sensor fusion. Conventional 3D SLAM approaches which mainly employed RGB-D cameras to obtain depth information are not suitable for mobile robot applications because RGB-D camera system with multiple cameras have a greater size and slow processing time for the calculation of the depth information for omni-directional images. In this paper, we used a fisheye camera installed facing downwards and a two-dimensional laser scanner separate from the camera at a constant distance. We calculated fusion points from the plane coordinates of obstacles obtained by the information of the two-dimensional laser scanner and the outline of obstacles obtained by the omni-directional image sensor that can acquire surround view at the same time. The effectiveness of the proposed method is confirmed through comparison between maps obtained using the proposed algorithm and real maps.

회전식 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 (Georeferencing of Indoor Omni-Directional Images Acquired by a Rotating Line Camera)

  • 오소정;이임평
    • 한국측량학회지
    • /
    • 제30권2호
    • /
    • pp.211-221
    • /
    • 2012
  • 회전식 라인 카메라로 취득한 전방위 영상을 실내 공간정보 서비스에 활용하려면 취득한 영상을 실내 좌표계를 기준으로 정교하게 참조할 수 있어야 한다. 이에 본 연구는 실내 전방위 영상의 외부표정요소 - 취득한 시점의 카메라의 위치와 자세를 정확하게 추정 할 수 있는 지오레퍼런싱 방법을 제안한다. 이를 위하여 먼저 회전식 라인 카메라를 기하학적으로 모델링하여 전방위 영상에 대한 공선방정식을 유도한다. 실내 기준점을 공선방정식에 적용하여 실내 전방위 영상의 외부표정요소를 추정한다. 실측데이터에 적용한 결과 외부표정요소의 위치는 1.4mm의 정밀도로, 자세는 $0.05^{\circ}$의 정밀도로 추정할 수 있었다. 수평방향으로 약3픽셀, 수직방향으로 약 10픽셀 정도의 잔차가 남아 있었다. 특히 수직방향으로는 렌즈의 왜곡에 의한 시스템적 오차가 포함되어 있는 것으로 분석되었고 이는 카메라 캘리브레이션을 통해 제거되야 할 것으로 판단된다. 제시된 방법을 이용하여 정밀하게 지오레퍼런싱된 전방위 영상으로부터 고해상도 실내 3차원 모델을 생성하고 이에 기반한 정교한 증강현실 서비스가 가능할 것으로 기대된다.

모바일매핑시스템으로 취득된 전방위 영상의 광속조정법 (Bundle Block Adjustment of Omni-directional Images by a Mobile Mapping System)

  • 오태완;이임평
    • 대한원격탐사학회지
    • /
    • 제26권5호
    • /
    • pp.593-603
    • /
    • 2010
  • 대부분의 모바일 공간정보 획득시스템은 촬영범위가 좁고 기선 길이에 대한 제약이 따르는 프레임 카메라를 탑재하고 있다, 촬영지점을 기준으로 모든 방향으로의 영상정보 획득이 기능한 전방위 카메라 탑재를 통해 프레임 카메라의 촬영 범위 및 기선 거리에 대한 문제점을 해결할 수 있다. 광속조정법(Bundle Block Adjustment)은 다수의 중첩된 영상의 외부표정요소를 결정하는 대표적인 지오레퍼런싱(Georeferencing) 방법이다. 본 연구에서는 전방위 영상에 적합한 광속조정법의 수학적 모델을 제안하여 전방위 영상의 외부표정요소 및 지상점을 추정하고자 한다. 먼저 전방위 영상에 적합한 공선조건식을 이용해 관측방정식을 수립한다. 그리고 지상 모바일매핑시스템(GMMS, Ground Mobile Mapping System)에 탑재되어 있는 GPS/INS로부터 획득된 데이터와 정지 GPS 및 토털 스테이션(Total Station)을 통해 측정한 지상기준점을 이용한 확률제약조건 (Stochastic Constraints)식을 수립한다. 마지막으로 확률제약조건 요소 및 추정 미지수를 조합하여 다양한 종류의 수학적 모델을 수립하고 모델별로 추정된 지상점 좌표의 정확도를 검증한다. 그 결과, 지상기준점을 확률제약조건으로 사용하는 모델에 적용한 경우에 지상점이 ${\pm}5cm$ 정도로 정확하게 추정되었다. 연구의 결과를 통해 전방위 카메라 영상으로부터 대상객체의 3차원 모델 추출이 가능함을 알 수 있었다.

비강압적 홍채 인식을 위한 전 방향 카메라에서의 다각도 얼굴 검출 (Multi-views face detection in Omni-directional camera for non-intrusive iris recognition)

  • 이현수;배광혁;김재희;박강령
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 컴퓨터소사이어티 추계학술대회논문집
    • /
    • pp.115-118
    • /
    • 2003
  • This paper describes a system of detecting multi-views faces and estimating their face poses in an omni-directional camera environment for non-intrusive iris recognition. The paper is divided into two parts; First, moving region is identified by using difference-image information. Then this region is analyzed with face-color information to find the face candidate region. Second part is applying PCA (Principal Component Analysis) to detect multi-view faces, to estimate face pose.

  • PDF

실내 정밀 매핑을 위한 회전식 스테레오 라인 카메라 시스템의 캘리브레이션 (Calibration of a Rotating Stereo Line Camera System for Indoor Precise Mapping)

  • 오소정;신진수;강정인;이임평
    • 대한원격탐사학회지
    • /
    • 제31권2호
    • /
    • pp.171-182
    • /
    • 2015
  • 본 연구는 실내 정밀 매핑과 정교한 영상 기반 서비스에 활용 가능한 실내의 입체 전방위 영상을 취득하는 시스템과 이에 대한 캘리브레이션 방법을 제안한다. 제안된 시스템은 회전식 스테레오 라인 카메라 방식으로 구성되며, 안정적인 입체시와 객체점의 정밀한 결정에 적합한 입체 전방위 영상을 제공한다. 또한, 제안된 시스템의 투영모델을 기반으로 캘리브레이션을 위한 수학적 모델을 도출한다. 이를 통해 캘리브레이션을 수행하여, 실내 공간에 대해 ${\pm}16cm$ 이내의 정확도로 객체점을 추정할 수 있었다. 제안된 시스템과 캘리브레이션 방법은 실내의 정밀한 3차원 모델링에 활용될 것이다.

경관 특성 파악에 있어서의 시퀀스적 시점장 선정과 전방위 화상정보의 유효성 검증에 관한 연구 (A Study of Selecting Sequential Viewpoint and Examining the Effectiveness of Omni-directional Angle Image Information in Grasping the Characteristics of Landscape)

  • 김홍만;이인희
    • KIEAE Journal
    • /
    • 제9권2호
    • /
    • pp.81-90
    • /
    • 2009
  • Relating to grasping sequential landscape characteristics in consideration of the behavioral characteristics of the subject experiencing visual perception, this study was made on the subject of main walking line section for visitors of three treasures of Buddhist temples. Especially, as a method of obtaining data for grasping sequential visual perception landscape, the researcher employed [momentum sequential viewpoint setup] according to [the interval of pointers arbitrarily] and fisheye-lens-camera photography using the obtained omni-directional angle visual perception information. As a result, in terms of viewpoint selection, factors like approach road form, change in circulation axis, change in the ground surface level, appearance of objects, etc. were verified to make effect, and among these, approach road form and circulation axis change turned out to be the greatest influences. In addition, as a result of reviewing the effectiveness via the subjects, for the sake of qualitative evaluation of landscape components using the VR picture image obtained in the process of acquiring omni-directional angle visual perception information, a positive result over certain values was earned in terms of panoramic vision, scene reproduction, three-dimensional perspective, etc. This convinces us of the possibility to activate the qualitative evaluation of omni-directional angle picture information and the study of landscape through it henceforth.