Abstract
SLAM(Simultaneous Localization and Mapping) system is to find a global position and build a map with sensing data when an unmanned-robot navigates an unknown environment. Two kinds of system were developed. One is used distance measurement sensors such as an ultra sonic and a laser sensor. The other is used stereo vision system. The distance measurement SLAM with sensors has low computing time and low cost, but precision of system can be somewhat worse by measurement error or non-linearity of the sensor In contrast, stereo vision system can accurately measure the 3D space area, but it needs high-end system for complex calculation and it is an expensive tool. In this paper, we implement the SLAM system using a single camera image and a PSD sensors. It detects obstacles from the front PSD sensor and then perceive size and feature of the obstacles by image processing. The probability SLAM was implemented using the data of sensor and image and we verify the performance of the system by real experiment.
SLAM(Simultaneous Localization and Mapping)은 무인 로봇 자동 항법시스템의 중요 기술로 센서 데이터로부터 로봇의 위치를 결정하고 기하학적 맵을 구성하는 것이다. 기존 방법으로는 초음파, 레이저 등의 거리 측정 센서를 이용해 로봇의 전역 위치를 찾는 방법과 스테레오 비전을 통한 방법이 개발되었다. 거리 측정 센서만으로 구성한 SLAM 시스템은 계산량이 간소하고 비용이 적게 들지만 센서의 오차나 비선형에 의해 정밀도가 조금 떨어진다. 이에 반해 스테레오 비전 시스템은 3차원 공간영역을 정확히 측정할 수 있지만 계산량이 많아 고사양의 시스템을 요구하고 스테레오 시스템 또한 고가이다. 따라서 본 논문에서는 단일 카메라 영상과 PSD(position sensitive device) 센서를 사용하여 SLAM을 구현하였다. 전방향의 PSD 센서로부터 일정 거리의 장애물을 감지하고 전면 카메라의 영상처리를 통해 장애물의 크기 및 특징을 감지한다. 위의 데이터를 통해 확률분포 SLAM을 구성하였고 실제 구현을 통해 성능검증을 하였다.