Abstract
This paper presents a new localization technique of an UGV(Unmanned Ground Vehicle) by matching ortho-edge images generated from a DSM (Digital Surface Map) which represents the 3D geometric information of an outdoor navigation environment and 3D range data which is obtained from a LIDAR (Light Detection and Ranging) sensor mounted at the UGV. Recent UGV localization techniques mostly try to combine positioning sensors such as GPS (Global Positioning System), IMU (Inertial Measurement Unit), and LIDAR. Especially, ICP (Iterative Closest Point)-based geometric registration techniques have been developed for UGV localization. However, the ICP-based geometric registration techniques are subject to fail to register 3D range data between LIDAR and DSM because the sensing directions of the two data are too different. In this paper, we introduce and match ortho-edge images between two different sensor data, 3D LIDAR and DSM, for the localization of the UGV. Details of new techniques to generating and matching ortho-edge images between LIDAR and DSM are presented which are followed by experimental results from four different navigation paths. The performance of the proposed technique is compared to a conventional ICP-based technique.
본 논문에서는 야지 환경에서 동작하는 무인이동로봇에서 획득한 3차원 LIDAR (Light Detection and Ranging) 센서 정보와 로봇이 이동하는 지형의 3차원 DSM (Digital Surface Map)에서 정사윤곽선(Ortho-edge) 특징영상을 생성하고 정합하여 로봇의 현재 위치를 추정하는 기술을 제안한다. 최근의 무인이동로봇의 위치 인식에 대한연구는 GPS (Global Positioning System), IMU (Inertial Measurement Unit), LIDAR 등의 위치인식 센서를 융합하는 경우가 많아지고 있다. 특히 LIDAR에서 획득한 거리정보를 ICP(Iterative Closest Point) 기반의 기하정합으로 로봇의 위치를 추정하는 기술이 개발되고 있다. 그러나 이동로봇에서 획득한 센서 정보는 DSM의 센싱 방향과 큰 차이차이가 있어 기존의 기하정합 기술을 사용하는데 어려움이 있다. 본 논문에서는 서로 다른 센싱 방향에서 획득한 3차원 LIDAR 거리정보와 DSM에서 정사윤곽선이라는 특징 영상을 생성하고 이들을 정합하여 로봇의 위치를 추정하는 새로운 기술을 제안한다. DSM으로부터 현재 시점의 정사윤곽선 영상을 생성하는 방법, 전방향 LIDAR 거리센서에서 정사윤곽선 영상을 생성하는 방법, 그리고 정사윤곽선 영상의 정합 기술을 설명하였다. 실험에서는 다양한 주행 경로에 대한 위치 추정의 오차를 분석하고 제안 기술의 성능의 우수성을 보였다.