초록
차량의 접근 가능한 구역에 대한 판단과 경로 계획은 무인 차량의 자율 주행에 있어서 필수적이다 차량의 접근 가능한 구역과 경로계획을 위한 정보는 3차원 지형형상을 분석하여 얻을 수 있다. 이 논문에서는 카메라의 색 정보와 2차원 레이저 거리센서(2D LRF)를 융합하여 모바일 로봇의 휠 인코더를 통해 복원한 3차원 지형형상과, GPS/IMU 정보와 2차원 레이저 거리 센서로 복원한 3차원 지형형상을 적은 데이터로 표현하는 방법을 제시하였다. 카메라의 색 정보와 2차원 레이저 거리센서의 융합을 위해 카메라의 좌표계와 LRF의 좌표계 사이의 기하학적인 관계를 격자무의 평면을 이용하여 구하였다. 카메라와 2차원 레이저 거리센서의 융합을 통한 3차원 지형형상 복원은 모바일 로봇을 이용하여 실내에서 실험하였고, GPS/IMU 정보와 2차원 레이저 거리센서를 통한 3차원 지형형상 복원은 차량을 이용하여 실외에서 실험하였다. 이런 시스템에서 복원한 3차원 지형형상은 점군 기반으로 되어있고, 이는 매우 많은 양의 정보를 필요로 한다. 정보의 양을 줄이기 위해 점군 기반을 대신하여 입방형 격자 기반의 지형형상으로 복원하였다.
The information of traversability and path planning is essential for UGV(Unmanned Ground Vehicle) navigation. Such information can be obtained by analyzing 3D terrain. In this paper, we present the method of 3D terrain modeling with color information from a camera, precise distance information from a 2D Laser Range Finder(LRF) and wheel encoder information from mobile robot with less data. And also we present the method of 3B terrain modeling with the information from GPS/IMU and 2D LRF with less data. To fuse the color information from camera and distance information from 2D LRF, we obtain extrinsic parameters between a camera and LRF using planar pattern. We set up such a fused system on a mobile robot and make an experiment on indoor environment. And we make an experiment on outdoor environment to reconstruction 3D terrain with 2D LRF and GPS/IMU(Inertial Measurement Unit). The obtained 3D terrain model is based on points and requires large amount of data. To reduce the amount of data, we use cubic grid-based model instead of point-based model.