3D Terrain Reconstruction Using 2D Laser Range Finder and Camera Based on Cubic Grid for UGV Navigation

무인 차량의 자율 주행을 위한 2차원 레이저 거리 센서와 카메라를 이용한 입방형 격자 기반의 3차원 지형형상 복원

  • Joung, Ji-Hoon (Dept. of Electrical Engineering, Korea Advanced Institute of Science and Technology) ;
  • An, Kwang-Ho (Dept. of Electrical Engineering, Korea Advanced Institute of Science and Technology) ;
  • Kang, Jung-Won (Dept. of Electrical Engineering, Korea Advanced Institute of Science and Technology) ;
  • Kim, Woo-Hyun (Dept. of Electrical Engineering, Korea Advanced Institute of Science and Technology) ;
  • Chung, Myung-Jin (Dept. of Electrical Engineering, Korea Advanced Institute of Science and Technology)
  • 정지훈 (한국과학기술원 전기및전자공학과) ;
  • 안광호 (한국과학기술원 전기및전자공학과) ;
  • 강정원 (한국과학기술원 전기및전자공학과) ;
  • 김우현 (한국과학기술원 전기및전자공학과) ;
  • 정명진 (한국과학기술원 전기및전자공학과)
  • Published : 2008.11.25

Abstract

The information of traversability and path planning is essential for UGV(Unmanned Ground Vehicle) navigation. Such information can be obtained by analyzing 3D terrain. In this paper, we present the method of 3D terrain modeling with color information from a camera, precise distance information from a 2D Laser Range Finder(LRF) and wheel encoder information from mobile robot with less data. And also we present the method of 3B terrain modeling with the information from GPS/IMU and 2D LRF with less data. To fuse the color information from camera and distance information from 2D LRF, we obtain extrinsic parameters between a camera and LRF using planar pattern. We set up such a fused system on a mobile robot and make an experiment on indoor environment. And we make an experiment on outdoor environment to reconstruction 3D terrain with 2D LRF and GPS/IMU(Inertial Measurement Unit). The obtained 3D terrain model is based on points and requires large amount of data. To reduce the amount of data, we use cubic grid-based model instead of point-based model.

차량의 접근 가능한 구역에 대한 판단과 경로 계획은 무인 차량의 자율 주행에 있어서 필수적이다 차량의 접근 가능한 구역과 경로계획을 위한 정보는 3차원 지형형상을 분석하여 얻을 수 있다. 이 논문에서는 카메라의 색 정보와 2차원 레이저 거리센서(2D LRF)를 융합하여 모바일 로봇의 휠 인코더를 통해 복원한 3차원 지형형상과, GPS/IMU 정보와 2차원 레이저 거리 센서로 복원한 3차원 지형형상을 적은 데이터로 표현하는 방법을 제시하였다. 카메라의 색 정보와 2차원 레이저 거리센서의 융합을 위해 카메라의 좌표계와 LRF의 좌표계 사이의 기하학적인 관계를 격자무의 평면을 이용하여 구하였다. 카메라와 2차원 레이저 거리센서의 융합을 통한 3차원 지형형상 복원은 모바일 로봇을 이용하여 실내에서 실험하였고, GPS/IMU 정보와 2차원 레이저 거리센서를 통한 3차원 지형형상 복원은 차량을 이용하여 실외에서 실험하였다. 이런 시스템에서 복원한 3차원 지형형상은 점군 기반으로 되어있고, 이는 매우 많은 양의 정보를 필요로 한다. 정보의 양을 줄이기 위해 점군 기반을 대신하여 입방형 격자 기반의 지형형상으로 복원하였다.

Keywords

References

  1. D. Kim, J. Sun, S. M. Oh, J. M. Rehg, and A. Bobick, 'Traversability classification using unsupervised on-line visual learning for outdoor robot navigation' in IEEE Intl. Conf. on Robotics and Automation, pp. 518-525, May 2006
  2. Singh, S. et al, 'Recent progress in local and global traversability for planetary rovers', Proceedings of the IEEE International Conference on Robotics and Automation, vol. 2, pp. 1194-1200, San Francisco, April 2000
  3. A. Stentz, 'Optimal and Efficient Path Planning for Partially-Known Environments', Proceedings of the IEEE International Conference on Robotics and Automation, Vol. 4, pp. 3310-3317, May 1994
  4. Andreas Nuchter, Hartmut Surmann, Kai Lingemann, Joachim Hertzberg, and Sebastian Thrun, '6D SLAM with Application in Autonomous Mine Mapping' in Proceedings IEEE 2004 International Conference Robotics and Automation (ICRA '04), New Orleans, USA, pp. 1998-2003, April 2004
  5. S. Gemme, J.N. Bakambu, I. Rekleitis, '3D reconstruction of environments for planetary exploration', Proceedings of The 2nd Canadian Conference on Computer and Robot Vision, pp. 594-601, May 2005
  6. Hartmut Surmann, Andreas Nuchter, Joachim Hertzberg, 'An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of indoor environments' Robotics and Autonomous Systems, Vol. 45, pp. 181-198, December 2003.(373) https://doi.org/10.1016/j.robot.2003.09.004
  7. Q. Zhang and R. Pless, 'Extrinsic Calibration of a Camera and Laser Range Finder (improves camera calibration)', in Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2004
  8. Z. Zhang, 'Flexible Camera Calibration by Viewing a Plane from Unknown Orientations', in Proceedings of the IEEE International Conference on Computer Vision, Vol. 1, pp. 666-673, 1999
  9. Jean-Yves. Bouguet, Camera calibration toolbox for matlab, Computational Vision at Caltech, http://www.vision.caltech.edu/bouguetj/calib_doc/
  10. Richard Hartley and Andrew Zisserman, 'Multiple View Geometry in computer vision', Cambridge University Press, Cambridge, pp. 117-121, 2003