DOI QR코드

DOI QR Code

Position Estimation of Wheeled Mobile Robot in a Corridor Using Neural Network

신경망을 이용한 복도에서의 구륜이동로봇의 위치추정

  • 최경진 (강남대학교 제3대학 전자시스템정보공학부) ;
  • 이용현 (강남대학교 제3대학 전자시스템정보공학) ;
  • 박종국 (경희대학교 전자정보학부 전자공학과)
  • Published : 2004.08.01

Abstract

This paper describes position estimation algorithm using neural network for the navigation of the vision-based Wheeled Mobile Robot (WMR) in a corridor with taking ceiling lamps as landmark. From images of a corridor the lamp's line on the ceiling in corridor has a specific slope to the lateral position of the WMR. The vanishing point produced by the lamp's line also has a specific position to the orientation of WMR. The ceiling lamps has a limited size and shape like a circle in image. Simple image processing algorithms are used to extract lamps from the corridor image. Then the lamp's line and vanishing point's position are defined and calculated at known position of WMR in a corridor To estimate the lateral position and orientation of WMR from an image, the relationship between the position of WMR and the features of ceiling lamps have to be defined. Data set between position of WMR and features of lamps are configured. Neural network are composed and teamed with data set. Back propagation algorithm(BPN) is used for learning. And it is applied in navigation of WMR in a corridor.

본 논문에서는 비전 기반 구륜이동로봇이 복도에 설치된 조명을 표식으로 사용하여 복도를 주행하기 위해 필요한 벽면으로부터의 거리와 방향각을 신경망을 이용하여 추정하는 알고리즘에 대해 기술하였다. 복도의 천정에 설치된 조명은 구륜이동로봇의 위치에 따라 조명 배열선의 기울기가 변하며, 구륜이동로봇의 방향각에 따라 정의된 소멸점의 위치가 변한다는 특징을 이용하였다. 획득된 영상에서 조명은 크기가 제한되어 있으며, 모양이 원에 가깝다는 특징을 이용하여 단순한 알고리즘에 의해 추출하였다. 기지의 구륜이동로봇의 위치와 방향각에서 복도 영상을 획득하여 조명 배열선의 기울기와 소멸점의 위치를 계산하여 이들 사이의 관계를 확인하였다. 주행 중 구륜이동로봇의 위치와 방향각을 추정하기 위해 신경망을 구성하고, 획득된 데이터를 이용하여 역 전파 알고리즘(back propagation algorithm)에 의해 학습을 수행하였다. 구륜이동로봇의 제작하고, 학습결과를 이용하여 실제 복도 주행 실험을 수행하였다.

Keywords

References

  1. Yoshio Matsumoto, Masayuki Inaba and Hirochika Inoue,"Visual Navigation using View-Sequenced Route Representation", Proceedings of the 1996 IEEE International Conference on Robotics and Automation, pp.83-88, 1996.
  2. R. Talluri and J. K. Aggarwal, "Mobile Robot Self-Location using Model-Image Feature Correspondence", IEEE Transaction on Robotics and Automation, Vol. 12, No. 1, 1996.
  3. A. Gilg and G. Schmidt, "Landmark-Oriented Visual Navigation of a Mobile Robot", IEEE Transactions on Industrial Electronics, Vol. 41, No. 4, pp.392-397, 1994. https://doi.org/10.1109/41.303789
  4. Zhi-Fang Yang and Wen-Hsiang Tsai, "Viewing Corridors as Right Parallelepipeds for Vision-Based Vehicle Localization", IEEE Transaction on Industrial Electronics, Vol. 46, No. 3, pp.653-661, 1999. https://doi.org/10.1109/41.767075
  5. Sinisa Segvic and Slobodan Ribaric, "Determining the Absolute Orientation in a Corridor Using Projective Geometry and Active Vision", IEEE Transaction on Industrial Electronics, Vol. 48, No. 3, pp.696-710, 2001. https://doi.org/10.1109/41.925597
  6. Ramesh Jain, Rangachar Kasturi and Brain G. Schunck, Machine Vision, MIT Press and McGraw-Hill, 1995.