DOI QR코드

DOI QR Code

단일 카메라를 이용한 VFH기반의 실시간 주행 기술 개발

VFH-based Navigation using Monocular Vision

  • 박세현 (대구대학교 정보통신공학부) ;
  • 황지혜 (건국대학교 신기술융합학과) ;
  • 주진선 (건국대학교 신기술융합학과) ;
  • 고은정 (건국대학교 신기술융합학과) ;
  • 류정탁 (대구대학교 전자공학부) ;
  • 김은이 (건국대학교 인터넷.미디어공학부)
  • 투고 : 2011.01.20
  • 심사 : 2011.03.29
  • 발행 : 2011.06.30

초록

본 논문에서는 단일 카메라로부터 주어진 영상을 실시간으로 장애물과 비장애물 영역으로 분류 한 후 VFH를 이용하여 안전한 경로를 선정하는 실시간 주행 시스템을 개발한다. 제안된 시스템은 배경 분류기, 점유 그리드맵 생성기와 VFH기반의 선정기로 구성된다. 배경 분류기는 입력된 $320{\times}240$ 영상의 색조와 명도 정보를 이용하여 실시간으로 배경파 장애물 영역을 분류한다. 점유 그리드맵 생성기는 이를 바탕으로 위험도에 따라 10개의 그레이 레벨을 가지는 $32{\times}24$의 점유 그리드맵을 생성한다. VFH를 이용하여 폴라 히스토그램을 작성한 후 밀도가 낮은 곳으로 주행 경로를 결정 한다. 제안된 기술의 효율성을 증명하기 위하여 다양한 형태의 장애물을 포함하는 실내 및 실외 환경에서 평가하였으며 센서 기반의 그 결과는 기존의 센서기반의 주행시스템과 비교 되었다. 그 결과 제안된 시스템은 88%의 정확도를 보였으며, 기존의 시스템보다 실시간으로 빠르고 안전한 주행을 수행할 수 있음이 증명되었다.

In this paper, a real-time monocular vision based navigation system is developed for the disabled people, where online background learning and vector field histogram are used for identifying obstacles and recognizing avoidable paths. The proposed system is performed by three steps: obstacle classification, occupancy grid map generation and VFH-based path recommendation. Firstly, the obstacles are discriminated from images by subtracting with background model which is learned in real time. Thereafter, based on the classification results, an occupancy map sized at $32{\times}24$ is produced, each cell of which represents its own risk by 10 gray levels. Finally, the polar histogram is drawn from the occupancy map, then the sectors corresponding to the valley are chosen as safe paths. To assess the effectiveness of the proposed system, it was tested with a variety of obstacles at indoors and outdoors, then it showed the a'ccuracy of 88%. Moreover, it showed the superior performance when comparing with sensor based navigation systems, which proved the feasibility of the proposed system in using assistive devices of disabled people.

키워드

참고문헌

  1. Ju. et al, "Vision-based interface system for hands free control of an Intelligent Wheelchair," JNER, Vol.6, 2009
  2. DeSouza. et al, "Vision for Mobile Robot Navigation: A Survey," IEEE Trans. on PAMI, Vol.24, No.2, 2002
  3. Levine. et al, "The NavChair Assistive Wheelchair Navigation System," IEEE Trans. on Rehabilitation Engineering, Vol.7, No.4, 1999
  4. Ju. et al, "EYECane: Navigating with camera embedded white cane for visually impaired person," Eleventh International ACM SIGACCESS, 2009
  5. Minguez. et al, " An architecture for Sensor-Based Navigation in Realistic Dynamic and Troublesome Scenarios." IEEE Int. Conf. on Intelligent Robot and systems, 2004
  6. Yuwei. et al, "Multi-sensors Based 3D Mobile Navigation and Its Application on Telecommunication Services and Social Networking." TKK Technical Report in Computer Science and Engineering, BTKK-CSE-Bl, 2008
  7. Gaspar. et al, "Vision-based Navigation and Environmental Representations with an Omni-directional Camera" IEEE Transavtions on Robotics and automation, Vol. 16, No. 6, December 2000.
  8. 김태의, 이사윤, 권경수, 박세현, "시선 인식을 이용한 자율 주행 휠체어 시스템" 한국산업정보학회논문지 제 14권 제4호 pp.91-100 2009. 12
  9. 신윤희, 주진성, 김은이, 박세현, 정기철, "HCI를 위한 트리 구조 기반의 자동 얼굴 표정 인식" 한국산업정보학회논문지 제 12권 제3호 pp.60-68 2007