실감 차량항법시스템을 위한 확률망 기반의 주행차로 인식 기술

Understanding Lane Number for Video-based Car Navigation Systems

  • 발행 : 2009.03.31

초록

주행중에 취득된 비디오에서 정확한 차선 정보를 추출하는 기술은 차선이탈 경보시스템, 무인 자동차, 실감 차량항법 시스템 등의 지능형 자동차와 관련된 서비스 개발에 필요한 핵심 요소 기술의 하나이다. 본 논문에서는 주행중에 취득된 비디오에서 차선의 색깔을 인식하고 주행중인 차로의 위치를 인식하는 기법을 제안한다. 즉, 석양이나 역광 등의 다양한 조도 환경에서도 차선 색깔을 인식하기 위한 방안으로 Background-color 제거 기법을 제안하고 주행 차로의 위치를 인식하는 기법으로 확률망 기반 기법을 제안한다. 제안된 확률망 기반 기법은 비디오 인식을 통해서 얻은 차선의 색깔, 차선의 타입(점선, 실선) 등의 정보와 데이터베이스에서 얻은 차로의 수, 차로 폭 등의 도로 정보를 결합하여 주행차로를 결정하는 프레임워크를 제공한다. 실험을 통해서 제안된 기법이 다양한 도로 환경에서 우수한 인식 성능을 보임을 확인하였다.

Understanding lane markings in a live video captured from a moving vehicle is essential to build services for intelligent vehicles such as LDWS(Lane Departure Warning Systems), unmanned vehicles, video-based car navigation systems. In this paper, we present a novel approach to recognize the color of lane markings and the lane number that he/she is driving on. More specifically, we present a background-color removal approach to understand the color of lane markings for various illumination conditions, such as backlight, sunset, and so on. In addition, we present a probabilistic network approach to decide the lane number. According to our experimental results, the proposed idea shows promising results to detect lane number in a various illumination conditions and road environments.

키워드

참고문헌

  1. TomTom, portable GPS car navigation systems(http://www.tomtom.com/products/)
  2. Sony XYZ 3D Navigation systems (http://www.jp.sonystyle.com/Product/Car/Nv-xyz/index.html)
  3. Kouhei Tou, Tohru Irie, Joo Kooi Tan, SeijiIshikawa, “Producing a Three-dimensional RoadMap for Car Navigation,” Proc. InternationalJoint Conference on SICE-ICASE, 2006, pp.4776-4779.
  4. Narzt, W., Pomberger, G, Ferscha, A., Kolb, D.,Muller, R., Wieghardt, J., Hortner, H., Lindinger,C., “Pervasive information acquisition for mobileAR-navigation systems,” Proc. Of MobileComputing Systems and Applications, 2003, pp.13-20.
  5. Zhencheng Hu, Uchimura K, “Real-time datafusion on tracking camera pose for direct visualguidance,” Proc. of IEEE Intelligent VehiclesSymposium, 2004, pp. 842-847.
  6. Marcel Levy, Sergiu Dascalu, and Frederick C.Harris, “ARS VEHO: Augmented RealitySystems for Vehicle Operation,” Proc. OfComputers and Their Applications, 2005, pp.282-289.
  7. 김용권, 이기성, 조성익, 박정호, 최경호, “차세대 실감 내비게이션을 위한 실시간 신호등 및 표지판 객체 인식,” 한국공간정보시스템학회 논문지, 제10권제2호, 2008, pp. 13-24.
  8. Jill D. Crisman, Charles E. Thorpe, “SCARF: A Color Vision that Tracks Road and Intersections,” IEEE Transaction on Robotics and Automation, vol. 9, no. 1, 1993, pp. 49-58. https://doi.org/10.1109/70.210794
  9. Calin Rotaru, Thorsten Graf, and JianweiZhang, “Extracting road features from color imagesusing a cognitive approach,” Proc. of IEEEIntelligent Vehicles Symposium, 2004, pp.298-303.
  10. K.C. Kluge, C.M. Kreucher, S. Lakshmanan,“Tracking lane and pavement edges using deformabletemplates,” Proc. SPIE Conference onEnhanced and Synthetic Vision, 1998, pp.167-176.
  11. Young Uk Yim and Se-Young Oh, “Three-featurebased automatic lane detection algorithm(TFALDA) for autonomous driving,” IEEE Transactions on ITS, Vol. 4,No 4,Dec. 2003, pp.219-225.
  12. Y. Wang, E. Teoh, D. Shen, “Lane detectionand tracking using B-snake,” Image and Vision Computing, vol. 22, no.4, 2004, pp. 269-280. https://doi.org/10.1016/j.imavis.2003.10.003
  13. Kisung Lee, Yongkwon Kim, Seong Ik Cho,Kyoungho Choi, “Buildiing Detection inAugmented Reality Based Navigation System,”LNCS 4352, Part II, 2007, pp. 544-551.
  14. 조성익, 김경호, 주인학, 박정호, 채기주, 이승용, “차세대 내비게이션 기술 현황 및 전망,” 전자통신동향분석, 22권, 3호, 2007, pp. 12-19.
  15. Jonathan Munson, SangWoo Lee, DaeRyung Lee,“A rule-based system for sense-and-respond telematicsservices,” Proc. EESR Workshop onEnd-to-End, Sense-and-Respond Systems,Appli- cations, and Services, 2005, pp. 31-36.
  16. N. Kawasaki, U. Kiencke, “platform for sensorfusion on advanced driver assistance systemusing Bayesiannetwork,” Proc. Of IEEE IntelligentVehicles Symposium, 2004, pp. 250-255.
  17. Structural modeling, inference, and learning engine(http://genie.sis.pitt.edu/).