Auto-Analysis of Traffic Flow through Semantic Modeling of Moving Objects

움직임 객체의 의미적 모델링을 통한 차량 흐름 자동 분석

  • 최창 (조선대학교 컴퓨터공학과) ;
  • 조미영 (한국전자통신연구원(ETRI) 중소기업진흥팀) ;
  • 최준호 (조선대학교 컴퓨터공학과) ;
  • 최동진 (조선대학교 컴퓨터공학과) ;
  • 김판구 (조선대학교 컴퓨터공학과)
  • Published : 2009.12.31

Abstract

Recently, there are interested in the automatic traffic flowing and accident detection using various low level information from video in the road. In this paper, the automatic traffic flowing and algorithm, and application of traffic accident detection using traffic management systems are studied. To achieve these purposes, the spatio-temporal relation models using topological and directional relations have been made, then a matching of the proposed models with the directional motion verbs proposed by Levin's verbs of inherently directed motion is applied. Finally, the synonym and antonym are inserted by using WordNet. For the similarity measuring between proposed modeling and trajectory of moving object in the video, the objects are extracted, and then compared with the trajectories of moving objects by the proposed modeling. Because of the different features with each proposed modeling, the rules that have been generated will be applied to the similarity measurement by TSR (Tangent Space Representation). Through this research, we can extend our results to the automatic accident detection of vehicle using CCTV.

최근 도로상의 비디오 영상에서 다양한 저차원 정보를 바탕으로 자동 차량 흐름 파악과 사고 탐지에 관해 관심이 높아지고 있다. 본 논문에서는 CCTV 동영상 교통관리시스템을 이용하여 자동으로 차량의 흐름을 파악하고 이를 이용하여 교통체증과 더 나아가 사고탐지를 위한 알고리즘과 그 응용에 대해 연구하였다. 이를 위하여 우선 움직임 객체를 시공간 관계 모델링을 통해 차량의 실제 궤적과 매핑하고 이를 통해 차량의 흐름 파악에 사용하였다. 또한 시공간 관계 모델링과 차량의 실제 궤적간 매핑을 위해 TSR (Tangent Space Representation) 알고리즘을 사용하였다. 또한, 객체의 움직임 추출을 위해 먼저 차(Differece)영상을 이용하여 움직임 객체 추출을 하였고, 이를 통하여 객체의 움직임 트래킹(Tracking)을 하고 각 객체에 번호를 부여하여 동시에 여러 객체를 인식시키고 이를 저장하였다. 이를 통하여 의미적 움직임 객체를 인식하고, 차량 흐름을 파악하는 어플리케이션을 구현하였다. 본 연구를 통해 기본적인 움직임 객체에 대한 의미적인 결과를 얻을 수 있었고, 나아가 CCTV를 이용한 자동 사고 탐지에 관한 연구로 확장시킬 수 있을 것으로 기대된다.

Keywords

References

  1. Z. A. Aghbari, Studies on Modeling and Querying Video Databases, Ph. D. Dissertation, Kyushu University, 2001.
  2. S. F. Chang, W. Hsu, L. Kennedy, L. Xie, A. Yanagawa, E. Zavesky, and D. Q. Zhang, 'Video search and high-level feature extraction," Proc. Text Retrieval Conf. Video Retrieval Evaluation, pp. 1-8, Oct. 2005.
  3. A. Ekin, A. Tekalp, and R. Mehrotra, "Automatic soccer video analysis and summarization," IEEE Trans. Image Processing, vol. 12, no. 7, pp. 796-807, July. 2004.
  4. J. W. Chang and Y. J. Kim, "Spatial-match iconic image retrieval with ranking in multimedia databases," Proc. Int. Conf. Advances in Web-Age Information Management, pp. 3-13, July. 2001.
  5. W. Ren, M. Singh, and S. Singh, "Image retrieval using spatial context," Proc. Int. Workshop on Systems, Signals and Image Processing, pp. 44-49, Nov. 2002.
  6. P. Y. Chen and A. L .P. Chen, "Video retrieval based on video motion tracks of moving objects," Proc. SPIE, vol. 5307, pp. 550-558, Dec. 2003.
  7. M. Cho, C. Choi, J. Choi, H. Yi, and P. Kim, "Trajectory annotation and retrieval based on semantics," Lecture Note in Computer Science 4918, pp. 251-264, July. 2008.
  8. B. Levin, English Verb Classes and Alternations : A Preliminary Investigation, The University of Chicago Press, 1993.
  9. 김영주, "배경 분리 기반의 실시간 객체 추적을 위한 개선된 적응적 배경 혼합 모델," 한국컴퓨터정보학회 논문지, 제10권, 제6호, pp. 187-193, 2005. 12.
  10. M. Hwang, S. Baek, H. Kong, J. Shin, W. Kim, S. Kim, and P. Kim, "Adaptive-tangent space representation for image retrieval based on Kansei," Lecture Note in Artificial Intelligence 4293, pp. 828-837, Nov. 2006.
  11. http://wordnet.princeton.edu/