DOI QR코드

DOI QR Code

모델 기반의 시선 방향 추정을 이용한 사람 행동 인식

Human Activity Recognition using Model-based Gaze Direction Estimation

  • 정도준 (국립과학수사연구원 문서영상과 영상분석실) ;
  • 윤정오 (경운대학교 정보통신공학과)
  • 투고 : 2011.06.09
  • 심사 : 2011.10.30
  • 발행 : 2011.12.30

초록

본 논문에서는 모델 기반으로 추정한 사람의 시선 방향을 이용하여 실내 환경에서 발생 할 수 있는 사람의 행동을 인식하는 방법을 제안한다. 제안하는 방법은 크게 두 단계로 구성된다. 첫째, 행동 인식을 위한 사전 정보를 얻는 단계로 사람의 머리 영역을 검출하고 시선 방향을 추정한다. 사람의 머리 영역은 색상 정보와 모양 정보를 이용하여 검출하고, 시선 방향은 머리와 얼굴의 관계를 표현한 베이지안 네트워크 모델을 이용하여 추정한다. 둘째, 이벤트와 사람의 행동을 나타내는 시나리오를 인식하는 단계이다. 이벤트는 사람의 상태 변화로 인식하고, 시나리오는 이벤트들의 조합과 제약 사항을 이용하여 규칙 기반으로 인식한다. 본 논문에서는 시선방향과 연관이 있는 4 가지의 시나리오를 정의하여 실험 한다. 실험을 통해 시선 방향 추정의 성능과 시선 방향이 고려된 상황에서의 행동 인식 성능을 보인다.

In this paper, we propose a method which recognizes human activity using model-based gaze direction estimation in an indoor environment. The method consists of two steps. First, we detect a head region and estimate its gaze direction as prior information in the human activity recognition. We use color and shape information for the detection of head region and use Bayesian Network model representing relationships between a head and a face for the estimation of gaze direction. Second, we recognize event and scenario describing the human activity. We use change of human state for the event recognition and use a rule-based method with combination of events and some constraints. We define 4 types of scenarios related to the gaze direction. We show performance of the gaze direction estimation and human activity recognition with results of experiments.

키워드

참고문헌

  1. P. Peursum, H. H. Bui, S. Venkatesh and G. West, "Robust Recognition and Segmentation of Human Actions Using HMMs with Missing Observation," EURASIP Journal on Applied Signal Processing, vol. 2005, no. 13, pp.2110-2126, 2005. https://doi.org/10.1155/ASP.2005.2110
  2. N. M. Robertson and I. D. Reid, "A general method for human activity in video," Computer Vision and Image Understanding, vol. 104, no. 2, pp.232-248, 2006. https://doi.org/10.1016/j.cviu.2006.07.006
  3. 차경애, 권차욱, "영상정보와 환경정보를 이용한 실내 공간 모니터링 시스템 구현," 한국산업정보학회논문지, 제14권, 제1호, pp. 1-8, 2009.
  4. http://www.ibm.com "IBM introduces advanced Digital video Surveillance Service."
  5. N. Rota and M. Thonnat, "Video Sequence Interpretation for Visual Surveillance," Proceedings of the 3rd IEEE International Workshop on Visual Surveillance, pp.59-68, 2000.
  6. V. T. Vu, F. Bremond, and M. Thonnat, "Automatic video interpretation: A recognition algorithm for temporal scenarios based on pre-compiled scenario models," Proceedings of the 3th International Conference On Computer Vision Systems, pp.44-53, 2003.
  7. D. Ayers and R. Chellappa, "Scenario Recognition from Video Using a Hierarchy of Dynamic Belief Networks," Proceedings of International Conference on Pattern Recognition, pp.1835-1838, 2000.
  8. 공병용, 정도준, 김항준, "실내 환경에서 시선 방향을 고려한 사람 행동 인식," 대한전기학회, 2007 CICS 정보 및 제어 학술대회 논문집, pp. 119-120, 2007.
  9. D. J. Jung, K. S. Kwon, S. H. Park, J. B. Kim, and H. J. Kim, "Model-Based Gaze Direction Estimation in Office Environment," 4th IEEE International Symposium on Electronic Design, Test and Applications, pp. 470-473, 2008.
  10. 원철호, "타원 모델기반의 전처리 기법에 의한 얼굴 인식률 개선," 한국산업정보학회논문지, 제13권, 제4호, pp. 56-63, 2008.
  11. R. L. Hsu, M. Abdel-Mottaleb, and A. K. Jain, "Face detection in color images," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24, no. 5, pp.696-700, 2002. https://doi.org/10.1109/34.1000242

피인용 문헌

  1. A user behavior prediction technique using mobile-based Lifelog vol.19, pp.6, 2014, https://doi.org/10.9723/jksiis.2014.19.6.063