동적 베이지안 네트워크를 이용한 델티모달센서기반 사용자 행동인식

Activity Recognition based on Multi-modal Sensors using Dynamic Bayesian Networks

  • 양성익 (연세대학교 컴퓨터과학과) ;
  • 홍진혁 (연세대학교 컴퓨터과학과) ;
  • 조성배 (연세대학교 컴퓨터과학과)
  • 발행 : 2009.01.15

초록

최근 유비쿼터스 컴퓨팅에 대한 관심이 높아지면서 유비쿼터스 환경에서의 서비스를 위한 인간과 컴퓨터의 상호 작용, 특히 인간의 행동을 인식하는 연구가 활발히 진행되고 있다. 기존의 영상기반 연구와는 달리 모바일 환경에 적합하도록 가속도 센서, 생리신호 센서 등 다양한 센서들을 활용하여 사용자의 행동을 인식하는 기법이 연구되고 있다. 본 논문에서는 멀티모달 센서들을 통합하고 동적 베이지안 네트워크를 계층적으로 구성하여 사용자의 행동을 인식하는 방법을 제안한다. 연산량이 비교적 적은 베이지안 네트워크로 전반적인 사용자 행동을 추론하고 획득된 각 행동의 확률순으로 동적 베이지안 네트워크를 구성한다. 동적 베이지안 네트워크는 OVR(One-Versus-Rest) 전략으로 학습되며, 확률순으로 행동이 검증되어 임계치를 넘는 경우 선택된 행동보다 낮은 확률의 행동에 대한 동적 베이지안 네트워크를 검증하지 않아 추론 연산량을 줄인다. 본 논문에서는 가속도 센서와 생리적 신호 센서를 기반으로 총 8가지의 행동을 인식하는 문제에 제안하는 방법을 적용하여 평균적으로 97.4%의 분류 정확률을 얻었다.

Recently, as the interest of ubiquitous computing has been increased there has been lots of research about recognizing human activities to provide services in this environment. Especially, in mobile environment, contrary to the conventional vision based recognition researches, lots of researches are sensor based recognition. In this paper we propose to recognize the user's activity with multi-modal sensors using hierarchical dynamic Bayesian networks. Dynamic Bayesian networks are trained by the OVR(One-Versus-Rest) strategy. The inferring part of this network uses less calculation cost by selecting the activity with the higher percentage of the result of a simpler Bayesian network. For the experiment, we used an accelerometer and a physiological sensor recognizing eight kinds of activities, and as a result of the experiment we gain 97.4% of accuracy recognizing the user's activity.

키워드

참고문헌

  1. J. Kolari, T. Laakko, T. Hiltunen, V. Ikonen, M. Kulju, R. Suihkonen, S. Toivonen and T. Virtanen, "Context-aware services for mobile users," VTT Information Technology, 2004
  2. J. Han and B. Bhanu, "Human activity recognition in thermal infrared imagery," IEEE Computer Society Conf. on Computer Vision and Pattern Recognition, Vol.3, pp. 17-25, 2005 https://doi.org/10.1109/CVPR.2005.469
  3. L. Liao, D. Fox and H. Kautz, “Hierarchical conditional random fields for GPS-based activity recognition.” Robotics Research, Vol.28, No.3, pp. 487-506, 2007
  4. N. Ravi, N. Dandekar, P. Mysore and M. Littman, “Activity recognition from accelerometer,” Proc. Seventeenth Innovative Applications of Artificial Intelligence Conf., pp. 11-18, 2005
  5. J. Ben-Arie and Z. Wang. “Human activity re-cognition using multidimensional indexing,” IEEE Trans. on Pattern Analysis and Machine Intellig-ence, Vol.24, No.8, pp. 1091-2002, 2002 https://doi.org/10.1109/TPAMI.2002.1023805
  6. G. Meijer, K. Westererp, F. Verhoeven, H. Koper and F. Hoor, "Methods to asses physical activity with special reference to motion sensors and accelerometers,” IEEE Trans. Biomedical Engineering, Vol.38, No.3, pp. 221-229, 1991 https://doi.org/10.1109/10.133202
  7. H. Lieberman and T. Selker, “Out of context: Computer systems that adapt to, and learn from, context,” IBM Systems Journal, Vol.39, No.3&4, pp. 617-632, 2000 https://doi.org/10.1147/sj.393.0617
  8. A. Raj, A. Subramanya, D. Fox and J. Bilmes. 'Rao-blackwellized particle filters for recognizing Activities and spatial context from wearable sen-sors,' Experimental Robotics, Vol.39, pp. 211-221, 2008
  9. E. Tapia, S. Intille arid K. Larson, “Activity recog-nition in the home using simple and ubiquitous sensors,” Lecture Notes in Computer Science, Int. Conf. on Pervasive Computing, Vol.3001, pp. 158-175, 2004