DOI QR코드

DOI QR Code

환경 요인에 독립적인 관심 영역 추출을 위한 프레임워크의 개발

Development of A Framework for Robust Extraction of Regions Of Interest

  • 김성훈 (경북대학교 컴퓨터정보학부) ;
  • 이광의 (동의대학교 멀티미디어 공학과) ;
  • 허경용 (동의대학교 영상미디어센터)
  • 투고 : 2011.08.18
  • 심사 : 2011.12.06
  • 발행 : 2011.12.31

초록

영상으로부터 관심 영역을 추출하는 작업은 비젼을 이용한 응용 분야에서 첫 번째 단계로 이후 처리 단계에 영향을 미치는 중요한 작업이다. 하지만 관심 영역추출은 조명이나 카메라 등의 주변 환경에 민감하여 일반적으로 문제에 관련된 지식이나 후처리를 도입하여 추출된 영역을 보정하고 있다. 이 논문에서는 환경에 민감하지 않으며 이후 처리 과정에 독립적인 관심 영역 추출을 위한 프레임워크를 제안한다. 제안하는 프레임워크는 차영상과 색상 분포를 이용하여 관심 영역을 추출하며 색상 분포를 학습함으로써 환경의 변화에 적응할 수 있다. 또한 프레임워크의 각 구성 요소들이 독립적으로 동작하는 유연한 구조를 가지므로 확장성이 뛰어나다. 제안하는 프레임워크의 유용성은 동영상에서 손 영역 추출을 통해 확인할 수 있다.

Extraction of regions of interest (ROIs) is the first and important step for the applications in computer vision and affects the rest of the application process. However, ROI extraction can be easily affected by the environment such as illumination, camera, etc. Many applications adopt problem-specific knowledge and/or post-processing to correct the error occurred in ROI extraction. In this paper, proposed is a robust framework that could overcome the environmental change and is independent from the rest of the process. The proposed framework uses a differential image and a color distribution to extract ROIs. The color distribution can be learned on-line, which make the framework to be robust to environmental change. Even more, the components of the framework are independent each other, which makes the framework flexible and extensible. The usefulness of the proposed framework is demonstrated with the application of hand region extraction in an image sequence.

키워드

참고문헌

  1. A. Sears and J.A. Jacko, "The Human-Computer Interaction Handbook," 2nd Ed., CRC Press, 2007.
  2. H. Sharp, Y. Rogers, and J. Preece, "Interaction Design: Beyond Human-Computer Interaction," Wiley & Sons, 2007.
  3. V.I. Pavlovic, R. Sharma, and T.S. Huang, "Visual Interpretation of Hand Gestures for Human-Co mputer Interaction: A Review," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 7, pp. 677-695, July 1997. https://doi.org/10.1109/34.598226
  4. A. Yilmaz, O. Javed, and M. Shah, "Object Tracking: A Survey," ACM Computing Surveys, Vol. 38, No. 4, pp. 1-12, Dec. 2006. https://doi.org/10.1145/1132952.1132953
  5. P. Turaga, R. Chellappa, V.S. Subrahmanian, and O. Udrea, "Machine Recognition of Human Activities: A Survey," IEEE Transactions on Circuits and Systems for Video Technology, Vol. 18, No. 11, pp. 1473-1488, Nov. 2008. https://doi.org/10.1109/TCSVT.2008.2005594
  6. D. Lowe, "Distinctive image features from scale-inv ariant keypoints," International Journal of Comp uter Vision, Vol. 60, No. 2, pp. 91-110, Nov. 2004. https://doi.org/10.1023/B:VISI.0000029664.99615.94
  7. R.C. Gonzalez and R.E. Woods, "Digital Image Processing," 3rd Ed., Prentice Hall, 2007.
  8. R. Lieber, "Introducing Morphology," Cambridge University Press, 2010.
  9. Yanjun Fu, Weiqiang Wang, and Li Cheng, "On-line learning skin model based on similarity between neighboring pixels," Proceedings of 2010 IEEE 2nd Symposium on Web Society (SWS), pp. 127-131, 2010

피인용 문헌

  1. Area Measurement of Organism Image using Super Sampling and Interpolation vol.17, pp.10, 2014, https://doi.org/10.9717/kmms.2014.17.10.1150