초록
본 논문은 대화형 방송환경에서 부가서비스를 제공받기 위해서 탐다운(Top-Down)메뉴 검색을 하는 것이 아니라, 방송영상의 화면 내부에서 부가서비스가 제공되길 원하는 객체를 선택했을 때 선택한 객체에 대한 부가서비스를 제공하는 새로운 방법을 제안한다. 이를 위해서는 실시간으로 방송되고 있는 동영상과 객체정보(위치, 크기, 모양)의 동기를 맞추는 기술과 동영상 내부의 객체 추적 기술이 필수적이다. 동영상과 객체정보의 동기를 맞추는 기술은 마이크로소프트사의 다이렉트쇼(DirectShow)를 이용하였으며, 객체를 추적하기 위한 방법은 객체를 크게 사람과 사물로 나누어, 사람의 얼굴은 모델을 만들어 추적하는 모델 기반 얼굴 추적 방법(Model-based face tracking)을 사용하고 나머지 사물에 대해서는 객체의 영역을 지정하여 영역을 추적하는 움직임 기반 추적 방법(Motion-based Tracking)을 적용하였다. 또한 움직임 기반 추적을 할 수 있도록 하고 모델 기반 추적 방법을 적용하여 움직임이 큰 객체도 검색 영역 확장 없이 정확한 추적을 할 수 있도록 하고 모델 기반 추적 방법에는 타원 모델과 색상 모델을 결합한 얼굴 모델을 적용하여 얼굴이 회전하여도 정확한 추적을 할 수 있도록 개선하였다.
In general, under interactive broadcasting environment, user finds additional service using top-down menu. However, user can't know that additional service provides information until retrieval has finished and top-down menu requires multi-level retrieval. This paper proposes the new method for additional service providing not using top-down menu but using object selection. For the purpose of this method, the movie of a MPEG should be synchronized with the object information(position, size, shape) and object tracking technique is required. Synchronization technique uses the Directshow provided by the Microsoft. Object tracking techniques use a motion-based tracking and a model-based tracking together. We divide object into two parts. One is face and the other is substance. Face tracking uses model-based tracking and Substance uses motion-based tracking base on the block matching algorithm. To improve precise tracking, motion-based tracking apply the temporal prediction search algorithm and model-based tracking apply the face model which merge ellipse model and color model.