초록
혼합현실 응용의 제작에 있어 중요한 요소 중의 하나는 현실 세계에서의 주변광 정보를 분석하여 효과적으로 영상 합성에 적용하는 것이다. 특히 대화식 응용을 구현하기 위해서는 동적으로 변화하는 주변광을 실시간 처리를 통하여 빠르게 렌더링 결과에 반영하는 것이 중요하다. 기존의 관련 방법들은 주로 사실적인 영상생성을 목표로 하기 때문에 너무 많은, 예를 들어, 2의 거듭제곱 수로 증가하는, 광원지점을 찾거나 대화식 응용에 적합하지 않은 복잡도를 가져 이에 적용하기가 적합하지 않다. 본 논문에서는 어안 렌즈를 장착한 카메라로부터 실시간으로 입력되는 동영상 이미지를 분석하여 주요 광원을 고속으로 찾아주는 광원 추정 방법을 제안한다. 기존의 방법과는 달리 사용자가 지정한 개수 정도의 주요 광원을 고속을 찾아주어, 퐁의 조명모델 기반의 직접 조명효과 생성뿐만 아니라, 면적 광원에 대한 광원 샘플링을 통한 부드러운 그림자 생성에도 활용할 수 있다.
One of the fundamental elements in developing mixed reality applications is to effectively analyze and apply the environmental lighting information to image synthesis. In particular, interactive applications require to process dynamically varying lighting sources in real-time, reflecting them properly in rendering results. Previous related works are not often appropriate for this because they are usually designed to synthesize photorealistic images, generating too many, often exponentially increasing, light sources or having too heavy a computational complexity. In this paper, we present a fast light source estimation technique that aims to search for primary light sources on the fly from a sequence of video images taken by a camera equipped with a fisheye lens. In contrast to previous methods, our technique can adust the number of found light sources approximately to the size that a user specifies. Thus, it can be effectively used in Phong-illumination-model-based direct illumination or soft shadow generation through light sampling over area lights.