반투명 재질의 렌더링과 화면 보간을 위한 실시간 계층화 알고리즘

Real-Time Hierarchical Techniques for Rendering of Translucent Materials and Screen-Space Interpolation

  • 발행 : 2007.03.31

초록

피부, 옷 등 실세계의 대부분의 물질들은 반투명한 재질로 되어있고, 부드러운 외양을 띄고 있다. 본 논문에서는 GPU 기반의 계층화 알고리즘을 통해, 양극 확산 (dipole diffusion) 기법에 기반한 표면 내에서의 빛의 산란에 의한 조명을 근사하여 반투명한 재질을 실시간에 렌더링하는 기법을 제안한다. 무수히 많은 수의 픽셀 빛 입자들은 GPU를 활용하여 쿼드트리로 계층화된다. 렌더링될 각 픽셀마다, 많은 빛 입자를 대신하여 좋은 화질로 근사할 수 있는 집합들을 선택하고, 이것을 사용하여 조명을 계산한다. 우리는 또한, 고해상도 이미지를 효율적으로 렌더링하기 위해 공간적 일관성과 early-z 컬링을 이용한 계층적 화면 보간 기법을 소개한다. 이를 위하여, 화면 정보를 GPU 상에서 계층화한다. 우리는 공간적 유사도가 높은 픽셀들을 하나의 픽셀로 렌더링함으로써 적응적으로 보간한다. 실험을 통해 빛 계층화를 통해 반투명한 물체를 실시간에 렌더링할 수 있음을 확인하였다. 화면 보간 기법은 동급 화질에서 렌더링 비용을 $2{\sim}4$배 정도 감소시켰다. 모든 과정은 GPU를 사용한 이미지 공간 상에서 빠르게 수행되며, 어떠한 긴 전처리과정도 필요하지 않는다.

In the natural world, most materials such as skin, marble and cloth are translucent. Their appearance is smooth and soft compared with metals or mirrors. In this paper, we propose a new GPU based hierarchical rendering technique for translucent materials, based on the dipole diffusion approximation, at interactive rates. Information of incident light, position, normal, and irradiance, on the surfaces are stored into 2D textures by rendering from a primary light view. Huge numbers of pixel photons are clustered into quad-tree image pyramids. Each pixel, we select clusters (sets of photons), and then we approximate multiple subsurface scattering term with the clusters. We also introduce a novel hierarchical screen-space interpolation technique by exploiting spatial coherence with early-z culling on the GPU. We also build image pyramids of the screen using mipmap and pixel shader. Each pixel of the pyramids is stores position, normal and spatial similarity of children pixels. If a pixel's the similarity is high, we render the pixel and interpolate the pixel to multiple pixels. Result images show that our method can interactively render deformable translucent objects by approximating hundreds of thousand photons with only hundreds clusters without any preprocessing. We use an image-space approach for entire process on the GPU, thus our method is less dependent to scene complexity.

키워드