• Title/Summary/Keyword: 깊이 영상 기반 렌더링

Search Result 55, Processing Time 0.029 seconds

Accelerating Depth Image-Based Rendering Using GPU (GPU를 이용한 깊이 영상기반 렌더링의 가속)

  • Lee, Man-Hee;Park, In-Kyu
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.11
    • /
    • pp.853-858
    • /
    • 2006
  • In this paper, we propose a practical method for hardware-accelerated rendering of the depth image-based representation(DIBR) of 3D graphic object using graphic processing unit(GPU). The proposed method overcomes the drawbacks of the conventional rendering, i.e. it is slow since it is hardly assisted by graphics hardware and surface lighting is static. Utilizing the new features of modem GPU and programmable shader support, we develop an efficient hardware-accelerating rendering algorithm of depth image-based 3D object. Surface rendering in response of varying illumination is performed inside the vertex shader while adaptive point splatting is performed inside the fragment shader. Experimental results show that the rendering speed increases considerably compared with the software-based rendering and the conventional OpenGL-based rendering method.

Hole-Filling Method for Depth-Image-Based Rendering for which Modified-Patch Matching is Used (개선된 패치 매칭을 이용한 깊이 영상 기반 렌더링의 홀 채움 방법)

  • Cho, Jea-Hyung;Song, Wonseok;Choi, Hyuk
    • Journal of KIISE
    • /
    • v.44 no.2
    • /
    • pp.186-194
    • /
    • 2017
  • Depth-image-based rendering is a technique that can be applied in a variety of 3D-display systems. It generates the images that have been captured from virtual viewpoints by using a depth map. However, disoccluded hole-filling problems remain a challenging issue, as a newly exposed area appears in the virtual view. Image inpainting is a popular approach for the filling of the hole region. This paper presents a robust hole-filling method that reduces the error and generates a high quality-virtual view. First, the adaptive-patch size is decided using the color and depth information. Also, a partial filling method for which the patch similarity is used is proposed. These efforts reduce the error occurrence and the propagation. The experiment results show that the proposed method synthesizes the virtual view with a higher visual comfort compared with the existing methods.

Noise filtering for Depth Images using Shape Smoothing and Z-buffer Rendering (형상 스무딩과 Z-buffer 렌더링을 이용한 깊이 영상의 노이즈 필터링)

  • Kim, Seung-Man;Park, Jeung-Chul;Cho, Ji-Ho;Lee, Kwan-H.
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1188-1193
    • /
    • 2006
  • 본 논문에서는 동적 객체의 3 차원 정보를 표현하는 깊이 영상의 노이즈 필터링 방법을 제안한다. 실제 객체의 동적인 3 차원 정보는 적외선 깊이 센서가 장착된 깊이 비디오 카메라를 이용하여 실시간으로 획득되며, 일련의 깊이 영상, 즉 깊이 비디오(depth video)로 표현될 수 있다. 하지만 측정환경의 조명조건, 객체의 반사속성, 카메라의 시스템 오차 등으로 인해 깊이 영상에는 고주파 성분의 노이즈가 발생하게 된다. 이를 효과적으로 제거하기 위해 깊이 영상기반의 모델링 기법(depth image-based modeling)을 이용한 3 차원 메쉬 모델링을 수행한다. 생성된 3 차원 메쉬 모델은 깊이 영상의 노이즈로 인해 경계 영역과 형상 내부 영역에 심각한 형상 오차를 가진다. 경계 영역의 오차를 제거하기 위해 깊이 영상으로부터 경계 영역을 추출하고, 가까운 순서로 정렬한 후 angular deviation 을 이용하여 불필요하게 중복된 점들을 제거한다. 그리고 나서 2 차원 가우시안 스무딩 기법을 적용하여 부드러운 경계영역을 생성한다. 형상 내부에 대해서는 경계영역에 제약조건을 주고 3 차원 가우시안 스무딩 기법을 적용하여 전체적으로 부드러운 형상을 생성한다. 최종적으로 스무딩된 3 차원 메쉬모델을 렌더링할 때, 깊이 버퍼에 있는 정규화된 깊이 값들을 추출하여 원래 깊이 영상과 동일한 깊이 영역을 가지도록 저장함으로서 전역적으로 연속적이면서 부드러운 깊이 영상을 생성할 수 있다. 제안된 방법에 의해 노이즈가 제거된 깊이 영상을 이용하여 고품질의 영상기반 렌더링이나 깊이 비디오 기반의 햅틱 렌더링에 적용할 수 있다.

  • PDF

Real-Time Optical Flow Rendering (실시간 영상 생성을 위한 광학 흐름 요소 렌더링)

  • Park, Tae-Joon;Lee, Seungyong;Shin, Sung Yong
    • Journal of the Korea Computer Graphics Society
    • /
    • v.4 no.2
    • /
    • pp.15-28
    • /
    • 1998
  • 최근 영상 기반 렌더링(image-based rendering)을 위한 새로운 접근방법으로서 광학 흐름 요소 렌더링(optical flow rendering)이 제안되었다. 이 방법은 좌우 영상 대응(stereo matching)에서 발생하는 오류와 무관하게 고품질의 영상을 생성할 수 있고 깊이 정보 비교를 통해 기존의 렌더링 방법으로 생성한 영상과 광학 흐름 요소로부터 생성한 영상을 합성할 수 있는 반면에, 한 화소 당 하나 이상의 광학 흐름 요소를 필요로하기 때문에 연산량이 많아져 영상 생성이 느려지는 단점이 있었다. 본 논문에서는 실시간 영상 생성을 위한 광학 흐름 요소 구성법과 영상 생성법을 제안한다. 각각의 광학 흐름 요소가 영상 내에서 화소들의 구간에 대응되도록 개선하여 전체 광학 흐름 요소의 수를 줄였으며, 필터링 탐색법 (filtering search)을 적용하여 전체 광학 흐름 요소를 모두 탐색하는 대신 실제로 영상 생성에 사용되는 광학 흐름 요소만을 탐색함으로써 전체 연산량을 크게 줄였다. 제안된 방법을 SGI Indigo2 Impact 워크스테이션(R10000 CPU; 128 Mbytes)상에서 구현한 결과, 초당 10장 이상의 고속 영상 생성이 가능했다.

  • PDF

A Study on Preprocessing of Depth Image for 3D Service Based on Depth-Image-Based Rendering over T-DMB (지상파 DMB에서의 DIBR 기반의 3차원 서비스를 위한 깊이 영상 전처리 방법에 관한 연구)

  • Oh, Youngjin;Jung, Cheolkon;Kim, Joong Kyu;Lee, Gwangsoon;Hur, Namho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.67-70
    • /
    • 2009
  • 본 논문에서는 지상파 DMB에서의 DIBR(깊이 영상 기반 렌더링) 기반의 3차원 서비스를 위한 깊이 영상 전처리 방법을 제안한다. 지상파 DMB 환경에서의 3차원 서비스는 HD급 화질의 3차원TV와 달리 작은 화면을 통해 3차원 영상이 출력되고, 3차원 영상의 전송량에 제약이 따르기 때문에 DIBR을 이용한 3차원 서비스 모델이 주목 받고 있다. 그러나 DIBR을 이용하여 3차원 서비스를 하는 경우에 획득된 깊이 영상을 그대로 사용하게 되면 비 폐색 영역으로 인한 홀이 발생하게 되고, 깊이 영상의 연속성으로 인해 객체 내에 홀이 발생되는 문제점을 가지게 된다. 이에 깊이 영상이 가지는 값을 화소의 이동거리와 특성에 따라 같은 값으로 조절하여 객체 내에 발생되는 홀의 수를 감소시키고, 경사도 방향 기반 평활화 필터를 이용하여 깊이 영상의 비연속성을 줄여 홀을 분산시킴으로서 렌더링된 3차원 영상의 입체감을 유지하면서 화질을 향상시켰다.

A Study on Delta Image Composition Methods of the Depth-Image-Based Rendering for the Generation of Stereoscopic Images on Mobile Devices (모바일 장치에서 입체 영상 생성을 위한 깊이 영상 기반 렌더링의 부가 정보 영상 구성 방법에 관한 연구)

  • Kim, Min-Young;Park, Kyoung-Shin;Choo, Hyon-Gon;Kim, Jin-Woong;Cho, Yong-Joo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.7
    • /
    • pp.1428-1436
    • /
    • 2012
  • This paper presents the delta image composition methods using Depth-Image-Based Rendering (DIBR) for 3D stereoscopic broadcasting for the low bandwidth mobile DMB broadcasting system. With DIBR, a left and depth images are transmitted to a mobile device, which restores the right view, whose quality may be poor. This paper describes delta image composition methods for the restoration while minimizing the amount of the transmitted data.

An Adaptive depth assignment for generating stereo images (스테레오 영상 생성을 위한 적응적 깊이 할당)

  • Kim, Hyemoon;Park, Dong Kwon;Won, Chee Sun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.31-34
    • /
    • 2011
  • 본 논문에서는 2D-3D 변환 후, 입체감 수정에 관련한 피드백 시스템과 그에 맞게 적용되는 적응적 관계식을 제안한다. 2D-3D 변환을 통해 우선 깊이 영상을 생성하고 이를 이용하여 깊이 영상 기반 렌더링(DIBR)을 통해 수평방향의 이동을 계산하여 좌영상과 우영상을 생성한다. 그러나 깊이 정보 기반 렌더링 후 사용자 선호에 따라 입체감을 수정할 필요가 있을 때 깊이 영상을 재생성 해야 하는 문제점이 발생하며 이를 극복하고자 피드백 시스템을 통한 두 개의 조절 파라메터를 소개 한다. 즉, 'Pull-in'혹은 'Push-away'의 입체감을 조절 할 수 있는 시차 이동식을 제안한다.

  • PDF

GPU-based Acceleration of Image-based Rendering (GPU를 이용한 영상기반 렌더링의 가속)

  • Lee, Man-Hee;Park, In-Kyu
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07a
    • /
    • pp.685-687
    • /
    • 2005
  • 본 논문에서는 깊이 영상기반 3차원 물체(depth image-based 3-D object)의 고속 렌더링 기법을 제안한다. 제안하는 알고리즘은 그래픽 가속기가 지원하는 shader programming 기법을 이용하여 하드웨어 가속을 직접 이용하도록 설계되었다. 또한, 기존의 영상 기반 렌더링의 한계를 극복하여 조명 효과를 표현할 수 있으며 렌더링시 각 화소당 Splat 크기를 하드웨어에서 직접 조절하여 고속 렌더링이 가능하다. 모의 실험결과, 소프트웨어 렌더링 또는 OpenGL 기반의 렌더링에 비해 괄목할 만한 렌더링 속도의 향상이 이루어졌다.

  • PDF

Intermediate View Synthesis Method using Kinect Depth Camera (Kinect 깊이 카메라를 이용한 가상시점 영상생성 기술)

  • Lee, Sang-Beom;Ho, Yo-Sung
    • Smart Media Journal
    • /
    • v.1 no.3
    • /
    • pp.29-35
    • /
    • 2012
  • A depth image-based rendering (DIBR) technique is one of the rendering processes of virtual views with a color image and the corresponding depth map. The most important issue of DIBR is that the virtual view has no information at newly exposed areas, so called dis-occlusion. In this paper, we propose an intermediate view generation algorithm using the Kinect depth camera that utilizes the infrared structured light. After we capture a color image and its corresponding depth map, we pre-process the depth map. The pre-processed depth map is warped to the virtual viewpoint and filtered by median filtering to reduce the truncation error. Then, the color image is back-projected to the virtual viewpoint using the warped depth map. In order to fill out the remaining holes caused by dis-occlusion, we perform a background-based image in-painting operation. Finally, we obtain the synthesized image without any dis-occlusion. From experimental results, we have shown that the proposed algorithm generated very natural images in real-time.

  • PDF

Near-lossless Coding of Multiview Texture and Depth Information for Graphics Applications (그래픽스 응용을 위한 다시점 텍스처 및 깊이 정보의 근접 무손실 부호화)

  • Yoon, Seung-Uk;Ho, Yo-Sung
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.46 no.1
    • /
    • pp.41-48
    • /
    • 2009
  • This Paper introduces representation and coding schemes of multiview texture and depth data for complex three-dimensional scenes. We represent input color and depth images using compressed texture and depth map pairs. The proposed X-codec encodes them further to increase compression ratio in a near-lossless way. Our system resolves two problems. First, rendering time and output visual quality depend on input image resolutions rather than scene complexity since a depth image-based rendering techniques is used. Second, the random access problem of conventional image-based rendering could be effectively solved using our image block-based compression schemes. From experimental results, the proposed approach is useful to graphics applications because it provides multiview rendering, selective decoding, and scene manipulation functionalities.