• 제목/요약/키워드: Multiple viewpoint rendering

검색결과 8건 처리시간 0.023초

Parallel Processing for Integral Imaging Pickup Using Multiple Threads

  • Jang, Young-Hee;Park, Chan;Park, Jae-Hyeung;Kim, Nam;Yoo, Kwan-Hee
    • International Journal of Contents
    • /
    • 제5권4호
    • /
    • pp.30-34
    • /
    • 2009
  • Many studies have been done on the integral imaging pickup whose objective is to get efficiently elemental images from a lens array with respect to three-dimensional (3D) objects. In the integral imaging pickup process, it is necessary to render an elemental image from each elemental lens in a lens array for 3D objects, and then to combine them into one total image. The multiple viewpoint rendering (MVR) is one of various methods for integral imaging pickup. This method, however, has the computing and rendering time problem for obtaining element images from a lot of elemental lens. In order to solve the problems, in this paper, we propose a parallel MVR (PMVR) method to generate elemental images in a parallel through distribution of elemental lenses into multiple threads simultaneously. As a result, the computation time of integral imaging using PMVR is reduced significantly rather than a sequential approach and then we showed that the PMVR is very useful.

다수 시점의 TIP 영상기반렌더링 (Seamless Image Blending based on Multiple TIP models)

  • 노창현
    • 한국게임학회 논문지
    • /
    • 제3권2호
    • /
    • pp.30-34
    • /
    • 2003
  • Image-based rendering is an approach to generate realistic images in real-time without modeling explicit 3D geometry, Especially, TIP(Tour Into the Picture) is preferred for its simplicity in constructing 3D background scene. However, TP has a limitation that a viewpoint cannot go far from the origin of the TIP for the lack of geometrical information. in this paper, we propose a method to interpolating the TIP images to generate smooth and realistic navigation. We construct multiple TIP models in a wide area of the virtual environment. Then we interpolate foreground objects and background object respectively to generate smooth navigation results.

  • PDF

Relighting 3D Scenes with a Continuously Moving Camera

  • Kim, Soon-Hyun;Kyung, Min-Ho;Lee, Joo-Haeng
    • ETRI Journal
    • /
    • 제31권4호
    • /
    • pp.429-437
    • /
    • 2009
  • This paper proposes a novel technique for 3D scene relighting with interactive viewpoint changes. The proposed technique is based on a deep framebuffer framework for fast relighting computation which adopts image-based techniques to provide arbitrary view-changing. In the preprocessing stage, the shading parameters required for the surface shaders, such as surface color, normal, depth, ambient/diffuse/specular coefficients, and roughness, are cached into multiple deep framebuffers generated by several caching cameras which are created in an automatic manner. When the user designs the lighting setup, the relighting renderer builds a map to connect a screen pixel for the current rendering camera to the corresponding deep framebuffer pixel and then computes illumination at each pixel with the cache values taken from the deep framebuffers. All the relighting computations except the deep framebuffer pre-computation are carried out at interactive rates by the GPU.

실시간 렌더링을 위한 MPEG-I RVS 가속화 기법 (MPEG-I RVS Software Speed-up for Real-time Application)

  • 안희준;이명진
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.655-664
    • /
    • 2020
  • 자유시점 영상합성기술은 MPEG-I(Immersive) 표준에서 중요한 기술 중 하나이다. 현재 MPEG-I에서 개발하여 사용하는 RVS (Reference View Synthesizer) 프로그램은 다수의 시점의 컬러영상과 깊이영상을 바탕으로 임의시점의 영상을 생성하는 DIBR (Depth Information-Based Rendering) 프로그램이다. RVS는 기존의 DIBR이 갖는 깊이정보 전달의 문제를 컴퓨터 그래픽스의 메쉬 표면 방식으로 접근하여 이전 화소방식에 비하여 2.5dB 이상의 성능향상을 보이며 OpenGL을 사용하면 CPU에서 동작하는 코드보다 10배 이상의 속도를 보인다. 그러나 여전히 2개의 2k 해상도 입력 영상에서 0.75fps 정도의 비실시간 처리속도를 보인다. 본 논문에서는 현 RVS의 내부 구현을 분석하고 이를 바탕으로 1) OpenGL 버퍼와 텍스쳐 객체의 재사용 2) 파일 입출력과 OpenGL 실행의 병렬화 3) GPU 셰이더 프로그램과 버퍼 데이터 전송의 병렬화를 적용하였다. 그 결과 두 개의 2k 해상도 입력 영상의 처리속도를 34배 이상 가속하여 22-28fps의 실시간 성능을 확보하였다.

Instant NGP를 활용한 CNC Tool의 장면 생성 및 렌더링 성능 평가 (Scene Generation of CNC Tools Utilizing Instant NGP and Rendering Performance Evaluation)

  • 정태영;유영준
    • 대한임베디드공학회논문지
    • /
    • 제19권2호
    • /
    • pp.83-90
    • /
    • 2024
  • CNC tools contribute to the production of high-precision and consistent results. However, employing damaged CNC tools or utilizing compromised numerical control can lead to significant issues, including equipment damage, overheating, and system-wide errors. Typically, the assessment of external damage to CNC tools involves capturing a single viewpoint through a camera to evaluate tool wear. This study aims to enhance existing methods by using only a single manually focused Microscope camera to enable comprehensive external analysis from multiple perspectives. Applying the NeRF (Neural Radiance Fields) algorithm to images captured with a single manual focus microscope camera, we construct a 3D rendering system. Through this system, it is possible to generate scenes of areas that cannot be captured even with a fixed camera setup, thereby assisting in the analysis of exterior features. However, the NeRF model requires considerable training time, ranging from several hours to over two days. To overcome these limitations of NeRF, various subsequent models have been developed. Therefore, this study aims to compare and apply the performance of Instant NGP, Mip-NeRF, and DS-NeRF, which have garnered attention following NeRF.

넓은 가상환경 구축을 위한 다수의 TIP (Tour into the Picture) 영상 합성 (Multiple TIP Images Blending for Wide Virtual Environment)

  • 노창현;이완복;류대현;강정진
    • 대한전자공학회논문지TE
    • /
    • 제42권1호
    • /
    • pp.61-68
    • /
    • 2005
  • 영상 기반 엔더링은 장면을 3차원 기하 모델로 구축할 필요없이 실사 영상만을 이용하여 빠른 속도로 사실감 높은 결과 영상을 렌더링 할 수 있는 기법이다. 특히, '그림 속으로의 여행(Tour into the Picture: TIP)' 기법은 3차원 배경을 매우 간단히 구축할 수 있어 널리 이용되고 있다. 그러나 기존 TIP 기법은 영상 촬영 지점을 많이 벗어나면 원거리 지형 정보 부족으로 인해 시점 이동 범위에 한계가 있다. 이점을 보완하기 위해 본 연구에서는 다수의 TIP 영상을 합성하여 넓은 가상환경을 구축하는 방법을 개발하였다. 제안된 방법은 먼저, 다수의 시점에서 각각 TIP 모델을 구축하고, TIP 모델을 구성하는 전경 물체와 배경 물체를 각각 보간하여 렌더링 함으로써 부드러운 네비게이션 영상을 얻었다. 본 연구는 게임, 차량용 네비게이션 등 다양한 산업 분야에 응용될 수 있다.

A Method of Patch Merging for Atlas Construction in 3DoF+ Video Coding

  • Im, Sung-Gyune;Kim, Hyun-Ho;Lee, Gwangsoon;Kim, Jae-Gon
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.259-260
    • /
    • 2019
  • MPEG-I Visual group is actively working on enhancing immersive experiences with up to six degree of freedom (6DoF). In virtual space of 3DoF+, which is defined as an extension of 360 video with limited changes of the view position in a sitting position, looking at the scene from another viewpoint (another position in space) requires rendering additional viewpoints using multiple videos taken at the different locations at the same time. In the MPEG-I Visual workgroup, methods of efficient coding and transmission of 3DoF+ video are being studied, and they released Test Model for Immersive Media (TMIV) recently. This paper presents the enhanced clustering method which can pack the patches into atlas efficiently in TMIV. The experimental results show that the proposed method achieves significant BD-rate reduction in terms of various end-to-end evaluation methods.

  • PDF

3DoF+ 비디오의 효율적인 부호화를 위한 보호대역을 사용한 패치 패킹 기법 (A Patch Packing Method Using Guardband for Efficient 3DoF+ Video Coding)

  • 김현호;김용주;김재곤
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.185-191
    • /
    • 2020
  • MPEG-I에서는 최대 6자유도(6DoF)를 가지는 몰입형 비디오의 압축 표준화를 진행하고 있다. 360 비디오에 움직임 시차(parallax)를 추가한 것으로 정의되는 3DoF+ 비디오의 가상 공간에서, 원하는 위치와 시점의 장면을 제공하려면 3DoF+ 비디오를 구성하는 여러 뷰(view) 비디오를 사용하여 임의의 원하는 시점의 뷰를 렌더링해야 한다. MPEG-I 비쥬얼 그룹에서는 이러한 3DoF+ 비디오의 효율적인 부호화를 위한 표준화가 진행되고 있으며, TMIV(Test Model for Immersive Video)라는 시험모델을 개발하고 있다. 본 논문은 TMIV에서 패치(patch)를 아틀라스(atlas)에 효율적으로 패킹하여 부호화 성능을 향상시킬 수 있는 패치 패킹 방법을 제안한다. 제안기법은 패킹되는 패치들 간에 보호대역(guardband)을 적용하여 패치 간의 거리를 둠으로써 부호화로 인해 발생할 수 있는 아티팩트(artifact)를 줄여 최종 복원 뷰의 화질을 향상시킨다.