• Title/Summary/Keyword: 시점영상 합성

Search Result 129, Processing Time 0.024 seconds

Boundary Noise Removal in Synthesized Intermediate Viewpoint Images for 3D Video (3차원 비디오의 중간시점 합성영상의 경계 잡음 제거 방법)

  • Lee, Cheon;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2008.11a
    • /
    • pp.109-112
    • /
    • 2008
  • 최근 MPEG(moving picture experts group)에서 표준화를 진행하고 있는 3차원 비디오 시스템은 다시점 영상과 깊이영상을 동시에 이용하여 사용자가 임의의 시점을 선택하거나 스테레오스코픽 장치와 같은 3차원 영상 재생장 치를 동해 3차원 영상을 제공하는 차세대 방송 시스템이다 제한된 시점수를 이용하여 보다 많은 시점의 영상을 제공하려면 중간시점의 영상을 보간하는 장치가 필수적이다. 이 시스템의 입력정보인 깊이값을 이용하면 시점이동을 쉽게 할 수 있는데, 보간한 영상의 화질은 이 깊이값의 정확도에 따라 결정된다. 깊이맵은 대개 컴퓨터 비전을 기반으로 한 스테레오 정합기술을 이용 획득하는데, 객체의 경계와 같은 깊이값 불연속 영역에서 주로 깊이값 오류가 발생하게 된다. 이런 오류는 생성한 중간영상의 배경에 원치 않는 잡음을 발생시킨다. 기존의 방법에서는 측정한 깊이법의 객체 경계와 영상의 객체 경계가 일치한다는 가정으로 중간영상을 합성했다. 그러나 실제로는 깊이값 측정 과정에서 두 가지 경계가 일치하지 않아 전경의 일부분이 배경으로 합성되어 잡음을 발생하는 것이다. 본 논문에서는 깊이맵을 기반으로 중간시점의 영상을 보간할 때 발생하는 경계 잡음을 처리하는 방법을 제안한다. 중간영상을 합성할 때 비폐색 영역을 합성한 후 경계 잡음이 발생할 수 있는 영역을 비폐색 영역을 따라 구별한 다음, 잡음이 없는 참조 영상을 이용함으로써 경계 잡음을 처리할 수 있다. 실험 결과를 통해 배경 잡음이 사라진 자연스러운 합성영상을 생성했다.

  • PDF

Multi-view Depth Image Resolution Enhancement based on View Coherence (시점 간 일관성을 고려한 다시점 깊이 영상의 해상도 개선)

  • Choi, Jin-Wook;Sohn, Kwang-Hoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.373-375
    • /
    • 2011
  • 최근 들어, Time-of-Flight (TOF) 방식의 깊이 센서가 컴퓨터 비전이나 영상처리분야 등의 연구에서 다양하게 활용되고 있다. TOF 방식의 깊이 센서는 실시간으로 정확한 깊이 정보를 획득할 수 있는 장점이 있는 반면, 해상도가 낮고 센서의 광학적 특성으로 인해 노이즈가 발생한다는 단점이 있다. 본 논문에서는 이러한 깊이 센서의 단점을 극복하고 고품질의 다시점 영상 합성을 위해 기존 깊이 센서에 여러 대의 Charge-coupled Device (CCD) 카메라를 결합하여 시점 간 일관성 있는 고해상도의 깊이 영상을 획득하는 기술을 제안한다. 한정되어 있는 시점의 영상을 이용하여 다시점 영상을 합성할 때, 각 시점에 해당하는 깊이 영상의 정확도에 따라 합성되는 영상의 품질이 결정된다. 따라서 보유 시점에 해당하는 깊이 영상 간의 일관성이 유지되고 객체의 경계가 정확히 보존되어야만 생성되는 임의 시점 영상의 품질이 보장될 수 있다. 이에, 본 논문에서는 Joint Bilateral Upsampling (JBU)을 기반으로 시점 간 일관성을 고려한 깊이 영상의 해상도 개선 기술을 제안하고 이를 통해 다시점 영상 합성 결과의 품질을 향상시킨다.

  • PDF

View Synthesis for 3D Database (3차원 데이터베이스 구축을 위한 시점 합성)

  • 이종원;이광연;김성대
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1998.06a
    • /
    • pp.17-21
    • /
    • 1998
  • 시점 합성(View synthesis)이란 일반적으로 주어진 기준 영상들(reference viewpoint images 혹은 key frames)으로부터 임의의 시점에서 바라본 영상을 예측하여 합성하는 것을 의미한다. 이러한 시점 합성은 영상 기반 렌더링(Image-based rendering)기법의 일종으로 컴퓨터 그래픽스 분야에서 실시간 렌더링이나 가상 현실(Virtual reality) 구현을 위한 매우 강력한 접근 방식이다. 시점 합성은 물체를 표현하기 위한 3차원 모델링이 필요가 없으며, 렌더링 시간이 물체의 복잡도와는 무관한 장점이 있다. 이러한 시점 합성 기법으로 물체의 3차원 표현과 효과적인 데이터베이스 구축에 응용이 가능하다. 본 논문에서는 물체의 3차원 데이터베이스 구축을 위해 영상 기반 렌더링 기법에 근거한 간단하고, 효과적인 시점 합성 방법을 제안한다.

  • PDF

Improved CABAC Design for Near Lossless Depth Coding in HEVC (HEVC 근접 무손실 깊이 영상 부호화를 위한 향상된 CABAC 설계)

  • Choi, Jung-Ah;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.36-37
    • /
    • 2011
  • 깊이 영상은 가상 시점 영상을 합성할 때 사용되는 3차원 거리 정보로 깊이 영상 기반 렌더링에서 가상 시점을 합성할 때 사용한다. 따라서, 깊이 영상 부호화에서는 부호화 효율 못지않게 합성 영상의 화질이 중요하다. 깊이 영상의 화질은 합성된 가상 시점 영상의 화질에 큰 영향을 미친다. 따라서 고화질 깊이 영상이 필요한 경우, 부호화 손실이 적은 무손실 부호화를 사용한다. 하지만, 이와 같은 무손실 부호화 방법은 복호를 통해 원래의 깊이 영상을 그대로 복원할 수 있지만, 압축률이 낮다는 단점이 있다. 본 논문에서는 복호된 영상의 화질과 부호화 비트의 균형을 모두 고려하기 위해 근접 무손실 HEVC(high efficiency video coding)와 향상된 CABAC(context-based adaptive bnary arithmetic coding)을 이용한 새로운 깊이 영상 부호화 방법을 제안한다. 실험을 통해 제안한 방법이 합성된 가상 시점 영상의 화질 손실 없이, 기존의 무손실 및 근접 무손실 방법보다 더 나은 부호화 성능을 제공함을 알 수 있었다.

  • PDF

다시점 영상을 위한 중간 시점 영상 합성

  • Yu, Ji-Sang;Choe, Mi-Nam
    • Information and Communications Magazine
    • /
    • v.24 no.4
    • /
    • pp.59-66
    • /
    • 2007
  • 최근 3차원 TV 방송 기술에 대한 연구가 활발히 이루어지고 있다. 3차원 TV 방송 기술이란 2차원 영상에 깊이 정보를 부가하여 사용자로 하여금 입체감과 현장감을 느낄 수 있게 하는 방송을 말한다. 스테레오 영상을 이용하면 입체감은 느낄 수 있지만 시점이 고정되는 단점이 있다. 또한, 다시점 영상의 경우 데이터 양이 커지는 단점이 있다. 이러한 문제를 해결하고, 자연스럽고 연속적인 입체감을 느낄 수 있게 하는 방법으로 중간 시점 영상 합성 방법이 사용된다. 본고에서는 3차원 영상처리 기술의 한 분야 중 중간 시점 영상을 합성하는 방식에 대해 살펴보고자 한다. 기존의 스테레오 정합을 기반으로 하는 변이 추정 방식과 변이를 이용하여 중간 시점 영상을 합성하는 방법에 대해 기술하고 결론을 맺고자 한다.

Multi-view Synthesis Algorithm for the Better Efficiency of Codec (부복호화기 효율을 고려한 다시점 영상 합성 기법)

  • Choi, In-kyu;Cheong, Won-sik;Lee, Gwangsoon;Yoo, Jisang
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.20 no.2
    • /
    • pp.375-384
    • /
    • 2016
  • In this paper, when stereo image, satellite view and corresponding depth maps were used as the input data, we propose a new method that convert these data to data format suitable for compressing, and then by using these format, intermediate view is synthesized. In the transmitter depth maps are merged to a global depth map and satellite view are converted to residual image corresponding hole region as out of frame area and occlusion region. And these images subsampled to reduce a mount of data and stereo image of main view are encoded by HEVC codec and transmitted. In the receiver intermediate views between stereo image and between stereo image and bit-rate are synthesized using decoded global depth map, residual images and stereo image. Through experiments, we confirm good quality of intermediate views synthesized by proposed format subjectively and objectively in comparison to intermediate views synthesized by MVD format versus total bit-rate.

Multi-View Video Composition and Multi-View Viewer (다시점 비디오와 컴퓨터 그래픽스 합성 및 다시점 비디오 뷰어)

  • Kwon, Jun-Sup;Hwang, Won-Young;Kim, Man-Bae;Choi, Chang-Yeol
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2007.02a
    • /
    • pp.3-8
    • /
    • 2007
  • 최근, 실감 영상에 대한 관심과 요구가 증가하면서 신개념 서비스인 3차원 다시점(Multi-view) 방송에 대한 연구가 다양하게 진행되고 있다. 이와 더불어 광고와 게시를 목적으로 입체 영상과 입체 디스플레이 장치의 수요가 증가하고 있어, 앞으로 다시점 영상 콘텐츠와 디스플레이 장치가 활발하게 보급될 전망이다. 다시점 영상 콘텐츠는 제작 단계에서 컴퓨터 그래픽스 객체를 합성하면 보다 목적에 부합하는 콘텐츠를 제작할 수 있다. 본 논문에서는 다시점 카메라로부터 얻은 RGB 텍스쳐 데이터와 깊이 테이터에 컴퓨터 그래픽스 객체를 합성하여 다시점 합성 영상을 생성하는 방법을 제안한다. 또한, 제작된 다시점 합성 영상을 검증하고 재생하는 다시점 비디오 뷰어를 설계, 구현 한다. 가상의 다시점 영상에 그래픽스 객체를 합성하는 방법은 후 합성 기반으로, 임의의 그래픽스 객체 모델을 생성하여 깊이 정보를 부여하고, 가상 시점 영상의 생성과 동일한 방법으로 그래픽스 객체의 각 시점별 영상을 생성한다. 끝으로 깊이정보를 사용하여 가상 시점 영상의 적절한 좌표공간으로 그래픽스 객체를 삽입한다. 그래픽스 합성의 정확성 검증을 위해 다시점 그래픽스 합성 영상을 디스플레이하는 뷰어는 2D 및 입체를 모두 지원하고, view switching, frozen moment, view sweeping 등의 interactive special effect기법과 다양한 포맷의 저장이 가능하다. 또한, 입체 영상의 실험에서는 그래픽 객체의 입체감 조절을 위해 실제 카메라 시점 간에 필요한 중간시점영상의 개수를 결정할 수 있다.

  • PDF

Virtual View-point Depth Image Synthesis System for CGH (CGH를 위한 가상시점 깊이영상 합성 시스템)

  • Kim, Taek-Beom;Ko, Min-Soo;Yoo, Ji-Sang
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.7
    • /
    • pp.1477-1486
    • /
    • 2012
  • In this paper, we propose Multi-view CGH Making System using method of generation of virtual view-point depth image. We acquire reliable depth image using TOF depth camera. We extract parameters of reference-view cameras. Once the position of camera of virtual view-point is defined, select optimal reference-view cameras considering position of it and distance between it and virtual view-point camera. Setting a reference-view camera whose position is reverse of primary reference-view camera as sub reference-view, we generate depth image of virtual view-point. And we compensate occlusion boundaries of virtual view-point depth image using depth image of sub reference-view. In this step, remaining hole boundaries are compensated with minimum values of neighborhood. And then, we generate final depth image of virtual view-point. Finally, using result of depth image from these steps, we generate CGH. The experimental results show that the proposed algorithm performs much better than conventional algorithms.

CNN-based Denoising Algorithm for Synthesized Views in 6 Degree-of-Freedom Videos (CNN 을 이용한 전방위 비디오 합성 시점의 화질 개선 알고리즘)

  • Park, Hyeonsu;Kang, Je-Won
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.06a
    • /
    • pp.218-221
    • /
    • 2019
  • 본 논문은 최근 MPEG-I 에서 논의되고 있는 전방위 6 자유도 영상의 가상시점 합성의 기존 공개 소프트웨어의 문제점 해결방안을 제안한다. 참조시점을 사용하여 합성된 가상시점의 영상을 대상으로 묶음 조정(bundle adjustment) 개념의 딥 러닝을 적용하여 영상 간 시공간적 품질 차이를 낮춘다. 실험에 따르면 중간시점 영상 합성 후 같은 시간적 특성을 같은 묶음을 MF-CNN (Multi-Frame Convolutional Neural Networks)에 적용함으로써 단순 VVS2.0 의 합성 결과 대비 평균 공간적으로 0.34dB, 시간적으로 0.81dB의 성능 향상을 제공하였다.

  • PDF

Virtual View Rendering for 2D/3D Freeview Video Generation (2차원/3차원 자유시점 비디오 재생을 위한 가상시점 합성시스템)

  • Min, Dong-Bo;Sohn, Kwang-Hoon
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.45 no.4
    • /
    • pp.22-31
    • /
    • 2008
  • In this paper, we propose a new approach for efficient multiview stereo matching and virtual view generation, which are key technologies for 3DTV. We propose semi N-view & N-depth framework to estimate disparity maps efficiently and correctly. This framework reduces the redundancy on disparity estimation by using the information of neighboring views. The proposed method provides a user 2D/3D freeview video, and the user can select 2D/3D modes of freeview video. Experimental results show that the proposed method yields the accurate disparity maps and the synthesized novel view is satisfactory enough to provide user seamless freeview videos.