• Title/Summary/Keyword: 다시점 영상 생성

Search Result 121, Processing Time 0.024 seconds

Depth Map Based Distributed Multi-view Video Coding Scheme through an Efficient Side Information Generation (효율적인 보조 정보 생성을 통한 깊이지도 기반의 분산 다시점 비디오 코딩 기법)

  • Yoo, Ji-Hwan;Lee, Dong-Seok;Kim, Tae-June;Yoo, Ji-Sang
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.10B
    • /
    • pp.1093-1103
    • /
    • 2009
  • In this paper, we propose a new depth map based distributed multi-view video coding algorithm through an efficient side information generation. A distributed video coding scheme corrects errors between an original image and side information generated at a decoder by using channel coding techniques. Therefore, the more accurate side information is generated, the better performance of distributed video coding scheme is achieved. In the proposed algorithm, a distributed video coding scheme is applied to multi-view video coding based on depth map. Side information is also generated from images of adjacent views through 3D warping by using a depth map and is also combined with MCTI(motion compensated temporal interpolation) which uses images on a temporal axis, and 3D warping. Experimental results show that side information generated by using the proposed algorithm has 0.97dB better average PSNR compared with using MCTI and 3D warping separated. In addition, 8.01% of average bit-rate has been decreased while the same PSNR in R-D curves is kept.

High-qualtiy 3-D Video Generation using Scale Space (계위 공간을 이용한 고품질 3차원 비디오 생성 방법 -다단계 계위공간 개념을 이용해 깊이맵의 경계영역을 정제하는 고화질 복합형 카메라 시스템과 고품질 3차원 스캐너를 결합하여 고품질 깊이맵을 생성하는 방법-)

  • Lee, Eun-Kyung;Jung, Young-Ki;Ho, Yo-Sung
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.620-624
    • /
    • 2009
  • In this paper, we present a new camera system combining a high-quality 3-D scanner and hybrid camera system to generate a multiview video-plus-depth. In order to get the 3-D video using the hybrid camera system and 3-D scanner, we first obtain depth information for background region from the 3-D scanner. Then, we get the depth map for foreground area from the hybrid camera system. Initial depths of each view image are estimated by performing 3-D warping with the depth information. Thereafter, multiview depth estimation using the initial depths is carried out to get each view initial disparity map. We correct the initial disparity map using a belief propagation algorithm so that we can generate the high-quality multiview disparity map. Finally, we refine depths of the foreground boundary using extracted edge information. Experimental results show that the proposed depth maps generation method produces a 3-D video with more accurate multiview depths and supports more natural 3-D views than the previous works.

  • PDF

Free view video synthesis using multi-view 360-degree videos (다시점 360도 영상을 사용한 자유시점 영상 생성 방법)

  • Cho, Young-Gwang;Ahn, Heejune
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.600-603
    • /
    • 2020
  • 360 영상은 시청자가 시야방향을 결정하는 3DoF(3 Degree of Freedom)를 지원한다. 본 연구에서는 다수의 360 영상에서 깊이 정보를 획득하고, 이를 DIBR (Depth -based Image Rendering) 기법을 사용하여 임의 시점 시청기능을 제공하는 6DoF(6 Degree of Freedom) 영상제작 기법을 제안한다. 이를 위하여 기존의 평면 다시점 영상기법을 확장하여 360 ERP 투영 영상으로부터 카메라의 파라미터 예측을 하는 방법과 깊이영상 추출 방법을 설계 및 구현하고 그 성능을 조사하였으며, OpenGL 그래픽스기반의 RVS(Reference View Synthesizer) 라이브러리를 사용하여 DIBR을 적용하였다.

Adaptive Multi-view Video Service Framework for Mobile Environments (이동 환경을 위한 적응형 다시점 비디오 서비스 프레임워크)

  • Kwon, Jun-Sup;Kim, Man-Bae;Choi, Chang-Yeol
    • Journal of Broadcast Engineering
    • /
    • v.13 no.5
    • /
    • pp.586-595
    • /
    • 2008
  • In this paper, we propose an adaptive multi-view video service framework suitable for mobile environments. The proposed framework generates intermediate views in near-realtime and overcomes the limitations of mobile services by adapting the multi-view video according to the processing capability of a mobile device as well as the user characteristics of a client. By implementing the most of adaptation processes at the server side, the load on a client can be reduced. H.264/AVC is adopted as a compression scheme. The framework could provide an interactive service with efficient video service to a mobile client. For this, we present a multi-view video DIA (Digital Item Adaptation) that adapts the multi-view video according to the MPEG-21 DIA multimedia framework. Experimental results show that our proposed system can support a frame rate of 13 fps for 320{\times}240 video and reduce the time of generating an intermediate view by 20 % compared with a conventional 3D projection method.

Eye Contacted View Generation by using Color and Depth Cameras (이종 카메라를 이용한 Eye-contacted 영상 생성 기법)

  • Hyun, Jeeho;Han, Jaeyoung;Yoo, Jisang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.150-153
    • /
    • 2011
  • 중간시점 영상은 스테레오 정합 방식을 이용하여 구한 깊이 지도를 이용하여 생성하는 것이 일반적인 방법이다. 그러나 대부분의 스테레오 정합 방식들은 좌, 우 영상의 조명환경이나 기하학적으로 수평 또는 수직방향이 일치하지 않으면 잘못된 깊이 지도를 획득하는 단점이 있다. 이러한 단점들은 정합 과정을 통해 획득한 깊이 지도를 이용하여 다시점 영상 생성 시 더 많은 홀과 경계 잡음을 생성하게 된다. 이러한 문제점을 보완하기 위하여 본 논문에서는 RGB 컬러 카메라 1 대와 깊이 카메라를 이용하여 중간 영상을 생성하는 방법을 제안한다. 제안된 기법을 이용하여 화상회의 시 사실감 및 현실감을 증대할 수 있는 eye-contact 시점 영상을 생성하고 이때 발생하는 홀과 경계잡음 제거를 실시간으로 처리하기 위한 효율적인 기법을 제안한다.

  • PDF

System Implementation for Generating Virtual View Digital Holographic using Vertical Rig (수직 리그를 이용한 임의시점 디지털 홀로그래픽 생성 시스템 구현)

  • Koo, Ja-Myung;Lee, Yoon-Hyuk;Seo, Young-Ho;Kim, Dong-Wook
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.11a
    • /
    • pp.46-49
    • /
    • 2012
  • 본 논문에서는 3차원 입체 비디오처리 기술의 최종목표인 디지털 홀로그램을 생성하는데 필요한 객체의 좌표와 색상정보가 들어있는 같은 시점과 해상도인 RGB 영상과 깊이 영상을 획득하여 가상 시점의 디지털 홀로그램을 생성하는 시스템을 제안한다. 먼저, 가시광선과 적외선의 파장을 이용하여 파장에 따라 투과율이 달라지는 콜드 미러를 사용하여 각각의 시점이 같은 다시점 RGB와 깊이 영상을 얻는다. 카메라 시스템이 갖는 다양한 렌즈 왜곡을 없애기 위한 보정 과정을 거친 후에 해상도가 서로 틀린 RGB 영상과 깊이 영상의 해상도를 같게 조절한다. 그 다음, DIBR(Depth Image Based Rendering) 알고리즘을 이용하여 원하는 가상 시점의 깊이 정보와 RGB 영상을 생성한다. 그리고 깊이 정보를 이용하여 디지털 홀로그램으로 구현할 객체만을 추출한다. 마지막으로 컴퓨터 생성 홀로그램 (computer-generated hologram, CGH) 알고리즘을 이용하여 추출한 가상 시점의 객체를 디지털 홀로그램으로 변환한다.

  • PDF

Virtual Viewpoint Video Synthesis Using Symmetric Belief Propagation (대칭적 신뢰 전파 기법 기반의 가상 시점 비디오 생성)

  • Jung, Il-Lyong;Chung, Tae-Young;Kim, Chang-Su
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2008.11a
    • /
    • pp.113-116
    • /
    • 2008
  • 본 논문에서는 다시점 비디오(multi-view video)에서 보다 다양한 시점을 제공하기 위한 가상 시점 비디오 생성 기법을 제안한다. 제안하는 가상 시점 비디오 생성 기법은 우선적으로 대칭적 신뢰 전파 기법(symmetric belief propagation)을 기반으로, 각 시점의 깊이 정보 및 폐색 영역(occlusion region)을 추출하기 위해서 에너지를 최소화한다. 추출된 깊이 정보 및 에너지를 이용하여 참조하는 시점 간의 가중치를 적용하여, 새로운 가상 시점의 비디오를 생성하고, 추출된 폐색 영역의 값을 이용하여, 가상 시점의 비디오를 보정하는 가상 시점 비디오 생성 기법을 제안한다. 또한 제안하는 알고리즘을 한정된 중간 시점 영상에서 임의의 가상 시점으로 확장하여, 임의의 두 시점 간의 자유로운 시점(free-view point)을 제공함을 확인한다. 실험을 통하여 제안하는 기법이 다시점 비디오에서 높은 화질의 가상 시점 비디오를 제공함을 확인한다.

  • PDF

High-precision Skeleton Extraction Method using Multi-view Camera System (다시점 카메라 시스템을 이용한 고정밀 스켈레톤 추출 기법)

  • Kim, Kyung-Jin;Park, Byung-Seo;Kim, Dong-Wook;Seo, Young-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.297-299
    • /
    • 2020
  • 본 논문에서는 다시점 카메라 시스템을 통해 실사기반의 3D 모델을 획득하여 모션센서와 같은 별도의 기기 없이 해당 모델에 대한 고정밀 스켈레톤 추출 기법에 대해서 제시한다. 다시점 카메라 시스템을 이용하여 생성한 3D 모델을 앞, 뒤, 좌, 우 각 위치에서의 사상 매트릭스로 사상 영상을 생성하고 딥러닝 기술을 이용하여 2D 스켈레톤을 추출한다. 그리고 사상 매트릭스의 역변환 과정을 통해 2D 스켈레톤의 삼차원 좌표를 계산하고 추가적인 후처리를 통해 고정밀 스켈레톤을 획득한다.

  • PDF

Stereo-To-Multiview Conversion System Using FPGA and GPU Device (FPGA와 GPU를 이용한 스테레오/다시점 변환 시스템)

  • Shin, Hong-Chang;Lee, Jinwhan;Lee, Gwangsoon;Hur, Namho
    • Journal of Broadcast Engineering
    • /
    • v.19 no.5
    • /
    • pp.616-626
    • /
    • 2014
  • In this paper, we introduce a real-time stereo-to-multiview conversion system using FPGA and GPU. The system is based on two different devices so that it consists of two major blocks. The first block is a disparity estimation block that is implemented on FPGA. In this block, each disparity map of stereoscopic video is estimated by DP(dynamic programming)-based stereo matching. And then the estimated disparity maps are refined by post-processing. The refined disparity map is transferred to the GPU device through USB 3.0 and PCI-express interfaces. Stereoscopic video is also transferred to the GPU device. These data are used to render arbitrary number of virtual views in next block. In the second block, disparity-based view interpolation is performed to generate virtual multi-view video. As a final step, all generated views have to be re-arranged into a single image at full resolution for presenting on the target autostereoscopic 3D display. All these steps of the second block are performed in parallel on the GPU device.