• Title/Summary/Keyword: Stereoscopic Conversion

Search Result 47, Processing Time 0.03 seconds

Adaptive Depth Fusion based on Reliability of Depth Cues for 2D-to-3D Video Conversion (2차원 동영상의 3차원 변환을 위한 깊이 단서의 신뢰성 기반 적응적 깊이 융합)

  • Han, Chan-Hee;Choi, Hae-Chul;Lee, Si-Woong
    • The Journal of the Korea Contents Association
    • /
    • v.12 no.12
    • /
    • pp.1-13
    • /
    • 2012
  • 3D video is regarded as the next generation contents in numerous applications. The 2D-to-3D video conversion technologies are strongly required to resolve a lack of 3D videos during the period of transition to the full ripe 3D video era. In 2D-to-3D conversion methods, after the depth image of each scene in 2D video is estimated, stereoscopic video is synthesized using DIBR (Depth Image Based Rendering) technologies. This paper proposes a novel depth fusion algorithm that integrates multiple depth cues contained in 2D video to generate stereoscopic video. For the proper depth fusion, it is checked whether some cues are reliable or not in current scene. Based on the result of the reliability tests, current scene is classified into one of 4 scene types and scene-adaptive depth fusion is applied to combine those reliable depth cues to generate the final depth information. Simulation results show that each depth cue is reasonably utilized according to scene types and final depth is generated by cues which can effectively represent the current scene.

Pattern-based Depth Map Generation for Low-complexity 2D-to-3D Video Conversion (저복잡도 2D-to-3D 비디오 변환을 위한 패턴기반의 깊이 생성 알고리즘)

  • Han, Chan-Hee;Kang, Hyun-Soo;Lee, Si-Woong
    • The Journal of the Korea Contents Association
    • /
    • v.15 no.2
    • /
    • pp.31-39
    • /
    • 2015
  • 2D-to-3D video conversion vests 3D effects in a 2D video by generating stereoscopic views using depth cues inherent in the 2D video. This technology would be a good solution to resolve the problem of 3D content shortage during the transition period to the full ripe 3D video era. In this paper, a low-complexity depth generation method for 2D-to-3D video conversion is presented. For temporal consistency in global depth, a pattern-based depth generation method is newly introduced. A low-complexity refinement algorithm for local depth is also provided to improve 3D perception in object regions. Experimental results show that the proposed method outperforms conventional methods in terms of complexity and subjective quality.

Depth estimation and View Synthesis using Haze Information (실안개를 이용한 단일 영상으로부터의 깊이정보 획득 및 뷰 생성 알고리듬)

  • Soh, Yong-Seok;Hyun, Dae-Young;Lee, Sang-Uk
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.07a
    • /
    • pp.241-243
    • /
    • 2010
  • Previous approaches to the 2D to 3D conversion problem require heavy computation or considerable amount of user input. In this paper, we propose a rather simple method in estimating the depth map from a single image using a monocular depth cue: haze. Using the haze imaging model, we obtain the distance information and estimate a reliable depth map from a single scenery image. Using the depth map, we also suggest an algorithm that converts the single image to 3D stereoscopic images. We determine a disparity value for each pixel from the original 'left' image and generate a corresponding 'right' image. Results show that the algorithm gives well refined depth maps despite the simplicity of the approach.

  • PDF

Stereoscopic Conversion of Mobile Camera Video (모바일 카메라 영상의 입체 변환)

  • Gil, Jong-In;Jang, Seungeun;Kim, Manbae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.337-338
    • /
    • 2011
  • 본 논문에서는 안드로이드 운영체제 기반 스마트폰에서 Camera Preview를 이용하여 실시간으로 3D 입체영상을 생성하는 기법을 제안한다. 3D 입체영상은 2D 영상에 깊이감을 부여하여 시청시에 입체감을 느낄 수 있도록 변환한 영상이다. 그러나 모바일 단말기에서는 이러한 3D 입체영상을 생성하더라도 하드웨어의 제약으로 인해 사용자가 만족할만한 성능을 구현하는데 어려움이 있다. 먼저 안드로이드 운영체제에서 카메라를 사용하기 위한 구성 및 방법에 대해서 설명하고, 그에 따른 3D 입체변환 알고리즘을 제안한다. 제안 방법에서는 단말기의 성능에 맞는 우수한 결과를 생성하기 위한 에지 추출, 깊이맵 생성 방법을 분석하고, 획득한 깊이맵을 기반으로 하여 좌영상과 우영상을 생성한다. 최종적으로 획득한 두 영상을 병합하여 화면에 Display한다.

  • PDF

A Study on the space analysis algorithm for 3D TV image conversion (TV영상의 3차원 변환을 위한 공간분석 알고리즘에 관한 연구)

  • 신강호;김계국
    • Journal of the Korea Society of Computer and Information
    • /
    • v.7 no.4
    • /
    • pp.121-126
    • /
    • 2002
  • The stereoscopic image is that we can see it closer than a real thing compared to 2D image, and it has influence on human's vision information because it is more natural method to feel connections between the spaces of the image and himself. There are several method convert from 2d image to 3d image. But, in this paper, we are propose the image separate algorithm of continuous input system through a spatial analysis, not be done with 2D still image. Additionally, we will adapt to the moving vector which has been used in MPEG. In this experiment, we obtained the effect of 3D image.

  • PDF

Efficient Zooming Motion Detection for Stereoscopic Conversion (입체영상변환을 위한 효율적인 줌 움직임 검출)

  • Park, Il-Kwon;Byun, Hye-Ran
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10b
    • /
    • pp.553-556
    • /
    • 2006
  • 본 논문에서는 단일 비디오 내에서 다양한 움직임 유형을 분석하여 각각의 움직임 유형에 따른 효율적인 입체 영상 변환 알고리즘을 제안한다. 움직임 정보는 단일 비디오 영상을 입체영상으로 변환하기 위해 가장 많이 사용되는 정보 중 하나이며 특히, 줌 인(zoom in), 줌 아웃 (zoom out) 움직임 발생시 상대적으로 높은 입체감을 제공한다. 따라서 본 논문은 수평, 수직 모션뿐만 아니라 줌 움직임(zooming motion)을 효율적으로 검출하기 위한 새로운 모션 결정 규칙을 제안 하였다. 실험에서는 MPEG 실험에 많이 사용되는 동영상 데이터를 이용하였으며 제안된 모션 결정 규칙은 순수한 줌 움직임뿐만 아니라 노이즈가 포함된 복잡한 줌 움직임에도 강인한 결과를 보였다.

  • PDF

A study on stereoscopic 3D video contents conversion (스테레오스코픽 3D 동영상 크기 변환 방법에 관한 연구)

  • Lee, Bongho;Park, Youngsoo;Cheong, Won-Sik;Hur, Namho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.07a
    • /
    • pp.47-50
    • /
    • 2012
  • 스테레오스코픽 3D 동영상의 콘텐츠 부족을 해결할 수 있는 간단한 방법 중의 하나는 스테레오스코픽 3D 동영상 콘텐츠를 크기 변환 방법을 통해 다양한 3D 디스플레이에서 볼 수 있게 하는 것이다. 이를 위해 본 논문에서는 스테레오스코픽 3D 주의 시각 모델을 바탕으로 관심 영역을 설정하고, 이를 동영상으로 확장시키기 위해 장면 전환을 기준으로 영상을 그룹화한 후, 동일 관심 영역 윈도를 적용시켜 이를 목표 디스플레이에 맞게 크기 변환하는 방법을 제안한다. 실험 결과, 제안한 방법을 이용한 결과 영상이 보다 효율적으로 스테레오스코픽 3D 영상을 목표 디스플레이에서 보여줄 수 있음을 알 수 있다.

  • PDF

Object-based Stereoscopic Conversion From a Monoscopic Video (2차원 동영상으로부터 객체 기반의 3차원 입체 변환 기법)

  • Han Hyo-Jung;Byun Hye-Ran
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.361-363
    • /
    • 2006
  • 객체 기반의 3차원 입체 변환 기법은 연속적으로 입력되는 2D 동영상에서 객체를 추출하여 입체 영상으로 변환하는 기법을 말한다. 두 눈에 투시되는 각 객체마다 서로 다른 시차를 가져야 입체감을 느낄 수 있다. 따라서 2D 영상에서 정확한 객체를 추출하는 것이 중요하다. 본 논문에서는 프레임간의 차이를 이용하여 대략의 움직이는 객체 영역을 얻고, 그래프 및 알고리즘을 사용하여 정확하고 안정적인 객체를 자동으로 추출한다. 스크린과 양안 사이의 거리를 고려하여 입체 영상을 만들어 낸다. 후처리 단계에서는 입체 영상을 만들어 내면서 생긴 빈 공간을 채운다. 실험에서는 2D 영상으로부터 입체 영상을 생성한 것을 보여 준다.

  • PDF

A Correction for 3D Stereoscopic Images using Color Temperature Conversion (색온도 변환을 이용한 3D 입체영상의 보정)

  • Kim, Jeong-Yeop;Kim, Sang-Hyun;So, Gil-Ja
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.664-667
    • /
    • 2010
  • 3D 입체영상의 후반작업에서 색보정은 전체의 화질에 영향을 미치는 중요한 과정이다. 기존의 색보정 방법들은 좌, 우영상 중에서 히스토그램을 바탕으로하여 어느 한쪽을 기준으로 일치성을 강화하는 처리를 한다. 히스토그램을 기반으로 색보정을 하는 경우, 충분한 색온도 변환이 이루어 지지 않는 단점이 있으며, 본 논문에서는 히스토그램을 사용하지 않고 색온도 변환을 중심으로 색보정하는 방법을 제안한다.

Motion Depth Generation Using MHI for 3D Video Conversion (3D 동영상 변환을 위한 MHI 기반 모션 깊이맵 생성)

  • Kim, Won Hoi;Gil, Jong In;Choi, Changyeol;Kim, Manbae
    • Journal of Broadcast Engineering
    • /
    • v.22 no.4
    • /
    • pp.429-437
    • /
    • 2017
  • 2D-to-3D conversion technology has been studied over past decades and integrated to commercial 3D displays and 3DTVs. Generally, depth cues extracted from a static image is used for generating a depth map followed by DIBR (Depth Image Based Rendering) for producing a stereoscopic image. Further, motion is also an important cue for depth estimation and is estimated by block-based motion estimation, optical flow and so forth. This papers proposes a new method for motion depth generation using Motion History Image (MHI) and evaluates the feasiblity of the MHI utilization. In the experiments, the proposed method was performed on eight video clips with a variety of motion classes. From a qualitative test on motion depth maps as well as the comparison of the processing time, we validated the feasibility of the proposed method.