• 제목/요약/키워드: 2D/3D Video Conversion

검색결과 45건 처리시간 0.033초

저복잡도 2D-to-3D 비디오 변환을 위한 패턴기반의 깊이 생성 알고리즘 (Pattern-based Depth Map Generation for Low-complexity 2D-to-3D Video Conversion)

  • 한찬희;강현수;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제15권2호
    • /
    • pp.31-39
    • /
    • 2015
  • 2D-to-3D 비디오 변환 기술은 2D 비디오 속에 내재하는 깊이 단서를 이용하여 스테레오 영상을 생성함으로써 2D 비디오에 3D 효과를 부여한다. 이 기술은 완전한 3D 비디오 시대로 가는 과도 기간 동안 3D 콘텐츠의 부족문제를 해결할 수 있는 유용한 기술이다. 본 논문은 2D-to-3D 비디오 변환의 저 복잡도 구현을 위한 새로운 깊이 생성 방안을 제시한다. 제안 기법에서는 전역 깊이의 시방향 일관성을 위하여 패턴 기반의 전역 깊이 생성 기법을 제안하였다. 뿐만 아니라 객체 영역의 3D 입체감 개선을 위한 저 복잡도의 객체 깊이 개선 알고리즘도 추가적으로 제시하였다. 실험을 통해 제안 알고리즘이 복잡도와 주관적 화질 측면에서 기존 방식들에 비해 우수한 성능을 나타냄을 보인다.

학습기반의 객체분할과 Optical Flow를 활용한 2D 동영상의 3D 변환 (2D to 3D Conversion Using The Machine Learning-Based Segmentation And Optical Flow)

  • 이상학
    • 한국인터넷방송통신학회논문지
    • /
    • 제11권3호
    • /
    • pp.129-135
    • /
    • 2011
  • 본 논문에서는 2D 동영상을 3D 입체영상으로 변환하기 위해서 머신러닝에 의한 학습기반의 객체분할과 객체의 optical flow를 활용하는 방법을 제안한다. 성공적인 3D 변환을 가능하게 하는 객체분할을 위해서, 객체의 칼라 및 텍스쳐 정보는 학습을 통해 반영하고 움직임이 있는 영역 위주로 객체분할을 수행할 수 있도록 optical flow를 도입한 새로운 에너지함수를 설계하도록 한다. 분할된 객체들에 대해 optical flow 크기에 따른 깊이맵을 추출하여 입체영상에 필요한 좌우 영상을 합성하여 생성하도록 한다. 제안한 기법으로 인해 효과적인 객체분할과 깊이맵을 생성하여 2D 동영상에서 3D 입체동영상으로 변환됨을 실험결과들이 보여준다.

특허 분석을 통한 2D to 3D 영상 데이터 변환 기술 동향 연구 (A Trend Study on 2D to 3D Video Conversion Technology using Analysis of Patent Data)

  • 강민구;이우기;이철기
    • 정보화연구
    • /
    • 제11권4호
    • /
    • pp.495-504
    • /
    • 2014
  • 본 논문은 2D3D 영상데이터 변환 기술에 관한 특허를 조사, 분석하여 핵심 기술 개발 방향 및 지재권 획득 전략 수립을 제시한 것이다. 특허 동향을 살펴본 결과 2D to 3D 영상데이터 변환 기술은 계속 성장중인 단계라 할 수 있으며, 향후 발전 가능성이 많은 분야라 할 수 있다. 특허 동향 연구를 통해 전략적 특허맵을 형성한다면, 2D to 3D 영상데이터 변환 시장경쟁에서 앞서 나갈 수 있을 것이다.

Real-Time 2D-to-3D Conversion for 3DTV using Time-Coherent Depth-Map Generation Method

  • Nam, Seung-Woo;Kim, Hye-Sun;Ban, Yun-Ji;Chien, Sung-Il
    • International Journal of Contents
    • /
    • 제10권3호
    • /
    • pp.9-16
    • /
    • 2014
  • Depth-image-based rendering is generally used in real-time 2D-to-3D conversion for 3DTV. However, inaccurate depth maps cause flickering issues between image frames in a video sequence, resulting in eye fatigue while viewing 3DTV. To resolve this flickering issue, we propose a new 2D-to-3D conversion scheme based on fast and robust depth-map generation from a 2D video sequence. The proposed depth-map generation algorithm divides an input video sequence into several cuts using a color histogram. The initial depth of each cut is assigned based on a hypothesized depth-gradient model. The initial depth map of the current frame is refined using color and motion information. Thereafter, the depth map of the next frame is updated using the difference image to reduce depth flickering. The experimental results confirm that the proposed scheme performs real-time 2D-to-3D conversions effectively and reduces human eye fatigue.

3D Video Processing for 3DTV

  • Sohn, Kwang-Hoon
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2007년도 7th International Meeting on Information Display 제7권2호
    • /
    • pp.1231-1234
    • /
    • 2007
  • This paper presents the overview of 3D video processing technologies for 3DTV such as 3D content generation, 3D video codec and video processing techniques for 3D displays. Some experimental results for 3D contents generation are shown in 3D mixed reality and 2D/3D conversion.

  • PDF

3D Conversion of 2D Video Encoded by H.264

  • Hong, Ho-Ki;Ko, Min-Soo;Seo, Young-Ho;Kim, Dong-Wook;Yoo, Ji-Sang
    • Journal of Electrical Engineering and Technology
    • /
    • 제7권6호
    • /
    • pp.990-1000
    • /
    • 2012
  • In this paper, we propose an algorithm that creates three-dimensional (3D) stereoscopic video from two-dimensional (2D) video encoded by H.264 instead of using two cameras conventionally. Very accurate motion vectors are available in H.264 bit streams because of the availability of a variety of block sizes. 2D/3D conversion algorithm proposed in this paper can create left and right images by using extracted motion information. Image type of a given image is first determined from the extracted motion information and each image type gives a different conversion algorithm. The cut detection has also been performed in order to prevent overlapping of two totally different scenes for left and right images. We show an improved performance of the proposed algorithm through experimental results.

Depth layer partition을 이용한 2D 동영상의 3D 변환 기법 (3D conversion of 2D video using depth layer partition)

  • 김수동;유지상
    • 방송공학회논문지
    • /
    • 제16권1호
    • /
    • pp.44-53
    • /
    • 2011
  • 본 논문에서는 depth layer partition을 이용한 2D 동영상의 자동 3D 변환 기법을 제안한다. 제안하는 기법에서는 먼저 2D 동영상의 장면 전환점을 검출하여 각각의 프레임 그룹을 설정하여 움직임 연산 과정에서의 오류 확산을 방지하여 깊이맵(depth map) 생성과 정에서 오차를 줄여준다. 깊이정보는 두 가지 방법으로 생성되는데 하나는 영역 분할과 움직임 정보를 이용하여 깊이맵을 추출하는 것이고 다른 하나는 에지 방향성 히스토그램(edge directional histogram)을 이용하는 방법이다. 제안하는 기법에서는 객체와 배경을 분리하는 depth layer partition 과정을 수행한 후 생성된 두 개의 깊이맵을 원 영상에 최적이 되도록 병합하게 된다. 제안된 기법으로 신뢰도 높은 깊이맵과 결과 영상을 생성할 수 있다는 것을 다양한 실험 결과를 통해 알 수 있다.

3D영상에 정합되는 스테레오 오디오 (Stereo Audio Matched with 3D Video)

  • 박성욱;정태윤
    • 한국지능시스템학회논문지
    • /
    • 제21권2호
    • /
    • pp.153-158
    • /
    • 2011
  • 본 연구에서는 동일한 내용의 영상을 2D로 감상할 때와 3D로 감상할 때 함께 재생되는 음향이 어떻게 달라져야하는지를 확인하는 주관적 실험을 수행하고 그 결과를 고찰하였다. 먼저 음향 정보는 음원이 자체적으로 제공하는 정보인 음원의 거리와 방위각(즉 위치) 그리고 음원의 환경 혹은 장면(scene)이 제공하는 정보인 공간감으로 분리가 가능하므로 이에 맞게 동일 내용의 2D/3D 영상이 음원의 위치 선정에 미치는 영향 평가 실험과 동일한 내용의 2D/3D 장면이 음향 공간감에 주는 영향 평가 실험을 수행하였다. 첫 번째 실험 결과 3D 영상을 감상하는 경우 2D 영상을 감상할 때 보다 스크린을 기준으로 음원의 거리와 방위각을 확대하여 인지한다는 결과를 얻을 수 있었다. 이는 2D 영상용 소리보다 거리와 방위각이 큰 3D 영상용 소리를 만들어야 한다는 것을 의미한다. 또한 3D 영상용 소리는 3D 영상뿐만 아니라 2D 영상과도 잘 어울린다는 결과를 얻었다. 두 번째 실험 결과, 3D 영상을 감상하는 경우 2D 영상을 감상할 때 보다 잔향이 더 많은 소리를 선호함을 알 수 있었다. 이는 3D 영상을 감상할때 공간감이 강화되기 때문으로 해석된다. 본 연구의 결과는 기본적으로 2D 영상용 음향을 제작하던 음향엔지니어가 3D영상용 음향을 제작하는 데 활용할 수 있으며, 2D to 3D 음향을 자동으로 변형하는 연구의 기초가 될 것이다. 더 나아가서 본 연구의 결과를 기반으로 제한된 대역폭에서 2D 와 3D를 동시에 지원하는 방송 시스템을 설계하는데 적용해 본다면, 방송 데이터 규격은 스테레오 영상, 음원의 위치가 강조된 3D 음향과 공간감을 주는 잔향 정보로 구성하는 것이 적절하다고 할 수 있다.

2차원 동영상의 3차원 변환을 위한 깊이 단서의 신뢰성 기반 적응적 깊이 융합 (Adaptive Depth Fusion based on Reliability of Depth Cues for 2D-to-3D Video Conversion)

  • 한찬희;최해철;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제12권12호
    • /
    • pp.1-13
    • /
    • 2012
  • 3차원 동영상은 다양한 응용분야들에서 차세대 콘텐츠로 큰 주목을 받고 있다. 2D-to-3D 변환은 3차원 동영상의 시대로 넘어가는 과도기 동안에 3차원 동영상 콘텐츠의 부족현상을 해결하기위한 강력한 기술로 여겨지고 있다. 일반적으로 2D-to-3D 변환을 위해서는 2차원 동영상 각 장면의 깊이영상을 추정/생성한 후 깊이 영상 기반 랜더링 (DIBR : Depth Image Based Rendering) 기술을 이용하여 스테레오 동영상을 합성한다. 본 논문은 2차원 동영상 내 존재하는 다양한 변환 단서들을 통합하는 새로운 깊이 융합 기법을 제안한다. 우선, 알맞은 깊이 융합을 위해 몇몇 단서가 현재 장면을 효과적으로 표현할 수 있는 지 아닌지 검사된다. 그 후, 신뢰성 검사의 결과를 기반으로 현재 장면은 4개의 유형 중 하나로 분류된다. 마지막으로 최종 깊이 영상을 생성하기 위해 신뢰할 수 있는 깊이 단서들을 조합하는 장면 적응적 깊이 융합이 수행된다. 실험 결과를 통해 각각의 단서가 장면 유형에 따라 타당하게 활용되었고 최종 깊이 영상이 현재 장면을 효과적으로 표현할 수 있는 단서들에 의해 생성되었음을 관찰할 수 있다.

2차원 동영상의 3차원 동영상 변화 (Convert 2D Video Frames into 3D Video Frames)

  • 이희만
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.117-123
    • /
    • 2009
  • 본 논문에서는 일반적인 2차원 비디오 프레임을 패러럴 스테레오 카메라로 촬영한 듯한 3차원 입체 비디오 프레임으로 변환하는 알고리즘을 제안하였다. 동영상의 연속하는 프레임 사이의 픽셀 변위를 구하고 이 변위 정보를 기반으로 입체영상을 합성한다. 픽셀 변위를 구하기 위하여 기존 수렴 반복법을 개선 보완하여 사용하였으며 픽셀변위 정보로부터 입체영상을 합성하는 방법을 제안하였다. 본 연구에서 제안한 알고리즘은 동영상의 어떤 유형이라도 일관성 있는 방법에 의하여 합성영상을 만들어 내므로 기존의 영상 유형 분류에 의한 합성 방법의 문제점을 개선하였다.