• 제목/요약/키워드: depth conversion

검색결과 291건 처리시간 0.027초

2D to 3D Conversion에서 Depth-Map 기반 제작 사례연구 - '명장 관우' 제작 중심으로 - (Propriety analysis of Depth-Map production methods For Depth-Map based on 20 to 3D Conversion - the Last Bladesman)

  • 김효인;김형우
    • 스마트미디어저널
    • /
    • 제3권1호
    • /
    • pp.52-62
    • /
    • 2014
  • 입체 디스플레이 보급의 보편화가 진행됨에 따라, 입체 콘텐츠의 수요가 증가하고 있다. 이러한 증가에 맞추어 2010년도를 기점으로 2D to 3D 변환 콘텐츠가 부족한 수요를 충족시킬 대안으로 제시되었다. 그러나 입체효과만을 강조한 2D to 3D 변환콘텐츠가 생산되면서 시각적 피로도와 입체감에 대한 품질의 저하가 문제로 지적되고 있다. 본 연구에서는 2011년 개봉한 '명장 관우'에서, 13개 Scene을 선별하여 입체 변환 콘텐츠로 제작하고, 변환에 적용된 Depth-Map의 품질이 시각적 피로도와 입체감을 표현하는데 있어서, 적정성을 가지는가의 여부를 전문가 그룹을 대상으로 인터뷰 및 설문조사를 시행하였다. 움직임의 변화가 많은 영상에 적용한 Depth-Map의 구성방식은 입체변환 기술에 많이 사용되는 방법으로 전(前) 후(後)관계의 분석을 통해 계단식 구성방식으로 깊이 단계 지도를 제작하게 된다. 실험을 통하여, 본 연구에서 제시한 Depth-Map의 구성이 입체변환 콘텐츠 제작에 있어 시각적 피로도를 낮추고 입체감 향상에 타당한지에 대한 결과를 도출하였으며, 실험에 응한 전문가 그룹의 과반수이상이 긍정적인 반응을 표시하였다. 본 연구의 결과 빠른 움직임을 가지는 2D영상을 3D영상으로 변환하는데 적용한 계단식 Depth-map의 구성방식으로도 시각적 피로도를 감소시키고, 입체감 인식을 증가시키는데 효율성을 가진다는 결과를 도출하였다.

관심맵과 에지 모델링을 이용한 2D 영상의 3D 변환 (Generation of Stereoscopic Image from 2D Image based on Saliency and Edge Modeling)

  • 김만배
    • 방송공학회논문지
    • /
    • 제20권3호
    • /
    • pp.368-378
    • /
    • 2015
  • 2D영상의 3D변환 기술은 3D 디스플레이 및 3DTV에 기본적으로 장착된 기술로 꾸준히 연구 및 상업화가 진행된 기술이다. 이 기술은 3D 입체영상 콘텐츠 부족을 해결할 수 있다는 장점이 있다. 3D변환은 정지영상으로부터 다양한 깊이단서를 이용하여 깊이맵을 추출한 후에, DIBR(Depth Image Based Rendering)로 입체영상을 생성한다. 특정 영상이외에는 영상에서 신뢰성 있는 단서가 있는 경우는 많지 않다. 따라서 3D변환 기술은 일반 영상에서도 우수하고, 일관된 입체영상이 생성하는 것이 중요하다. 이러한 관점에서 본논문에서는 상기 조건을 만족할 수 있는 3D변환 방법을 제안한다. 주 기술로 최근 다양한 분야에서 활용되는 관심맵과 에지를 활용한 다. 깊이맵을 생성하기 위해서 기하적 투영, 근접 모델 및 바이노믹 필터를 활용한다. 실험에서는 제안한 방법을 24개의 2D 비디오 콘텐츠에 적용하였고, 입체감 및 시각적 피로도 등의 주관적 평가를 통해 3D 콘텐츠의 우수한 만족도를 확인하였다.

저복잡도 2D-to-3D 비디오 변환을 위한 패턴기반의 깊이 생성 알고리즘 (Pattern-based Depth Map Generation for Low-complexity 2D-to-3D Video Conversion)

  • 한찬희;강현수;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제15권2호
    • /
    • pp.31-39
    • /
    • 2015
  • 2D-to-3D 비디오 변환 기술은 2D 비디오 속에 내재하는 깊이 단서를 이용하여 스테레오 영상을 생성함으로써 2D 비디오에 3D 효과를 부여한다. 이 기술은 완전한 3D 비디오 시대로 가는 과도 기간 동안 3D 콘텐츠의 부족문제를 해결할 수 있는 유용한 기술이다. 본 논문은 2D-to-3D 비디오 변환의 저 복잡도 구현을 위한 새로운 깊이 생성 방안을 제시한다. 제안 기법에서는 전역 깊이의 시방향 일관성을 위하여 패턴 기반의 전역 깊이 생성 기법을 제안하였다. 뿐만 아니라 객체 영역의 3D 입체감 개선을 위한 저 복잡도의 객체 깊이 개선 알고리즘도 추가적으로 제시하였다. 실험을 통해 제안 알고리즘이 복잡도와 주관적 화질 측면에서 기존 방식들에 비해 우수한 성능을 나타냄을 보인다.

2D/3D 동영상 변환을 위한 그룹화된 객체별 깊이 정보의 차등 적용 기법 (Applying differential techniques for 2D/3D video conversion to the objects grouped by depth information)

  • 한성호;홍영표;이상훈
    • 한국산학기술학회논문지
    • /
    • 제13권3호
    • /
    • pp.1302-1309
    • /
    • 2012
  • 본 논문은 2D/3D 동영상 변환을 위한 그룹화된 객체별 깊이 정보의 차등 적용 기법에 관한 연구이다. 기존의 깊이 정보 획득 기법 중 움직임 정보를 깊이 정보로써 사용할 때 움직임이 존재하지 않는 객체의 경우 깊이 정보를 획득할 수 없어 해당 객체의 3D 효과를 얻을 수 없는 문제점이 있다. 본 논문에서는 이러한 문제점을 해결하고자 객체와 배경을 추출하고 객체에 움직임 정보를 이용한 깊이 정보를 할당하는 과정을 거친 후, 배경과 깊이 정보가 할당되지 못한 객체에 깊이 단서 중 하나인 상대적 높이 단서를 이용한 깊이 정보를 할당함으로써 모든 객체에서 3D 효과를 얻을 수 있는 기법을 제안한다. 제안한 기법으로 깊이맵을 생성하여 DIBR(Depth Image Based Rendering)으로 3D 영상을 생성하여 확인한 결과 움직임이 없는 객체에서도 3D 효과를 얻을 수 있음을 확인하였다.

2차원 동영상의 3차원 변환을 위한 깊이 단서의 신뢰성 기반 적응적 깊이 융합 (Adaptive Depth Fusion based on Reliability of Depth Cues for 2D-to-3D Video Conversion)

  • 한찬희;최해철;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제12권12호
    • /
    • pp.1-13
    • /
    • 2012
  • 3차원 동영상은 다양한 응용분야들에서 차세대 콘텐츠로 큰 주목을 받고 있다. 2D-to-3D 변환은 3차원 동영상의 시대로 넘어가는 과도기 동안에 3차원 동영상 콘텐츠의 부족현상을 해결하기위한 강력한 기술로 여겨지고 있다. 일반적으로 2D-to-3D 변환을 위해서는 2차원 동영상 각 장면의 깊이영상을 추정/생성한 후 깊이 영상 기반 랜더링 (DIBR : Depth Image Based Rendering) 기술을 이용하여 스테레오 동영상을 합성한다. 본 논문은 2차원 동영상 내 존재하는 다양한 변환 단서들을 통합하는 새로운 깊이 융합 기법을 제안한다. 우선, 알맞은 깊이 융합을 위해 몇몇 단서가 현재 장면을 효과적으로 표현할 수 있는 지 아닌지 검사된다. 그 후, 신뢰성 검사의 결과를 기반으로 현재 장면은 4개의 유형 중 하나로 분류된다. 마지막으로 최종 깊이 영상을 생성하기 위해 신뢰할 수 있는 깊이 단서들을 조합하는 장면 적응적 깊이 융합이 수행된다. 실험 결과를 통해 각각의 단서가 장면 유형에 따라 타당하게 활용되었고 최종 깊이 영상이 현재 장면을 효과적으로 표현할 수 있는 단서들에 의해 생성되었음을 관찰할 수 있다.

3차원 점군데이터의 깊이 영상 변환 방법 및 하드웨어 구현 (Conversion Method of 3D Point Cloud to Depth Image and Its Hardware Implementation)

  • 장경훈;조기쁨;김근준;강봉순
    • 한국정보통신학회논문지
    • /
    • 제18권10호
    • /
    • pp.2443-2450
    • /
    • 2014
  • 깊이 영상을 이용한 동작 인식 시스템에서는 효율적인 알고리즘 적용을 위하여 깊이 영상을 3차원 점군 데이터로 구성되는 실제 공간으로 변환하여 알고리즘을 적용한 후 투영공간으로 변환하여 출력한다. 하지만 변환 과정 중 반올림 오차와 적용되는 알고리즘에 의한 데이터 손실이 발생하게 된다. 본 논문에서는 3차원 점군 데이터에서 깊이 영상으로의 변환 시 반올림 오차와 영상의 크기 변화에 따른 데이터 손실이 발생하지 않는 효율적인 방법과 이를 하드웨어로 구현 하는 방법을 제안 하였다. 최종적으로 제안된 알고리즘은 OpenCV와 Window 프로그램을 사용하여 소프트웨어적으로 알고리즘을 검증하였고, Kinect를 사용하여 실시간으로 성능을 테스트하였다. 또한, Verilog-HDL을 사용하여 하드웨어 시스템을 설계하고, Xilinx Zynq-7000 FPGA 보드에 탑재하여 검증하였다.

심도별 토량환산계수와 토공량 변화에 관한 실험적 연구 (Experimental Study on the Relationships between Earthwork Volumes and Soil Conversion Factor with Depth)

  • 강기천;신경철;윤성규
    • 토지주택연구
    • /
    • 제14권3호
    • /
    • pp.137-144
    • /
    • 2023
  • 토공계획은 자연상태의 원지반 토량을 절취하여 흐트러진 상태의 토량을 운반하고 성토지반의 활용도에 따라 다짐을 하는 과정에서 토질의 체적변화를 고려하여 수립하여야 한다. 흙의 상태에 따른 체적의 변화를 구하기 위해 일반적으로 심도 2m 깊이에서 시험굴 조사를 통해 얻어진 토량환산계수를 사용하게 되며, 굴착 깊이에 따른 토질의 성질을 고려하지 않고 전체 토공량에 일률적으로 적용하다 보니 토공량 산정에 오차가 발생하고 있다. 특히 신도시 택지개발과 같이 대량의 토공량이 필요한 조성공사의 경우 작은 오차에도 토공량의 차이는 크게 발생하게 된다. 본 연구에서는 심도 2m이상 토질의 물리적 특성을 조사하고 기존의 설계기준인 심도 2m의 토량환산계수와 비교 검토한 결과 굴착 심도가 깊고 대규모 토공사의 경우 심도별 토량환산계수(C)를 적용할 경우 절토량을 줄일 수 있는 것으로 나타났다.

A New Copyright Protection Scheme for Depth Map in 3D Video

  • Li, Zhaotian;Zhu, Yuesheng;Luo, Guibo;Guo, Biao
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권7호
    • /
    • pp.3558-3577
    • /
    • 2017
  • In 2D-to-3D video conversion process, the virtual left and right view can be generated from 2D video and its corresponding depth map by depth image based rendering (DIBR). The depth map plays an important role in conversion system, so the copyright protection for depth map is necessary. However, the provided virtual views may be distributed illegally and the depth map does not directly expose to viewers. In previous works, the copyright information embedded into the depth map cannot be extracted from virtual views after the DIBR process. In this paper, a new copyright protection scheme for the depth map is proposed, in which the copyright information can be detected from the virtual views even without the depth map. The experimental results have shown that the proposed method has a good robustness against JPEG attacks, filtering and noise.

Conversion from SIMS depth profiling to compositional depth profiling of multi-layer films

  • Jang, Jong-Shik;Hwang, Hye-Hyen;Kang, Hee-Jae;Kim, Kyung-Joong
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2011년도 제40회 동계학술대회 초록집
    • /
    • pp.347-347
    • /
    • 2011
  • Secondary ion mass spectrometry (SIMS) was fascinated by a quantitative analysis and a depth profiling and it was convinced of a in-depth analysis of multi-layer films. Precision determination of the interfaces of multi-layer films is important for conversion from the original SIMS depth profiling to the compositional depth profiling and the investigation of structure of multi-layer films. However, the determining of the interface between two kinds of species of the SIMS depth profile is distorted from original structure by the several effects due to sputtering with energetic ions. In this study, the feasibility of 50 atomic % definition for the determination of interface between two kinds of species in SIMS depth profiling of multilayer films was investigated by Si/Ge and Ti/Si multi-layer films. The original SIMS depth profiles were converted into compositional depth profiles by the relative sensitivity factors from Si-Ge and Si-Ti alloy reference films. The atomic compositions of Si-Ge and Si-Ti alloy films determined by Rutherford backscattering spectroscopy (RBS).

  • PDF

Computational Integral Imaging Reconstruction of 3D Object Using a Depth Conversion Technique

  • Shin, Dong-Hak;Kim, Eun-Soo
    • Journal of the Optical Society of Korea
    • /
    • 제12권3호
    • /
    • pp.131-135
    • /
    • 2008
  • Computational integral imaging(CII) has the advantage of generating the volumetric information of the 3D scene without optical devices. However, the reconstruction process of CII requires increasingly larger sizes of reconstructed images and then the computational cost increases as the distance between the lenslet array and the reconstructed output plane increases. In this paper, to overcome this problem, we propose a novel CII method using a depth conversion technique. The proposed method can move a far 3D object near the lenslet array and reduce the computational cost dramatically. To show the usefulness of the proposed method, we carry out the preliminary experiment and its results are presented.