• Title/Summary/Keyword: 깊이영상

Search Result 1,236, Processing Time 0.037 seconds

Occlusion Handling in Generating Multi-view Images Using Image Inpainting (영상 인페인팅을 이용한 다중 시점 영상 생성시의 가려짐 영역 처리)

  • Kim, Yong-Jin;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2008.11a
    • /
    • pp.173-176
    • /
    • 2008
  • 본 논문에서는 한 장의 기준 영상과 그에 상응하는 참 깊이 맵을 이용하여 가상의 다중 시점 영상 생성 시 발생하는 가려짐 영역 보간 방법을 제안한다. 이 방법은 영상 인페인팅 기술과 각각의 깊이 정도에 따른 층별 보간 기술을 이용한다. 우선, 기준영상을 깊이 정보에 따라 여러 개의 층으로 분할한다. 각각의 층에 대해 가려짐 영역 내의 화소들은 영상 인페인팅 기술을 이용하여 보간한다. 마지막 단계 에서 개별적으로 보간 된 층 영상들은 하나로 합성되어 가상 시점의 영상을 이룬다. 영상을 깊이 정보에 따라 분할함으로써, 각 깊이 정도에 대한 텍스쳐의 연관성을 보존하며 보간 할 수 있으므로 기존의 방법에 비하여 보다 정확하고 세밀한 가려짐 영역 보간이 가능하다. 본 논문에서는 여러 가지 실험 결과를 통하여 제안한 방법의 효율성을 입증하였다.

  • PDF

Design and implementation of interpolated view video (중간 시점 영상 생성 기술 설계 및 구현)

  • Lee, Euisang;Park, Seonghwan;Kim, Junsik;Kim, Sangil;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.06a
    • /
    • pp.313-316
    • /
    • 2018
  • 최근 미디어의 생성 및 소비 기술의 발전으로 몰입도 있는 콘텐츠에 대한 수요가 증가하고 있다. View Interpolation 기술은 두 개의 좌/우 영상을 기반으로 하여 두 영상의 중간 시점에 해당하는 영상을 생성해내는 기술이다. 먼저 Depth Hole Filling Module을 이용하여 좌/우 영상 및 그에 대응하는 깊이 지도를 입력으로 받아 깊이 지도에 존재하는 오류를 검출하고, 보정한다. 깊이 지도의 오류 보정이 완료되면, 해당 데이터를 각각 Feature Matching Module 및 Layer Dividing Module로 전달한다. Feature Matching Module은 실사 영상 내의 특징점들을 검출하고, 두 영상 내 특징점을 매칭하는 역할을 수행하며, Layer Dividing Module은 깊이 값을 기반으로 영상의 Layer를 분할한다. Feature Matching Module에서 특징점의 매칭이 완료되면, 특징점의 영상 내 좌표 및 해당 좌표에서의 깊이 값을 Distance Estimating Module로 전달한다. Distance Estimating Module은 전달받은 특징점의 좌표 및 해당 좌표에서의 깊이 값을 기반으로 전체 깊이 값에서의 이동도를 계산한다. 이와 같이 이동도의 계산 및 Layer 분할이 완료되면, 각 Layer를 이동도에 기반하여 이동시키고, 이동된 Layer들을 포개어 배치함으로써 View interpolation을 완성한다.

  • PDF

Depth Map Completion using Nearest Neighbor Kernel (최근접 이웃 커널을 이용한 깊이 영상 완성 기술)

  • Taehyun, Jeong;Kutub, Uddin;Byung Tae, Oh
    • Journal of Broadcast Engineering
    • /
    • v.27 no.6
    • /
    • pp.906-913
    • /
    • 2022
  • In this paper, we propose a new deep network architecture using nearest neighbor kernel for the estimation of dense depth map from its sparse map and corresponding color information. First, we propose to decompose the depth map signal into the structure and details for easier prediction. We then propose two separate subnetworks for prediction of both structure and details using classification and regression approaches, respectively. Moreover, the nearest neighboring kernel method has been newly proposed for accurate prediction of structure signal. As a result, the proposed method showed better results than other methods quantitatively and qualitatively.

Producing Stereoscopic Video Contents Using Transformation of Character Objects (캐릭터 객체의 변환을 이용하는 입체 동영상 콘텐츠 제작)

  • Won, Jee-Yean;Lee, Kwan-Wook;Kim, Man-Bae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.07a
    • /
    • pp.307-309
    • /
    • 2010
  • 본 논문에서는 깊이맵을 활용하여 살아있는 객체 입체영상 구현을 제안한다. 살아있는 객체 입체영상은 입력영상에 있는 각 객체가 움직이도록 제작되어 2D영상의 시청에서 살아있는 객체들을 시청할 수 있다. 제안 시스템은 C언어를 기반으로 제작되었으며, 한 장의 영상이 주어지면 그래픽 툴을 이용하여 영상에 따른 배경영상, 마스크 영상, 배경 깊이맵 영상, 객체 깊이 맵영상 파일을 생성한다. 이렇게 제작된 입력영상, 마스크영상을 이용하여 각 객체를 이동, 회전, 확대/축소를 통해 결과적으로 살아있는 객체로 구현하며, 이에 따라 변환된 영상에 깊이맵영상을 이용하여 실감있는 입체영상으로 구현한다. 실험영상은 조선시대 화가인 신윤복의 단오풍정을 이용하여 2D 입체영상으로 구현하였다.

  • PDF

Adaptive Depth Fusion based on Reliability of Depth Cues for 2D-to-3D Video Conversion (2차원 동영상의 3차원 변환을 위한 깊이 단서의 신뢰성 기반 적응적 깊이 융합)

  • Han, Chan-Hee;Choi, Hae-Chul;Lee, Si-Woong
    • The Journal of the Korea Contents Association
    • /
    • v.12 no.12
    • /
    • pp.1-13
    • /
    • 2012
  • 3D video is regarded as the next generation contents in numerous applications. The 2D-to-3D video conversion technologies are strongly required to resolve a lack of 3D videos during the period of transition to the full ripe 3D video era. In 2D-to-3D conversion methods, after the depth image of each scene in 2D video is estimated, stereoscopic video is synthesized using DIBR (Depth Image Based Rendering) technologies. This paper proposes a novel depth fusion algorithm that integrates multiple depth cues contained in 2D video to generate stereoscopic video. For the proper depth fusion, it is checked whether some cues are reliable or not in current scene. Based on the result of the reliability tests, current scene is classified into one of 4 scene types and scene-adaptive depth fusion is applied to combine those reliable depth cues to generate the final depth information. Simulation results show that each depth cue is reasonably utilized according to scene types and final depth is generated by cues which can effectively represent the current scene.

Pig Detection using Depth Information under Heating Lamp Environments (보온등 환경에서 깊이 정보를 이용한 돼지 탐지)

  • Choi, Younchang;Sa, Jaewon;Chung, Yongwha;Park, Daihee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.04a
    • /
    • pp.693-695
    • /
    • 2016
  • 축산 농가에서 돈사의 효율적인 관리를 위해 카메라를 이용한 자동 모니터링 기법이 중요한 이슈로 떠오르고 있다. 그러나 컬러 영상에서 돈사의 보온등 조명에 직접 노출된 돼지들이 노출 과다 현상에 의해 탐지되지 않는 문제가 발생한다. 본 논문에서는 컬러 영상에서 돼지가 탐지되지 않는 문제를 해결하기 위해 Kinect 2 카메라로부터 획득한 깊이 영상을 이용하여 돼지를 탐지하는 방법을 제안한다. 즉, 깊이 영상을 이용하여 깊이 정보 값을 보정한 후 바닥과 돼지의 깊이 정보 값의 차이를 통해 돼지들의 영역을 탐지한다. 실험 결과, 깊이 영상을 이용하여 보온등 조명에 과다 노출된 돼지의 영역을 탐지하고 히스토그램 평활화를 적용함으로써, 컬러 영상에서 돼지들이 탐지되지 않는 문제를 해결하였다.

Real-time Depth Image Refinement using Joint Bilateral Filter (결합형 양방향 필터를 이용한 실시간 깊이 영상 보정 방법)

  • Shin, Dong-Won;Lee, Sang-Beom;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.116-119
    • /
    • 2013
  • 본 논문에서는 결합형 양방향 필터를 이용하여 실시간으로 깊이 영상을 구하는 방법을 제안한다. 제안한 방법에서는 Kinect 깊이 카메라로부터 얻은 깊이 영상의 화질을 실시간으로 향상시키기 위해 GPU 내의 상수 메모리와 2차원 영상 처리에 적합한 텍스쳐 메모리를 사용했다. 또한, 단일 화소에 대한 결합형 양방향 필터 연산을 각 GPU 쓰레드(thread)에 할당한 다음 병렬로 처리하여 계산량을 현저히 감소시킨다. 실험 결과를 통해, 제안한 실시간 깊이 영상 보정 방법이 깊이 영상의 화질을 향상시켰고, 초당 260화면의 속도로 동작하는 것을 확인했다.

  • PDF

Disparity-based Depth Scaling of Multiview Images (변이 기반 다시점 영상의 인식 깊이감 조절)

  • Jo, Cheol-Yong;Kim, Man-Bae;Um, Gi-Mun;Hur, Nam-Ho;Kim, Jin-Woong
    • Journal of Broadcast Engineering
    • /
    • v.13 no.6
    • /
    • pp.796-803
    • /
    • 2008
  • In this paper, we present a depth scaling method for multiview images that could provide an 3D depth that a user prefers. Unlike previous works that change a camera configuration, the proposed method utilizes depth data in order to carry out the scaling of a depth range requested by users. From multivew images and their corresponding depth data, depth data is transformed into a disparity and the disparity is adjusted in order to control the perceived depth. In particular, our method can deal with multiview images captured by multiple cameras, and can be expanded from stereoscopic to multiview images. Based upon a DSCQS subjective evaluation test, our experimental results tested on an automultiscopic 3D display show that the perceived depth is appropriately scaled according to user's preferred depth.

Development of Stereoscopic image editing tool using Image-based Modeling (영상 기반 모델링 기법을 이용한 입체 영상 저작도구 개발)

  • Han, Sang-Heon;Yun, Chang-Ok;Park, Hyun-Woo;Kim, Jung-Hoon;Lee, Young-Bo;Lee, Dong-Hoon;Yun, Tae-Soo
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1087-1092
    • /
    • 2006
  • 몰입도가 높은 가시화 기법 중 하나인 입체 영상은 차세대 미디어의 표준으로 최근 크게 주목 받고 있다. 그러나 일반 2차원 영상과는 달리 입체 영상은 3차원의 기하정보가 존재해야만 영상을 생성하는 것이 가능하다. 따라서 3차원의 기하정보가 존재하지 않는 2차원 영상을 이용한 입체 영상의 저작은 매우 어려운 문제이다. 본 논문은 영상 기반 모델링 기법을 활용하여 단안 영상으로부터 입체 영상을 생성하기 위한 입체 영상 저작 도구를 제안한다. 이를 위해 입력된 영상에서 사영 기하 정보를 사용하여 깊이 정보를 추론함으로써 3차원 환경을 구성하는 전역 깊이 정보 추출 방법과 영상 내에 존재하는 사물의 정확한 깊이 정보로 수정하기 위한 부분 깊이 정보 수정 방법을 제안한다. 또한, 추출한 깊이 정보로부터 몰입감이 높은 입체 영상의 시점을 결정하기 위한 대화식 입체 영상 미리 보기 기능을 제안한다. 본 논문에서 제안한 기법은 2차원 영상 저작 도구인 포토샵의 플러그인으로 구현함으로써 범용성을 높였다.

  • PDF

Transformation of Stereoscopic Images for 3D Perception Improvement (입체영상의 3D 증강을 위한 입체영상 변환)

  • Gil, Jong-In;Kim, Manbae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.07a
    • /
    • pp.325-327
    • /
    • 2012
  • 최근 국내외 디지털 가전 업체들은 다양한 3D 기술을 앞세워 가정 내에서도 편하게 즐길 수 잇도록 다양한 3DTV를 출시하고 있다. 이러한 3DTV에서 입체영상을 시청하기 위해서는 입체콘텐츠가 제작되어 전송되어야 한다[1]. 이러한 입체 콘텐츠는 RGB 영상과 깊이맵을 이용하여 생성할 수 있는데, 이때 깊이맵은 사용자의 용도에 따라 다양한 형태로 변환될 수 있다. 최근엔 이러한 깊이맵과 3D 영상의 컬러를 변환하여 지각 깊이감을 개선하는 영상처리 기술에 대한 관심이 높아지고 있다. 이에 따라, 본 논문에서는 기존의 컬러 변환을 통한 2D 영상의 지각 깊이감 개선을 입체영상에 적용하여, 3D 지각 입체감을 동시에 향상시키는 방법을 제안한다. 이를 위해 대조 변환 및 배경 다크닝 방법을 제안하고, 실험을 통해 제안 방법이 상기 목적을 얻을 수 있는 것을 검증하였다.

  • PDF