• Title/Summary/Keyword: 깊이 영상 기반

Search Result 501, Processing Time 0.037 seconds

키넥트를 이용한 색상 및 깊이 기반 영상 분할 기법

  • Kim, Yeong-Bae;Jang, Won-Dong;Kim, Chang-Su
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2015.11a
    • /
    • pp.106-107
    • /
    • 2015
  • 본 논문에서는 색상 및 깊이 기반 영상 분할 기법을 제안한다. 계층화된 영상 분할을 수행하기 위해서 색상을 기준으로 영상을 과분할 한 후, 과분할 영역의 깊이를 기준으로 영역 병합을 수행한다. 적은 개수의 화소로 이루어진 병합 영역을 제거하기 위해서 인접한 분할 영역 중 화소 수가 많은 영역에 병합시키는 이상영역 처리 기법을 수행한다. 제안하는 영상 분할 기법을 기존의 데이터셋 및 키넥트 취득 영상에 적용하여 신뢰도 높은 객체 단위 영상 분할이 이루어짐을 확인한다.

  • PDF

Depth Image Improvement using Estimation of Lost Region (손실된 영역의 복원을 이용한 깊이 영상 개선 기법)

  • Cho, Ji-Ho;Park, Joung-Wook;Chang, In-Yoep;Lee, Kwan-H.
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.481-486
    • /
    • 2007
  • 본 논문에서는 깊이 영상을 개선하는 방법으로 깊이 영상 획득 시 손실된 영역을 복원하는 기법을 제안한다. 대상 객체의 동적인 3차원 정보는 적외선 깊이 센서가 장착된 깊이 비디오 카메라를 통하여 실시간으로 획득한다. 이때, 깊이 비디오뿐만 아니라 각 프레임마다 컬러영상이 동시에 획득된다. 그러나 대상 객체의 일부 또는 전체가 반짝이는 검은 재질로 되어있을 경우, 획득된 깊이 영상에 손실이 발생한다. 특히 방송용 콘텐츠로서 연기자의 3차원 정보를 획득할 때 머리카락 영역이 손실되는 심각한 문제가 발생한다. 이를 해결하기 위해 먼저 컬러 영상을 이용하여 손실된 영역의 위치 정보를 알아낸다. 손실된 영역 내 경계부분의 깊이 정보를 복원한 후 2차 베지어 커브로 보간하여 내부의 깊이 정보를 복원한다. 개선된 깊이 영상을 기반으로 일련의 모델링 과정을 수행하면 보다 자연스러운 3차원 모델을 생성할 수 있다. 생성된 3차원 모델은 실감방송용 콘텐츠로 사용될 수 있으며, 시청자에게 시각상호작용과 촉각상호작용 등 다차원 감각의 상호작용을 제공할 수 있다.

  • PDF

Improved CABAC Design for Near Lossless Depth Coding in HEVC (HEVC 근접 무손실 깊이 영상 부호화를 위한 향상된 CABAC 설계)

  • Choi, Jung-Ah;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.36-37
    • /
    • 2011
  • 깊이 영상은 가상 시점 영상을 합성할 때 사용되는 3차원 거리 정보로 깊이 영상 기반 렌더링에서 가상 시점을 합성할 때 사용한다. 따라서, 깊이 영상 부호화에서는 부호화 효율 못지않게 합성 영상의 화질이 중요하다. 깊이 영상의 화질은 합성된 가상 시점 영상의 화질에 큰 영향을 미친다. 따라서 고화질 깊이 영상이 필요한 경우, 부호화 손실이 적은 무손실 부호화를 사용한다. 하지만, 이와 같은 무손실 부호화 방법은 복호를 통해 원래의 깊이 영상을 그대로 복원할 수 있지만, 압축률이 낮다는 단점이 있다. 본 논문에서는 복호된 영상의 화질과 부호화 비트의 균형을 모두 고려하기 위해 근접 무손실 HEVC(high efficiency video coding)와 향상된 CABAC(context-based adaptive bnary arithmetic coding)을 이용한 새로운 깊이 영상 부호화 방법을 제안한다. 실험을 통해 제안한 방법이 합성된 가상 시점 영상의 화질 손실 없이, 기존의 무손실 및 근접 무손실 방법보다 더 나은 부호화 성능을 제공함을 알 수 있었다.

  • PDF

Depth Map Generation using Image Classification (영상 분류를 이용한 깊이지도 생성)

  • Kim, Dae-Sun;Baek, Yeul-Min;Kim, Whoi-Yul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.451-453
    • /
    • 2012
  • 2D영상을 3D영상으로 변환하기 위해서는 영상 내의 깊이 정보를 알 수 있는 깊이지도(depth map)가 필요하다. 깊이지도를 획득하기 위해 다양한 시각적 특성들이 이용되는데, 본 논문에서는 영상에서 아래는 가깝고 위는 멀다는 가정을 기반으로 하는 상대적 높이(relative height) 특성을 이용하여 깊이지도를 생성하는 방법을 제안한다. 기존의 상대적 높이 특성을 이용한 방법들은 왼쪽이나 오른쪽으로 거리가 멀어지는 영상에 대해서 부정확한 깊이지도를 생성한다. 따라서 제안하는 방법에서는 문제점을 개선하기 위해 입력 영상을 소실점 위치에 따라 분류하여 깊이지도를 생성한다. 소실점이 왼쪽이나 오른쪽에 위치할 때는 영상을 회전시켜 소실점을 상단으로 보내 상대적 높이 가정에 맞도록 영상을 변환하고 소실점이 중앙에 위치할 때는 하늘 검출 방법을 통해 실내, 실외를 판별한 후 각 특성에 맞는 초기 깊이 모델을 적용한다. 실험 결과, 제안하는 방법이 상대적 높이 가정을 만족하지 않는 영상도 적합한 깊이지도를 생성할 수 있음을 확인하였다.

Single-Image Depth Estimation Based on CNN Using Edge Map (에지 맵을 이용한 CNN 기반 단일 영상의 깊이 추정)

  • Ko, Yeong-Kwon;Moon, Hyeon-Cheol;Kim, Hyun-Ho;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.695-696
    • /
    • 2020
  • CNN(CNN: Convolutional Neural Network)은 컴퓨터 비전의 많은 분야에서 뛰어난 성능을 보이고 있으며, 단일 영상으로부터 깊이(depth) 추정에서도 기존 기법보다 향상된 성능을 보이고 있다. 그러나, 단일 영상으로부터 신경망이 얻을 수 있는 정보는 제한적이기 때문에 스테레오 카메라로부터 얻은 좌/우 영상으로부터의 깊이 추정보다 성능 향상에 한계가 있다. 따라서 본 논문에서는 에지 맵(edge map)을 이용한 CNN 기반의 단일 영상에서의 깊이 추정의 개선 기법을 제안한다. 제안 방법은 먼저 단일 영상에 대한 전처리를 통해서 에지 맵과 양방향 필터링된(bilateral filtered) 영상을 생성하고, 이를 CNN 입력으로 하여 기존 단일 영상 깊이 추정 기법 대비 개선된 성능을 보임을 확인하였다.

  • PDF

Creating images for navigation in the image-based virtual environment (영상기반 가상환경에서 네비게이션을 위한 영상 생성)

  • 신동준;한창호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.532-534
    • /
    • 2000
  • 영상기반 렌더링(image-based rendering)은 적은 비용으로 실시간 영상을 생성할 수 있다는 장점이 있지만, 원시 영상(source image)만으로 가상환경을 생성하기에는 부족하다. 원시 영상과 함께 카메라 정보, 깊이정보, 사용자 입력 등을 이용하는데, 적은 수의 원시 영상과 추가 정보를 이용하여 원하는 장면을 생성하기 위해 다양한 방법이 연구되고 있다. 본 논문에서는 영상 기반의 가상환경에서 네비게이션을 위해 필요한 영상을 영상 참조기법을 통해 생성한다. 깊이가 깊지 않은 가상환경에서는 하나의 영상만으로도 이동 표현이 가능하지만 깊이가 깊을 경우 추가적인 영상을 필요로 하게 된다. 이 두 영상간의 새로운 영상을 모핑(morphing)을 통해 생성할 수도 있지만 사용자 입력이 많고 시간이 오래 걸린다는 단점이 있다. 영상 참조 기법은 가상환경에서 적은 사용자 입력으로 빠르게 네비게이션을 위한 영상을 생성할 수 있다.

  • PDF

Accelerating Depth Image-Based Rendering Using GPU (GPU를 이용한 깊이 영상기반 렌더링의 가속)

  • Lee, Man-Hee;Park, In-Kyu
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.11
    • /
    • pp.853-858
    • /
    • 2006
  • In this paper, we propose a practical method for hardware-accelerated rendering of the depth image-based representation(DIBR) of 3D graphic object using graphic processing unit(GPU). The proposed method overcomes the drawbacks of the conventional rendering, i.e. it is slow since it is hardly assisted by graphics hardware and surface lighting is static. Utilizing the new features of modem GPU and programmable shader support, we develop an efficient hardware-accelerating rendering algorithm of depth image-based 3D object. Surface rendering in response of varying illumination is performed inside the vertex shader while adaptive point splatting is performed inside the fragment shader. Experimental results show that the rendering speed increases considerably compared with the software-based rendering and the conventional OpenGL-based rendering method.

3D Depth Information Extraction Algorithm Based on Motion Estimation in Monocular Video Sequence (단안 영상 시퀸스에서 움직임 추정 기반의 3차원 깊이 정보 추출 알고리즘)

  • Park, Jun-Ho;Jeon, Dae-Seong;Yun, Yeong-U
    • The KIPS Transactions:PartB
    • /
    • v.8B no.5
    • /
    • pp.549-556
    • /
    • 2001
  • The general problems of recovering 3D for 2D imagery require the depth information for each picture element form focus. The manual creation of those 3D models is consuming time and cost expensive. The goal in this paper is to simplify the depth estimation algorithm that extracts the depth information of every region from monocular image sequence with camera translation to implement 3D video in realtime. The paper is based on the property that the motion of every point within image which taken from camera translation depends on the depth information. Full-search motion estimation based on block matching algorithm is exploited at first step and ten, motion vectors are compensated for the effect by camera rotation and zooming. We have introduced the algorithm that estimates motion of object by analysis of monocular motion picture and also calculates the averages of frame depth and relative depth of region to the average depth. Simulation results show that the depth of region belongs to a near object or a distant object is in accord with relative depth that human visual system recognizes.

  • PDF

Adaptive Depth Fusion based on Reliability of Depth Cues for 2D-to-3D Video Conversion (2차원 동영상의 3차원 변환을 위한 깊이 단서의 신뢰성 기반 적응적 깊이 융합)

  • Han, Chan-Hee;Choi, Hae-Chul;Lee, Si-Woong
    • The Journal of the Korea Contents Association
    • /
    • v.12 no.12
    • /
    • pp.1-13
    • /
    • 2012
  • 3D video is regarded as the next generation contents in numerous applications. The 2D-to-3D video conversion technologies are strongly required to resolve a lack of 3D videos during the period of transition to the full ripe 3D video era. In 2D-to-3D conversion methods, after the depth image of each scene in 2D video is estimated, stereoscopic video is synthesized using DIBR (Depth Image Based Rendering) technologies. This paper proposes a novel depth fusion algorithm that integrates multiple depth cues contained in 2D video to generate stereoscopic video. For the proper depth fusion, it is checked whether some cues are reliable or not in current scene. Based on the result of the reliability tests, current scene is classified into one of 4 scene types and scene-adaptive depth fusion is applied to combine those reliable depth cues to generate the final depth information. Simulation results show that each depth cue is reasonably utilized according to scene types and final depth is generated by cues which can effectively represent the current scene.

2D/3D conversion method using depth map based on haze and relative height cue (실안개와 상대적 높이 단서 기반의 깊이 지도를 이용한 2D/3D 변환 기법)

  • Han, Sung-Ho;Kim, Yo-Sup;Lee, Jong-Yong;Lee, Sang-Hun
    • Journal of Digital Convergence
    • /
    • v.10 no.9
    • /
    • pp.351-356
    • /
    • 2012
  • This paper presents the 2D/3D conversion technique using depth map which is generated based on the haze and relative height cue. In cases that only the conventional haze information is used, errors in image without haze could be generated. To reduce this kind of errors, a new approach is proposed combining the haze information with depth map which is constructed based on the relative height cue. Also the gray scale image from Mean Shift Segmentation is combined with depth map of haze information to sharpen the object's contour lines, upgrading the quality of 3D image. Left and right view images are generated by DIBR(Depth Image Based Rendering) using input image and final depth map. The left and right images are used to generate red-cyan 3D image and the result is verified by measuring PSNR between the depth maps.