• 제목/요약/키워드: Depth image

검색결과 1,839건 처리시간 0.034초

거리 측정 센서의 위치와 각도에 따른 깊이 영상 왜곡 보정 방법 및 하드웨어 구현 (Depth Image Distortion Correction Method according to the Position and Angle of Depth Sensor and Its Hardware Implementation)

  • 장경훈;조호상;김근준;강봉순
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1103-1109
    • /
    • 2014
  • 디지털 영상 처리 분야에서 사람의 동작 인식은 다양하게 연구되고 있으며, 최근에는 깊이 영상을 이용한 방법이 매우 유용하게 사용되고 있다. 하지만 깊이 측정 센서의 위치와 각도에 따라 깊이 영상에서의 객체 크기나 형태가 왜곡되므로 사물 및 사람의 인식 과정에서 인식률이 감소하는 경우가 발생한다. 따라서 뛰어난 성능을 보장하기 위해서는 측정 센서에 의한 왜곡 보정은 반드시 고려되어야 할 사항이다. 본 논문에서는 동작 인식 시스템의 인식률을 향상시키기 위한 전처리 알고리즘을 제안한다. 깊이 측정 센서로부터 입력되는 깊이 정보를 실제 공간 (Real World)으로 변환하여 왜곡 보정을 수행한 후 투영 공간 (Projective World)으로 변환한다. 최종적으로 제안된 시스템을 OpenCV와 Window 프로그램을 사용하여 구현하였으며 Kinect를 사용하여 실시간으로 성능을 테스트하였다. 또한, Verilog-HDL을 사용하여 하드웨어 시스템을 설계하고, Xilinx Zynq-7000 FPGA Board에 탑재하여 검증하였다.

Computational integral imaging with enhanced depth sensitivity

  • Baasantseren, Ganbat;Park, Jae-Hyeung;Kim, Nam
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2008년도 International Meeting on Information Display
    • /
    • pp.718-721
    • /
    • 2008
  • Novel computational integral imaging technique with enhanced depth sensitivity is proposed. For each lateral position at a given depth plane, the dissimilarity between corresponding pixels of the elemental images is measured and used as a suppressing factor for that position. Experimental and simulation results show that reconstructed depth image on the incorrect depth plane is effectively suppressed.

  • PDF

인포커스 및 디포커스 영상으로부터 깊이맵 생성 (A Depth Estimation Using Infocused and Defocused Images)

  • ;김만배
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 추계학술대회
    • /
    • pp.114-115
    • /
    • 2013
  • The blur amount of an image changes proportional to scene depth. Depth from Defocus (DFD) is an approach in which a depth map can be obtained using blur amount calculation. In this paper, a novel DFD method is proposed in which depth is measured using an infocused and a defocused image. Subbaro's algorithm is used as a preliminary depth estimation method and edge blur estimation is provided to overcome drawbacks in edge.

  • PDF

Computational Approach to Color Overlapped Integral Imaging for Depth Estimation

  • Lee, Eunsung;Lim, Joohyun;Kim, Sangjin;Har, Donghwan;Paik, Joonki
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제3권6호
    • /
    • pp.382-387
    • /
    • 2014
  • A computational approach to depth estimations using a color over lapped integral imaging system is presented. The proposed imaging system acquires multiple color images simultaneously through a single lens with an array of multiple pinholes that are distributed around the optical axis. This paper proposes a computational model of the relationship between the real distance of an object and the disparity among different color images. The proposed model can serve as a computational basis of a single camera-based depth estimation.

A Defocus Technique based Depth from Lens Translation using Sequential SVD Factorization

  • Kim, Jong-Il;Ahn, Hyun-Sik;Jeong, Gu-Min;Kim, Do-Hyun
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.383-388
    • /
    • 2005
  • Depth recovery in robot vision is an essential problem to infer the three dimensional geometry of scenes from a sequence of the two dimensional images. In the past, many studies have been proposed for the depth estimation such as stereopsis, motion parallax and blurring phenomena. Among cues for depth estimation, depth from lens translation is based on shape from motion by using feature points. This approach is derived from the correspondence of feature points detected in images and performs the depth estimation that uses information on the motion of feature points. The approaches using motion vectors suffer from the occlusion or missing part problem, and the image blur is ignored in the feature point detection. This paper presents a novel approach to the defocus technique based depth from lens translation using sequential SVD factorization. Solving such the problems requires modeling of mutual relationship between the light and optics until reaching the image plane. For this mutuality, we first discuss the optical properties of a camera system, because the image blur varies according to camera parameter settings. The camera system accounts for the camera model integrating a thin lens based camera model to explain the light and optical properties and a perspective projection camera model to explain the depth from lens translation. Then, depth from lens translation is proposed to use the feature points detected in edges of the image blur. The feature points contain the depth information derived from an amount of blur of width. The shape and motion can be estimated from the motion of feature points. This method uses the sequential SVD factorization to represent the orthogonal matrices that are singular value decomposition. Some experiments have been performed with a sequence of real and synthetic images comparing the presented method with the depth from lens translation. Experimental results have demonstrated the validity and shown the applicability of the proposed method to the depth estimation.

  • PDF

다중 스테레오영상을 이용한 대응문제의 해결과 거리오차의 해석 (Solving the Correspondence Problem by Multiple Stereo Image and Error Analysis of Computed Depth)

  • 이재웅;이진우;박광일
    • 대한기계학회논문집
    • /
    • 제19권6호
    • /
    • pp.1431-1438
    • /
    • 1995
  • In this paper, we present a multiple-view stereo matching method in case of moving in the direction of optical axis with stereo camera. Also we analyze the obtainable depth precision to show that multiple-view stereo increases the virtual baseline with single-view stereo. This method decides candidate points for correspondence in each image pair and then search for the correct combinations of correspondences among them using the geometrical consistency they must satisfy. Adantages of this method are capability in increasing the accuracy in matching by using the multiple stereo images and less computation due to local processing. This method computes 3-D depth by averaging the depth obtained in each multiple-view stereo. We show that the resulting depth has more precision than depth obtainable by each independent stereo when the position of image feature is uncertain due to image noise. This paper first defines a multipleview stereo agorithm in case of moving in the direction of optical axis with stereo camera and analyze the obtainable precision of computed depth. Then we represent the effect of removing the incorrect matching candidate and precision enhancement with experimental result.

Infrared and Visible Image Fusion Based on NSCT and Deep Learning

  • Feng, Xin
    • Journal of Information Processing Systems
    • /
    • 제14권6호
    • /
    • pp.1405-1419
    • /
    • 2018
  • An image fusion method is proposed on the basis of depth model segmentation to overcome the shortcomings of noise interference and artifacts caused by infrared and visible image fusion. Firstly, the deep Boltzmann machine is used to perform the priori learning of infrared and visible target and background contour, and the depth segmentation model of the contour is constructed. The Split Bregman iterative algorithm is employed to gain the optimal energy segmentation of infrared and visible image contours. Then, the nonsubsampled contourlet transform (NSCT) transform is taken to decompose the source image, and the corresponding rules are used to integrate the coefficients in the light of the segmented background contour. Finally, the NSCT inverse transform is used to reconstruct the fused image. The simulation results of MATLAB indicates that the proposed algorithm can obtain the fusion result of both target and background contours effectively, with a high contrast and noise suppression in subjective evaluation as well as great merits in objective quantitative indicators.

단안영상에서 움직임 벡터를 이용한 영역의 깊이추정 (A Region Depth Estimation Algorithm using Motion Vector from Monocular Video Sequence)

  • 손정만;박영민;윤영우
    • 융합신호처리학회논문지
    • /
    • 제5권2호
    • /
    • pp.96-105
    • /
    • 2004
  • 2차원 이미지로부터 3차원 이미지 복원은 각 픽셀까지의 깊이 정보가 필요하고, 3차원 모델의 복원에 관한 일반적인 수작업은 많은 시간과 비용이 소모된다. 본 논문의 목표는 카메라가 이동하는 중에, 획득된 단안 영상에서 영역의 상대적인 깊이 정보를 추출하는 것이다. 카메라 이동에 의한 영상의 모든 점들의 움직임은 깊이 정보에 종속적이라는 사실에 기반을 두고 있다. 전역 탐색 기법을 사용하여 획득한 움직임 벡터에서 카메라 회전과 배율에 관해서 보상을 한다. 움직임 벡터를 분석하여 평균 깊이를 측정하고, 평균 깊이에 대한 각 영역의 상대적 깊이를 구하였다. 실험결과 영역의 상대적인 깊이는 인간이 인식하는 상대적인 깊이와 일치한다는 것을 보였다.

  • PDF

스테레오 깊이영상의 변위증분을 이용한 중간시점 깊이영상 생성 (Intermediate Depth Image Generation using Disparity Increment of Stereo Depth Images)

  • 구자명;서영호;최현준;유지상;김동욱
    • 방송공학회논문지
    • /
    • 제17권2호
    • /
    • pp.363-373
    • /
    • 2012
  • 본 논문에서는 자유시점 또는 오토스테레오스코픽 비디오나 홀로그래픽 비디오 서비스 등을 목표로 중간시점 깊이영상을 생성하는 방법을 제안한다. 이 방법에서 좌/우 깊이영상이 주어졌다고 가정하고, 이 깊이영상들은 카메라 보정과 영상보정이 수행되었다고 가정한다. 제안한 방법은 깊이 당 변위증분을 계산하여 사용하며, 이 변위증분은 일반적인 상황을 고려하여 좌/우 깊이영상을 스테레오 정합하여 계산한다. 계산된 변위증분을 사용하여 해당 깊이값의 위치를 원하는 중간시점 깊이영상에서 찾는다. 중간시점 깊이영상은 좌영상과 우영상으로부터 각각 생성하며, 잡음을 제거하고 홀 필링을 수행한 후 두 영상을 결합하여 최종 중간시점 깊이영상을 생성한다. 제안한 방법을 구현하여 여러 테스트 시퀀스에 적용한 결과, 생성된 중간시점 깊이영상의 화질은 평균 PSNR 33.84dB이었으며, HD급 중간시점 깊이영상을 초당 한 프레임 정도 생성하는 속도를 보였다. 이 화질은 테스트 시퀀스들의 비균질성을 고려할 때 상당히 좋은 화질이라 판단되며, 향후 수행속도를 더욱 향상시키면 제안한 방법은 중간시점 깊이영상을 생성하는 좋은 방법이 될 것으로 사료된다.

Optical flow의 레벨 간소화 및 노이즈 제거와 에지 정보를 이용한 2D/3D 변환 기법 (2D/3D image Conversion Method using Simplification of Level and Reduction of Noise for Optical Flow and Information of Edge)

  • 한현호;이강성;이상훈
    • 한국산학기술학회논문지
    • /
    • 제13권2호
    • /
    • pp.827-833
    • /
    • 2012
  • 본 논문은 2D/3D 변환에서 깊이정보 생성을 위해 연산량을 감소시키는 레벨 간소화 기법을 적용하고 객체의 고유벡터를 이용하여 노이즈를 제거한 Optical flow를 이용하는 방법을 제안한다. Optical flow는 깊이정보를 생성하기 위한 방법 중 하나로 두 프레임간의 픽셀의 변화 벡터 값을 나타내어 움직임 정보를 나타내며 픽셀 단위로 처리하므로 정확도가 높다. 그러나 픽셀 단위 연산으로 긴 연산 시간이 소요되며 모든 픽셀을 연산하는 특성상 노이즈가 생길 수 있는 문제점이 있다. 본 논문에서는 이를 해결하기 위해 레벨 간소화 과정을 거쳐 연산 시간을 단축하였고 Optical flow를 영상에서 고유벡터를 갖는 영역에만 적용하여 노이즈를 제거한 뒤 배경 영역에 대한 깊이 정보를 에지 영상을 이용하여 생성하는 방법을 제안하였다. 제안한 방법으로 깊이정보를 생성한 뒤 DIBR(Depth Image Based Rendering)으로 2차원 영상을 3차원 입체 영상으로 변환하였고 SSIM(Structural SIMilarity index)으로 최종 생성된 영상의 오차율을 분석하였다.