• 제목/요약/키워드: 3D Image Map

검색결과 457건 처리시간 0.031초

Application Study on the View Points Analysis for National Roads Route using Digital Elevation Data

  • Yeon, Sang-Ho;Hong, Ill-Hwa
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2002년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.292-296
    • /
    • 2002
  • This study has been accomplished as a experimental study for field application of 3D Perspective Image Map creation using Digital Topographical Map and based on the Ortho-Projection Image which is generated from Satellite Overlay Images and the precise Relative Coordinates of longitude, latitude and altitude which is corrected by GCP(Ground Control Point). AS to Contour Lines Map which is created by Coordinate conversion of 1:5,000 Topographical Map, we firstly made Satellite Image Map to substitute for Digital Topographical Map through overlapping the original images on top of each Ortho-Projection Image created and checking the accuracy. In addition to 3D Image Map creation for 3D Terrain analysis of a target district, Slope Gradient Analysis, Aspect Analysis and Terrain Elevation Model generation, multidirectional 3D Image generation by DEM can be carried out through this study. This study is to develop a mapping technology with which we can generate 3D Satellite Images of a target district through the composition of Digital Maps and Facility Blueprint and arbitrarily create 3D Perspective Images of the target district from any view point.

  • PDF

2D/3D 변환을 위한 깊이정보 생성기법에 관한 연구 (A Study on 2D/3D image Conversion Method using Create Depth Map)

  • 한현호;이강성;이상훈
    • 한국산학기술학회논문지
    • /
    • 제12권4호
    • /
    • pp.1897-1903
    • /
    • 2011
  • 본 논문은 2D/3D 변환을 위한 객체 추출과 깊이정보(Depth-map) 생성기법에 관한 연구이다. 2D영상을 3D로 변환하기 위해서는 영상 객체 추출, 영상 거리 인식, 영상 생성, 재보정 단계를 거치게 되는데 본 논문에서는 영상 객체 추출과 영상 거리 인식에 해당하는 깊이정보를 생성하는 방법을 제안한다. 3D 영상으로의 변환은 2D 영상에서의 객체 추출과, 추출된 객체와 주변 배경을 구별하기 위한 거리감을 할당하는 깊이정보 생성이 중요하다. 보다 정확한 객체 추출과 깊이정보를 생성하기 위해 기존의 Optical flow에서 잡음을 제거한 방법을 제안하였다. 제안한 방법으로 2D 영상을 깊이정보가 포함된 영상으로 변환하여 영상의 깊이 정보가 추정됨을 알 수 있다.

Real-Time 2D-to-3D Conversion for 3DTV using Time-Coherent Depth-Map Generation Method

  • Nam, Seung-Woo;Kim, Hye-Sun;Ban, Yun-Ji;Chien, Sung-Il
    • International Journal of Contents
    • /
    • 제10권3호
    • /
    • pp.9-16
    • /
    • 2014
  • Depth-image-based rendering is generally used in real-time 2D-to-3D conversion for 3DTV. However, inaccurate depth maps cause flickering issues between image frames in a video sequence, resulting in eye fatigue while viewing 3DTV. To resolve this flickering issue, we propose a new 2D-to-3D conversion scheme based on fast and robust depth-map generation from a 2D video sequence. The proposed depth-map generation algorithm divides an input video sequence into several cuts using a color histogram. The initial depth of each cut is assigned based on a hypothesized depth-gradient model. The initial depth map of the current frame is refined using color and motion information. Thereafter, the depth map of the next frame is updated using the difference image to reduce depth flickering. The experimental results confirm that the proposed scheme performs real-time 2D-to-3D conversions effectively and reduces human eye fatigue.

Effects of Depth Map Quantization for Computer-Generated Multiview Images using Depth Image-Based Rendering

  • Kim, Min-Young;Cho, Yong-Joo;Choo, Hyon-Gon;Kim, Jin-Woong;Park, Kyoung-Shin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제5권11호
    • /
    • pp.2175-2190
    • /
    • 2011
  • This paper presents the effects of depth map quantization for multiview intermediate image generation using depth image-based rendering (DIBR). DIBR synthesizes multiple virtual views of a 3D scene from a 2D image and its associated depth map. However, it needs precise depth information in order to generate reliable and accurate intermediate view images for use in multiview 3D display systems. Previous work has extensively studied the pre-processing of the depth map, but little is known about depth map quantization. In this paper, we conduct an experiment to estimate the depth map quantization that affords acceptable image quality to generate DIBR-based multiview intermediate images. The experiment uses computer-generated 3D scenes, in which the multiview images captured directly from the scene are compared to the multiview intermediate images constructed by DIBR with a number of quantized depth maps. The results showed that there was no significant effect on depth map quantization from 16-bit to 7-bit (and more specifically 96-scale) on DIBR. Hence, a depth map above 7-bit is needed to maintain sufficient image quality for a DIBR-based multiview 3D system.

실안개와 상대적 높이 단서 기반의 깊이 지도를 이용한 2D/3D 변환 기법 (2D/3D conversion method using depth map based on haze and relative height cue)

  • 한성호;김요섭;이종용;이상훈
    • 디지털융복합연구
    • /
    • 제10권9호
    • /
    • pp.351-356
    • /
    • 2012
  • 본 논문은 단일영상의 실안개 정보와 상대적 높이 단서를 기반으로 깊이 지도를 생성하고, 이를 이용하여 2D/3D 변환을 하는 기법에 관한 연구이다. 기존의 실안개 정보만을 깊이 지도로써 이용하는 경우, 안개가 없는 영상에서 오류가 발생할 수 있다. 본 논문에서는 이러한 오류를 줄이기 위해, 상대적 높이 단서 기반의 깊이 지도를 생성하고, 실안개 정보와 결합하는 방법을 제안하였다. 또한 Mean Shift Segmentation을 이용한 gray scale 영상과 실안개 정보의 깊이 지도를 결합하여 객체의 경계를 선명화함으로써 3D 영상의 품질을 향상시킬 수 있도록 하였다. 입력영상과 최종 깊이 지도를 DIBR(Depth Image Based Rendering)을 통해 좌영상과 우영상의 시점영상을 생성하고, 적청영상의 형태로 결합함으로써 3D 영상을 생성하였고, 깊이 지도간의 PSNR을 측정하여 검증하였다.

다중센서 융합 상이 지도를 통한 다중센서 기반 3차원 복원 결과 개선 (Refinements of Multi-sensor based 3D Reconstruction using a Multi-sensor Fusion Disparity Map)

  • 김시종;안광호;성창훈;정명진
    • 로봇학회논문지
    • /
    • 제4권4호
    • /
    • pp.298-304
    • /
    • 2009
  • This paper describes an algorithm that improves 3D reconstruction result using a multi-sensor fusion disparity map. We can project LRF (Laser Range Finder) 3D points onto image pixel coordinatesusing extrinsic calibration matrixes of a camera-LRF (${\Phi}$, ${\Delta}$) and a camera calibration matrix (K). The LRF disparity map can be generated by interpolating projected LRF points. In the stereo reconstruction, we can compensate invalid points caused by repeated pattern and textureless region using the LRF disparity map. The result disparity map of compensation process is the multi-sensor fusion disparity map. We can refine the multi-sensor 3D reconstruction based on stereo vision and LRF using the multi-sensor fusion disparity map. The refinement algorithm of multi-sensor based 3D reconstruction is specified in four subsections dealing with virtual LRF stereo image generation, LRF disparity map generation, multi-sensor fusion disparity map generation, and 3D reconstruction process. It has been tested by synchronized stereo image pair and LRF 3D scan data.

  • PDF

특징점 기반 확률 맵을 이용한 단일 카메라의 위치 추정방법 (Localization of a Monocular Camera using a Feature-based Probabilistic Map)

  • 김형진;이동화;오택준;명현
    • 제어로봇시스템학회논문지
    • /
    • 제21권4호
    • /
    • pp.367-371
    • /
    • 2015
  • In this paper, a novel localization method for a monocular camera is proposed by using a feature-based probabilistic map. The localization of a camera is generally estimated from 3D-to-2D correspondences between a 3D map and an image plane through the PnP algorithm. In the computer vision communities, an accurate 3D map is generated by optimization using a large number of image dataset for camera pose estimation. In robotics communities, a camera pose is estimated by probabilistic approaches with lack of feature. Thus, it needs an extra system because the camera system cannot estimate a full state of the robot pose. Therefore, we propose an accurate localization method for a monocular camera using a probabilistic approach in the case of an insufficient image dataset without any extra system. In our system, features from a probabilistic map are projected into an image plane using linear approximation. By minimizing Mahalanobis distance between the projected features from the probabilistic map and extracted features from a query image, the accurate pose of the monocular camera is estimated from an initial pose obtained by the PnP algorithm. The proposed algorithm is demonstrated through simulations in a 3D space.

실내 자율 주행을 위한 3D Map 생성 시스템 (3D Map Generation System for Indoor Autonomous Navigation)

  • 문성태;한상혁;엄위섭;김연규
    • 항공우주기술
    • /
    • 제11권2호
    • /
    • pp.140-148
    • /
    • 2012
  • 자율 주행을 위해 주행 지도, 위치 추적 및 목적지까지의 최단 경로 설정 연구가 필요하다. 특히 실내에서는 GPS 신호를 수신 받을 수 없기 때문에 이미지 프로세싱과 같은 방법을 통해 현재 위치를 인식하고 3차원 지도를 생성해야 한다. 본 논문에서는 Depth 카메라인 키넥트를 이용하여 3차원 지도를 생성하고, 일반 카메라로 촬영한 2차원 이미지를 이용하여 3차원 지도에서 현재 위치를 파악하는 방법에 대해 설명한다. 그리고 지도에서 장애물을 확인하고 단순화하는 방법에 대해서도 설명한다.

관심맵과 에지 모델링을 이용한 2D 영상의 3D 변환 (Generation of Stereoscopic Image from 2D Image based on Saliency and Edge Modeling)

  • 김만배
    • 방송공학회논문지
    • /
    • 제20권3호
    • /
    • pp.368-378
    • /
    • 2015
  • 2D영상의 3D변환 기술은 3D 디스플레이 및 3DTV에 기본적으로 장착된 기술로 꾸준히 연구 및 상업화가 진행된 기술이다. 이 기술은 3D 입체영상 콘텐츠 부족을 해결할 수 있다는 장점이 있다. 3D변환은 정지영상으로부터 다양한 깊이단서를 이용하여 깊이맵을 추출한 후에, DIBR(Depth Image Based Rendering)로 입체영상을 생성한다. 특정 영상이외에는 영상에서 신뢰성 있는 단서가 있는 경우는 많지 않다. 따라서 3D변환 기술은 일반 영상에서도 우수하고, 일관된 입체영상이 생성하는 것이 중요하다. 이러한 관점에서 본논문에서는 상기 조건을 만족할 수 있는 3D변환 방법을 제안한다. 주 기술로 최근 다양한 분야에서 활용되는 관심맵과 에지를 활용한 다. 깊이맵을 생성하기 위해서 기하적 투영, 근접 모델 및 바이노믹 필터를 활용한다. 실험에서는 제안한 방법을 24개의 2D 비디오 콘텐츠에 적용하였고, 입체감 및 시각적 피로도 등의 주관적 평가를 통해 3D 콘텐츠의 우수한 만족도를 확인하였다.

1차원 FN-MLCA와 3차원 카오틱 캣 맵 기반의 컬러 이미지 암호화 (1D FN-MLCA and 3D Chaotic Cat Map Based Color Image Encryption)

  • 최언숙
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.406-415
    • /
    • 2021
  • The worldwide spread of the Internet and the digital information revolution have resulted in a rapid increase in the use and transmission of multimedia information due to the rapid development of communication technologies. It is important to protect images in order to prevent problems such as piracy and illegal distribution. To solve this problem, I propose a new digital color image encryption algorithm in this paper. I design a new pseudo-random number generator based on 1D five-neighborhood maximum length cellular automata (FN-MLCA) to change the pixel values of the plain image into unpredictable values. And then I use a 3D chaotic cat map to effectively shuffle the positions of the image pixel. In this paper, I propose a method to construct a new MLCA by modeling 1D FN-MLCA. This result is an extension of 1D 3-neighborhood CA and shows that more 1D MLCAs can be synthesized. The safety of the proposed algorithm is verified through various statistical analyses.