• Title/Summary/Keyword: 영상 점군

Search Result 49, Processing Time 0.023 seconds

SIFT Weighting Based Iterative Closest Points Method in 3D Object Reconstruction (3차원 객체 복원을 위한 SIFT 특징점 가중치 기반 반복적 점군 정합 방법)

  • Shin, Dong-Won;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.309-312
    • /
    • 2016
  • 최근 실세계에 존재하는 물체의 3차원 형상과 색상을 디지털화하는 3차원 객체 복원에 대한 관심이 날로 증가하고 있다. 3차원 객체 복원은 영상 획득, 영상 보정, 점군 획득, 반복적 점군 정합, 무리 조정, 3차원 모델 표현과 같은 단계를 거처 통합된 3차원 모델을 생성한다. 그 중 반복적 점군 정합 방법은 카메라 궤적의 초기 값을 획득하는 방법으로서 무리 조정 단계에서 전역 최적 값으로의 수렴을 보장하기 위해 중요한 단계이다. 기존의 반복적 점군 정합 (iterative closest points) 방법에서는 시간이 지남에 따라 누적된 궤적 오차 때문에 발생하는 객체 표류 문제가 발생한다. 본 논문에서는 이 문제를 해결하기 위해 색상 영상에서 SIFT 특징점을 획득하고 3차원 점군을 얻은 뒤 가중치를 부여함으로써 점 군 간의 더 정확한 정합을 수행한다. 실험결과에서 기존의 방법과 비교하여 제안하는 방법이 절대 궤적 오차 (absolute trajectory error)가 감소하는 것을 확인 했고 복원된 3차원 모델에서 객체 표류 현상이 줄어드는 것을 확인했다.

  • PDF

Panoramic 3D Reconstruction of an Indoor Scene Using Depth and Color Images Acquired from A Multi-view Camera (다시점 카메라로부터 획득된 깊이 및 컬러 영상을 이용한 실내환경의 파노라믹 3D 복원)

  • Kim, Se-Hwan;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.24-32
    • /
    • 2006
  • 본 논문에서는 다시점 카메라부터 획득된 부분적인 3D 점군을 사용하여 실내환경의 3D 복원을 위한 새로운 방법을 제안한다. 지금까지 다양한 양안차 추정 알고리즘이 제안되었으며, 이는 활용 가능한 깊이 영상이 다양함을 의미한다. 따라서, 본 논문에서는 일반화된 다시점 카메라를 이용하여 실내환경을 복원하는 방법을 다룬다. 첫 번째, 3D 점군들의 시간적 특성을 기반으로 변화량이 큰 3D 점들을 제거하고, 공간적 특성을 기반으로 주변의 3D 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 시점에서의 3D 점군을 동일한 영상 평면으로 투영하고, 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용하여 대응점을 찾는다. 그리고 대응점 간의 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 여러 시점에서 획득된 3D 점군과 한 쌍의 2D 영상을 동시에 이용하여 3D 점들의 위치를 세밀하게 조절함으로써 최종적인 3D 모델을 생성한다. 제안된 방법은 대응점을 2D 영상 평면에서 찾음으로써 계산의 복잡도를 줄였으며, 3D 데이터의 정밀도가 낮은 경우에도 효과적으로 동작한다. 또한, 다시점 카메라를 이용함으로써 수 시점에서의 깊이 영상과 컬러 영상만으로도 실내환경 3D 복원이 가능하다. 제안된 방법은 네비게이션 뿐만 아니라 상호작용을 위한 3D 모델 생성에 활용될 수 있다.

  • PDF

Online Multi-view Range Image Registration using Geometric and Photometric Features (3차원 기하정보 및 특징점 추적을 이용한 다시점 거리영상의 온라인 정합)

  • Baek, Jae-Won;Park, Soon-Yong
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1000-1005
    • /
    • 2007
  • 본 논문에서는 실물체의 3차원 모델을 복원하기 위해 거리영상 카메라에서 획득된 3차원 점군에 대한 온라인 정합 기법을 제안한다. 제안하는 방법은 거리영상 카메라를 사용하여 연속된 거리영상과 사진영상을 획득하고 문턱값(threshold)을 이용하여 물체와 배경에 대한 정보를 분류한다. 거리영상에서 특징점을 선택하고 특징점에 해당하는 거리영상의 3차원 점군을 이용하여 투영 기반 정합을 실시한다. 초기정합이 종료되면 사진영상간의 대응점을 추적하여 거리영상을 정제하는 과정을 거치는데 대응점 추적에 사용되는 KLT(Kanade-Lucas-Tomasi) 추적기를 수정하여 초기정합의 결과를 대응점 탐색에 이용함으로써 탐색의 속도와 성공률을 증가시켰다. 특징점과 추적된 대응점에 해당하는 3차원 점군을 이용하여 거리영상의 정제를 수행하고 정합이 완료되면 오프라인에서 3차원 모델을 합성하였다. 제안한 알고리듬을 적용하여 2개의 실물체에 대하여 실험을 수행하고 3차원 모델을 생성하였다.

  • PDF

Conversion Method of 3D Point Cloud to Depth Image and Its Hardware Implementation (3차원 점군데이터의 깊이 영상 변환 방법 및 하드웨어 구현)

  • Jang, Kyounghoon;Jo, Gippeum;Kim, Geun-Jun;Kang, Bongsoon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.18 no.10
    • /
    • pp.2443-2450
    • /
    • 2014
  • In the motion recognition system using depth image, the depth image is converted to the real world formed 3D point cloud data for efficient algorithm apply. And then, output depth image is converted by the projective world after algorithm apply. However, when coordinate conversion, rounding error and data loss by applied algorithm are occurred. In this paper, when convert 3D point cloud data to depth image, we proposed efficient conversion method and its hardware implementation without rounding error and data loss according image size change. The proposed system make progress using the OpenCV and the window program, and we test a system using the Kinect in real time. In addition, designed using Verilog-HDL and verified through the Zynq-7000 FPGA Board of Xilinx.

Feature-based Matching Algorithms for Registration between LiDAR Point Cloud Intensity Data Acquired from MMS and Image Data from UAV (MMS로부터 취득된 LiDAR 점군데이터의 반사강도 영상과 UAV 영상의 정합을 위한 특징점 기반 매칭 기법 연구)

  • Choi, Yoonjo;Farkoushi, Mohammad Gholami;Hong, Seunghwan;Sohn, Hong-Gyoo
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.37 no.6
    • /
    • pp.453-464
    • /
    • 2019
  • Recently, as the demand for 3D geospatial information increases, the importance of rapid and accurate data construction has increased. Although many studies have been conducted to register UAV (Unmanned Aerial Vehicle) imagery based on LiDAR (Light Detection and Ranging) data, which is capable of precise 3D data construction, studies using LiDAR data embedded in MMS (Mobile Mapping System) are insufficient. Therefore, this study compared and analyzed 9 matching algorithms based on feature points for registering reflectance image converted from LiDAR point cloud intensity data acquired from MMS with image data from UAV. Our results indicated that when the SIFT (Scale Invariant Feature Transform) algorithm was applied, it was able to stable secure a high matching accuracy, and it was confirmed that sufficient conjugate points were extracted even in various road environments. For the registration accuracy analysis, the SIFT algorithm was able to secure the accuracy at about 10 pixels except the case when the overlapping area is low and the same pattern is repeated. This is a reasonable result considering that the distortion of the UAV altitude is included at the time of UAV image capturing. Therefore, the results of this study are expected to be used as a basic research for 3D registration of LiDAR point cloud intensity data and UAV imagery.

High Quality Ortho-image Production Using the High Resolution DMCII Aerial Image (고해상도 DMCII 항공영상을 이용한 고품질 정사영상 제작)

  • Kim, Jong Nam;Um, Dae Yong
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.33 no.1
    • /
    • pp.11-21
    • /
    • 2015
  • An Ortho-image is the production of removed geometrical displacement, which is generated the aerial image distortion and the relief displacement, etc., using the DSM (Digital Surface Model). Accordingly, the resolution of raw image and the accuracy of DSM will has significant impacts on the ortho-image accuracy. Since the latest DMCII250 aerial camera delivers the high resolution images with five centimeters Ground Sampling Distance(GSD), it expects to generate the high density point clouds and the high quality ortho-images. Therefore, this research has planned for reviewing the potentiality and accuracy of high quality ortho-image production. Following to proceed the research, DSM has been produced through the high density point cloud extracted from DMCII250 aerial image to supply of high density DSM by creation of ortho-image. The research results has been identified that images with the DSM brought out higher degrees in positional accuracy and quality of ortho-image, compared with the ortho-image, produced from the existing digital terrain map or DSM data.

Automatic Boundary Detection from 3D Cloud Points Using Color Image (칼라영상을 이용한 3차원 점군데이터 윤곽선 자동 검출)

  • Kim, Nam-Woon;Roh, Yi-Ju;Jeong, Hee-Seok;Jeong, Joong-Yeon;Jung, Kyeong-Hoon;Kang, Dong-Wook;Kim, Ki-Doo
    • Proceedings of the KIEE Conference
    • /
    • 2008.10b
    • /
    • pp.141-142
    • /
    • 2008
  • 본 논문은 텍스처된 3차원 점군데이터를 효율적으로 모델링하는 방법을 제안한다. 지상라이다로부터 획득한 3차원 점군데이터는 많은 노이즈를 가지고 있으며 이로 인해 자동적인 모델링이 어렵다. 3차원 모델링에 있어서 메쉬를 생성해야 3차원 랜더링이 가능하지만 3차원 메쉬 생성은 노이즈에 취약하기 때문에 디자이너들이 수작업으로 노이즈를 제거해야만 한다. 하지만 노이즈 자제가 지상 라이다로부터 들어온 데이터이기 때문에 자동적인 노이즈 제거가 어렵다. 본 논문에서는 텍스처된 지상 라이다 데이터로부터 칼라 영상의 정보를 이용한 윤곽선 정보 검출 방법을 제안한다. 대부분의 건물과 같은 구조물에서 최 외곽은 같은 색의 정보를 가지고 있다. 최 외곽 칼라의 정보를 이용하여 칼라 정보의 변화를 제한하고, 유사 칼라 정보를 가지고 있는 픽셀만 얻어냄으로써 최외각 정보를 얻어낸다. 칼라 이미지를 이용만 필터링 된 점군데이터는 xy, xz, yz 각각의 평면에서 윤곽선 데이터를 가지며 이는 구조물에 대한 모델링의 속도를 빠르게 해준다.

  • PDF

Experiment for 3D Coregistration between Scanned Point Clouds of Building using Intensity and Distance Images (강도영상과 거리영상에 의한 건물 스캐닝 점군간 3차원 정합 실험)

  • Jeon, Min-Cheol;Eo, Yang-Dam;Han, Dong-Yeob;Kang, Nam-Gi;Pyeon, Mu-Wook
    • Korean Journal of Remote Sensing
    • /
    • v.26 no.1
    • /
    • pp.39-45
    • /
    • 2010
  • This study used the keypoint observed simultaneously on two images and on twodimensional intensity image data, which was obtained along with the two point clouds data that were approached for automatic focus among points on terrestrial LiDAR data, and selected matching point through SIFT algorithm. Also, for matching error diploid, RANSAC algorithm was applied to improve the accuracy of focus. As calculating the degree of three-dimensional rotating transformation, which is the transformation-type parameters between two points, and also the moving amounts of vertical/horizontal, the result was compared with the existing result by hand. As testing the building of College of Science at Konkuk University, the difference of the transformation parameters between the one through automatic matching and the one by hand showed 0.011m, 0.008m, and 0.052m in X, Y, Z directions, which concluded to be used as the data for automatic focus.

Comparative Analysis of Filtering Techniques for Vegetation Points Removal from Photogrammetric Point Clouds at the Stream Levee (하천 제방의 영상 점군에서 식생 점 제거 필터링 기법 비교 분석)

  • Park, Heeseong;Lee, Du Han
    • Ecology and Resilient Infrastructure
    • /
    • v.8 no.4
    • /
    • pp.233-244
    • /
    • 2021
  • This study investigated the application of terrestrial light detection and ranging (LiDAR) to inspect the defects of the vegetated levee. The accuracy of vegetation filtering techniques was compared by applying filtering techniques on photogrammetric point clouds of a vegetated levee generated by terrestrial LiDAR. Representative 10 vegetation filters such as CIVE, ExG, ExGR, ExR, MExG, NGRDI, VEG, VVI, ATIN, and ISL were applied to point cloud data of the Imjin River levee. The accuracy order of the 10 techniques based on the results was ISL, ATIN, ExR, NGRDI, ExGR, ExG, MExG, VVI, VEG, and CIVE. Color filters show certain limitations in the classification of vegetation and ground and classify grass flower image as ground. Morphological filters show a high accuracy of the classification, but they classify rocks as vegetation. Overall, morphological filters are superior to color filters; however, they take 10 times more computation time. For the improvement of the vegetation removal, combined filters of color and morphology should be studied.

3D Reconstruction of an Indoor Scene Using Depth and Color Images (깊이 및 컬러 영상을 이용한 실내환경의 3D 복원)

  • Kim, Se-Hwan;Woo, Woon-Tack
    • Journal of the HCI Society of Korea
    • /
    • v.1 no.1
    • /
    • pp.53-61
    • /
    • 2006
  • In this paper, we propose a novel method for 3D reconstruction of an indoor scene using a multi-view camera. Until now, numerous disparity estimation algorithms have been developed with their own pros and cons. Thus, we may be given various sorts of depth images. In this paper, we deal with the generation of a 3D surface using several 3D point clouds acquired from a generic multi-view camera. Firstly, a 3D point cloud is estimated based on spatio-temporal property of several 3D point clouds. Secondly, the evaluated 3D point clouds, acquired from two viewpoints, are projected onto the same image plane to find correspondences, and registration is conducted through minimizing errors. Finally, a surface is created by fine-tuning 3D coordinates of point clouds, acquired from several viewpoints. The proposed method reduces the computational complexity by searching for corresponding points in 2D image plane, and is carried out effectively even if the precision of 3D point cloud is relatively low by exploiting the correlation with the neighborhood. Furthermore, it is possible to reconstruct an indoor environment by depth and color images on several position by using the multi-view camera. The reconstructed model can be adopted for interaction with as well as navigation in a virtual environment, and Mediated Reality (MR) applications.

  • PDF