• 제목/요약/키워드: 영상기반 3차원 점군

검색결과 19건 처리시간 0.027초

3차원 객체 복원을 위한 SIFT 특징점 가중치 기반 반복적 점군 정합 방법 (SIFT Weighting Based Iterative Closest Points Method in 3D Object Reconstruction)

  • 신동원;호요성
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.309-312
    • /
    • 2016
  • 최근 실세계에 존재하는 물체의 3차원 형상과 색상을 디지털화하는 3차원 객체 복원에 대한 관심이 날로 증가하고 있다. 3차원 객체 복원은 영상 획득, 영상 보정, 점군 획득, 반복적 점군 정합, 무리 조정, 3차원 모델 표현과 같은 단계를 거처 통합된 3차원 모델을 생성한다. 그 중 반복적 점군 정합 방법은 카메라 궤적의 초기 값을 획득하는 방법으로서 무리 조정 단계에서 전역 최적 값으로의 수렴을 보장하기 위해 중요한 단계이다. 기존의 반복적 점군 정합 (iterative closest points) 방법에서는 시간이 지남에 따라 누적된 궤적 오차 때문에 발생하는 객체 표류 문제가 발생한다. 본 논문에서는 이 문제를 해결하기 위해 색상 영상에서 SIFT 특징점을 획득하고 3차원 점군을 얻은 뒤 가중치를 부여함으로써 점 군 간의 더 정확한 정합을 수행한다. 실험결과에서 기존의 방법과 비교하여 제안하는 방법이 절대 궤적 오차 (absolute trajectory error)가 감소하는 것을 확인 했고 복원된 3차원 모델에서 객체 표류 현상이 줄어드는 것을 확인했다.

  • PDF

3차원 기하정보 및 특징점 추적을 이용한 다시점 거리영상의 온라인 정합 (Online Multi-view Range Image Registration using Geometric and Photometric Features)

  • 백재원;박순용
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1000-1005
    • /
    • 2007
  • 본 논문에서는 실물체의 3차원 모델을 복원하기 위해 거리영상 카메라에서 획득된 3차원 점군에 대한 온라인 정합 기법을 제안한다. 제안하는 방법은 거리영상 카메라를 사용하여 연속된 거리영상과 사진영상을 획득하고 문턱값(threshold)을 이용하여 물체와 배경에 대한 정보를 분류한다. 거리영상에서 특징점을 선택하고 특징점에 해당하는 거리영상의 3차원 점군을 이용하여 투영 기반 정합을 실시한다. 초기정합이 종료되면 사진영상간의 대응점을 추적하여 거리영상을 정제하는 과정을 거치는데 대응점 추적에 사용되는 KLT(Kanade-Lucas-Tomasi) 추적기를 수정하여 초기정합의 결과를 대응점 탐색에 이용함으로써 탐색의 속도와 성공률을 증가시켰다. 특징점과 추적된 대응점에 해당하는 3차원 점군을 이용하여 거리영상의 정제를 수행하고 정합이 완료되면 오프라인에서 3차원 모델을 합성하였다. 제안한 알고리듬을 적용하여 2개의 실물체에 대하여 실험을 수행하고 3차원 모델을 생성하였다.

  • PDF

실내환경 복원을 위한 다시점 카메라로 획득된 부분적 3차원 점군의 정합 기법 (Registration Technique of Partial 3D Point Clouds Acquired from a Multi-view Camera for Indoor Scene Reconstruction)

  • 김세환;우운택
    • 전자공학회논문지CI
    • /
    • 제42권3호
    • /
    • pp.39-52
    • /
    • 2005
  • 본 논문에서는 실내환경의 3차원 복원을 위해 다시점 카메라부터 획득된 부분적인 3차원 점군에 대한 정합 기법을 제안한다. 일반적으로, 기존의 정합 방법들은 많은 계산량을 요하며, 정합하는데 많은 시간이 소요된다 또한, 상대적으로 정밀도가 낮은 3차원 점군에 대해서는 정합이 어렵다. 이러한 문제점을 해결하기 위해 투영 기반 정합 방법을 제안한다. 첫 번째, 시간적 특성을 기반으로 변화량이 큰 3차원 점들을 제거하고, 공간적 특성을 이용하여 현재 화소의 주변 3차원 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 장면에서의 3차원 점군을 동일한 영상 평면으로 투영하고, 두 단계 정수 매핑을 적용한 후 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용해 대응점을 찾는다. 그리고 적응적 탐색 영역에 기반하여 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 대응되는 점들에 대한 색을 참조하여 최종적인 색을 계산하고, 위의 과정을 연속된 장면에 적용함으로써 실내환경을 복원한다. 제안된 방법은 대응점을 2차원 영상 평면에서 찾음으로써 계산의 복잡도를 줄이며, 3차원 데이터의 정밀도가 낮은 경우에도 정합이 효과적이다. 또한, 다시점 카메라를 이용함으로써 몇 장면에 대한 색과 깊이 영상만으로도 실내환경의 3차원 복원이 가능하다.

MMS로부터 취득된 LiDAR 점군데이터의 반사강도 영상과 UAV 영상의 정합을 위한 특징점 기반 매칭 기법 연구 (Feature-based Matching Algorithms for Registration between LiDAR Point Cloud Intensity Data Acquired from MMS and Image Data from UAV)

  • 최윤조;;홍승환;손홍규
    • 한국측량학회지
    • /
    • 제37권6호
    • /
    • pp.453-464
    • /
    • 2019
  • 최근 3차원 공간정보에 대한 수요가 증가함에 따라 신속하고 정확한 데이터 구축의 중요성이 증대되어 왔다. 정밀한 3차원 데이터 구축이 가능한 LiDAR (Light Detection and Ranging) 데이터를 기준으로 UAV (Unmanned Aerial Vehicle) 영상을 정합하기 위한 연구가 다수 수행되어 왔으나, MMS (Mobile Mapping System)로부터 취득된 LiDAR 점군데이터의 반사강도 영상을 활용한 연구는 미흡한 실정이다. 따라서 본 연구에서는 MMS로부터 취득된 LiDAR 점군데이터를 반사영상으로 변환한 데이터와 UAV 영상 데이터의 정합을 위해 9가지의 특징점 기반매칭 기법을 비교·분석하였다. 분석 결과 SIFT (Scale Invariant Feature Transform) 기법을 적용하였을 때 안정적으로 높은 매칭 정확도를 확보할 수 있었으며, 다양한 도로 환경에서도 충분한 정합점을 추출할 수 있었다. 정합 정확도 분석 결과 SIFT 알고리즘을 적용한 경우 중복도가 낮으며 동일한 패턴이 반복되는 경우를 제외하고는 약 10픽셀 수준으로 정확도를 확보할 수 있었으며, UAV 영상 촬영 당시 UAV 자세에 따른 왜곡이 포함되어 있음을 감안할 때 합리적인 결과라고 할 수 있다. 따라서 본 연구의 분석 결과는 향후 LiDAR 점군데이터와 UAV 영상의 3차원 정합을 위한 기초연구로 활용될 수 있을 것으로 기대된다.

영상 기반 3차원 점군과 FUSION S/W 기반의 임분고 분석 모듈 개발 (Development of Mean Stand Height Module Using Image-Based Point Cloud and FUSION S/W)

  • 김경민
    • 한국지리정보학회지
    • /
    • 제19권4호
    • /
    • pp.169-185
    • /
    • 2016
  • 최근 임상도의 신규 속성으로 임분의 평균 수고인 임분고를 추가하기 시작하였으나 전국 940만개의 포인트를 스테레오 항공사진에서 수동 측정해야 하는 어려움이 예상된다. 아울러, 항공사진에서 수고 측정 시 임연부나 묘지 주변의 수고를 측정하기 쉬워 임분 대표성이 떨어지는 한계를 가지고 있다. 본 연구에서는 고해상도 스테레오 항공사진에서 추출한 영상 기반 3차원 점군과 FUSION S/W를 활용한 임분고 추정 방법을 제안하고 임분고를 자동 분석할 수 있는 모듈을 개발하였다. 스테레오 항공사진에서 수치표면모델 3차원 점군을 추출한 후 지면점 필터링을 거쳐 수치지면모델을 추출하고 이 두 모델을 차분하여 정규수치표면모델을 제작하였다. 정규수치표면모델에서 표본점별 개체목 수관을 육안판독한 후 수관별 최고점을 추출하여 정규수치표면모델 수고를 산출하였다. 표본점에서의 실측 수고와 정규수치표면모델 수고의 RMSE를 분석한 결과 전체 표본점 평균 수고의 RMSE는 0.96m로 나타났다. 대상지 전체의 개체목 수고를 추출하기 위해 FUSION S/W를 이용하여 항공사진의 정규수치표면모델에서 개체목 수고를 자동 추출하고 이를 임상도의 임분 폴리곤 단위로 평균하여 최종 임분고를 산출하였다. 마지막으로 임분고를 보다 손쉽게 분석할 수 있는 환경을 구현하기 위해 임분고 분석 프로세스를 ArcGIS add-in 모듈 형태로 자동화하였다.

ICP 기법을 이용한 MSS 및 UAV 간 점군 데이터 자동정합 (Automatic Registration of Point Cloud Data between MMS and UAV using ICP Method)

  • 김재학;이창민;김형준;이동하
    • 한국지리정보학회지
    • /
    • 제22권4호
    • /
    • pp.229-240
    • /
    • 2019
  • 건설, 의료, 컴퓨터 그래픽스, 도시공간 관리 등 다양한 분야에서 3차원 공간모델이 이용되고 있다. 특히 측량 및 공간정보 분야에서는 최근 스마트시티, 정밀도로지도 구축 등과 같은 고품질의 3차원 공간정보에 대한 수요가 폭발적으로 증가하면서, 이를 보다 손쉽고, 간편하게 취득하기 위하여 MMS, UAV와 같은 관측기술이 활발히 활용되고 있다. 하지만 두 자료를 통합하여 3차원 모델링을 수행하기 위해서는, 두 관측기술 적용 시 발생하는 원시자료 취득센서, 점군 자료생성 방식 및 관측정확도 간의 차이를 효율적으로 보정할 수 있는 최적의 정합방법이 필요하다. 본 연구에서는 일반적인 3차원 모델의 자동정합에 사용되는 ICP(Iterative Closet Point) 기법을 통한 MMS와 UAV 점군 데이터 간 자동정합 성능을 판단하기 위하여, 여의도 지역을 연구대상지역으로 설정하고 UAV 영상을 취득 후 점군 자료로 변환하였다. 그 후 대상지역을 총 4개의 구역으로 구분하여 MMS 관측을 수행하였으며, UAV 점군 자료를 기반으로 각 구역에서 관측된 MMS 점군 자료와 수동정합하고 이를 ICP 기반으로 자동정합한 결과와 비교하였다. 보다 엄밀하게 ICP 기반의 자동정합 성능을 판단하기 위하여 각 구역별로 데이터 중첩률, 노이즈 레벨 등의 변수를 다르게 하여 비교를 수행하였다. 결론적으로 ICP 기반의 자동정합 시 데이터 중첩률이 높고, 노이즈 레벨이 낮을수록 더 높은 정확도로 정합될 수 있다는 것을 알 수 있었다.

3차원 기하정보 및 특징점 추적을 이용한 다시점 거리영상의 온라인 정합 (Online Multi-view Range Image Registration using Geometric and Photometric Feature Tracking)

  • 백재원;문재경;박순용
    • 정보처리학회논문지B
    • /
    • 제14B권7호
    • /
    • pp.493-502
    • /
    • 2007
  • 본 논문에서는 물체의 3차원 모델을 복원하기 위하여 거리영상 카메라에서 획득한 다시점 3차원 거리영상을 온라인으로 정합(registration)하는 기술을 제안한다. 3차원 모델 복원을 위하여 거리영상 카메라를 복원하고자하는 물체 주위로 이동하여 연속된 다시점 거리영상과 사진영상을 획득하고 물체와 배경을 분리한다. 분리된 다시점 거리영상의 정합을 위하여 이미 등록된 거리영상의 변환정보 그리고 두 거리영상 사이의 기하정보를 이용하여 정합을 초기화한다. 위 과정을 통해 서로 인접한 거리영상에서 영상 특징점을 선택하고 특징점에 해당하는 거리영상의 3차원 점군을 이용하여 투영 기반(projection-based) 정합을 실시한다. 기하정합이 완료되면 사진영상 간의 대응점을 추적하여 정합을 정제(refinement)하는 과정을 거치는데 KLT (Kanade-Lucas-Tomasi) 추적기를 수정하여 대응점 탐색의 속도와 성공률을 증가시켰다. 영상 특징점과 추적된 대응점에 해당하는 3차원 점군을 이용하여 거리영상을 정제하였다. 정합과 정제의 결과를 통해 추정된 변환 행렬과 정합된 대응점들 사이의 거리를 계산하여 정합 결과를 검증하고 거리영상의 사용 여부를 결정한다. 만약 정합이 실패하더라도 경우에도 거리영상을 실시간으로 계속 획득하고 정합을 다시 시도한다. 위와 같은 과정을 반복하여 충분한 거리 영상을 획득하고 정합이 완료되면 오프라인에서 3차원 모델을 합성하였다. 실험 결과들을 통해 제안한 방법이 3차원 모델을 성공적으로 복원할 수 있음을 확인 할 수 있었고 오차 분석을 통해 모델 복원의 정확도를 검증하였다.

고해상도 위성영상을 활용한 자동화된 건물 영역 추출 하이브리드 접근법 (A Hybrid Approach for Automated Building Area Extraction from High-Resolution Satellite Imagery)

  • 안효원;김창재;이효성;권원석
    • 한국측량학회지
    • /
    • 제37권6호
    • /
    • pp.545-554
    • /
    • 2019
  • 본 연구에서는 기존의 연구들에서 주로 사용하여왔던 현장측량, 항공사진, 라이다 데이터 등의 취득이 원천적으로 어려운 지역에 대한 건물 영역 추출을 구현하고자 하였다. 이에 접근성에 큰 영향을 받지 않는 거의 유일한 데이터인 고해상도 위성영상을 활용한 방법론을 제시하고자 한다. 영상정합을 통해 추출되는 점군 데이터 또는 DSM(Digital Surface Models)을 활용한 건물 영역 추출은 데이터내의 높은 잡음과 다수의 빈 영역으로 인해 그 정확성에 한계를 보이고 있다. 따라서 본 연구에서는 영상 정합을 통해 얻어진 3차원 점군 데이터, 영상의 색상 및 선형 정보를 결합하여 건물 영역 추출을 수행하는 하이브리드식 접근법을 제안하였다. 일차적으로 다중영상정합으로 얻어진 3차원 점군 데이터로부터 지면점과 비지면점을 분리하고, 비지면점으로부터 초기 건물 대상지를 추출한다. 이후, 영상의 색상기반 분할을 수행하여 얻어진 결과와 초기 건물 대상지를 결합하여, 색상분할기반 건물 대상지를 추출한다. 이어서 영상의 선형 추출 및 공간 분할정보를 이용하여 최종적인 건물 영역을 선정하게 된다. 본 논문에서 제시한 건물 영역 자동 추출 방법론은 Correctness: 98.44%, Completeness: 95.05%, 위치오차: 1.05m 정도의 성능을 보임을 확인하였으며, 더불어 직각형태 이상의 복잡한 건물 영역도 잘 추출함을 확인하였다.

전방향 거리 센서의 균일 원호길이 샘플링을 이용한 무인 이동차량의 실시간 위치 추정 (Real-time Localization of An UGV based on Uniform Arc Length Sampling of A 360 Degree Range Sensor)

  • 박순용;최성인
    • 전자공학회논문지CI
    • /
    • 제48권6호
    • /
    • pp.114-122
    • /
    • 2011
  • 본 논문에서는 무인 지상 차량의 (Unmanned Ground Vehicle, UGV)의 위치 추정을 위한 컴퓨터 비전 기술을 제안한다. 제안하는 방법은 연속적으로 획득되는 360도 거리 정보(range data)와 디지털 수치모델(Digital Surface Model, 이하 DSM)의 3차원 등록(3-D registration) 방법에 기반하고 있다. 많은 수의 3차원 점군(point clouds) 정보를 가지고 있는 거리 정보의 연속적 3차원 등록은 상당한 수행 시간을 필요로 한다. 실시간 위치 추정을 위해 우리는 투영 기반의 등록 방법과 Uniform Arc Length Sampling(이하 UALS) 방법을 제안한다. UALS는 거리영상에서의 GSD(ground sample distance)를 균일하게 유지하면서 동시에 3차원 샘플 포인트의 수를 줄일 수 있는 장점을 가지고 있다. 또한 투영 기반 등록 기술은 3차원 대응점의 탐색 시간을 감소시킨다. 두 개의 실제 항법 경로를 이용한 실험을 통하여 제안하는 방법의 성능을 검증하였다. 3차원 점군의 다양한 샘플링에 대하여 제안하는 기술의 속도 및 정합 성능을 기존 방법과 비교하였다.

다종 공간정보로부터 취득한 지상기준점을 활용한 UAV 영상의 3차원 위치 정확도 비교 분석 (Three-Dimensional Positional Accuracy Analysis of UAV Imagery Using Ground Control Points Acquired from Multisource Geospatial Data)

  • 박소연;최윤조;배준수;홍승환;손홍규
    • 대한원격탐사학회지
    • /
    • 제36권5_3호
    • /
    • pp.1013-1025
    • /
    • 2020
  • UAV (Unmanned Aerial Vehicle) 플랫폼은 소규모 지역의 영상을 저비용으로 신속하게 취득이 가능하다는 장점이 있어 재난모니터링과 스마트시티 분야에 널리 활용되고 있다. UAV 기반 정사영상 및 DSM (Digital Surface Model) 제작 시 cm 급 정확도를 확보하기 위하여 UAV 영상의 위치보정을 위한 지상기준점(Ground Control Points, GCP)이 필수적이다. 하지만, 현장 GCP 취득을 위한 현장방문, 대공표지 설치에는 상당한 인력과 시간이 소요된다. 따라서 본 연구에서는 GCP 현장 취득을 대체하기 위한 방법으로 사전에 구축되어 활용가능한 세 가지 공간정보를 GCP로 이용하는 방법을 제시하였다. 연구에 사용한 세 가지 공간정보는 첫째, 25 cm 급 정사영상과 1:1000 수치지형도 기반 DEM (Digital Elevation Model), 둘째, 모바일매핑시스템(Mobile Mapping System, MMS)으로 취득한 점군 데이터, 셋째, MMS 데이터와 UAV 데이터를 융합하여 만든 하이브리드 점군 데이터이다. 세 가지 공간정보로부터 취득한 GCP를 이용하여 각각에 대하여 UAV 정사영상과 DSM (Digital Surface Model, DSM)을 생성하였다. 생성된 3가지 결과를 현장 RTK-GNSS 측량으로 취득한 검사점과 비교하여 3차원 위치 정확도평가를 진행하였다. 실험결과, 세 번째 경우인 MMS와 UAV를 융합한 하이브리드 점군 데이터를 GCP로 사용하였을 때, UAV 정사영상과 DSM의 최종 정확도가 수평방향의 RMSE는 8.9 cm, 수직방향의 RMSE는 24.5 cm로 가장 높게 나타났다. 또한, 현장 측량을 대체하기 위해 활용한 공간정보로부터 취득한 GCP의 분포는 수평 위치 정확도 보다 수직 위치 정확도에 더 많은 영향을 미치는 것으로 나타났다.