• 제목/요약/키워드: Image matching point

검색결과 352건 처리시간 0.025초

Google Map을 이용한 GCP 칩의 품질 분석 (Quality Analysis of GCP Chip Using Google Map)

  • 박형준;손종환;신정일;권기억;김태정
    • 대한원격탐사학회지
    • /
    • 제35권6_1호
    • /
    • pp.907-917
    • /
    • 2019
  • 최근 국토 모니터링, 지형 분석 등 많은 분야에서 고해상도 위성영상의 수요가 증가와 함께 기하보정의 필요성이 증가하고 있다. 자동 정밀 기하보정 방법으로 GCP(Ground Control Point) 칩과 위성영상간의 정합을 통해 지상기준점을 자동으로 추출하는 방법이 있다. 자동 정밀 기하보정은 GCP 칩과 위성영상의 정합 성공률이 중요하다. 따라서 제작된 GCP 칩의 정합 성능 평가가 중요하다. GCP 칩의 정합 성능 평가를 위해 국토관측 위성용으로 구축된 총 3,812점의 GCP 칩을 실험 자료로 사용했다. KOMPSAT-3A 영상과 Google Map의 GCP칩 정합 결과를 분석한 결과 유사한 결과를 얻을 수 있었다. 따라서 Google Map 위성영상으로 고해상도 위성영상을 충분히 대체할 수 있다고 판단했다. 또한 GCP 칩의 정합 성능 검증에 필요한 시간을 줄이기 위해 자동화된 방법으로 Google Map의 중심점과 오차 반경을 이용한 방법을 제시했다. 실험 결과 최적의 오차 반경은 17 pixel(약 8.5 m)로 설정하는 것이 가장 좋은 분류 정확도를 보였다. Google Map 위성영상과 자동화된 검증 방법으로 남한 전역에 구축된 GCP 칩 3,812개의 정합 성능 평가를 진행했으며 남한에 구축된 GCP 칩은 약 94%의 정합 성공률을 보였다. 이후 정합에 실패한 GCP 칩을 분석하여 주요 정합 실패원인을 분석하였다. 분석 결과 남한 전역에 구축된 GCP 칩 중 재제작이 필요한 GCP 칩을 제외한 나머지 GCP 칩은 국토위성영상 자동 기하보정에 충분히 사용할 수 있다.

빠른 특징점 기술자 추출 및 정합을 이용한 효율적인 이미지 스티칭 기법 (Efficient Image Stitching Using Fast Feature Descriptor Extraction and Matching)

  • 이상범
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권1호
    • /
    • pp.65-70
    • /
    • 2013
  • 최근 디지털 카메라 기술의 발전으로 이미지를 쉽게 생성할 수 있어 이를 활용한 컴퓨터 비전분야의 연구가 활발하게 진행되고 있다. 특히 디지털 이미지에서 특징점을 추출하고 이를 활용하는 연구가 활발하게 진행되고 있다. 이미지 스티칭은 여러 이미지에서 특징점을 추출하고 이를 정합하여 하나의 고해상도 이미지를 생성하는 것으로 군사용, 의료용뿐만 아니라 실생활의 다양한 분야에서 활용되고 있다. 본 논문에서는 특징점 기술자의 차원을 효과적으로 감소시켜 정확하면서도 빠르게 정합점을 찾을 수 있는 SURF 기반의 빠른 특징점 기술자 추출 및 정합을 이용한 효율적인 이미지 스티칭 기법을 제안한다. 추출된 특징점에서 불필요한 특징점을 분류하여 특징점 기술자를 생성한다. 이때 특징점 기술자의 연산량을 줄이면서도 효율적인 정합을 위해 기술자의 차원을 줄이고 방향 윈도우를 확장하였다. 실험 결과 특징점 정합 및 전체 이미지 스티칭 속도가 기존의 알고리즘보다 빠르면서도 자연스러운 스티칭된 이미지를 생성할 수 있었다.

KOMPSAT-2 영상과 TerraSAR-X 영상 간 자동기하보정 (Automatic Registration Between KOMPSAT-2 and TerraSAR-X Images)

  • 한유경;변영기;채태병;김용일
    • 한국측량학회지
    • /
    • 제29권6호
    • /
    • pp.667-675
    • /
    • 2011
  • 본 논문은 이종센서자료인 고해상도 KOMPSAT-2 영상과 TerraSAR-X 영상 간 자동기하보정을 수행하는 것을 목적으로 한다. 이를 위해, 두 영상간의 x, y 방향의 초기 변위량을 MI(Mutual Information) 기법을 통해 계산한 후, 계산된 위치만큼 TerraSAR-X 영상을 이동시켜서 두 영상 간 초기 위치 차이를 최소화하였다. 초기 위치 차이가 최소화된 두 영상에서 선형정보를 추출하여 이들 간의 유사도를 판단, 매칭쌍을 추출하고자 하였다. 특히, 영상 전반에 걸쳐 고르게 분포된 매칭쌍을 추출하기 위하여, 영상 전역에 걸쳐서 동일한 크기의 격자망을 구성하여, 각 격자망에서 하나의 매칭쌍만을 추출하도록 하였다. 이렇게 추출된 매칭쌍을 이용하여 선형(rigid)과 비선형(nonrigid)의 변환식이 결합된 모델을 통해 기하보정 정확도를 높이고자 하였고, 실험 결과 모든 대상지역에서 5m 이내의 RMSE 값을 도출하였다.

Refinement of Disparity Map using the Rule-based Fusion of Area and Feature-based Matching Results

  • Um, Gi-Mun;Ahn, Chung-Hyun;Kim, Kyung-Ok;Lee, Kwae-Hi
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 1999년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.304-309
    • /
    • 1999
  • In this paper, we presents a new disparity map refinement algorithm using statistical characteristics of disparity map and edge information. The proposed algorithm generate a refined disparity map using disparity maps which are obtained from area and feature-based Stereo Matching by selecting a disparity value of edge point based on the statistics of both disparity maps. Experimental results on aerial stereo image show the better results than conventional fusion algorithms in the disparity error. This algorithm can be applied to the reconstruction of building image from the high resolution remote sensing data.

  • PDF

모바일 디바이스를 이용한 3차원 특징점 추출 기법 (3D feature point extraction technique using a mobile device)

  • 김진겸;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.256-257
    • /
    • 2022
  • 본 논문에서는 단일 모바일 디바이스의 움직임을 통해 3차원 특징점을 추출하는 방법에 대해 소개한다. 단안 카메라를 이용해 카메라 움직임에 따라 2D 영상을 획득하고 Baseline을 추정한다. 특징점 기반의 스테레오 매칭을 진행한다. 특징점과 디스크립터를 획득하고 특징점을 매칭한다. 매칭된 특징점을 이용해 디스패리티를 계산하고 깊이값을 생성한다. 3차원 특징점은 카메라 움직임에 따라 업데이트 된다. 마지막으로 장면 전환 검출을 이용하여 장면 전환시 특징점을 리셋한다. 위 과정을 통해 특징점 데이터베이스에 평균 73.5%의 저장공간 추가 확보를 할 수 있다. TUM Dataset의 Depth Ground truth 값과 RGB 영상으로 제안한 알고리즘을 적용하여 3차원 특징점 결과와 비교하여 평균 26.88mm의 거리 차이가 나는것을 확인하였다.

  • PDF

인공위성 영상의 객체인식을 위한 영상 특징 분석 (Feature-based Image Analysis for Object Recognition on Satellite Photograph)

  • 이석준;정순기
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.35-43
    • /
    • 2007
  • 본 논문은 특징검출(feature detection)과 특징해석(feature description) 기법을 이용하여, 영상 매칭 (matching)과 인식(recognition)에 필요한 다양한 파라미터의 변화에 따른 인식률의 차이를 분석하기 위한 실험 내용을 다룬다. 본 논문에서는 영상의 특징분석과 매칭프로세스를 위해, Lowe의 SIFT(Scale-Invariant Transform Feature)를 이용하며, 영상에서 나타나는 특징을 검출하고 해석하여 특징 데이터베이스로 구축한다. 특징 데이터베이스는 구글 어스를 통해 획득한 위성영상으로부터 50여개 건물에 대해 구축되는데, 이는 각 건물 영상으로부터 추출된 특징 점들의 좌표와 128차원의 벡터의 값으로 이루어진 특징 해석데이터로 저장된다. 구축된 데이터베이스는 각 건물에 대한 정보가 태그의 형식으로 함께 저장되는데, 이는 카메라로부터 획득한 입력영상과의 비교를 통해 입력영상이 가리키는 지역 내에 존재하는 건물에 대한 정보를 제공하는 역할을 한다. 실험은 영상 매칭과 인식과정에서 작용하는 내-외부적 요소들을 제시하고, 각 요소의 상태변화에 따라 인식률의 차이를 비교하는 방법으로 진행되었으며, 본 연구의 최종적인 시스템은 모바일기기의 카메라를 이용하여 카메라가 촬영하고 있는 지도상의 객체를 인식하고, 해당 객체에 대한 기본적인 정보를 제공할 수 있다.

  • PDF

Gabor 특징에 기반한 이동 및 회전 불변 지문인증 (Translation- and Rotation-Invariant Fingerprint Authentication Based on Gabor Features)

  • 김종화;조상현;성효경;최홍문
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.901-904
    • /
    • 2000
  • A direct authentication from gray-scale image, instead of the conventional multi-step preprocessing, is proposed using Gabor filter-based features from the gray-scale fingerprint around core point. The core point is located as a reference point for the translation invariant matching. And its principal symmetry axis is detected for the rotation invariant matching from its neighboring region centered at the core point. And then fingerprint is divided into non-overlapping blocks with respect to the core point and features are directly extracted form the blocked gray level fingerprint using Gabor filter. The proposed fingerprint authentication is based on the Euclidean distance between the corresponding Gabor features of the input and the template fingerprints. Experiments are conducted on 300${\times}$300 fingerprints obtained from a CMOS sensor with 500 dpi resolution, and the proposed method could lower the False Reject Rate(FRR) to 18.2% under False Acceptance Rate(FAR) of 0%.

  • PDF

Road Centerline Tracking From High Resolution Satellite Imagery By Least Squares Templates Matching

  • Park, Seung-Ran;Kim, Tae-Jung;Jeong, Soo;Kim, Kyung-Ok
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2002년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.34-39
    • /
    • 2002
  • Road information is very important for topographic mapping, transportation application, urban planning and other related application fields. Therefore, automatic detection of road networks from spatial imagery, such as aerial photos and satellite imagery can play a central role in road information acquisition. In this paper, we use least squares correlation matching alone for road center tracking and show that it works. We assumed that (bright) road centerlines would be visible in the image. We further assumed that within a same road segment, there would be only small differences in brightness values. This algorithm works by defining a template around a user-given input point, which shall lie on a road centerline, and then by matching the template against the image along the orientation of the road under consideration. Once matching succeeds, new match proceeds by shifting a matched target window further along road orientation at the target window. By repeating the process above, we obtain a series of points, which lie on a road centerline successively. A 1m resolution IKONOS images over Seoul and Daejeon were used for tests. The results showed that this algorithm could extract road centerlines in any orientation and help in fast and exact he ad-up digitization/vectorization of cartographic images.

  • PDF

능동적 블록정합기법을 이용한 객체의 움직임 검출에 관한 연구 (A Study on Motion Detection of Object Using Active Block Matching Algorithm)

  • 이창수;박미옥;이경석
    • 한국통신학회논문지
    • /
    • 제31권4C호
    • /
    • pp.407-416
    • /
    • 2006
  • 카메라를 통한 객체의 움직임 검출은 불필요한 잡음이나 조명의 변화에 따라 정확한 움직임을 검출하는 것은 어렵다. 또한 객체의 유입 후 일정시간 동안 움직임이 없을 경우에는 배경으로 인식될 수도 있다. 따라서 실시간으로 입력되는 영상에서 정확한 객체를 추출하고 움직임을 검출할 수 있는 알고리즘이 필요하다. 본 논문에서는 객체의 정확한 움직임을 검출하기 위한 방법은 시간에 따라 변화하는 배경영상의 일부를 교체하고, 객체가 유입된 시점에서 객체의 영역을 추출하기 위하여 그물형 픽셀검사를 통하여 객체의 윤곽점을 추출한다. 추출된 윤곽점은 객체의 사각영역인 최소블록의 생성과 객체의 움직임을 빠르게 검출하기 위한 가변 탐색블록을 생성하여 정확한 객체의 움직임을 검출한다. 설계하고 구현한 시스템은 실험을 통한 성능평가에서 95% 이상의 높은 정확도를 보였다.

술자의 영상정합의 경험이 컴퓨터 단층촬영과 광학스캔 영상 간의 정합 정확성과 작업시간에 미치는 영향 (Effect of image matching experience on the accuracy and working time for 3D image registration between radiographic and optical scan images)

  • 마이항나;이두형
    • 대한치과보철학회지
    • /
    • 제59권3호
    • /
    • pp.299-304
    • /
    • 2021
  • 목적: 본 연구의 목적은 컴퓨터 단층촬영과 광학스캔 영상의 정합에서 술자의 경험이 정합의 정확성과 소요시간에 미치는 영향을 조사하는 것이다. 재료 및 방법: 치아결손이 없은 성인 악궁의 컴퓨터 단층촬영과 광학스캔 영상(IDC S1, Amann Girrbach, Koblah, Austria)이 수집되었다. 두 영상간의 영상정합이 임플란트 진단 소프트웨어(Implant Studio, 3Shape, Copenhagen, Denmark)에서 점 기반 자동매칭 방식으로 행해졌다. 영상정합 경험자 군과 미경험자 군으로 나누어 진행되었으며 작업시간이 기록되었다(군당 15명). 각 군의 영상 정합 정확성은 구치부에서의 선형 오차값으로 측정되었다. 정확성 값과 작성시간의 통계적 비교 분석을 위해 유의수준 0.05에서 독립표본 t검정이 이용되었다. 결과: 영상정합의 선형오차값은 경험자 군과 미경험자 군 간에 통계적인 차이가 없었다. 영상정합에 소요한 시간은 경험자 군이 미경험자 군에 비해 유의하게 짧았다(P = .007). 결론: 술자의 영상정합의 경험의 차이는 점 기반 자동정합이 사용된 경우 정합 정확성에 유의한 영향을 미치지 않는 것으로 보인다. 경험자에서 정합에 소요된 시간은 짧았다.