• 제목/요약/키워드: Feature Point Matching

검색결과 195건 처리시간 0.027초

특징점과 특징선을 활용한 단안 카메라 SLAM에서의 지도 병합 방법 (Map Alignment Method in Monocular SLAM based on Point-Line Feature)

  • 백무현;이진규;문지원;황성수
    • 한국멀티미디어학회논문지
    • /
    • 제23권2호
    • /
    • pp.127-134
    • /
    • 2020
  • In this paper, we propose a map alignment method for maps generated by point-line monocular SLAM. In the proposed method, the information of feature lines as well as feature points extracted from multiple maps are fused into a single map. To this end, the proposed method first searches for similar areas between maps via Bag-of-Words-based image matching. Thereafter, it calculates the similarity transformation between the maps in the corresponding areas to align the maps. Finally, we merge the overlapped information of multiple maps into a single map by removing duplicate information from similar areas. Experimental results show that maps created by different users are combined into a single map, and the accuracy of the fused map is similar with the one generated by a single user. We expect that the proposed method can be utilized for fast imagery map generation.

An Efficient Feature Point Extraction and Comparison Method through Distorted Region Correction in 360-degree Realistic Contents

  • Park, Byeong-Chan;Kim, Jin-Sung;Won, Yu-Hyeon;Kim, Young-Mo;Kim, Seok-Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권1호
    • /
    • pp.93-100
    • /
    • 2019
  • One of critical issues in dealing with 360-degree realistic contents is the performance degradation in searching and recognition process since they support up to 4K UHD quality and have all image angles including the front, back, left, right, top, and bottom parts of a screen. To solve this problem, in this paper, we propose an efficient search and comparison method for 360-degree realistic contents. The proposed method first corrects the distortion at the less distorted regions such as front, left and right parts of the image excluding severely distorted regions such as upper and lower parts, and then it extracts feature points at the corrected region and selects the representative images through sequence classification. When the query image is inputted, the search results are provided through feature points comparison. The experimental results of the proposed method shows that it can solve the problem of performance deterioration when 360-degree realistic contents are recognized comparing with traditional 2D contents.

Road Centerline Tracking From High Resolution Satellite Imagery By Least Squares Templates Matching

  • Park, Seung-Ran;Kim, Tae-Jung;Jeong, Soo;Kim, Kyung-Ok
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2002년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.34-39
    • /
    • 2002
  • Road information is very important for topographic mapping, transportation application, urban planning and other related application fields. Therefore, automatic detection of road networks from spatial imagery, such as aerial photos and satellite imagery can play a central role in road information acquisition. In this paper, we use least squares correlation matching alone for road center tracking and show that it works. We assumed that (bright) road centerlines would be visible in the image. We further assumed that within a same road segment, there would be only small differences in brightness values. This algorithm works by defining a template around a user-given input point, which shall lie on a road centerline, and then by matching the template against the image along the orientation of the road under consideration. Once matching succeeds, new match proceeds by shifting a matched target window further along road orientation at the target window. By repeating the process above, we obtain a series of points, which lie on a road centerline successively. A 1m resolution IKONOS images over Seoul and Daejeon were used for tests. The results showed that this algorithm could extract road centerlines in any orientation and help in fast and exact he ad-up digitization/vectorization of cartographic images.

  • PDF

Panoramic Image Stitching using SURF

  • You, Meng;Lim, Jong-Seok;Kim, Wook-Hyun
    • 융합신호처리학회논문지
    • /
    • 제12권1호
    • /
    • pp.26-32
    • /
    • 2011
  • This paper proposes a new method to process panoramic image stitching using SURF(Speeded Up Robust Features). Panoramic image stitching is considered a problem of the correspondence matching. In computer vision, it is difficult to find corresponding points in variable environment where a scale, rotation, view point and illumination are changed. However, SURF algorithm have been widely used to solve the problem of the correspondence matching because it is faster than SIFT(Scale Invariant Feature Transform). In this work, we also describe an efficient approach to decreasing computation time through the homography estimation using RANSAC(random sample consensus). RANSAC is a robust estimation procedure that uses a minimal set of randomly sampled correspondences to estimate image transformation parameters. Experimental results show that our method is robust to rotation, zoom, Gaussian noise and illumination change of the input images and computation time is greatly reduced.

적외선 영상에서 변위추정 및 SURF 특징을 이용한 표적 탐지 분류 기법 (The Target Detection and Classification Method Using SURF Feature Points and Image Displacement in Infrared Images)

  • 김재협;최봉준;천승우;이종민;문영식
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권11호
    • /
    • pp.43-52
    • /
    • 2014
  • 본 논문에서는 적외선 영상에서 영상 변위를 이용하여 기동 표적 영역을 탐지하고, SURF(Speeded Up Robust Features) 특징점에 대한 BAS(Beam Angle Statistics)를 이용하여 분류하는 시스템에 대하여 설명한다. 영상 기반 기술 분야에서 대표적인 대응점 정합 알고리즘인 SURF 기법은 SIFT(Scale Invariant Feature Transform) 기법에 비해 정합 속도가 매우 빠르고 비슷한 정합 성능을 보이기 때문에 널리 사용되고 있다. SURF를 이용한 대부분의 객체 인식의 경우 특징점 추출과 정합의 과정을 수행하지만, 제안하는 기법은 표적의 기동 특성을 반영하여 영상의 변위 추정을 통하여 표적의 영역을 탐지하고 SURF 특징점 들의 기하구조를 판단함으로써 표적 분류를 수행한다. 제안하는 기법은 무인 표적 탐지/인지 시스템의 초기모델 구축을 위하여 연구가 진행되었으며, 모의 표적을 이용한 가상 영상과 적외선 실 영상을 이용하여 실험한 결과 약 73~85%의 분류 성능을 확인하였다.

보로노이 거리(Voronoi Distance)정합을 이용한 영상 모자익 (Image Mosaicing using Voronoi Distance Matching)

  • 이칠우;정민영;배기태;이동휘
    • 한국멀티미디어학회논문지
    • /
    • 제6권7호
    • /
    • pp.1178-1188
    • /
    • 2003
  • 본 논문에서는 손에 든 비디오 카메라로 촬영한 영상을 결합하여 대형 고해상도 영상을 생성하는 모자익 기법에 관해 기술한다. 기존의 특징점 기반 대응점 검색 기법들이 사람의 개입에 의해 영상을 정합하거나, 형태정보만 이용하는 방법을 사용 하는 것과는 달리 형태정보와 칼라정보를 모두 사용하여 사람의 개입이 없이 자동으로 정확한 중첩영역을 검색하는 방법을 제안한다. 제안한 방법은 인접하는 영상 간에 빠른 속도로 대응점을 추정하여 영상간의 초기 변환관계를 계산하는 보로노이 거리(Voronoi Distance)정합법을 이용하여 비슷한 형태를 가진 후보 영역들을 추출한 다음, 칼라 정보를 이용하여 최종 중첩영역을 찾는다. 이것은 영상내의 특징점을 기준으로 특징점 사이의 거리가 동일하도록 기준영상의 보로노이 평면(Voronoi Surface)을 생성하고 입력영상과 기준 영상간의 정합 부분에서 누적된 보로노이 거리를 최소화하는 대응점을 이항검색 기법으로 추출하는 방법이다. 추출된 계산된 초기 변환행렬은 Levenberg-Marquadt 방법을 통해 최적 변환행렬로 수정되고 이 변환행렬에 의해 영상이 합성되어진다.

  • PDF

영상의 컬러 정보를 이용한 계층적 스테레오 정합 (Hierarchical Stereo Matching with Color Information)

  • 김태준;유지상
    • 한국통신학회논문지
    • /
    • 제34권3C호
    • /
    • pp.279-287
    • /
    • 2009
  • 본 논문에서는 컬러 정보를 이용한 계층적 스테레오 정합 기법을 제안한다. 특징기반의 스테레오 정합 방법을 이용하여 초기 변이지도를 생성하고, 계층적 스테레오 정합 기법으로 최종 변이지도를 획득한다. 영상을 R, G, B, white 4개의 색상 성분으로 분할하여 영상의 경계(edge)를 추출하고, 추출된 경계에서 정합 창을 이용하여 변이(disparity)를 추정한다. 추정된 변이는 각 색상 성분에서 자기상관도(autocorrelation)에 따라 주변 영역으로 확산되어 초기 변이지도(disparity map)를 생성한다. 초기 변이지도는 최종 변이지도를 생성하기 위한 변이 탐색의 초기값으로 사용되고, 각 색상 성분에서 정합 창과 탐색 범위(search range)의 변화를 이용하여 최종 변이 지도를 생성시킨다. 본 논문에서는 Middlebury stereo vision의 4개의 실험 영상을 가지고 객관적 성능 평가를 하였다. 실험 결과 제안한 기법이 기존의 Graph-cuts와 Dynamic Programming 기법보다 우수한 성능을 보였다. 최종 변이지도의 부정확한 변이는 전체 영상에서 평균11% 존재했고, 변이지도에서 불연속점의 경계가 뚜렷한 것을 확인하였다.

다중영상 영역기반 영상정합을 위한 유사성 측정방법 분석 (An Analysis of Similarity Measures for Area-based Multi-Image Matching)

  • 노명종;김정섭;조우석
    • 한국측량학회지
    • /
    • 제30권2호
    • /
    • pp.143-152
    • /
    • 2012
  • 항공영상을 이용하여 수치표면자료와 같은 3차원 자료를 자동으로 제작하기 위해서는 영상정합이 반드시 필요하다. 최근 사용되고 있는 항공 디지털 프레임 영상은 과거의 아날로그 영상에 비해 폐색지역이 적은 고중복도 다중 스트립 영상으로 촬영되기에 용이하다. 최근 다중 스트립 영상을 이용한 다중영상정합 기법에 대한 연구가 많이 이루어지고 있으며, 특히 각 영상에서 추출된 점(point feature)이나 형상(linear feature)의 유사성 측정 방법에 대한 연구가 진행되고 있다. 본 연구에서는 수직궤적 기반 다중영상정합을 대상으로 영역기반 유사성 측정 방법으로 SNCC(Sum of Normalized Cross-Correlation)와 SSD(Sum of Squared-Difference) 방법을 비교 분석하였다. 또한 영역기반 유사성 측정에 필요한 요소로 영상의 화소값, 화소값 기울기 강도, 화소값과 화소값 기울기 강도 평균을 각각 사용하여 결과를 비교하였다. 이 외에도 영역기반 유사성 측정에서 중요한 요소인 기준 윈도우의 크기를 비정규 적응형 기준 윈도우 방법과 정규 적응형 윈도우 방법을 적용하여 결과를 비교 분석하였다. 실험을 위하여 사용된 항공영상은 ZI Imaging 사의 DMC (Digital Modular Camera)에 의해 종중복도는 80%, 횡중복도는 60%로 촬영되었으며, 3개의 스트립으로 구성되었다. 다양한 방법으로 실험을 수행한 결과에 따르면 유사성 측정 방법으로는 SNCC, 유사성 측정 요소로는 화소값과 화소값 기울기 강도 평균, 그리고 비정규 적응형 기준 윈도우가 수직궤적 기반 다중영상정합의 영역기반 유사성 측정에 가장 적합하다는 것을 확인하였다.

Fingerprint Verification Based on Invariant Moment Features and Nonlinear BPNN

  • Yang, Ju-Cheng;Park, Dong-Sun
    • International Journal of Control, Automation, and Systems
    • /
    • 제6권6호
    • /
    • pp.800-808
    • /
    • 2008
  • A fingerprint verification system based on a set of invariant moment features and a nonlinear Back Propagation Neural Network(BPNN) verifier is proposed. An image-based method with invariant moment features for fingerprint verification is used to overcome the demerits of traditional minutiae-based methods and other image-based methods. The proposed system contains two stages: an off-line stage for template processing and an on-line stage for testing with input fingerprints. The system preprocesses fingerprints and reliably detects a unique reference point to determine a Region-of-Interest(ROI). A total of four sets of seven invariant moment features are extracted from four partitioned sub-images of an ROI. Matching between the feature vectors of a test fingerprint and those of a template fingerprint in the database is evaluated by a nonlinear BPNN and its performance is compared with other methods in terms of absolute distance as a similarity measure. The experimental results show that the proposed method with BPNN matching has a higher matching accuracy, while the method with absolute distance has a faster matching speed. Comparison results with other famous methods also show that the proposed method outperforms them in verification accuracy.

열화상 영상 안정화 성능 비교 (Infrared Thermal Video Stabilization Performance Comparison)

  • 박찬혁;권혁신;강석훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 추계학술대회
    • /
    • pp.101-104
    • /
    • 2015
  • 영상에서 이전 프레임과 현재 프레임을 비교하여 얼마나 움직였는지를 나타내는 모션 벡터(motion vector)라 한다. 이러한 모션 벡터를 이용하여 현재 프레임의 이미지안의 객체들이 이전프레임의 이미지 객체가 있었던 위치로 보정을 한다면 손 떨림이나 카메라의 흔들림에서 오는 작은 떨림을 보정할 수 있다. 본 논문에서는 모션 벡터를 추출하는 방법인 SAD(Sum of Absolute Difference) 방정식을 이용한 블록 정합 매칭 알고리즘, 위상상관을 이용한 매칭, 특징점을 이용한 매칭, Bitplane을 이용한 블록매칭의 성능을 비교하였다.

  • PDF