• 제목/요약/키워드: Matching Points

검색결과 709건 처리시간 0.024초

물체 정합을 위한 특징점 추출 및 물체 표현에 관한 연구 (A Study on the salient points detection and object representation for object matching)

  • 박정민;손광훈;허영
    • 전자공학회논문지S
    • /
    • 제35S권6호
    • /
    • pp.101-108
    • /
    • 1998
  • 물체를 인식하기 위한 효율적인 방법 중의 하나는 물체의 경계선에서 가장 적절한 특징들을 추출해 내어 인식에 사용하는 것이다. 본 논문에서는 경계선 위의 각 화소에서 주변 화소들과의 관계를 이용해 코너점, 접점, 변곡점을 추출하여 물체의 특징점으로 사용하였다. 기존에 주로 사용되던 중요한 특징점의 하나인 코너점은 곡률 함수상에서 찾고, 또한 물체가 직선과 곡선으로 이루어져 있을 경우 코너점만으로 물체를 표현하기에 부족하므로 곡률 함수를 미디안 필터링하여 양자화 잡음을 제거함으로써 접점과 변곡점을 찾는 새로운 방법을 제안하였다. 그리고 이 세 가지 특징점을 물체 정합의 요소로 사용하여 물체를 정합하였다. 정합 방법으로는 Discrete Hopfield Neural Network을 사용하였으며, 성능 분석 결과 곡선이 섞인 물체에서 코너점만으로 물체를 정합한 경우보다 특징점으로 물체를 정합한 경우 우수한 정합 성능을 나타내었다.

  • PDF

중첩 방식을 이용한 시계열 영상의 스테레오 정합 실험 (Time Series Image Stereo Matching Experiment Using the Overlap Method)

  • 김강산;편무욱;김종화;문광일
    • 대한공간정보학회지
    • /
    • 제23권1호
    • /
    • pp.123-128
    • /
    • 2015
  • 본 논문에서는 CCTV 영상으로 조밀한 3차원 복원을 하기 위하여 스테레오 정합 과정으로 얻어지는 정합점을 증가시키기 위한 실험을 진행하였다. 실험에서는 시간의 경과에 따라 연속적으로 촬영된 스테레오 CCTV 영상에서 시계열별로 단영상을 추출한 뒤, SIFT 정합 알고리즘과 RANSAC 알고리즘을 적용하여 얻어진 정합점을 순차적으로 중첩하였으며, 결과적으로 정합점의 중첩과정이 반복될수록 정합점 수가 계속해서 증가하는 것을 확인할 수 있었다.

도심지역의 고해상도 위성영상 정합에 대한 그림자 영향 분석 (Analysis of Shadow Effect on High Resolution Satellite Image Matching in Urban Area)

  • 염준호;한유경;김용일
    • 대한공간정보학회지
    • /
    • 제21권2호
    • /
    • pp.93-98
    • /
    • 2013
  • 다중 시기에 수집된 고해상도 위성영상은 효과적인 도심지 분석과 모니터링을 위한 필수적인 자료이다. 그러나 같은 지역에 대해 다른 센서에서 수집된 영상은 물론, 동일 센서 영상이라 하더라도 두 영상간의 기하학적 위치정보가 서로 일치하지 않는 문제가 존재한다. 따라서 다중 영상의 효과적인 활용을 위해서는 영상 정합을 위해 매칭 포인트를 추출하는 일이 필수적이다. 그러나 도심지의 경우 건물, 교량, 나무, 기타 인공 구조물 등의 영향으로 넓은 영역에 그림자가 분포하며 그림자의 방향과 강도는 영상 수집 시기에 따라 달라지기 때문에 정확한 매칭 포인트를 추출하는데 어려움이 있다. 본 연구에서는 대표적인 매칭점 추출 기법인 SIFT(Scale-Invariant Feature Transform) 기법과 자동 그림자 추출 기법을 적용하여 도심지역의 그림자가 영상 정합에 미치는 영향을 분석하였다. 영상 분할을 통해 생성된 세그먼트의 분광 및 공간인자를 이용하여 그림자 객체를 추출하였으며 이 때 건물 버퍼 영역을 그림자의 인접정보로서 활용하였다. SIFT 기법을 통해 추출된 매칭점이 그림자에 위치하는 경우 이를 제거하고 영상 정합을 수행하였다. 최종적으로 고해상도 위성영상의 정합에 대한 그림자의 영향을 분석하기 위해 추출된 매칭점과 정합 결과의 정확도를 정량적, 시각적으로 평가하였다.

단일 카메라를 이용한 이동로봇의 자기 위치 추정 (Self-Localization of Mobile Robot Using Single Camera)

  • 김명호;이쾌희
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.404-404
    • /
    • 2000
  • This paper presents a single vision-based sel(-localization method in an corridor environment. We use the Hough transform for finding parallel lines and vertical lines. And we use these cross points as feature points and it is calculated relative distance from mobile robot to these points. For matching environment map to feature points, searching window is defined and self-localization is performed by matching procedure. The result shows the suitability of this method by experiment.

  • PDF

적응공명이론에 의한 자동 부분형상 인식시스템 (Automatic partial shape recognition system using adaptive resonance theory)

  • 박영태;양진성
    • 전자공학회논문지B
    • /
    • 제33B권3호
    • /
    • pp.79-87
    • /
    • 1996
  • A new method for recognizing and locating partially occluded or overlapped two-dimensional objects regardless of their size, translation, and rotation, is presented. Dominant points approximating occuluding contoures of objects are generated by finding local maxima of smoothed k-cosine function, and then used to guide the contour segment matching procedure. Primitives between the dominant points are produced by projecting the local contours onto the line between the dominant points. Robust classification of primitives. Which is crucial for reliable partial shape matching, is performed using adaptive resonance theory (ART2). The matched primitives having similar scale factors and rotation angles are detected in the hough space to identify the presence of the given model in the object scene. Finally the translation vector is estimated by minimizing the mean squred error of the matched contur segment pairs. This model-based matching algorithm may be used in diveerse factory automation applications since models can be added or changed simply by training ART2 adaptively without modifying the matching algorithm.

  • PDF

두개의 영상으로부터 Epipolar Line과 Matching을 이용한 3차원 물체의 위치 인식 (3-D Recognition of Position using Epipolar Line and Matching from Stereo Image)

  • 조석제;박길흠;이광호;김영모;하영호
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1987년도 전기.전자공학 학술대회 논문집(II)
    • /
    • pp.1441-1444
    • /
    • 1987
  • Extraction of dept.h information from stereo image uses the matching process between them and this requires a lot of computational time. In this paper, a matching using the feature points on the epipolar line is presented to save the computations. Feature points are obtained in both image and correlated each other. With the coordinates of the matched feature points and camera geometry, the position and depth informations are identified.

  • PDF

경계선 및 영역 정보를 이용한 스테레오 정합 (Stereo Matching Based on Edge and Area Information)

  • 한규필;김용석;하경훈;하영호
    • 전자공학회논문지B
    • /
    • 제32B권12호
    • /
    • pp.1591-1602
    • /
    • 1995
  • A hybrid approach which includes edge- and region-based methods is considered. The modified non-linear Laplacian(MNL) filter is used for feature extraction. The matching algorithm has three steps which are edge, signed region, and residual region matching. At first, the edge points are matched using the sign and direction of edges. Then, the disparity is propagated from edge to inside region. A variable window is used to consider the local method which give accurate matched points and area-based method which can obtain full-resolution disparity map. In addition, a new relaxation algorithm for considering matching possibility derived from normalized error and regional continuity constraint is proposed to reduce the mismatched points. By the result of simulation for various images, this algorithm is insensitive to noise and gives full- resolution disparity map.

  • PDF

2차원 영상에서 패턴매칭을 이용한 3차원 물체의 변환정보 추정 (The Estimation of the Transform Parameters Using the Pattern Matching with 2D Images)

  • 조택동;이호영;양상민
    • 한국정밀공학회지
    • /
    • 제21권7호
    • /
    • pp.83-91
    • /
    • 2004
  • The determination of camera position and orientation from known correspondences of 3D reference points and their images is known as pose estimation in computer vision or space resection in photogrammetry. This paper discusses estimation of transform parameters using the pattern matching method with 2D images only. In general, the 3D reference points or lines are needed to find out the 3D transform parameters, but this method is applied without the 3D reference points or lines. It uses only two images to find out the transform parameters between two image. The algorithm is simulated using Visual C++ on Windows 98.

Image Registration for Cloudy KOMPSAT-2 Imagery Using Disparity Clustering

  • Kim, Tae-Young;Choi, Myung-Jin
    • 대한원격탐사학회지
    • /
    • 제25권3호
    • /
    • pp.287-294
    • /
    • 2009
  • KOMPSAT-2 like other high-resolution satellites has the time and angle difference in the acquisition of the panchromatic (PAN) and multispectral (MS) images because the imaging systems have the offset of the charge coupled device combination in the focal plane. Due to the differences, high altitude and moving objects, such as clouds, have a different position between the PAN and MS images. Therefore, a mis-registration between the PAN and MS images occurs when a registration algorithm extracted matching points from these cloud objects. To overcome this problem, we proposed a new registration method. The main idea is to discard the matching points extracted from cloud boundaries by using an automatic thresholding technique and a classification technique on a distance disparity map of the matching points. The experimental result demonstrates the accuracy of the proposed method at ground region around cloud objects is higher than a general method which does not consider cloud objects. To evaluate the proposed method, we use KOMPSAT-2 cloudy images.

정합 오차 기준을 확장한 제한된 1비트 변환 알고리즘 기반의 움직임 예측 (Constrained One-Bit Transform based Motion Estimation using Extension of Matching Error Criterion)

  • 이상구;정제창
    • 방송공학회논문지
    • /
    • 제18권5호
    • /
    • pp.730-737
    • /
    • 2013
  • 본 논문은 정합 오차 기준을 확장한 제한된 1비트 변환 (Constrained One-Bit Transform : C1BT) 기반의 움직임 예측 알고리즘을 제안하였다. 제한된 1비트 변환 기반의 움직임 예측 알고리즘에서는 정합 오차 기준으로 기존의 움직임 예측 방법인 전역 탐색 알고리즘 (Full Search Algorithm: FSA)에서 사용되는 SAD (Sum of Absolute Differences) 대신 NNMP (Number of Non-Matching Points)를 사용하여 하드웨어 구현을 용이하게 하고 연산량을 크게 줄였으나 움직임 예측의 정확도를 감소시켰다. 이 점을 개선하고자 이 논문에서는 제한된 1비트 변환의 정합 오차 기준을 확장하여 움직임 예측의 정확도를 높이는 알고리즘을 제안하였고 이는 기존의 알고리즘과 비교한 결과 PSNR (Peak Signal to Nosie Ratio) 측면에서 더 우수한 성능을 보였다.