• 제목/요약/키워드: SIFT parameters

검색결과 7건 처리시간 0.027초

SIFT를 이용한 내시경 영상에서의 특징점 추출 (Feature Extraction for Endoscopic Image by using the Scale Invariant Feature Transform(SIFT))

  • 오장석;김호철;김형률;구자민;김민기
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.6-8
    • /
    • 2005
  • Study that uses geometrical information in computer vision is lively. Problem that should be preceded is matching problem before studying. Feature point should be extracted for well matching. There are a lot of methods that extract feature point from former days are studied. Because problem does not exist algorithm that is applied for all images, it is a hot water. Specially, it is not easy to find feature point in endoscope image. The big problem can not decide easily a point that is predicted feature point as can know even if see endoscope image as eyes. Also, accuracy of matching problem can be decided after number of feature points is enough and also distributed on whole image. In this paper studied algorithm that can apply to endoscope image. SIFT method displayed excellent performance when compared with alternative way (Affine invariant point detector etc.) in general image but SIFT parameter that used in general image can't apply to endoscope image. The gual of this paper is abstraction of feature point on endoscope image that controlled by contrast threshold and curvature threshold among the parameters for applying SIFT method on endoscope image. Studied about method that feature points can have good distribution and control number of feature point than traditional alternative way by controlling the parameters on experiment result.

  • PDF

영상 스티칭 관점에서 SIFT 특징점 추출시간 감소를 위한 파라미터 분석 (Parameter Analysis for Time Reduction in Extracting SIFT Keypoints in the Aspect of Image Stitching)

  • 문원준;서영호;김동욱
    • 방송공학회논문지
    • /
    • 제23권4호
    • /
    • pp.559-573
    • /
    • 2018
  • 최근 가상현실(VR, Virtual Reality) 등 가장 많은 분야에서 가장 활발히 응용되고 있는 영상매체 중 하나가 전방위 영상 또는 파노라마 영상이다. 이 영상은 다양한 방법으로 획득된 영상들을 스티칭하여 생성하는데, 그 과정에서 스티칭에 필요한 특징점들을 추출하는데 가장 많은 시간이 소요된다. 이에 본 논문은 현재 가장 널리 사용되고 있는 SIFT 특징점을 추출하는 연산시간을 감소하는 것에 목적을 두고 SIFT 특징점들을 추출에 관여하는 파라미터들을 분석한다. 본 논문에서 고려하는 파라미터는 가우시안 필터링에 사용되는 가우시안 커널의 초기 표준편차, 국소극점을 추출하기 위한 가우시안 차영상군의 수, 그리고 옥타브 수의 세 가지이다. SIFT 알고리즘으로는 이 알고리즘을 제안한 Lowe 방식과 컨볼루션 캐스캐이드(convolution cascade) 방식인 Hess 방식을 고려한다. 먼저 각 파라미터 값이 연산시간에 미치는 영향을 분석하고, 실제 스티칭 실험을 수행하여 각 파라미터가 스티칭 성능에 미치는 영향을 분석한다. 마지막으로 두 분석결과를 토대로 성능저하 없이 연산시간을 최소로 하는 파라미터 값들을 추출한다.

인공위성 영상의 객체인식을 위한 영상 특징 분석 (Feature-based Image Analysis for Object Recognition on Satellite Photograph)

  • 이석준;정순기
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.35-43
    • /
    • 2007
  • 본 논문은 특징검출(feature detection)과 특징해석(feature description) 기법을 이용하여, 영상 매칭 (matching)과 인식(recognition)에 필요한 다양한 파라미터의 변화에 따른 인식률의 차이를 분석하기 위한 실험 내용을 다룬다. 본 논문에서는 영상의 특징분석과 매칭프로세스를 위해, Lowe의 SIFT(Scale-Invariant Transform Feature)를 이용하며, 영상에서 나타나는 특징을 검출하고 해석하여 특징 데이터베이스로 구축한다. 특징 데이터베이스는 구글 어스를 통해 획득한 위성영상으로부터 50여개 건물에 대해 구축되는데, 이는 각 건물 영상으로부터 추출된 특징 점들의 좌표와 128차원의 벡터의 값으로 이루어진 특징 해석데이터로 저장된다. 구축된 데이터베이스는 각 건물에 대한 정보가 태그의 형식으로 함께 저장되는데, 이는 카메라로부터 획득한 입력영상과의 비교를 통해 입력영상이 가리키는 지역 내에 존재하는 건물에 대한 정보를 제공하는 역할을 한다. 실험은 영상 매칭과 인식과정에서 작용하는 내-외부적 요소들을 제시하고, 각 요소의 상태변화에 따라 인식률의 차이를 비교하는 방법으로 진행되었으며, 본 연구의 최종적인 시스템은 모바일기기의 카메라를 이용하여 카메라가 촬영하고 있는 지도상의 객체를 인식하고, 해당 객체에 대한 기본적인 정보를 제공할 수 있다.

  • PDF

강도영상과 거리영상에 의한 건물 스캐닝 점군간 3차원 정합 실험 (Experiment for 3D Coregistration between Scanned Point Clouds of Building using Intensity and Distance Images)

  • 전민철;어양담;한동엽;강남기;편무욱
    • 대한원격탐사학회지
    • /
    • 제26권1호
    • /
    • pp.39-45
    • /
    • 2010
  • 본 연구는 지상라이다 자료의 점군간 자동정합을 위해 인접한 두 점군 자료와 함께 획득되는 2차원의 강도영상 자료로부터, 2개 영상에서 동시에 관측되는 특징점들을 이용하여 SIFT 알고리즘에 의해 공액점을 선정하였다. 또한 매칭 오류점 배제를 위해 RANSAC 알고리즘을 적용하여 정합 정확도 향상을 도모하였다. 두 점군간의 변환식 매개변수인 3차원 회전변환 각과 수직/수평 이동량을 계산, 그 결과를 기존 수작업에 의한 결과와 비교하였다. 건국대학교 이과대학 건물을 대상으로 실험한 결과, 자동매칭을 통한 변환매개변수와 수작업으로 한 변환매개변수의 차이는 X, Y, Z, 방향으로 각각 0.011m, 0.008m, 0.052m로서 자동정합 자료의 활용이 가능하다고 판단하였다.

CNN의 깊은 특징과 전이학습을 사용한 보행자 분류 (Pedestrian Classification using CNN's Deep Features and Transfer Learning)

  • 정소영;정민교
    • 인터넷정보학회논문지
    • /
    • 제20권4호
    • /
    • pp.91-102
    • /
    • 2019
  • 자율주행 시스템에서, 카메라에 포착된 영상을 통하여 보행자를 분류하는 기능은 보행자 안전을 위하여 매우 중요하다. 기존에는 HOG(Histogram of Oriented Gradients)나 SIFT(Scale-Invariant Feature Transform) 등으로 보행자의 특징을 추출한 후 SVM(Support Vector Machine)으로 분류하는 기술을 사용했었으나, 보행자 특징을 위와 같이 수동(handcrafted)으로 추출하는 것은 많은 한계점을 가지고 있다. 따라서 본 논문에서는 CNN(Convolutional Neural Network)의 깊은 특징(deep features)과 전이학습(transfer learning)을 사용하여 보행자를 안정적이고 효과적으로 분류하는 방법을 제시한다. 본 논문은 2가지 대표적인 전이학습 기법인 고정특징추출(fixed feature extractor) 기법과 미세조정(fine-tuning) 기법을 모두 사용하여 실험하였고, 특히 미세조정 기법에서는 3가지 다른 크기로 레이어를 전이구간과 비전이구간으로 구분한 후, 비전이구간에 속한 레이어들에 대해서만 가중치를 조정하는 설정(M-Fine: Modified Fine-tuning)을 새롭게 추가하였다. 5가지 CNN모델(VGGNet, DenseNet, Inception V3, Xception, MobileNet)과 INRIA Person데이터 세트로 실험한 결과, HOG나 SIFT 같은 수동적인 특징보다 CNN의 깊은 특징이 더 좋은 성능을 보여주었고, Xception의 정확도(임계치 = 0.5)가 99.61%로 가장 높았다. Xception과 유사한 성능을 내면서도 80% 적은 파라메터를 학습한 MobileNet이 효율성 측면에서는 가장 뛰어났다. 그리고 3가지 전이학습 기법중 미세조정 기법의 성능이 가장 우수하였고, M-Fine 기법의 성능은 미세조정 기법과 대등하거나 조금 낮았지만 고정특징추출 기법보다는 높았다.

Panoramic Image Stitching using SURF

  • You, Meng;Lim, Jong-Seok;Kim, Wook-Hyun
    • 융합신호처리학회논문지
    • /
    • 제12권1호
    • /
    • pp.26-32
    • /
    • 2011
  • This paper proposes a new method to process panoramic image stitching using SURF(Speeded Up Robust Features). Panoramic image stitching is considered a problem of the correspondence matching. In computer vision, it is difficult to find corresponding points in variable environment where a scale, rotation, view point and illumination are changed. However, SURF algorithm have been widely used to solve the problem of the correspondence matching because it is faster than SIFT(Scale Invariant Feature Transform). In this work, we also describe an efficient approach to decreasing computation time through the homography estimation using RANSAC(random sample consensus). RANSAC is a robust estimation procedure that uses a minimal set of randomly sampled correspondences to estimate image transformation parameters. Experimental results show that our method is robust to rotation, zoom, Gaussian noise and illumination change of the input images and computation time is greatly reduced.

Quality Assessment of Images Projected Using Multiple Projectors

  • Kakli, Muhammad Umer;Qureshi, Hassaan Saadat;Khan, Muhammad Murtaza;Hafiz, Rehan;Cho, Yongju;Park, Unsang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권6호
    • /
    • pp.2230-2250
    • /
    • 2015
  • Multiple projectors with partially overlapping regions can be used to project a seamless image on a large projection surface. With the advent of high-resolution photography, such systems are gaining popularity. Experts set up such projection systems by subjectively identifying the types of errors induced by the system in the projected images and rectifying them by optimizing (correcting) the parameters associated with the system. This requires substantial time and effort, thus making it difficult to set up such systems. Moreover, comparing the performance of different multi-projector display (MPD) systems becomes difficult because of the subjective nature of evaluation. In this work, we present a framework to quantitatively determine the quality of an MPD system and any image projected using such a system. We have divided the quality assessment into geometric and photometric qualities. For geometric quality assessment, we use Feature Similarity Index (FSIM) and distance-based Scale Invariant Feature Transform (SIFT). For photometric quality assessment, we propose to use a measure incorporating Spectral Angle Mapper (SAM), Intensity Magnitude Ratio (IMR) and Perceptual Color Difference (ΔE). We have tested the proposed framework and demonstrated that it provides an acceptable method for both quantitative evaluation of MPD systems and estimation of the perceptual quality of any image projected by them.