• 제목/요약/키워드: Scale-Invariant Features

검색결과 116건 처리시간 0.022초

An Algorithm for a pose estimation of a robot using Scale-Invariant feature Transform

  • 이재광;허욱열;김학일
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.517-519
    • /
    • 2004
  • This paper describes an approach to estimate a robot pose with an image. The algorithm of pose estimation with an image can be broken down into three stages : extracting scale-invariant features, matching these features and calculating affine invariant. In the first step, the robot mounted mono camera captures environment image. Then feature extraction is executed in a captured image. These extracted features are recorded in a database. In the matching stage, a Random Sample Consensus(RANSAC) method is employed to match these features. After matching these features, the robot pose is estimated with positions of features by calculating affine invariant. This algorithm is implemented and demonstrated by Matlab program.

  • PDF

마커 없는 증강 현실 구현을 위한 물체인식 (Object Recogniton for Markerless Augmented Reality Embodiment)

  • 폴 안잔 쿠마;이형진;김영범;이슬람 모하마드 카이룰;백중환
    • 한국항행학회논문지
    • /
    • 제13권1호
    • /
    • pp.126-133
    • /
    • 2009
  • 본 논문에서는 마커 없이 증강 현실을 구현하기 위한 물체 인식 기법을 제안한다. 먼저 SIFT(Scale Invariant Feature Transform)알고리즘을 사용하여 물체 영상으로부터 특징점을 찾는데, 이러한 특징점들은 비율, 회전 또는 이동시에도 그 특징이 변하지 않는 장점이 있다. 또한 조도의 변화에도 일부는 변화지 않는 특성을 갖는다. 추출된 특징점의 독립적인 특성을 이용해 화면내의 다른 이미지의 매칭 포인트를 찾을 수 있는데, 학습된 영상과 매칭이 이루어지면, 매칭된 점을 이용해 화면내의 물체를 찾는다. 본 논문에서는 장면의 첫 프레임에서 발생하는 템플릿 이미지와의 매칭을 통해 현재의 화면에서 물체를 인식하였다. 네 종류의 물체에 대해 인식 실험을 한 결과 제안한 방법이 우수한 성능을 갖는 것을 확인하였다.

  • PDF

스케일불변 특징의 삼차원 재구성을 통한 이동 로봇의 상대위치추정 (Relative Localization for Mobile Robot using 3D Reconstruction of Scale-Invariant Features)

  • 길세기;이종실;유제군;이응혁;홍승홍;신동범
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제55권4호
    • /
    • pp.173-180
    • /
    • 2006
  • A key component of autonomous navigation of intelligent home robot is localization and map building with recognized features from the environment. To validate this, accurate measurement of relative location between robot and features is essential. In this paper, we proposed relative localization algorithm based on 3D reconstruction of scale invariant features of two images which are captured from two parallel cameras. We captured two images from parallel cameras which are attached in front of robot and detect scale invariant features in each image using SIFT(scale invariant feature transform). Then, we performed matching for the two image's feature points and got the relative location using 3D reconstruction for the matched points. Stereo camera needs high precision of two camera's extrinsic and matching pixels in two camera image. Because we used two cameras which are different from stereo camera and scale invariant feature point and it's easy to setup the extrinsic parameter. Furthermore, 3D reconstruction does not need any other sensor. And the results can be simultaneously used by obstacle avoidance, map building and localization. We set 20cm the distance between two camera and capture the 3frames per second. The experimental results show :t6cm maximum error in the range of less than 2m and ${\pm}15cm$ maximum error in the range of between 2m and 4m.

항공기 불변 인식에 관한 연구 (A Study on the Invariant Recognition of Aircraft)

  • 김창욱
    • 한국군사과학기술학회지
    • /
    • 제3권2호
    • /
    • pp.88-100
    • /
    • 2000
  • The design of an automatic aircraft recognition system involves two parts. The first part is extraction of invariant features independent of scale, rotation and translation. The second part is determination of optimal decision procedures, which are needed in the classification process. In this research, we extracted invariant aircraft features regardless of size, rotation and translation using Fourier Descriptors and Zernike Moments and classified using neural networks.

  • PDF

Gabor 특징에 기반한 이동 및 회전 불변 지문인증 (Translation- and Rotation-Invariant Fingerprint Authentication Based on Gabor Features)

  • 김종화;조상현;성효경;최홍문
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.901-904
    • /
    • 2000
  • A direct authentication from gray-scale image, instead of the conventional multi-step preprocessing, is proposed using Gabor filter-based features from the gray-scale fingerprint around core point. The core point is located as a reference point for the translation invariant matching. And its principal symmetry axis is detected for the rotation invariant matching from its neighboring region centered at the core point. And then fingerprint is divided into non-overlapping blocks with respect to the core point and features are directly extracted form the blocked gray level fingerprint using Gabor filter. The proposed fingerprint authentication is based on the Euclidean distance between the corresponding Gabor features of the input and the template fingerprints. Experiments are conducted on 300${\times}$300 fingerprints obtained from a CMOS sensor with 500 dpi resolution, and the proposed method could lower the False Reject Rate(FRR) to 18.2% under False Acceptance Rate(FAR) of 0%.

  • PDF

자기 위치 결정을 위한 SIFT 기반의 특징 지도 갱신 알고리즘 (An Algorithm of Feature Map Updating for Localization using Scale-Invariant Feature Transform)

  • 이재광;허욱열;김학일
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.141-143
    • /
    • 2004
  • This paper presents an algorithm in which a feature map is built and localization of a mobile robot is carried out for indoor environments. The algorithm proposes an approach which extracts scale-invariant features of natural landmarks from a pair of stereo images. The feature map is built using these features and updated by merging new landmarks into the map and removing transient landmarks over time. And the position of the robot in the map is estimated by comparing with the map in a database by means of an Extended Kalman filter. This algorithm is implemented and tested using a Pioneer 2-DXE and preliminary results are presented in this paper.

  • PDF

실내 환경에서 자기위치 인식을 위한 어안렌즈 기반의 천장의 특징점 모델 연구 (A Study on Fisheye Lens based Features on the Ceiling for Self-Localization)

  • 최철희;최병재
    • 한국지능시스템학회논문지
    • /
    • 제21권4호
    • /
    • pp.442-448
    • /
    • 2011
  • 이동 로봇의 위치인식 기술을 위하여 SLAM(Simultaneous Localization and Mapping)에 관한 많은 연구가 진행되고 있다. 본 논문에서는 시야각이 넓은 어안렌즈를 장착한 단일 카메라를 사용하여 천장의 특징점을 이용한 자기위치 인식에 관한 방안을 제시한다. 여기서는 어안렌즈 기반의 비전 시스템이 가지는 왜곡 영상의 보정, SIFT(Scale Invariant Feature Transform) 기반의 강인한 특징점을 추출하여 이전 영상과 이동한 영상과의 정합을 통해 최적화된 영역 함수를 도출하는 과정, 그리고 기하학적 적합모델 설계 등을 제시한다. 제안한 방법을 실험실 환경 및 복도 환경에 적용하여 그 유용성을 확인한다.

컬러 불변 특징과 광역 특징을 갖는 확장 SURF(Speeded Up Robust Features) 알고리즘 (Extended SURF Algorithm with Color Invariant Feature and Global Feature)

  • 윤현섭;한영준;한헌수
    • 대한전자공학회논문지SP
    • /
    • 제46권6호
    • /
    • pp.58-67
    • /
    • 2009
  • 대응점 정합은 컴퓨터 비전에서 중요한 작업 중에 하나지만 스케일, 조명, 시점이 변한 환경에서 대응점을 찾는 과정은 매우 어렵다. 대응점 정합 알고리즘인 SURF(Speeded Up Robust Features) 기법은 SIFT(Scale Invariant Feature Transform) 기법에 비해 정합 속도가 매우 빠르고 비슷한 정합 성능을 보여 널리 사용되고 있다. 하지만 SURF 기법은 흑백 영상과 지역 공간정보를 사용하기 때문에 유사한 패턴이 존재하는 영상에서 대응점의 정합 성능이 매우 떨어진다. 이런 문제점을 해결하기 위해 본 논문에서는 강인한 컬러 특징 정보와 광역적 특징 정보를 이용하는 확장 SURF 알고리즘을 제안한다. 제안하는 알고리즘은 비슷한 패턴이 존재하더라도 색상정보과 광역 공간 정보를 추가로 사용되기 때문에 대응점 매칭 성능을 크게 향상시킨다. 본 논문에서는 제안하는 방법의 우수성을 조명과 시점이 변화하고 유사한 패턴들을 갖는 영상들에 적용하여 기존의 방법들과 비교 실험함으로서 입증하였다.

Cooperative network와 MLP를 이용한 PSRI 특징추출 및 자동표적인식 (A PSRI Feature Extraction and Automatic Target Recognition Using a Cooperative Network and an MLP.)

  • 전준형;김진호;최흥문
    • 전자공학회논문지B
    • /
    • 제33B권6호
    • /
    • pp.198-207
    • /
    • 1996
  • A PSRI (position, scale, and rotation invariant ) feature extraction and automatic target recognition system using a cooperative network and an MLP is proposed. We can extract position invarient features by obtaining the target center using the projection and the moment in preprocessing stage. The scale and rotation invariant features are extracted from the contour projection of the number of edge pixels on each of the concentric circles, which is input to the cooperative network. By extracting the representative PSRI features form the features and their differentiations using max-net and min-net, we can rdduce the number of input neurons of the MLP, and make the resulted automatic target recognition system less sensitive to input variances. Experiments are conduted on various complex images which are shifted, rotated, or scaled, and the results show that the proposed system is very efficient for PSRI feature extractions and automatic target recognitions.

  • PDF

Hopfield 신경회로망을 이용한 모델 기반형 3차원 물체 인식 (Model-based 3-D object recognition using hopfield neural network)

  • 정우상;송호근;김태은;최종수
    • 전자공학회논문지B
    • /
    • 제33B권5호
    • /
    • pp.60-72
    • /
    • 1996
  • In this paper, a enw model-base three-dimensional (3-D) object recognition mehtod using hopfield network is proposed. To minimize deformation of feature values on 3-D rotation, we select 3-D shape features and 3-D relational features which have rotational invariant characteristics. Then these feature values are normalized to have scale invariant characteristics, also. The input features are matched with model features by optimization process of hopjfield network in the form of two dimensional arrayed neurons. Experimental results on object classification and object matching with the 3-D rotated, scale changed, an dpartial oculued objects show good performance of proposed method.

  • PDF