• 제목/요약/키워드: KLT Feature Point

검색결과 9건 처리시간 0.021초

KLT 특징점에 기반한 비접촉 장문인식 (Contactless Palmprint Recognition Based on the KLT Feature Points)

  • 김민기
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권11호
    • /
    • pp.495-502
    • /
    • 2014
  • 비접촉 장문을 인식하기 위해서는 영상의 크기 및 회전 변형을 효과적으로 해결해야 한다. 본 연구에서는 손의 크기와 방향에 따라 관심영역(ROI)을 추출한 후 정규화하여 일차적으로 이러한 변형을 최소화하였다. 본 논문에서는 KLT(Kanade-Lukas-Tomasi) 특징점에 기반한 비접촉 장문인식 방법을 제안한다. 대응되는 KLT 특징점 주위의 국소영역에 대한 텍스처를 비교하여 대응되는 특징점을 검출한 후, 특징점 쌍의 변위 크기와 방향을 나타내는 변위벡터들 간의 유사도를 비교하여 장문을 인식한다. CASIA 공개 데이터베이스를 이용한 실험결과 제안된 방법이 비접촉 장문인식에 효과적임을 확인할 수 있었다. 특히 다중 가버 필터를 이용하였을 때 99%를 상회하는 정인식률을 얻을 수 있었다.

계층적 KLT 특징 추적기의 하드웨어 구현 (A Hardware Implementation of Pyramidal KLT Feature Tracker)

  • 김현진;김경환
    • 대한전자공학회논문지SP
    • /
    • 제46권2호
    • /
    • pp.57-64
    • /
    • 2009
  • 본 논문에서는 계층적 KLT 특징 추적기의 하드웨어 구조를 제안한다. 계층적 KLT 특징 추적기(pyramidal Kanade-Lucas-Tomasi feature tracker)는 주로 MPU를 기반으로 구현되어 왔으나 반복연산 과정이 많아 실시간으로 처리하기 어려우므로, 실시간 수행을 위하여 FPGA(Field Programmable Gate Array)를 이용하여 구현하였다. 본 논문에서는 추출되는 특징점의 수를 일정하게 유지하기 위해 입력 영상의 밝기에 적응적으로 임계값을 설정하는 특징점 추출 알고리즘을 제안한다. 또한 계층적 KLT 추적 알고리즘을 메모리의 용량 및 대역폭의 한계를 극복하고, FPGA의 병렬처리 특성에 적합한 구조로 변환한다. 소프트웨어로 실행한 결과와의 비교를 통하여 특징점의 추출 및 추적이 유사한 양상으로 이루어짐을 검증하였고, $720{\times}480$ 영상 입력에 대해 초당 30 프레임의 full frame rate로 추적이 수행됨을 확인하였다.

KLT특징점 검출 및 추적에 의한 비디오영상등록 (Sequence Images Registration by using KLT Feature Detection and Tracking)

  • ;박상언;신성웅;유환희
    • 대한공간정보학회지
    • /
    • 제16권2호
    • /
    • pp.49-56
    • /
    • 2008
  • 영상등록은 영상모자�掠茱� 중 중요한 기술로 인식되고 있으며, 파노라마 영상생성이나 비디오 모니터링, 영상복원 등과 같은 다양한 분야에서 사용될 수 있다. 영상등록에서 중요한 처리과정은 많은 시간이 소요되는 특징점 검출과 추적이다. 본 연구에서는 연속된 영상자료에서 특징점을 검출하고 추적하기 위해서 KLT 특징점 추적자를 제안하였으며, 무인헬기에서 촬영된 연속영상프레임의 영상등록에 적용하여 효용성을 입증하였다. 그 결과 KLT추적자에 의한 반복처리는 연속영상의 첫 번째 프레임에서 추출된 특징점을 이용하여 전체 프레임에 걸쳐 성공적으로 추적할 수 있었다. 또한, 회전, 축척, 이동량이 다른 각각의 프레임들간의 특징점 추적은 KLT영상피라미드와 처리조건의 선택에 의해 정확도를 향상시킬 수 있었다.

  • PDF

영상기반항법을 위한 파티클 필터 기반의 특징점 추적 필터 설계 (Particle Filter Based Feature Points Tracking for Vision Based Navigation System)

  • 원대희;성상경;이영재
    • 한국항공우주학회지
    • /
    • 제40권1호
    • /
    • pp.35-42
    • /
    • 2012
  • 본 논문은 영상기반항법에서 특징점의 이동변위가 큰 경우에도 추적 성능을 확보할 수 있는 파티클 필터 기반의 특징점 추적 필터를 설계하였다. 기존 KLT(Kanade-Lucas-Tomasi) 알고리즘에서 이동량이 큰 경우의 추적 성능을 향상시키기 위해 특징점의 동역학 모델을 적용하였고, 불규칙적인 영상정보의 특성을 반영하기 위해 파티클 필터를 사용하였다. 저장된 이미지로 KLT 알고리즘과의 특징점 추적 성능을 비교한 결과 제안한 알고리즘은 큰 이동량을 갖는 경우에도 추적 기능을 유지하는 것을 확인하였다.

KLT 알고리즘을 이용한 추적에서 안정된 특징점 선택 (Stable Feature Point Selection Using KLT Algorithm for Tracking)

  • 김용진;이일병
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 춘계학술발표대회
    • /
    • pp.661-664
    • /
    • 2006
  • 본 논문에서는 특징기반 물체추적을 위해 많이 사용되고 있는 KLT(Kanade-Lucas-Tomasi) 알고리즘을 소개하고, 이 알고리즘을 이용한 특징점(corner) 추출시, 영상에서 잡음의 영향이 KLT 알고리즘의 성능에 어떤 영향을 미치는지 잡음이 포함된 영상과 포함되지 않은 영상을 이용하여 안정된 특징점 추출을 위한 실험을 실시하고 비교 분석하였다.

  • PDF

순차영상에서 투영변환과 KLT추적을 이용한 이동 카메라의 위치 및 방향 산출 (A Moving Camera Localization using Perspective Transform and Klt Tracking in Sequence Images)

  • 장효종;차정희;김계영
    • 정보처리학회논문지B
    • /
    • 제14B권3호
    • /
    • pp.163-170
    • /
    • 2007
  • 이동차량 혹은 이동로봇의 자율 주행에 있어서 주변 환경의 인식을 통하여 산출되는 자기위치확인은 가장 핵심적인 요소이다. 일반적으로 GPS나 INS를 통합하여 이동차량 혹은 이동로봇에 장착된 카메라의 위치와 방향을 얻을 수 있지만, 이 경우 정확한 자기위치인식을 위해서는 충분한 지상 기준점을 이용해야만 한다. 본 연구에서는 기존의 호모그래피 방법이 2차원 특징점의 상관관계를 이용하는 것과는 다르게 GPS와 INS 입력값을 이용하여 이전 시점 영상과 중첩된 3차원 모델로부터 얻어진 3차원 좌표를 투영 변환함으로써 예측한 위치와 현재 시점 영상으로부터 KLT 추적방법을 사용하여 산출된 대응 특징점의 위치 사이의 관계로부터 카메라의 위치와 방향을 산출하는 방법을 제안한다. 제안하는 방법의 성능을 평가하기 위해 무선으로 운행되는 간이실험장치 내에 CCD카메라, GPS, INS 등을 장착하였으며, 영상은 15Hz의 프레임율로 획득한 비디오시퀀스를 사용하여 실시간으로 카메라 위치와 방향을 산출하는 실험을 수행하였다.

특징점 정합 필터 결합 SIFT를 이용한 상대 위치 추정 (Integrated SIFT Algorithm with Feature Point Matching Filter for Relative Position Estimation)

  • 곽민규;성상경;윤석창;원대희;이영재
    • 한국항공우주학회지
    • /
    • 제37권8호
    • /
    • pp.759-766
    • /
    • 2009
  • 본 논문은 INS/vSLAM 통합 항법 시스템의 성능 향상을 위한 기초 연구로써, 비전 센서의 영상처리 성능을 향상을 위한 알고리즘 개발에 목표를 두고 있다. 비전센서의 영상처리알고리즘으로 SIFT 알고리즘을 사용하였으며, SIFT 알고리즘의 특징점 정합 성능을 개선하기 위해 특징점 정합 필터를 적용하였다. 본 논문에서 제안한 알고리즘을 이용하여 기존의 SIFT 알고리즘을 파라미터 조절한 경우보다 향상된 결과를 얻을 수 있었다. 차후 실시간 통합 항법 시스템에 적용하기 위해서 알고리즘의 속도를 향상시키는 작업이 필요하다.

역방향 영상재생을 이용한 끼어들기 차량 자동추적 (Using play-back image sequence to detect a vehicle cutting in a line automatically)

  • 류지형;김영모
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.95-101
    • /
    • 2014
  • 본 논문은 도로상에서 끼어들기 위반 차량을 자동으로 추적하는 효과적인 방법을 설명한다. 이 방법은 이미지 시퀀스를 역방향으로 재생하면서 광류추정을 기본으로 하는 KLT 추적 알고리즘을 적용한다. 어떤 기준이 되는 순간부터 시간의 역방향으로 재생하는 이미지 시퀀스를 사용하여 추적의 정확성을 높이는 것이 본 논문의 중요한 아이디어이다. 기준이 되는 순간은 일반적으로 인식카메라가 번호판을 잘 읽을 수 있는 순간이다. 또한 추적 물체의 가장 큰 이미지를 얻는 시점이기도 하다. 추적하려는 물체의 이미지가 클수록 광류 추정을 위한 추적의 특징점을 더 많이 찾을 수 있으며 특징점이 많으면 추적의 결과도 좋다. 인식카메라로 차량의 번호판을 읽은 다음 끼어들기 위반이 의심되면, 광역을 촬영하는 추적카메라의 동영상에서 이 차량의 역방향 이미지 시퀀스를 추출한다. 본 논문은 추적에 이용하는 일반적인 방법인 정방향 이미지 시퀀스와 본 논문이 제안하는 역방향 영상이미지를 이용한 추적 실험의 결과를 비교하였다. 또한 역방향 이미지 시퀀스를 이용한 본 추적의 알고리즘을 자동단속장비에 적용할 수 있다는 결과를 보여준다.

Monocular Vision-Based Guidance and Control for a Formation Flight

  • Cheon, Bong-kyu;Kim, Jeong-ho;Min, Chan-oh;Han, Dong-in;Cho, Kyeum-rae;Lee, Dae-woo;Seong, kie-jeong
    • International Journal of Aeronautical and Space Sciences
    • /
    • 제16권4호
    • /
    • pp.581-589
    • /
    • 2015
  • This paper describes a monocular vision-based formation flight technology using two fixed wing unmanned aerial vehicles. To measuring relative position and attitude of a leader aircraft, a monocular camera installed in the front of the follower aircraft captures an image of the leader, and position and attitude are measured from the image using the KLT feature point tracker and POSIT algorithm. To verify the feasibility of this vision processing algorithm, a field test was performed using two light sports aircraft, and our experimental results show that the proposed monocular vision-based measurement algorithm is feasible. Performance verification for the proposed formation flight technology was carried out using the X-Plane flight simulator. The formation flight simulation system consists of two PCs playing the role of leader and follower. When the leader flies by the command of user, the follower aircraft tracks the leader by designed guidance and a PI control law, and all the information about leader was measured using monocular vision. This simulation shows that guidance using relative attitude information tracks the leader aircraft better than not using attitude information. This simulation shows absolute average errors for the relative position as follows: X-axis: 2.88 m, Y-axis: 2.09 m, and Z-axis: 0.44 m.