• 제목/요약/키워드: Keypoints Extraction

검색결과 13건 처리시간 0.023초

드론 영상을 이용한 특징점 추출 알고리즘 간의 성능 비교 (Performance Comparison and Analysis between Keypoints Extraction Algorithms using Drone Images)

  • 이충호;김의명
    • 한국측량학회지
    • /
    • 제40권2호
    • /
    • pp.79-89
    • /
    • 2022
  • 드론을 이용하여 촬영한 영상은 소규모 지역에 대하여 고품질의 3차원 공간정보를 빠르게 구축할 수 있어 신속한 의사결정이 필요한 분야에 적용되고 있다. 드론 영상을 기반으로 공간정보를 구축하기 위해서는 인접한 드론 영상 간에 특징점 추출하고 영상 매칭을 수행하여 영상 간의 관계를 결정할 필요가 있다. 이에 본 연구에서는 드론을 이용하여 촬영한 주차장과 호수가 공존하는 지역, 건물이 있는 도심 지역, 자연 지형의 들판 지역의 3가지 대상지역을 선정하고 AKAZE (Accelerated-KAZE), BRISK (Binary Robust Invariant Scalable Keypoints), KAZE, ORB(Oriented FAST and Rotated BRIEF), SIFT (Scale Invariant Feature Transform), and SURF (Speeded Up Robust Features) 알고리즘의 성능을 분석하였다. 특징점 추출 알고리즘의 성능은 추출된 특징점의 분포, 매칭점의 분포, 소요시간, 그리고 매칭 정확도를 비교하였다. 주차장과 호수가 공존하는 지역에서는 BRISK 알고리즘의 속도가 신속하였으며, SURF 알고리즘이 특징점과 매칭점의 분포도와 매칭 정확도에서 우수한 성능을 나타내었다. 건물이 있는 도심 지역에서는 AKAZE 알고리즘의 속도가 신속하였으며 SURF 알고리즘이 특징점과 매칭점의 분포도와 매칭 정확도에서 우수한 성능을 나타내었다. 자연 지형의 들판 지역에서는 SURF 알고리즘의 특징점, 매칭점이 드론으로 촬영한 영상 전반적으로 고르게 분포되어 있으나 AKAZE 알고리즘이 가장 높은 매칭 정확도와 신속한 속도를 나타내었다.

Keypoint-based Deep Learning Approach for Building Footprint Extraction Using Aerial Images

  • Jeong, Doyoung;Kim, Yongil
    • 대한원격탐사학회지
    • /
    • 제37권1호
    • /
    • pp.111-122
    • /
    • 2021
  • Building footprint extraction is an active topic in the domain of remote sensing, since buildings are a fundamental unit of urban areas. Deep convolutional neural networks successfully perform footprint extraction from optical satellite images. However, semantic segmentation produces coarse results in the output, such as blurred and rounded boundaries, which are caused by the use of convolutional layers with large receptive fields and pooling layers. The objective of this study is to generate visually enhanced building objects by directly extracting the vertices of individual buildings by combining instance segmentation and keypoint detection. The target keypoints in building extraction are defined as points of interest based on the local image gradient direction, that is, the vertices of a building polygon. The proposed framework follows a two-stage, top-down approach that is divided into object detection and keypoint estimation. Keypoints between instances are distinguished by merging the rough segmentation masks and the local features of regions of interest. A building polygon is created by grouping the predicted keypoints through a simple geometric method. Our model achieved an F1-score of 0.650 with an mIoU of 62.6 for building footprint extraction using the OpenCitesAI dataset. The results demonstrated that the proposed framework using keypoint estimation exhibited better segmentation performance when compared with Mask R-CNN in terms of both qualitative and quantitative results.

Comparative Study of Corner and Feature Extractors for Real-Time Object Recognition in Image Processing

  • Mohapatra, Arpita;Sarangi, Sunita;Patnaik, Srikanta;Sabut, Sukant
    • Journal of information and communication convergence engineering
    • /
    • 제12권4호
    • /
    • pp.263-270
    • /
    • 2014
  • Corner detection and feature extraction are essential aspects of computer vision problems such as object recognition and tracking. Feature detectors such as Scale Invariant Feature Transform (SIFT) yields high quality features but computationally intensive for use in real-time applications. The Features from Accelerated Segment Test (FAST) detector provides faster feature computation by extracting only corner information in recognising an object. In this paper we have analyzed the efficient object detection algorithms with respect to efficiency, quality and robustness by comparing characteristics of image detectors for corner detector and feature extractors. The simulated result shows that compared to conventional SIFT algorithm, the object recognition system based on the FAST corner detector yields increased speed and low performance degradation. The average time to find keypoints in SIFT method is about 0.116 seconds for extracting 2169 keypoints. Similarly the average time to find corner points was 0.651 seconds for detecting 1714 keypoints in FAST methods at threshold 30. Thus the FAST method detects corner points faster with better quality images for object recognition.

SIFT 특징을 이용한 의료 영상의 회전 영역 보정 (Correction of Rotated Region in Medical Images Using SIFT Features)

  • 김지홍;장익훈
    • 한국멀티미디어학회논문지
    • /
    • 제18권1호
    • /
    • pp.17-24
    • /
    • 2015
  • In this paper, a novel scheme for correcting rotated region in medical images using SIFT(Scale Invariant Feature Transform) algorithm is presented. Using the feature extraction function of SIFT, the rotation angle of rotated object in medical images is calculated as follows. First, keypoints of both reference and rotated medical images are extracted by SIFT. Second, the matching process is performed to the keypoints located at the predetermined ROI(Region Of Interest) at which objects are not cropped or added by rotating the image. Finally, degrees of matched keypoints are calculated and the rotation angle of the rotated object is determined by averaging the difference of the degrees. The simulation results show that the proposed scheme has excellent performance for correcting the rotated region in medical images.

원격 탐사 영상 정합을 위한 딥러닝 기반 특징점 필터링 (Deep Learning-based Keypoint Filtering for Remote Sensing Image Registration)

  • 성준영;이우주;오승준
    • 방송공학회논문지
    • /
    • 제26권1호
    • /
    • pp.26-38
    • /
    • 2021
  • 본 논문에서는 원격 탐사 영상에 대한 특징 기반 영상 정합 (Image Registration) 방법의 고속화를 위한 딥러닝 기반 특징점 필터링 방법인 DLKF (Deep Learning Keypoint Filtering)를 제안한다. 기존의 특징 기반 영상 정합 방법의 복잡도는 특징 매칭 (Feature Matching) 단계에서 발생한다. 이 복잡도를 줄이기 위하여 본 논문에서는 특징 매칭이 영상의 구조물에서 검출된 특징점으로 매칭되는 것을 확인하여 특징점 검출기에서 검출된 특징점 중에서 구조물에서 검출된 특징점만 필터링하는 방법을 제안한다. DLKF는 영상 정합을 위하여 필수적인 특징점을 잃지 않으면서 그 수를 줄이기 위하여 구조물의 경계와 인접한 특징점을 보존하고, 서브 샘플링 (Subsampling)된 영상을 사용한다. 또한 영상 분할 (Image Segmentation) 방법을 위해 패치 단위로 잘라낸 영상을 다시 합칠 때 생기는 영상 패치 경계의 잡음을 제거하기 위하여 영상 패치를 중복하여 잘라낸다. DLKF의 성능을 검증하기 위하여 아리랑 3호 위성 원격 탐사 영상을 사용하여 기존 특징점 검출 방법과 속도와 정확도를 비교하였다. SIFT 기반 정합 방법을 기준으로 SURF 기반 정합 방법은 특징점의 수를 약 18% 감소시키고 속도를 약 2.6배 향상시켰지만 정확도가 3.42에서 5.43으로 저하되었다. 제안하는 방법인 DLKF를 사용하였을 때 특징점의 수를 약 82% 감소시키고 속도를 약 20.5배 향상시키면서 정확도는 4.51로 저하되었다.

스케일 공간 고차 미분의 정규화를 통한 특징점 검출 기법 (Keypoint Detection Using Normalized Higher-Order Scale Space Derivatives)

  • 박종승;박운상
    • 정보과학회 논문지
    • /
    • 제42권1호
    • /
    • pp.93-96
    • /
    • 2015
  • 이미지 검색 및 매칭에 사용되는 SIFT 기법은 다양한 이미지 변화 요인들에 대하여 강인한 특성을 가지고 있는 것으로 알려져 있다. SIFT 기법은 기존의 픽셀 단위의 변화량에 의존한 특징점 추출 방식을 확장하여 스케일 공간에서의 변화량 분석을 통한 특징점 추출 방식을 제시하였으며, 이렇게 추출된 특징점들의 강인함은 그 동안 여러 실험을 통하여 입증되었다. 또한, 최근에는 스케일 공간 변화량 분석에 있어서 기존의 SIFT 기법을 확장하여 고차 미분 계수를 이용한 특징점 추출 방법도 소개되었다. 본 논문에서는 이러한 스케일 공간의 고차 미분에서의 정규화를 통한 보다 강인한 특징점 추출 기법을 소개하고 이러한 특징점들의 강인함을 이미지 검색 실험을 통하여 입증한다.

PoseNet과 GRU를 이용한 Skeleton Keypoints 기반 낙상 감지 (Human Skeleton Keypoints based Fall Detection using GRU)

  • 강윤규;강희용;원달수
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.127-133
    • /
    • 2021
  • 낙상 판단을 위한 최근 발표되는 연구는 RNN(Recurrent Neural Network)을 이용한 낙상 동작 특징 분석과 동작 분류에 집중되어 있다. 웨어러블 센서를 기반으로 한 접근 방식은 높은 탐지율을 제공하나 사용자의 착용 불편으로 보편화 되지 못했고 최근 영상이나 이미지 기반에 딥러닝 접근방식을 이용한 낙상 감지방법이 소개 되었다. 본 논문은 2D RGB 저가 카메라에서 얻은 영상을 PoseNet을 이용해 추출한 인체 골격 키포인트(Keypoints) 정보로 머리와 어깨의 키포인트들의 위치와 위치 변화 가속도를 추정함으로써 낙상 판단의 정확도를 높이기 위한 감지 방법을 연구하였다. 특히 낙상 후 자세 특징 추출을 기반으로 Convolutional Neural Networks 중 Gated Recurrent Unit 기법을 사용하는 비전 기반 낙상 감지 솔루션을 제안한다. 인체 골격 특징 추출을 위해 공개 데이터 세트를 사용하였고, 동작분류 정확도를 높이는 기법으로 코, 좌우 눈 그리고 양쪽 귀를 포함하는 머리와 어깨를 하나의 세그먼트로 하는 특징 추출 방법을 적용해, 세그먼트의 하강 속도와 17개의 인체 골격 키포인트가 구성하는 바운딩 박스(Bounding Box)의 높이 대 폭의 비율을 융합하여 실험을 하였다. 제안한 방법은 기존 원시골격 데이터 사용 기법보다 낙상 탐지에 보다 효과적이며 실험환경에서 약 99.8%의 성공률을 보였다.

Recent Advances in Feature Detectors and Descriptors: A Survey

  • Lee, Haeseong;Jeon, Semi;Yoon, Inhye;Paik, Joonki
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제5권3호
    • /
    • pp.153-163
    • /
    • 2016
  • Local feature extraction methods for images and videos are widely applied in the fields of image understanding and computer vision. However, robust features are detected differently when using the latest feature detectors and descriptors because of diverse image environments. This paper analyzes various feature extraction methods by summarizing algorithms, specifying properties, and comparing performance. We analyze eight feature extraction methods. The performance of feature extraction in various image environments is compared and evaluated. As a result, the feature detectors and descriptors can be used adaptively for image sequences captured under various image environments. Also, the evaluation of feature detectors and descriptors can be applied to driving assistance systems, closed circuit televisions (CCTVs), robot vision, etc.

영상 스티칭 관점에서 SIFT 특징점 추출시간 감소를 위한 파라미터 분석 (Parameter Analysis for Time Reduction in Extracting SIFT Keypoints in the Aspect of Image Stitching)

  • 문원준;서영호;김동욱
    • 방송공학회논문지
    • /
    • 제23권4호
    • /
    • pp.559-573
    • /
    • 2018
  • 최근 가상현실(VR, Virtual Reality) 등 가장 많은 분야에서 가장 활발히 응용되고 있는 영상매체 중 하나가 전방위 영상 또는 파노라마 영상이다. 이 영상은 다양한 방법으로 획득된 영상들을 스티칭하여 생성하는데, 그 과정에서 스티칭에 필요한 특징점들을 추출하는데 가장 많은 시간이 소요된다. 이에 본 논문은 현재 가장 널리 사용되고 있는 SIFT 특징점을 추출하는 연산시간을 감소하는 것에 목적을 두고 SIFT 특징점들을 추출에 관여하는 파라미터들을 분석한다. 본 논문에서 고려하는 파라미터는 가우시안 필터링에 사용되는 가우시안 커널의 초기 표준편차, 국소극점을 추출하기 위한 가우시안 차영상군의 수, 그리고 옥타브 수의 세 가지이다. SIFT 알고리즘으로는 이 알고리즘을 제안한 Lowe 방식과 컨볼루션 캐스캐이드(convolution cascade) 방식인 Hess 방식을 고려한다. 먼저 각 파라미터 값이 연산시간에 미치는 영향을 분석하고, 실제 스티칭 실험을 수행하여 각 파라미터가 스티칭 성능에 미치는 영향을 분석한다. 마지막으로 두 분석결과를 토대로 성능저하 없이 연산시간을 최소로 하는 파라미터 값들을 추출한다.

AlphaPose를 활용한 LSTM(Long Short-Term Memory) 기반 이상행동인식 (LSTM(Long Short-Term Memory)-Based Abnormal Behavior Recognition Using AlphaPose)

  • 배현재;장규진;김영훈;김진평
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권5호
    • /
    • pp.187-194
    • /
    • 2021
  • 사람의 행동인식(Action Recognition)은 사람의 관절 움직임에 따라 어떤 행동을 하는지 인식하는 것이다. 이를 위해서 영상처리에 활용되는 컴퓨터 비전 태스크를 활용하였다. 사람의 행동인식은 딥러닝과 CCTV를 결합한 안전사고 대응서비스로서 안전관리 현장 내에서도 적용될 수 있다. 기존연구는 딥러닝을 활용하여 사람의 관절 키포인트 추출을 통한 행동인식 연구가 상대적으로 부족한 상태이다. 또한 안전관리 현장에서 작업자를 지속적이고 체계적으로 관리하기 어려운 문제점도 있었다. 본 논문에서는 이러한 문제점들을 해결하기 위해 관절 키포인트와 관절 움직임 정보만을 이용하여 위험 행동을 인식하는 방법을 제안하고자 한다. 자세추정방법(Pose Estimation)의 하나인 AlphaPose를 활용하여 신체 부위의 관절 키포인트를 추출하였다. 추출된 관절 키포인트를 LSTM(Long Short-Term Memory) 모델에 순차적으로 입력하여 연속적인 데이터로 학습을 하였다. 행동인식 정확률을 확인한 결과 "누워있기(Lying Down)" 행동인식 결과의 정확도가 높음을 확인할 수 있었다.