• Title/Summary/Keyword: Keypoint

검색결과 80건 처리시간 0.028초

Keypoint Detection과 Annoy Tree를 사용한 2D Hand Pose Estimation (Fast Hand Pose Estimation with Keypoint Detection and Annoy Tree)

  • 이희재;강민혜
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제63차 동계학술대회논문집 29권1호
    • /
    • pp.277-278
    • /
    • 2021
  • 최근 손동작 인식에 대한 연구들이 활발하다. 하지만 대부분 Depth 정보를 포함한3D 정보를 필요로 한다. 이는 기존 연구들이 Depth 카메라 없이는 동작하지 않는다는 한계점이 있다는 것을 의미한다. 본 프로젝트는 Depth 카메라를 사용하지 않고 2D 이미지에서 Hand Keypoint Detection을 통해 손동작 인식을 하는 방법론을 제안한다. 학습 데이터 셋으로 Facebook에서 제공하는 InterHand2.6M 데이터셋[1]을 사용한다. 제안 방법은 크게 두 단계로 진행된다. 첫째로, Object Detection으로 Hand Detection을 수행한다. 데이터 셋이 어두운 배경에서 촬영되어 실 사용 환경에서 Detection 성능이 나오지 않는 점을 해결하기 위한 이미지 합성 Augmentation 기법을 제안한다. 둘째로, Keypoint Detection으로 21개의 Hand Keypoint들을 얻는다. 실험을 통해 유의미한 벡터들을 생성한 뒤 Annoy (Approximate nearest neighbors Oh Yeah) Tree를 생성한다. 생성된 Annoy Tree들로 후처리 작업을 거친 뒤 최종 Pose Estimation을 완료한다. Annoy Tree를 사용한 Pose Estimation에서는 NN(Neural Network)을 사용한 것보다 빠르며 동등한 성능을 냈다.

  • PDF

모바일 증강현실을 위한 특징점 인식, 추적 기술 및 사례 연구 (Research Trends and Case Study on Keypoint Recognition and Tracking for Augmented Reality in Mobile Devices)

  • 최희승;안상철;김익재
    • 한국HCI학회논문지
    • /
    • 제10권2호
    • /
    • pp.45-55
    • /
    • 2015
  • 최근 증강현실 분야에서 특징점 인식 및 추적 기술은 비마커 기반의 증강 현실 서비스 구현에 중요한 역할을 담당하고 있다. 특징점 인식 및 추적 기술은 오래 전부터 컴퓨터 비전 등 여러 분야의 많은 연구자들에 의해 심도 있게 연구되어 왔으며, 특히 최근 급성장하고 있는 모바일 관련 시스템에 적용하기 위해 모바일 임베디드 환경에 접목 가능한 특징점 기반의 다양한 인식 및 추적 기술들이 소개되고 있다. 따라서 본 논문에서는 널리 활용되고 있는 특징점 기반의 매칭 및 추적의 다양한 핵심 요소 기술 (특징점 추출, 특징점 기술, 특징점 매칭 및 추적)에 대한 최신 동향을 분석하고, 본 한국과학기술연구원 연구팀이 수행한 모바일 증강현실 서비스 관련 사례 연구인 관광 지도 인식 및 추적 연구를 소개하고자 한다.

특징점 기반 방식과 블록 기반 방식을 융합한 효율적인 CMF 위조 검출 방법 (Hybrid copy-move-forgery detection algorithm fusing keypoint-based and block-based approaches)

  • 박천수
    • 인터넷정보학회논문지
    • /
    • 제19권4호
    • /
    • pp.7-13
    • /
    • 2018
  • Copy move frogery(CMF) 위조를 검출하는 기술은 블록(block) 기반 방식과 특징점(keypoint) 기반 방식으로 구분 된다. 블록 기반 방법은 위조 검출 과정에서 조사해야 하는 블록의 수가 많기 때문에 높은 계산 비용이 발생한다. 또한 위조되는 영역이 기하학적 변환을 거친 경우 위조 검출에 실패하는 단점이 있다. 반대로 특징점 기반 접근법은 블록 기반 방식의 단점을 극복 할 순 있지만 CMF 위조가 이미지의 낮은 엔트로피 영역에서 발생하는 경우 검출 할 수 없다는 단점이 존재한다. 따라서 본 논문에서는 특징점 기반 방식과 블록 기반 방식을 융합하여 이미지의 모든 영역에서 CMF 위조를 검출하는 방법을 제안한다. 제안하는 방법은 우선 전체 이미지를 대상으로 특징점 기반 위조 검출을 수행한다. 그 후 위조 검사가 이루어지지 않은 영역을 선별하여 블록 기반 위조 검사를 다시 수행한다. 따라서 제안하는 위조 검출 기술은 이미지의 모든 영역에서 발생하는 CMF 위조를 검출하는 것을 가능하게 해준다. 실험을 통해 제안하는 방법이 기존은 방법보다 우수한 위조 검출 성능을 보이는 것을 확인하였다.

Keypoint-based Deep Learning Approach for Building Footprint Extraction Using Aerial Images

  • Jeong, Doyoung;Kim, Yongil
    • 대한원격탐사학회지
    • /
    • 제37권1호
    • /
    • pp.111-122
    • /
    • 2021
  • Building footprint extraction is an active topic in the domain of remote sensing, since buildings are a fundamental unit of urban areas. Deep convolutional neural networks successfully perform footprint extraction from optical satellite images. However, semantic segmentation produces coarse results in the output, such as blurred and rounded boundaries, which are caused by the use of convolutional layers with large receptive fields and pooling layers. The objective of this study is to generate visually enhanced building objects by directly extracting the vertices of individual buildings by combining instance segmentation and keypoint detection. The target keypoints in building extraction are defined as points of interest based on the local image gradient direction, that is, the vertices of a building polygon. The proposed framework follows a two-stage, top-down approach that is divided into object detection and keypoint estimation. Keypoints between instances are distinguished by merging the rough segmentation masks and the local features of regions of interest. A building polygon is created by grouping the predicted keypoints through a simple geometric method. Our model achieved an F1-score of 0.650 with an mIoU of 62.6 for building footprint extraction using the OpenCitesAI dataset. The results demonstrated that the proposed framework using keypoint estimation exhibited better segmentation performance when compared with Mask R-CNN in terms of both qualitative and quantitative results.

X-ray 및 초음파 영상을 활용한 고관절 이형성증 진단을 위한 특징점 검출 딥러닝 모델 비교 연구 (A comparative study on keypoint detection for developmental dysplasia of hip diagnosis using deep learning models in X-ray and ultrasound images)

  • 김성현;이경수;이시욱;장진호;황재윤;김지훈
    • 한국음향학회지
    • /
    • 제42권5호
    • /
    • pp.460-468
    • /
    • 2023
  • 고관절 이형성증(Developmental Dysplasia of Hip, DDH)은 영유아 성장기에 흔히 발생하는 병리학적 상태로, 영유아의 성장을 방해하고 잠재적인 합병증을 유발하는 원인 중 하나이며 이를 조기에 발견하고 치료하는 것은 매우 중요하다. 기존의 DDH 진단 방법으로는 촉진법과 X-ray 또는 초음파 영상 기반 고관절에서의 특징점 검출을 이용한 진단 방법이 있지만 특징점 검출 시 객관성과 생산성에 제한점이 존재한다. 본 연구에서는 X-ray 및 초음파 영상을 이용한 딥러닝 모델 기반 특징점 검출 방법을 제시하고, 다양한 딥러닝 모델을 이용하여 특징점 검출의 성능을 비교 분석하였다. 또한, 부족한 의료 데이터를 보완하는 방법인 다양한 데이터 증강 기법을 제시하고 비교 평가하였다. 본 연구에서는 Residual Network 152(ResNet152) 및 Simple & Complex augmentation 기법을 적용하였을 때 가장 높은 특징점 검출 성능을 보여주었으며, X-ray 영상에서 평균 Object Keypoint Similarity(OKS)가 약 95.33 %, 초음파 영상에서는 약 81.21 %로 각각 측정되었다. 이러한 결과는 고관절 초음파 및 X-ray 영상에서 딥러닝 모델을 적용함으로써 DDH 진단 시 특징점 검출에 관한 객관성과 생산성을 향상시킬 수 있음을 보여준다.

RGB-D 정보를 이용한 객체 탐지 기반의 신체 키포인트 검출 방법 (A Method for Body Keypoint Localization based on Object Detection using the RGB-D information)

  • 박서희;전준철
    • 인터넷정보학회논문지
    • /
    • 제18권6호
    • /
    • pp.85-92
    • /
    • 2017
  • 최근 영상감시 분야에서는 영상에서 움직이는 사람을 탐지하고, 탐지된 사람의 행위를 분석하는 방식에 딥러닝 기반 학습방법이 적용되기 시작했다. 이러한 지능형 영상분석 기술을 적용할 수 있는 분야 중 하나인 인간 행위 인식은 객체를 탐지하고 탐지된 객체의 행위를 인식하기 위해 신체 키포인트를 검출 하는 과정을 거치게 된다. 본 논문에서는 RGB-D 정보를 이용한 객체 탐지 기반의 신체 키포인트 검출 방법을 제시한다. 먼저, 두 대의 카메라로 생성된 색상정보와 깊이정보를 이용하여 이동하는 객체를 배경으로부터 분할하여 탐지한다. RGB-D 정보를 이용하여 탐지된 객체의 영역을 재조정하여 생성된 입력 데이터를 한 사람의 자세 추정을 위한 Convolutional Pose Machines(CPM)에 적용한다. CPM을 이용하여 한 사람당 14개의 신체부위에 대한 신념 지도(Belief Map)를 생성하고, 신념 지도를 기반으로 신체 키포인트를 검출한다. 이와 같은 방법은 키포인트를 검출할 객체에 대한 정확한 영역을 제공하게 되며, 개별적인 신체 키포인트의 검출을 통하여 단일 신체 키포인트 검출에서 다중 신체 키포인트 검출로 확장 할 수 있다. 향후, 검출된 키포인트를 이용하여 인간 자세 추정을 위한 모델을 생성할 수 있으며 인간 행위 인식 분야에 기여 할 수 있다.

스케일 공간 고차 미분의 정규화를 통한 특징점 검출 기법 (Keypoint Detection Using Normalized Higher-Order Scale Space Derivatives)

  • 박종승;박운상
    • 정보과학회 논문지
    • /
    • 제42권1호
    • /
    • pp.93-96
    • /
    • 2015
  • 이미지 검색 및 매칭에 사용되는 SIFT 기법은 다양한 이미지 변화 요인들에 대하여 강인한 특성을 가지고 있는 것으로 알려져 있다. SIFT 기법은 기존의 픽셀 단위의 변화량에 의존한 특징점 추출 방식을 확장하여 스케일 공간에서의 변화량 분석을 통한 특징점 추출 방식을 제시하였으며, 이렇게 추출된 특징점들의 강인함은 그 동안 여러 실험을 통하여 입증되었다. 또한, 최근에는 스케일 공간 변화량 분석에 있어서 기존의 SIFT 기법을 확장하여 고차 미분 계수를 이용한 특징점 추출 방법도 소개되었다. 본 논문에서는 이러한 스케일 공간의 고차 미분에서의 정규화를 통한 보다 강인한 특징점 추출 기법을 소개하고 이러한 특징점들의 강인함을 이미지 검색 실험을 통하여 입증한다.

SIFT 알고리즘으로 kidney 특징점 검출 (Extraction of kidney's feature points by SIFT algorithm in ultrasound image)

  • 김성중;유재천
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제60차 하계학술대회논문집 27권2호
    • /
    • pp.313-314
    • /
    • 2019
  • 본 논문에서는 특징점 검출 알고리즘을 적용하여 ultrasound image에서 특징점을 검출하는 것과 object dectection을 위한 keypoints가 object에 올바르게 위치하는지를 검증하는 실험을 진행한다. 특징점 검출을 위한 알고리즘으로는 Scale Invariant Feature Transform(SIFT)과 Harris corner detection 을 적용하여 검증한다.

  • PDF

원격 탐사 영상 정합을 위한 딥러닝 기반 특징점 필터링 (Deep Learning-based Keypoint Filtering for Remote Sensing Image Registration)

  • 성준영;이우주;오승준
    • 방송공학회논문지
    • /
    • 제26권1호
    • /
    • pp.26-38
    • /
    • 2021
  • 본 논문에서는 원격 탐사 영상에 대한 특징 기반 영상 정합 (Image Registration) 방법의 고속화를 위한 딥러닝 기반 특징점 필터링 방법인 DLKF (Deep Learning Keypoint Filtering)를 제안한다. 기존의 특징 기반 영상 정합 방법의 복잡도는 특징 매칭 (Feature Matching) 단계에서 발생한다. 이 복잡도를 줄이기 위하여 본 논문에서는 특징 매칭이 영상의 구조물에서 검출된 특징점으로 매칭되는 것을 확인하여 특징점 검출기에서 검출된 특징점 중에서 구조물에서 검출된 특징점만 필터링하는 방법을 제안한다. DLKF는 영상 정합을 위하여 필수적인 특징점을 잃지 않으면서 그 수를 줄이기 위하여 구조물의 경계와 인접한 특징점을 보존하고, 서브 샘플링 (Subsampling)된 영상을 사용한다. 또한 영상 분할 (Image Segmentation) 방법을 위해 패치 단위로 잘라낸 영상을 다시 합칠 때 생기는 영상 패치 경계의 잡음을 제거하기 위하여 영상 패치를 중복하여 잘라낸다. DLKF의 성능을 검증하기 위하여 아리랑 3호 위성 원격 탐사 영상을 사용하여 기존 특징점 검출 방법과 속도와 정확도를 비교하였다. SIFT 기반 정합 방법을 기준으로 SURF 기반 정합 방법은 특징점의 수를 약 18% 감소시키고 속도를 약 2.6배 향상시켰지만 정확도가 3.42에서 5.43으로 저하되었다. 제안하는 방법인 DLKF를 사용하였을 때 특징점의 수를 약 82% 감소시키고 속도를 약 20.5배 향상시키면서 정확도는 4.51로 저하되었다.

BRISK 기반의 눈 영상을 이용한 사람 인식 (Person Recognition using Ocular Image based on BRISK)

  • 김민기
    • 한국멀티미디어학회논문지
    • /
    • 제19권5호
    • /
    • pp.881-889
    • /
    • 2016
  • Ocular region recently emerged as a new biometric trait for overcoming the limitations of iris recognition performance at the situation that cannot expect high user cooperation, because the acquisition of an ocular image does not require high user cooperation and close capture unlike an iris image. This study proposes a new method for ocular image recognition based on BRISK (binary robust invariant scalable keypoints). It uses the distance ratio of the two nearest neighbors to improve the accuracy of the detection of corresponding keypoint pairs, and it also uses geometric constraint for eliminating incorrect keypoint pairs. Experiments for evaluating the validity the proposed method were performed on MMU public database. The person recognition rate on left and right ocular image datasets showed 91.1% and 90.6% respectively. The performance represents about 5% higher accuracy than the SIFT-based method which has been widely used in a biometric field.