• Title/Summary/Keyword: 특징점 검출

Search Result 528, Processing Time 0.029 seconds

A Deep Neural Network Technique for Automatic Measurement of Tibial Plateau Angle from Animal X-ray Images (동물 X-ray 영상에서 경골고원각도 자동 검출을 위한 심층신경망 기법 )

  • Jimin Kim;Hyungkyu Kim;Jeonghyeon Ryu;Sunju Lee;Hojoon Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.579-580
    • /
    • 2023
  • 본 논문에서는 동물의 십자인대 질환의 진단지표인 경골고원각도(TPA)를 자동으로 측정하는 딥러닝 소프트웨어 기법을 제안한다. 동물 X-ray 영상에서 나타나는 피사체의 위치와 형태에 대한 다양한 변이는 TPA(Tibial Plateau Angle) 지표 산출에 필요한 특징점 검출과정에서 학습 효율을 현저하게 저하시킨다. 이에 본 연구에서는 YOLO(You Only Look Once) 기반 모델을 사용하여 일차적으로 경골영역의 분할 단계를 수행하고, 이어서 경골 상단부의 과간융기와 복사뼈의 중심점을 찾는 과정을 Resnet 기반의 특징점 추출 모듈로서 구현함으로써 학습의 효율과 지표 검출의 정확도를 향상시켰다. 총 201 개의 실제 X-ray 영상을 사용하여 학습 속도와 영역 분할 및 특징점 추출의 정확도 측면을 고려함으로 제안된 이론의 타당성을 실험적으로 평가하였다.

Design and implementation of interpolated view video (중간 시점 영상 생성 기술 설계 및 구현)

  • Lee, Euisang;Park, Seonghwan;Kim, Junsik;Kim, Sangil;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.06a
    • /
    • pp.313-316
    • /
    • 2018
  • 최근 미디어의 생성 및 소비 기술의 발전으로 몰입도 있는 콘텐츠에 대한 수요가 증가하고 있다. View Interpolation 기술은 두 개의 좌/우 영상을 기반으로 하여 두 영상의 중간 시점에 해당하는 영상을 생성해내는 기술이다. 먼저 Depth Hole Filling Module을 이용하여 좌/우 영상 및 그에 대응하는 깊이 지도를 입력으로 받아 깊이 지도에 존재하는 오류를 검출하고, 보정한다. 깊이 지도의 오류 보정이 완료되면, 해당 데이터를 각각 Feature Matching Module 및 Layer Dividing Module로 전달한다. Feature Matching Module은 실사 영상 내의 특징점들을 검출하고, 두 영상 내 특징점을 매칭하는 역할을 수행하며, Layer Dividing Module은 깊이 값을 기반으로 영상의 Layer를 분할한다. Feature Matching Module에서 특징점의 매칭이 완료되면, 특징점의 영상 내 좌표 및 해당 좌표에서의 깊이 값을 Distance Estimating Module로 전달한다. Distance Estimating Module은 전달받은 특징점의 좌표 및 해당 좌표에서의 깊이 값을 기반으로 전체 깊이 값에서의 이동도를 계산한다. 이와 같이 이동도의 계산 및 Layer 분할이 완료되면, 각 Layer를 이동도에 기반하여 이동시키고, 이동된 Layer들을 포개어 배치함으로써 View interpolation을 완성한다.

  • PDF

Effective Marker Placement Method By De Bruijn Sequence for Corresponding Points Matching (드 브루인 수열을 이용한 효과적인 위치 인식 마커 구성)

  • Park, Gyeong-Mi;Kim, Sung-Hwan;Cho, Hwan-Gue
    • The Journal of the Korea Contents Association
    • /
    • v.12 no.6
    • /
    • pp.9-20
    • /
    • 2012
  • In computer vision, it is very important to obtain reliable corresponding feature points. However, we know it is not easy to find the corresponding feature points exactly considering by scaling, lighting, viewpoints, etc. Lots of SIFT methods applies the invariant to image scale and rotation and change in illumination, which is due to the feature vector extracted from corners or edges of object. However, SIFT could not find feature points, if edges do not exist in the area when we extract feature points along edges. In this paper, we present a new placement method of marker to improve the performance of SIFT feature detection and matching between different view of an object or scene. The shape of the markers used in the proposed method is formed in a semicircle to detect dominant direction vector by SIFT algorithm depending on direction placement of marker. We applied De Bruijn sequence for the markers direction placement to improve the matching performance. The experimental results show that the proposed method is more accurate and effective comparing to the current method.

Robust Detection of Abandoned Objects Using Visual Context (시각적 정황을 이용한 가림 현상에 강건한 버려진 물체 검출)

  • Lee, Jung-Hyun;Im, Jae-Hyun;Paik, Joon-Ki
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.49 no.3
    • /
    • pp.60-66
    • /
    • 2012
  • In this paper, we propose abandoned object detection algorithm. When abandoned object was occluded other object, the existing methods cannot detect abandoned object because those methods are not able to estimate the location of abandoned object. In order to overcome this problem, the proposed algorithm extracts the corners around abandoned object. The detected corners are linked to center of abandoned object called by supporters. We can then estimate the location of abandoned object by using supporters. Therefore, the proposed algorithm can detect and estimate the location of abandoned object, when abandoned object is occluded by other object. For this reason, the proposed algorithm can be applied to intelligent surveillance system to prevent bomb terror, which disguises as luggage or box.

Detection of Moving Objects in Crowded Scenes using Trajectory Clustering via Conditional Random Fields Framework (Conditional Random Fields 구조에서 궤적군집화를 이용한 혼잡 영상의 이동 객체 검출)

  • Kim, Hyeong-Ki;Lee, Gwang-Gook;Kim, Whoi-Yul
    • Journal of Korea Multimedia Society
    • /
    • v.13 no.8
    • /
    • pp.1128-1141
    • /
    • 2010
  • This paper proposes a method of moving object detection in crowded scene using clustered trajectory. Unlike previous appearance based approaches, the proposed method employes motion information only to isolate moving objects. In the proposed method, feature points are extracted from input frames first and then feature tracking is followed to create feature trajectories. Based on an assumption that feature points originated from the same objects shows similar motion as the object moves, the proposed method detects moving objects by clustering trajectories of similar motions. For this purpose an energy function based on spatial proximity, motion coherence, and temporal continuity is defined to measure the similarity between two trajectories and the clustering is achieved by minimizing the energy function in CRFs (conditional random fields). Compared to previous methods, which are unable to separate falsely merged trajectories during the clustering process, the proposed method is able to rearrange the falsely merged trajectories during iteration because the clustering is solved my energy minimization in CRFs. Experiment results with three different crowded scenes show about 94% detection rate with 7% false alarm rate.

A study on the Caricature Generation using Face Features (얼굴의 특징을 이용한 캐리커쳐 생성에 관한 연구)

  • Oh, S.H.;Lim, H.;Park, S.Y.;Kim, I.S.;Park, H.S.
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.623-626
    • /
    • 2000
  • 본 논문에서는 얼굴의 특징 추출을 이용해서 캐리커쳐를 자동으로 생성하는 알고리즘을 제안한다. 제안된 방법은 사진이나 카메라를 이용해서 입력된 영상으로부터 색상정보를 이용하여 얼굴영역을 검출하고 얼굴의 기하학적인 구조를 이용해서 유전자 알고리즘의 추정 파라미터를 설정하여 최적의 특징 점의 위치를 검출한다. 검출된 특징 점 위치를 이용하여 눈, 코, 입, 눈썹, 머리카락 등 얼굴의 특징이 되는 구성요소를 추출한다. 마지막으로 얼굴의 윤곽선을 구한 다음 추출된 얼굴의 구성요소들을 합성하여 간단하면서도 개인의 특징을 잘 반영할 수 있는 캐리커쳐를 생성한다.

  • PDF

Emotion Recognition of User using 2D Face Image in the Mobile Robot (이동로봇에서의 2D얼굴 영상을 이용한 사용자의 감정인식)

  • Lee, Dong-Hun;Seo, Sang-Uk;Go, Gwang-Eun;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.11a
    • /
    • pp.131-134
    • /
    • 2006
  • 본 논문에서는 가정용 로봇 및 서비스 로봇과 같은 이동로봇에서 사용자의 감정을 인식하는 방법중 한가지인 얼굴영상을 이용한 감정인식 방법을 제안한다. 얼굴영상인식을 위하여 얼굴의 여러 가지 특징(눈썹, 눈, 코, 입)의 움직임 및 위치를 이용하며, 이동로봇에서 움직이는 사용자를 인식하기 위한 움직임 추적 알고리즘을 구현하고, 획득된 사용자의 영상에서 얼굴영역 검출 알고리즘을 사용하여 얼굴 영역을 제외한 손과 배경 영상의 피부색은 제거한다. 검출된 얼굴영역의 거리에 따른 영상 확대 및 축소, 얼굴 각도에 따른 영상 회전변환 등의 정규화 작업을 거친 후 이동 로봇에서는 항상 고정된 크기의 얼굴 영상을 획득 할 수 있도록 한다. 또한 기존의 특징점 추출이나 히스토그램을 이용한 감정인식 방법을 혼합하여 인간의 감성 인식 시스템을 모방한 로봇에서의 감정인식을 수행한다. 본 논문에서는 이러한 다중 특징점 추출 방식을 통하여 이동로봇에서의 얼굴 영상을 이용한 사용자의 감정인식 시스템을 제안한다.

  • PDF

Method of Generating Digital Drawing through Sketch Recognition (스케치 인식을 통한 디지털 도면 생성 기법)

  • Oh, Soohyun;Lee, Seongjin
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.07a
    • /
    • pp.91-94
    • /
    • 2019
  • 스케치를 거쳐 생성되는 디지털 자료로 건축도면이나 제품 디자인시안 등은 수요가 많음에도 불구하고 디지털 도면 자동생성에 대한 영상처리는 아직 연구되지 않고 있다. 현행 필기인식에 대한 영상처리 연구는 주로 글자나 숫자에 국한되어 있어 본 연구에서는 선으로 이루어진 필기를 인식하여 도면이라는 이진영상의 특징을 이용해 특징점을 도출하고 디지털 도면을 생성하는 영상처리를 제안한다. 먼저 입력받은 아날로그 스캔이미지를 메디안블러링과 OSTU임계처리로 노이즈가 없는 이진영상으로 변환한 후 해리스코너검출기를 이용하여 특징점을 검출하고 좌표를 추출하고, 좌표값을 활용해 외곽선과 내부윤곽선까지 구현하여 디지털도면을 양산한다.

  • PDF

Identification System Based on Partial Face Feature Extraction (부분 얼굴 특징 추출에 기반한 신원 확인 시스템)

  • Choi, Sun-Hyung;Cho, Seong-Won;Chung, Sun-Tae
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.22 no.2
    • /
    • pp.168-173
    • /
    • 2012
  • This paper presents a new human identification algorithm using partial features of the uncovered portion of face when a person wears a mask. After the face area is detected, the feature is extracted from the eye area above the mask. The identification process is performed by comparing the acquired one with the registered features. For extracting features SIFT(scale invariant feature transform) algorithm is used. The extracted features are independent of brightness and size- and rotation-invariant for the image. The experiment results show the effectiveness of the suggested algorithm.

Design and Implementation of Feature Detector for Object Tracking (객체 추적을 위한 특징점 검출기의 설계 및 구현)

  • Lee, Du-hyeon;Kim, Hyeon;Cho, Jae-chan;Jung, Yun-ho
    • Journal of IKEEE
    • /
    • v.23 no.1
    • /
    • pp.207-213
    • /
    • 2019
  • In this paper, we propose a low-complexity feature detection algorithm for object tracking and present hardware architecture design and implementation results for real-time processing. The existing Shi-Tomasi algorithm shows good performance in object tracking applications, but has a high computational complexity. Therefore, we propose an efficient feature detection algorithm, which can reduce the operational complexity with the similar performance to Shi-Tomasi algorithm, and present its real-time implementation results. The proposed feature detector was implemented with 1,307 logic slices, 5 DSP 48s and 86.91Kbits memory with FPGA. In addition, it can support the real-time processing of 54fps at an operating frequency of 114MHz for $1920{\times}1080FHD$ images.