• Title/Summary/Keyword: 특징점 추적

Search Result 340, Processing Time 0.033 seconds

A Moving Object Tracking using Color and OpticalFlow Information (컬러 및 광류정보를 이용한 이동물체 추적)

  • Kim, Ju-Hyeon;Choi, Han-Go
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.15 no.4
    • /
    • pp.112-118
    • /
    • 2014
  • This paper deals with a color-based tracking of a moving object. Firstly, existing Camshift algorithm is complemented to improve the tracking weakness in the brightness change of an image which occurs in every frame. The complemented Camshift still shows unstable tracking when the objects with same color of the tracking object exist in background. In order to overcome the drawback this paper proposes the Camshift combined with KLT algorithm based on optical flow. The KLT algorithm performing the pixel-based feature tracking can complement the shortcoming of Camshift. Experimental results show that the merged tracking method makes up for the drawback of the Camshit algorithm and also improves tracking performance.

RGB-D Image Feature Point Extraction and Description Method for 3D Object Recognition (3차원 객체 인식을 위한 RGB-D 영상 특징점 추출 및 특징 기술자 생성 방법)

  • Park, Noh-Young;Jang, Young-Kyoon;Woo, Woon-Tack
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.448-450
    • /
    • 2012
  • 본 논문에서는 Kinect 방식의 RGB-D 영상센서를 사용하여, 깊이(Depth) 영상으로부터 3차원 객체의 기하정보를 표현하는 표면 정규 벡터(Surface Normal Vector)를 추출하고, 그 결과를 영상화하는 방법을 제안하며, 제안된 방법으로 생성된 영상으로부터 깊이 영상의 특징점 및 특징 기술자를 추출하여 3차원 객체 인식 성능을 향상시키는 방법을 제안한다. 또한 생성된 RGB-D 특징 기술자들을 객체 단위로 구분 가능한 코드북(CodeBook) 학습을 통한 인식방법을 제안하여 객체의 인식 성능을 높이는 방법을 제안한다. 제안하는 RGB-D 기반의 특징 추출 및 학습 방법은 텍스쳐 유무, 카메라 회전 및 이동 변화 등의 환경변화에 강건함을 실험적으로 증명하였으며, 이 방법은 Kinect 방식의 RGB-D 영상을 사용하는 3차원 객체/공간 인식 및 추적, 혹은 이를 응용하는 증강현실 시스템에 적용하여 사용될 수 있다.

Gaze Detection System using Real-time Active Vision Camera (실시간 능동 비전 카메라를 이용한 시선 위치 추적 시스템)

  • 박강령
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.12
    • /
    • pp.1228-1238
    • /
    • 2003
  • This paper presents a new and practical method based on computer vision for detecting the monitor position where the user is looking. In general, the user tends to move both his face and eyes in order to gaze at certain monitor position. Previous researches use only one wide view camera, which can capture a whole user's face. In such a case, the image resolution is too low and the fine movements of user's eye cannot be exactly detected. So, we implement the gaze detection system with dual camera systems(a wide and a narrow view camera). In order to locate the user's eye position accurately, the narrow view camera has the functionalities of auto focusing and auto panning/tilting based on the detected 3D facial feature positions from the wide view camera. In addition, we use dual R-LED illuminators in order to detect facial features and especially eye features. As experimental results, we can implement the real-time gaze detection system and the gaze position accuracy between the computed positions and the real ones is about 3.44 cm of RMS error.

Video Augmentation of Virtual Object by Uncalibrated 3D Reconstruction from Video Frames (비디오 영상에서의 비보정 3차원 좌표 복원을 통한 가상 객체의 비디오 합성)

  • Park Jong-Seung;Sung Mee-Young
    • Journal of Korea Multimedia Society
    • /
    • v.9 no.4
    • /
    • pp.421-433
    • /
    • 2006
  • This paper proposes a method to insert virtual objects into a real video stream based on feature tracking and camera pose estimation from a set of single-camera video frames. To insert or modify 3D shapes to target video frames, the transformation from the 3D objects to the projection of the objects onto the video frames should be revealed. It is shown that, without a camera calibration process, the 3D reconstruction is possible using multiple images from a single camera under the fixed internal camera parameters. The proposed approach is based on the simplification of the camera matrix of intrinsic parameters and the use of projective geometry. The method is particularly useful for augmented reality applications to insert or modify models to a real video stream. The proposed method is based on a linear parameter estimation approach for the auto-calibration step and it enhances the stability and reduces the execution time. Several experimental results are presented on real-world video streams, demonstrating the usefulness of our method for the augmented reality applications.

  • PDF

Illumination invariant image matching using histogram equalization (히스토그램 평활화를 이용한 조명변화에 강인한 영상 매칭)

  • Oh, Changbeom;Kang, Minsung;Sohn, Kwanghoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.161-164
    • /
    • 2011
  • 영상 매칭은 컴퓨터 비전에서 기초적인 기술로써 영상 추적, 물체인식 등 다양한 분양에서 많이 사용되고 있다. 하지만 스케일, 시점변화, 조명 변화에 강인한 매칭점을 찾는 것은 어려운 일이다. 이러한 문제점을 보완하기 위해 SURF(Scale Invariant Feature Transform), SIFT(Speed up Robust Features) 등의 알고리즘이 제안 되었지만, 여전히 조명변화에 불안정하고 정확하지 못한 성능을 보인다. 본 논문에서는 이러한 조명변화에 대한 문제점을 해결하기 위해 히스토그램 평활화를 이용하여 영상을 보정 후, SURF를 통한 영상 매칭을 하였다. 열악한 조명환경 내에서 촬영된 영상에서 SURF를 이용하여 표현자(Descriptor)를 생성 할 때 특징점이 잘 추출되지 않는 문제점을 해결하기 위하여 히스토그램 평활화를 이용하였고, 보정 후 특징점 개수가 많이 증가하는 것을 보여 확인하였다. 기존의 SURF와 개량된 SURF를 조명이 서로 다른 영상간의 매칭 성능을 비교함으로써 제안한 알고리즘의 우수성을 확인하였다

  • PDF

Correction of Missing Feature Points for 3D Modeling from 2D object images (2차원 객체 영상의 3차원 모델링을 위한 손실 특징점 보정)

  • Koh, Sung-shik
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.19 no.12
    • /
    • pp.2844-2851
    • /
    • 2015
  • How to recover from the multiple 2D images into 3D object has been widely studied in the field of computer vision. In order to improve the accuracy of the recovered 3D shape, it is more important that noise must be minimized and the number of image frames must be guaranteed. However, potential noise is implied when tracking feature points. And the number of image frames which is consisted of an observation matrix usually decrease because of tracking failure, occlusions, or low image resolution, and so on. Therefore, it is obviously essential that the number of image frames must be secured by recovering the missing feature points under noise. Thus, we propose the analytic approach which can control directly the error distance and orientation of missing feature point by the geometrical properties under noise distribution. The superiority of proposed method is demonstrated through experimental results for synthetic and real object.

Automatic Tracking of Retinal Vessels by Analyzing Local Feature Points in IndoCyanine Green Retinal Images (ICG 망막영상에서 국부적 특징점 분석에 의한 혈관의 자동 추적)

  • Lim, Moon-Chul;Kim, Woo-Saeng
    • Journal of KIISE:Software and Applications
    • /
    • v.29 no.3
    • /
    • pp.202-210
    • /
    • 2002
  • During the last few years, the extraction and reconstruction of the blood vessels in the medical image has been actively researched and the analysis for the retinal vessel structure has provided important information for diagnosis and remedy of the retinopathy patients. In this research, we propose the algorithm that tracks automatically the entire retinal vessel in retinal image acquired by the ICG(IndoCyanine Green) technology. This algorithm extracts contours and centers by estimating the local maxima and processing directions and detects bifurcations and junctions by comparing direction components of the local maxima from the gradient magnitude profile of each blood vessel. We present experimental results that the entire blood vessel is automatically reconstructed and is excellent in accuracy and connectivity after applying our algorithm to the ICG retinal images of patients.

Gaze Detection Using Facial Movement in Multimodal Interface (얼굴의 움직임을 이용한 다중 모드 인터페이스에서의 응시 위치 추출)

  • 박강령;남시욱;한승철;김재희
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.168-173
    • /
    • 1997
  • 시선의 추출을 통해 사용자의 관심 방향을 알고자하는 연구는 여러 분야에 응용될 수 있는데, 대표적인 것이 장애인의 컴퓨터 이용이나, 다중 윈도우에서 마우스의 기능 대용 및, VR에서의 위치 추적 장비의 대용 그리고 원격 회의 시스템에서의 view controlling등이다. 기존의 대부분의 연구들에서는 얼굴의 입력된 동영상으로부터 얼굴의 3차원 움직임량(rotation, translation)을 구하는데 중점을 두고 있으나 [1][2], 모니터, 카메라, 얼굴 좌표계간의 복잡한 변환 과정때문에 이를 바탕으로 사용자의 응시 위치를 파악하고자하는 연구는 거으 이루어지지 않고 있다. 본 논문에서는 일반 사무실 환경에서 입력된 얼굴 동영상으로부터 얼굴 영역 및 얼굴내의 눈, 코, 입 영역 등을 추출함으로써 모니터의 일정 영역을 응시하는 순간 변화된 특징점들의 위치 및 특징점들이 형성하는 기하학적 모양의 변화를 바탕으로 응시 위치를 계산하였다. 이때 앞의 세 좌표계간의 복잡한 변환 관계를 해결하기 위하여, 신경망 구조(다층 퍼셉트론)을 이용하였다. 신경망의 학습 과정을 위해서는 모니터 화면을 15영역(가로 5등분, 세로 3등분)으로 분할하여 각 영역의 중심점을 응시할 때 추출된 특징점들을 사용하였다. 이때 학습된 15개의 응시 위치이외에 또 다른 응시 영역에 대한 출력값을 얻기 위해, 출력 함수로 연속적이고 미분가능한 함수(linear output function)를 사용하였다. 실험 결과 신경망을 이용한 응시위치 파악 결과가 선형 보간법[3]을 사용한 결과보다 정확한 성능을 나타냈다.

  • PDF