• 제목/요약/키워드: feature points

검색결과 1,118건 처리시간 0.03초

평가 함수를 사용하여 회전에 강건한 자동 얼굴 영역 검출과 추적 (Automatic Face Region Detection and Tracking for Robustness in Rotation using the Estimation Function)

  • 김기상;김계영;최형일
    • 한국콘텐츠학회논문지
    • /
    • 제8권9호
    • /
    • pp.1-9
    • /
    • 2008
  • 일반적으로 얼굴 추적 시 움직임에 강건한 Lucas-Kanade 추적 방법이 많이 사용된다. 그러나 얼굴이 회전되었을 경우, 정확한 얼굴 영역 검출이 어렵다. 따라서 본 논문에서는 이러한 문제점을 해결하기 위해 Lucas-Kanade 추적 방법에 평가함수를 도입하여 회전에 강건한 자동 얼굴 영역 검출 및 추적 방법을 제안하였다. 얼굴영역은 색상정보를 이용하여 자동으로 추출하였으며, Harris 코너 추출 알고리즘으로 특징점을 추출하였다. 폐색된 특징점을 구분하기위하여 특징점마다 기존 특징점과 새로운 특징점과의 차이 값을 계산한다. 만약, 특징점이 폐색되었을 경우, 잡음을 제거하기 위하여 제거하며 특징점의 개수가 일정 임계값 이하일 경우, 얼굴 영역을 다시 검출하였다. 실험결과를 통하여 얼굴 영역이 회전되었을 경우, 기존의 Lucas-Kanade 추적 방법보다 더 좋은 결과를 확인하였다.

KLT 특징점에 기반한 비접촉 장문인식 (Contactless Palmprint Recognition Based on the KLT Feature Points)

  • 김민기
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권11호
    • /
    • pp.495-502
    • /
    • 2014
  • 비접촉 장문을 인식하기 위해서는 영상의 크기 및 회전 변형을 효과적으로 해결해야 한다. 본 연구에서는 손의 크기와 방향에 따라 관심영역(ROI)을 추출한 후 정규화하여 일차적으로 이러한 변형을 최소화하였다. 본 논문에서는 KLT(Kanade-Lukas-Tomasi) 특징점에 기반한 비접촉 장문인식 방법을 제안한다. 대응되는 KLT 특징점 주위의 국소영역에 대한 텍스처를 비교하여 대응되는 특징점을 검출한 후, 특징점 쌍의 변위 크기와 방향을 나타내는 변위벡터들 간의 유사도를 비교하여 장문을 인식한다. CASIA 공개 데이터베이스를 이용한 실험결과 제안된 방법이 비접촉 장문인식에 효과적임을 확인할 수 있었다. 특히 다중 가버 필터를 이용하였을 때 99%를 상회하는 정인식률을 얻을 수 있었다.

Online Face Avatar Motion Control based on Face Tracking

  • Wei, Li;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제12권6호
    • /
    • pp.804-814
    • /
    • 2009
  • In this paper, a novel system for avatar motion controlling by tracking face is presented. The system is composed of three main parts: firstly, LCS (Local Cluster Searching) method based face feature detection algorithm, secondly, HMM based feature points recognition algorithm, and finally, avatar controlling and animation generation algorithm. In LCS method, face region can be divided into many small piece regions in horizontal and vertical direction. Then the method will judge each cross point that if it is an object point, edge point or the background point. The HMM method will distinguish the mouth, eyes, nose etc. from these feature points. Based on the detected facial feature points, the 3D avatar is controlled by two ways: avatar orientation and animation, the avatar orientation controlling information can be acquired by analyzing facial geometric information; avatar animation can be generated from the face feature points smoothly. And finally for evaluating performance of the developed system, we implement the system on Window XP OS, the results show that the system can have an excellent performance.

  • PDF

쌍방향 대응기법을 이용한 특징점 기반 움직임 계수 추정 (A feature-based motion parameter estimation using bi-directional correspondence scheme)

  • 서종열;김경중;임채욱;박규태
    • 한국통신학회논문지
    • /
    • 제21권11호
    • /
    • pp.2776-2788
    • /
    • 1996
  • A new feature-based motion parameter estimation for arbitrary-shaped regions is proposed. Existing motion parameter estimation algorithms such as gradient-based algorithm require iterations that are very sensitive to initial values and which often converge to a local minimum. In this paper, the motion parameters of an object are obtained by solving a set of linear equations derived by the motion of salient feature points of the object. In order to estimate the displacement of the feature points, a new process called the "bi-directional correspondence scheme" is proposed to ensure the robjstness of correspondence. The proposed correspondence scheme iteratively selects the feature points and their corresponding points until unique one-to-one correspondence is established. Furthermore, initially obtained motion paramerters are refined using an iterative method to give a better performance. The proposed algorithm can be used for motion estimationin object-based image coder, and the experimental resuls show that the proposed method outperforms existing schemes schemes in estimating motion parameters of objects in image sequences.sequences.

  • PDF

적응적 가중치에 의한 특징점 추적 알고리즘 (A Feature Tracking Algorithm Using Adaptive Weight Adjustment)

  • 정종면;문영식
    • 전자공학회논문지S
    • /
    • 제36S권11호
    • /
    • pp.68-78
    • /
    • 1999
  • 본 논문에서는 동영상에서 특징점의 궤적을 추적하기 위한 알고리즘을 제안한다. 기존의 방법에서 사용된 대부분의 정합의 척도(matching measure)는 동영상의 움직임 특성을 정확히 반영하지 못하여 잘못된 궤적을 나타내는 경우가 있다. 본 논문에서는 특징범의 공간좌표, 이동방향과 이동거리 등 3가지 속성을 정합에 사용하는데 이들 속성에 대하여 가중치(weight)가 부여된 Euclidean 거리를 정합의 척도로 사용한다. 이때 3가지 속성에 대한 가중치를 움직임의 특성에 따라 적응적으로 변화시켜 줌으로써 강건하게 특징점을 추적할 수 있도록 한다. 제안하는 알고리즘은 매 프레임마다 특징점의 운동특성을 정확히 반영함으로써 기존의 방법에 비해 정확한 궤적을 찾을 수 있으며 이는 다양한 동영상에 대한 실험을 통해 확인되었다.

  • PDF

드 브루인 수열을 이용한 효과적인 위치 인식 마커 구성 (Effective Marker Placement Method By De Bruijn Sequence for Corresponding Points Matching)

  • 박경미;김성환;조환규
    • 한국콘텐츠학회논문지
    • /
    • 제12권6호
    • /
    • pp.9-20
    • /
    • 2012
  • 컴퓨터비전에서 안정적으로 대응점을 획득하는 것은 매우 중요한 일이다. 그러나 이들은 스케일, 조명, 시점 등이 변하는 환경에서 정확한 대응점을 찾는 과정은 쉽지 않다. SIFT 알고리즘은 객체의 모서리나 꼭지점으로부터 추출한 특징벡터를 사용하므로 스케일링, 회전, 조명변화를 가지는 영상에서도 뛰어난 매칭을 수행한다. 그러나 SIFT는 엣지에 의해 특징점을 추출하므로 엣지가 존재하지 않는 영역에서는 원하는 대응점을 찾을 수 없다. 본 연구는 SIFT에 의한 대응 특징점 추출과 매칭 성능을 향상시키기 위한 마커 모양 및 배치 방법을 제안한다. 제안 방법에서 사용한 마커의 모양은 부착 방향에 따라 SIFT 알고리즘에 의해 한 방향으로 우세한 벡터를 검출할 수 있는 반원형(SemiCircle)으로 구성한다. 그리고 대응점 매칭의 성능을 향상시키기 위하여 마커의 방향 배치는 드 브루인 수열(De Bruijn Sequence)을 이용한다. 실험을 통해 제안한 방법이 기존의 방법보다 더 정확한 특징점 검출과 매칭에 효과적임을 증명하였다.

시점 변화에 강인한 특징점 정합 기법 (Feature Matching Algorithm Robust To Viewpoint Change)

  • 정현조;유지상
    • 한국통신학회논문지
    • /
    • 제40권12호
    • /
    • pp.2363-2371
    • /
    • 2015
  • 본 논문에서는 FAST(Features from Accelerated Segment Test) 특징점 검출기와 SIFT(Scale Invariant Feature Transform) 특징점 서술자(descriptor)를 사용하여 시점 변화에 강인한 특징점 정합 기법을 제안한다. 기존의 FAST 기법은 영상의 에지 부분을 따라서 불필요하게 특징점을 많이 추출하게 되는데 이러한 단점을 주곡률(principal curvatures)을 적용하여 개선한다. 추출된 특징점을 SIFT 서술자를 통해 기술하고 시점이 다른 두 영상으부터 구해진 정합쌍에 RANSAC(RANdom SAmple Consensus) 기법을 통하여 호모그래피(homography)를 계산한다. 시점 변화에 강인한 특징점 정합을 위해서 기준 영상의 특징점들을 호모그래피 변환을 통해 변경된 좌표와 시점이 다른 영상의 특징점 좌표간의 유클리디언(Euclidean) 거리를 통해 정합쌍을 분류한다. 같은 물체나 장소에 대해 시점이 변화된 여러 영상에 대한 실험을 통해서 제안하는 정합 기법이 적은 계산량으로 기존의 특징점 정합 기법보다 우수한 성능을 보여주는 것을 확인하였다.

The extension of the largest generalized-eigenvalue based distance metric Dij1) in arbitrary feature spaces to classify composite data points

  • Daoud, Mosaab
    • Genomics & Informatics
    • /
    • 제17권4호
    • /
    • pp.39.1-39.20
    • /
    • 2019
  • Analyzing patterns in data points embedded in linear and non-linear feature spaces is considered as one of the common research problems among different research areas, for example: data mining, machine learning, pattern recognition, and multivariate analysis. In this paper, data points are heterogeneous sets of biosequences (composite data points). A composite data point is a set of ordinary data points (e.g., set of feature vectors). We theoretically extend the derivation of the largest generalized eigenvalue-based distance metric Dij1) in any linear and non-linear feature spaces. We prove that Dij1) is a metric under any linear and non-linear feature transformation function. We show the sufficiency and efficiency of using the decision rule $\bar{{\delta}}_{{\Xi}i}$(i.e., mean of Dij1)) in classification of heterogeneous sets of biosequences compared with the decision rules min𝚵iand median𝚵i. We analyze the impact of linear and non-linear transformation functions on classifying/clustering collections of heterogeneous sets of biosequences. The impact of the length of a sequence in a heterogeneous sequence-set generated by simulation on the classification and clustering results in linear and non-linear feature spaces is empirically shown in this paper. We propose a new concept: the limiting dispersion map of the existing clusters in heterogeneous sets of biosequences embedded in linear and nonlinear feature spaces, which is based on the limiting distribution of nucleotide compositions estimated from real data sets. Finally, the empirical conclusions and the scientific evidences are deduced from the experiments to support the theoretical side stated in this paper.

A Defocus Technique based Depth from Lens Translation using Sequential SVD Factorization

  • Kim, Jong-Il;Ahn, Hyun-Sik;Jeong, Gu-Min;Kim, Do-Hyun
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.383-388
    • /
    • 2005
  • Depth recovery in robot vision is an essential problem to infer the three dimensional geometry of scenes from a sequence of the two dimensional images. In the past, many studies have been proposed for the depth estimation such as stereopsis, motion parallax and blurring phenomena. Among cues for depth estimation, depth from lens translation is based on shape from motion by using feature points. This approach is derived from the correspondence of feature points detected in images and performs the depth estimation that uses information on the motion of feature points. The approaches using motion vectors suffer from the occlusion or missing part problem, and the image blur is ignored in the feature point detection. This paper presents a novel approach to the defocus technique based depth from lens translation using sequential SVD factorization. Solving such the problems requires modeling of mutual relationship between the light and optics until reaching the image plane. For this mutuality, we first discuss the optical properties of a camera system, because the image blur varies according to camera parameter settings. The camera system accounts for the camera model integrating a thin lens based camera model to explain the light and optical properties and a perspective projection camera model to explain the depth from lens translation. Then, depth from lens translation is proposed to use the feature points detected in edges of the image blur. The feature points contain the depth information derived from an amount of blur of width. The shape and motion can be estimated from the motion of feature points. This method uses the sequential SVD factorization to represent the orthogonal matrices that are singular value decomposition. Some experiments have been performed with a sequence of real and synthetic images comparing the presented method with the depth from lens translation. Experimental results have demonstrated the validity and shown the applicability of the proposed method to the depth estimation.

  • PDF

선경계 검출에 의한 특징점 추출 (Extraction of Feature Points Using a Line-Edge Detector)

  • 김지홍;김남철
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1987년도 전기.전자공학 학술대회 논문집(II)
    • /
    • pp.1427-1430
    • /
    • 1987
  • The feature points of an image play a very important role in understanding the image. Especially, when an image is composed of lines, vertices of the image offer informations about its property and structure. In this paper, a series of process for extracting feature points from actual IC image is described. This result can be used to acquire CIF ( Caltech Intermediate Form ) file.

  • PDF