• 제목/요약/키워드: face pose transform

검색결과 15건 처리시간 0.017초

포즈 변화에 강인한 얼굴 인식 (Face Recognition Robust to Pose Variations)

  • 노진우;문인혁;고한석
    • 대한전자공학회논문지SP
    • /
    • 제41권5호
    • /
    • pp.63-69
    • /
    • 2004
  • 본 논문에서는 포즈 변화에 강인한 얼굴 인식을 위하여 원통 모델을 이용하는 방법을 제안한다. 얼굴 모양이 원통형이라는 가정 하에 입력 영상으로부터 대상의 포즈를 예측하고, 예측된 포즈 각도만큼 포즈 변환을 실시하여 정면 얼굴 영상을 획득한다. 이렇게 획득한 정면 영상을 얼굴 인식에 적용함으로써 얼굴 인식률을 향상시킬 수 있다. 실험 결과, 포즈 변환을 통하여 인식률이 61.43%에서 93.76%로 향상되었음을 볼 수 있었으며, 보다 복잡한 3차원 얼굴 모델을 이용한 결과와 비교하였을 때 비교적 양호한 인식률을 갖는 것을 확인하였다.

포즈에 독립적인 얼굴 인식을 위한 얼굴 포즈 변환 (Face Pose Transformation for Pose Invariant Face Recognition)

  • 박현선;박종일;김회율
    • 한국통신학회논문지
    • /
    • 제30권6C호
    • /
    • pp.570-576
    • /
    • 2005
  • 얼굴 인식 분야에서 포즈의 변화는 인식률을 저하시키는 가장 심각한 문제로 알려져 있다. 본 논문에서는 이러한 포즈가 변화된 얼굴 영상에 대한 인식률을 높이기 위한 전처리 단계로 정면이 아닌 얼굴 영상을 정면 얼굴 영상으로 변환시키는 방법을 제안한다. 제안한 방법은 PCA 계수를 선형 변환 시키는 변환 행렬을 사용되는데 이 변환 행렬은 PCA 계수 사이의 선형적인 관계를 이용하여 구한다. 제안된 방법은 PCA/LDA를 이용한 얼굴 인식 알고리즘으로 검증하였으며, 실험 결과 제안된 방법이 얼굴 인식률을 $20\%$ 정도 향상시킴을 알 수 있었다.

환경변화에 강인한 눈 검출 알고리즘 성능향상 연구 (Performance Improvement for Robust Eye Detection Algorithm under Environmental Changes)

  • 하진관;문현준
    • 디지털융복합연구
    • /
    • 제14권10호
    • /
    • pp.271-276
    • /
    • 2016
  • 본 논문에서는 조명 및 Pose 등의 다양한 환경변화에 강인한 얼굴 및 눈 검출 알고리즘을 제안한다. 일반적으로 눈 검출은 얼굴검출과 동시에 수행되며 조명 및 Pose의 변화에 따라 검출 성능에 영향을 준다. 본 논문에서는 Modified Census Transform 알고리즘 사용하여 환경변화에 강인한 얼굴검출을 수행한다. 눈은 얼굴영역의 중요한 특징으로 주변의 조명 변화 및 안경 등의 다양한 요인으로 검출 성능의 저하 요인이 된다. 이러한 문제점의 해결을 위하여 Gabor transformation과 Feature from Accelerated Segment Test 알고리즘 기반의 눈 검출 알고리즘을 제안한다. 제안된 얼굴검출 알고리즘은 27.4ms의 검출속도와 98.4%의 검출율을 보이며, 눈 검출 알고리즘의 경우 36.3ms의 검출속도와 96.4%의 검출율을 보이는 것을 확인하였다.

얼굴 모델간 선형변환을 이용한 정밀한 얼굴 포즈추정 및 포즈합성 (Accurate Face Pose Estimation and Synthesis Using Linear Transform Among Face Models)

  • 밧수리수브다;고재필
    • 한국멀티미디어학회논문지
    • /
    • 제15권4호
    • /
    • pp.508-515
    • /
    • 2012
  • 본 논문은 Active Appearance Model(AAM)을 사용하여 주어진 얼굴영상의 포즈추정과 임의 포즈합성 방법을 설명한다. AAM은 다양한 응용분야에 성공적으로 적용되어지고 있는 예제기반 학습모델로 예제들의 변화정도를 학습한다. 그러나 하나의 모델로는 각도 변화가 큰 포즈 변화량을 수용하기 어렵다. 본 논문은 좁은 범위의 각도 변화를 다루는 모델을 포즈별로 생성한다. 주어진 포즈 얼굴을 다룰 수 있는 모델을 이용하여 정확한 포즈추정과 합성이 가능하다. 이때 합성하고자 하는 포즈의 각도가 포즈 추정을 위해 사용된 모델에 학습되어 있지 않은 경우, 미리 학습된 모델간의 선형관계를 통해 문제를 해결한다. Yale B 공개 얼굴 데이터베이스에 대한 실험을 통해 포즈추정 및 합성 정확도를 보이고, 자체 수집한 포즈변화가 큰 얼굴영상에 대한 성공적인 정면 합성 결과를 제시한다.

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.

원통 모델과 스테레오 카메라를 이용한 포즈 변화에 강인한 얼굴인식 (Pose-invariant Face Recognition using a Cylindrical Model and Stereo Camera)

  • 노진우;홍정화;고한석
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권7호
    • /
    • pp.929-938
    • /
    • 2004
  • 본 논문에서는 원통모델과 스테레오 카메라를 이용하여 대상의 포즈 변화에 강인한 얼굴인식 방법을 제안한다. 입력으로 하나의 영상을 취할 수 있는 경우와 스테레오 영상을 취할 수 있는 경우의 두 가지로 나누어 다룬다. 단일 입력 영상인 경우 정면이 아닌 입력 영상에 대하여 원통 모델을 이용하여 좌우방향(yaw)으로 포즈를 보상하고, 스테레오 입력 영상인 경우 스테레오 기하학을 이용하여 예측된 상하방향(pitch) 포즈로 대상의 상하 변화까지 보상한다. 또한 스테레오 카메라를 통하여 동시에 두 개의 영상을 얻는다는 장점이 있기 때문에 결정 단계 융합(decision-level fusion) 방법을 이용하여 전체적인 인식률을 향상시킨다. 실험 결과, 좌우 포즈 변환을 통하여 인식률이 61.43%에서 94.76%로 향상되었음을 볼 수 있었고, 보다 복잡한 3차원 얼굴 모델과의 비교 결과 인식률이 양호함을 확인할 수 있었다. 또한 스테레오 카메라 시스템을 이용하여 얼굴이 위로 향한 영상일 경우 5.24%의 인식률을 향상시켰고, 결정 단계융합에 의해 추가로 3.34%의 인식률을 향상시킬 수 있었다.

ASMs을 이용한 특징점 추출에 기반한 3D 얼굴데이터의 정렬 및 정규화 : 정렬 과정에 대한 정량적 분석 (3D Face Alignment and Normalization Based on Feature Detection Using Active Shape Models : Quantitative Analysis on Aligning Process)

  • 신동원;박상준;고재필
    • 한국CDE학회논문집
    • /
    • 제13권6호
    • /
    • pp.403-411
    • /
    • 2008
  • The alignment of facial images is crucial for 2D face recognition. This is the same to facial meshes for 3D face recognition. Most of the 3D face recognition methods refer to 3D alignment but do not describe their approaches in details. In this paper, we focus on describing an automatic 3D alignment in viewpoint of quantitative analysis. This paper presents a framework of 3D face alignment and normalization based on feature points obtained by Active Shape Models (ASMs). The positions of eyes and mouth can give possibility of aligning the 3D face exactly in three-dimension space. The rotational transform on each axis is defined with respect to the reference position. In aligning process, the rotational transform converts an input 3D faces with large pose variations to the reference frontal view. The part of face is flopped from the aligned face using the sphere region centered at the nose tip of 3D face. The cropped face is shifted and brought into the frame with specified size for normalizing. Subsequently, the interpolation is carried to the face for sampling at equal interval and filling holes. The color interpolation is also carried at the same interval. The outputs are normalized 2D and 3D face which can be used for face recognition. Finally, we carry two sets of experiments to measure aligning errors and evaluate the performance of suggested process.

Viewpoint Unconstrained Face Recognition Based on Affine Local Descriptors and Probabilistic Similarity

  • Gao, Yongbin;Lee, Hyo Jong
    • Journal of Information Processing Systems
    • /
    • 제11권4호
    • /
    • pp.643-654
    • /
    • 2015
  • Face recognition under controlled settings, such as limited viewpoint and illumination change, can achieve good performance nowadays. However, real world application for face recognition is still challenging. In this paper, we propose using the combination of Affine Scale Invariant Feature Transform (SIFT) and Probabilistic Similarity for face recognition under a large viewpoint change. Affine SIFT is an extension of SIFT algorithm to detect affine invariant local descriptors. Affine SIFT generates a series of different viewpoints using affine transformation. In this way, it allows for a viewpoint difference between the gallery face and probe face. However, the human face is not planar as it contains significant 3D depth. Affine SIFT does not work well for significant change in pose. To complement this, we combined it with probabilistic similarity, which gets the log likelihood between the probe and gallery face based on sum of squared difference (SSD) distribution in an offline learning process. Our experiment results show that our framework achieves impressive better recognition accuracy than other algorithms compared on the FERET database.

SIFT 특징을 이용하여 중첩상황에 강인한 AAM 기반 얼굴 추적 (Robust AAM-based Face Tracking with Occlusion Using SIFT Features)

  • 엄성은;장준수
    • 정보처리학회논문지B
    • /
    • 제17B권5호
    • /
    • pp.355-362
    • /
    • 2010
  • 얼굴추적은 3차원 공간상에서 머리(head)와 안면(face)의 움직임을 추정하는 기술로, 얼굴 표정 감정인식과 같은 상위 분석단계의 중요한 기반기술이다. 본 논문에서는 AAM 기반의 얼굴추적 알고리즘을 제안한다. AAM은 변형되는 대상을 분할하고 추적하는데 광범위하게 적용되고 있다. 그러나 여전히 여러 가지 해결해야할 제약사항들이 있다. 특히 자체중첩(self-occlusion)과 부분적인 중첩, 그리고 일시적으로 완전히 가려지는 완전중첩 상황에서 보통 국부해에 수렴(local convergence)하거나 발산하기 쉽다. 본 논문에서는 이러한 중첩상황에 대한 AAM의 강인성을 향상시키기 위해서 SIFT 특징을 이용하고 있다. SIFT는 일부 영상의 특징점으로 안정적인 추적이 가능하기 때문에 자체와 부분중첩에 효과적이며, 완전중첩의 상황에도 SIFT의 전역적인 매칭성능으로 별도의 재초기화 없이 연속적인 추적이 가능하다. 또한 추적과정에서 큰 자세변화에 따른 움직임을 효과적으로 추정하기 위해서 다시점(multi-view) 얼굴영상의 SIFT 특징을 온라인으로 등록하여 활용하고 있다. 제안한 알고리즘의 이러한 강인성은 위 세 가지 중첩상황에 대해서 기존 알고리즘들과의 비교실험을 통해서 보여준다.

원근투영법 기반의 PTZ 카메라를 이용한 머리자세 추정 (Head Pose Estimation Based on Perspective Projection Using PTZ Camera)

  • 김진서;이경주;김계영
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권7호
    • /
    • pp.267-274
    • /
    • 2018
  • 본 논문에서는 PTZ 카메라를 이용한 머리자세추정 방법에 대하여 서술한다. 회전 또는 이동에 의하여 카메라의 외부인자가 변경되면, 추정된 얼굴자세도 변한다. 본 논문에는 PTZ 카메라의 회전과 위치 변화에 독립적으로 머리자세를 추정하는 새로운 방법을 제안한다. 제안하는 방법은 얼굴검출, 특징추출 그리고 자세추정으로 이루어진다. 얼굴검출은 MCT특징을 이용해 검출하고, 얼굴 특징추출은 회귀트리 방법을 이용해 추출하고, 머리자세 추정은 POSIT 알고리즘을 사용한다. 기존의 POSIT 알고리즘은 카메라의 회전을 고려하지 않지만, 카메라의 외부인자 변화에도 강건하게 머리자세를 추정하기 위하여 본 논문은 원근투영법에 기반하여 POSIT를 개선한다. 실험을 통하여 본 논문에서 제안하는 방법이 기존의 방법 보다 RMSE가 약 $0.6^{\circ}$ 개선되는 것을 확인했다.