• 제목/요약/키워드: Facial Feature Extraction

검색결과 157건 처리시간 0.031초

Multiple Active Appearance Model을 이용한 얼굴 특징 추출 기법 (Facial Feature Extraction using Multiple Active Appearance Model)

  • 박현준;김광백;차의영
    • 한국전자통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1201-1206
    • /
    • 2013
  • 영상에서 얼굴 및 얼굴 특징을 추출하기 위한 기법으로 active appearance model(AAM)이 있다. 본 논문에서는 두 개의 AAM을 이용하여 얼굴 특징을 추출하는 multiple active appearance model(MAAM) 기법을 제안한다. 두 개의 AAM은 학습 데이터에 대한 파라미터를 조절하여 상반되는 장단점을 가지도록 생성하고, 서로의 단점을 보완할 수 있도록 한다. 제안된 방법의 성능을 평가하기 위해 100장의 영상에 대해서 얼굴 특징추출 실험을 하였다. 실험 결과 기존의 AAM 하나만을 사용하는 기법에 비해 적은 횟수의 피팅만으로도 정확도 높은 결과를 얻을 수 있었다.

Advanced AAM 기반 정서특징 검출 기법 개발 (Development of Emotional Feature Extraction Method based on Advanced AAM)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.834-839
    • /
    • 2009
  • 지능로봇시스템과 같은 HCI 환경에서 사람의 감정을 인식하기 위한 매개정보인 얼굴영상 기반 정서특징 검출문제는 관련분야의 매우 중요한 이슈이다. 본 논문에서는 보편화된 시스템 기반에서 임의의 사용자에 대한 정서 인식을 수행하기 위해 사람의 얼굴에서 나타나는 최적의 정서특징을 가장 효율적으로 추출하기 위한 연구로서 본 연구실에서 기존에 제안한 FACS와 AAM을 이용한 Bayesian Network 기반 얼굴표정 인식 시스템을 보완한 Advanced AAM을 기반 얼굴영상 정서 특징을 검출 시스템에 대한 연구를 진행하였다. 이를 수행하기 위하여 정규화된 이미지에서의 Statistical Shape Analysis로서 Advanced AAM과 얼굴 표정 분석 시스템인 FACS를 이용하여, 임의의 사용자에 대한 자동적인 정서특징 검출이 가능하도록 연구를 진행하였다.

Hybrid-Feature Extraction for the Facial Emotion Recognition

  • Byun, Kwang-Sub;Park, Chang-Hyun;Sim, Kwee-Bo;Jeong, In-Cheol;Ham, Ho-Sang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1281-1285
    • /
    • 2004
  • There are numerous emotions in the human world. Human expresses and recognizes their emotion using various channels. The example is an eye, nose and mouse. Particularly, in the emotion recognition from facial expression they can perform the very flexible and robust emotion recognition because of utilization of various channels. Hybrid-feature extraction algorithm is based on this human process. It uses the geometrical feature extraction and the color distributed histogram. And then, through the independently parallel learning of the neural-network, input emotion is classified. Also, for the natural classification of the emotion, advancing two-dimensional emotion space is introduced and used in this paper. Advancing twodimensional emotion space performs a flexible and smooth classification of emotion.

  • PDF

Facial Feature Recognition based on ASNMF Method

  • Zhou, Jing;Wang, Tianjiang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권12호
    • /
    • pp.6028-6042
    • /
    • 2019
  • Since Sparse Nonnegative Matrix Factorization (SNMF) method can control the sparsity of the decomposed matrix, and then it can be adopted to control the sparsity of facial feature extraction and recognition. In order to improve the accuracy of SNMF method for facial feature recognition, new additive iterative rules based on the improved iterative step sizes are proposed to improve the SNMF method, and then the traditional multiplicative iterative rules of SNMF are transformed to additive iterative rules. Meanwhile, to further increase the sparsity of the basis matrix decomposed by the improved SNMF method, a threshold-sparse constraint is adopted to make the basis matrix to a zero-one matrix, which can further improve the accuracy of facial feature recognition. The improved SNMF method based on the additive iterative rules and threshold-sparse constraint is abbreviated as ASNMF, which is adopted to recognize the ORL and CK+ facial datasets, and achieved recognition rate of 96% and 100%, respectively. Meanwhile, from the results of the contrast experiments, it can be found that the recognition rate achieved by the ASNMF method is obviously higher than the basic NMF, traditional SNMF, convex nonnegative matrix factorization (CNMF) and Deep NMF.

Multi-Channel 피부색 모델을 이용한 얼굴영역추출과 효율적인 특징벡터를 이용한 얼굴 인식 (The Facial Area Extraction Using Multi-Channel Skin Color Model and The Facial Recognition Using Efficient Feature Vectors)

  • 최광미;김형균
    • 한국정보통신학회논문지
    • /
    • 제9권7호
    • /
    • pp.1513-1517
    • /
    • 2005
  • 본 논문에서는 얼굴영역을 검출하기위해 얼굴 피부색을 보다 효과적으로 모델링하기 위한 피부색 특성을 고려하여 밝기 성분을 제거한 Red, Blue, Green 채널을 모두 사용하는 Hue, Cb, Cg의 M배i-Channel 피부색 모델을 사용한다. 얼굴영역을 분리한 영상에 Harr 웨이블릿을 이용한 에지영상 추출과 얼굴영역의 특징벡터를 구하기 위하여 26개의 특징벡터를 사용한 효율적인 고차 국소 자동 상관함수를 사용하였다. 계산된 특징벡터는 BP 신경망의 학습을 통하여 얼굴인식을 위한 데이터로 사용된다. 시뮬레이션을 통해 제안된 알고리즘에 의한 인식률향상과 속도 향상을 입증한다.

유전자 알고리즘을 이용한 얼굴의 특징점 추출 (Facial Feature Extraction by using a Genetic Algorithm)

  • 김상균;오승하;이명은;박순영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.1053-1056
    • /
    • 1999
  • In this paper we propose a facial feature extraction method by using a genetic algorithm. The method uses a facial feature template to model the location of eyes and a mouth, and genetic algorithm is employed to find the optimal solution from the fitness function consisting of invariant moments. The simulation results show that the proposed algorithm can effectively extract facial features from face images with variations in position, size, rotation and expression.

  • PDF

ASM-LK Optical Flow 기반 최적 얼굴정서 특징분석 기법 (Optimal Facial Emotion Feature Analysis Method based on ASM-LK Optical Flow)

  • 고광은;박승민;박준형;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제21권4호
    • /
    • pp.512-517
    • /
    • 2011
  • 얼굴영상에서 나타나는 정서특징을 분석하기 위하여 본 논문에서는 Active Shape Model (ASM)과 Lucas-Kanade (LK) optical flow 기법을 기반으로 하는 특징검출 및 분석방법을 제안한다. Facial Action Coding System에 근거하여 묘사된 정서적 특징을 고려하여, 특징이 분포하는 영역에 위치한 다수의 landmark로 shape 모델을 구성하고 모델에서 각 Landmark를 중심으로 하는 움직임 벡터 윈도우 내부의 픽셀에 대한 LK 기법을 통해 optical flow 벡터를 추출한다. 추출된 움직임 벡터의 방향성 조합에 근거하여 얼굴정서특징을 shape 모델로 표현할 수 있으며, 베이지안 분류기라는 확률 기반 추론기법을 기반으로 정서적 상태에 대한 추정할 수 있다. 또한, 정서특징분석과정의 연산 효율성과 정확성 향상을 도모하기 위하여 common spatial pattern (CSP) 분석기법을 적용하여 정서상태 별로 상관성이 높은 특징만으로 구성된 최적정서특징을 추출한다.

안정적인 실시간 얼굴 특징점 추적과 감정인식 응용 (Robust Real-time Tracking of Facial Features with Application to Emotion Recognition)

  • 안병태;김응희;손진훈;권인소
    • 로봇학회논문지
    • /
    • 제8권4호
    • /
    • pp.266-272
    • /
    • 2013
  • Facial feature extraction and tracking are essential steps in human-robot-interaction (HRI) field such as face recognition, gaze estimation, and emotion recognition. Active shape model (ASM) is one of the successful generative models that extract the facial features. However, applying only ASM is not adequate for modeling a face in actual applications, because positions of facial features are unstably extracted due to limitation of the number of iterations in the ASM fitting algorithm. The unaccurate positions of facial features decrease the performance of the emotion recognition. In this paper, we propose real-time facial feature extraction and tracking framework using ASM and LK optical flow for emotion recognition. LK optical flow is desirable to estimate time-varying geometric parameters in sequential face images. In addition, we introduce a straightforward method to avoid tracking failure caused by partial occlusions that can be a serious problem for tracking based algorithm. Emotion recognition experiments with k-NN and SVM classifier shows over 95% classification accuracy for three emotions: "joy", "anger", and "disgust".

FCM 군집화 알고리즘에 의한 얼굴의 특징점에서 Gabor 웨이브렛을 이용한 복원 (Reconstruction from Feature Points of Face through Fuzzy C-Means Clustering Algorithm with Gabor Wavelets)

  • 신영숙;이수용;이일병;정찬섭
    • 인지과학
    • /
    • 제11권2호
    • /
    • pp.53-58
    • /
    • 2000
  • 본 논문은 FCM 군집화 알고리즘을 사용하여 표정영상에서 특징점들을 추출한 후 추출된 특징점으로부터 Gabor 웨이브렛들을 이용하여 표정영상의 국소영역을 복원한다. 얼굴의 특징점 추출은 두단계로 이루어진다. 1단계는 이차원 Gabor 웨이브렛 계수 히스토그램의 평균값을 적용하여 얼굴의 주요 요소성분들의 경계선을 추출한 후, 2단계에서는 추출된 경계선 정보로부터 FCM 군집화 알고리즘을 사용하여 얼굴의 주요 요소성분들의 최종적인 특징점들을 추출한다. 본 연구에서는 FCM 군집화 알고리즘을 이용하여 추출된 적은 수의 특징점들 만으로도 표정영상의 주요 요소들을 복원할 수 있음을 제시한다. 이것은 인간의 얼굴 표정인식 뿐만아니라 물체인식에도 적용되어질 수 있다.

  • PDF

Facial Feature Extraction Based on Private Energy Map in DCT Domain

  • Kim, Ki-Hyun;Chung, Yun-Su;Yoo, Jang-Hee;Ro, Yong-Man
    • ETRI Journal
    • /
    • 제29권2호
    • /
    • pp.243-245
    • /
    • 2007
  • This letter presents a new feature extraction method based on the private energy map (PEM) technique to utilize the energy characteristics of a facial image. Compared with a non-facial image, a facial image shows large energy congestion in special regions of discrete cosine transform (DCT) coefficients. The PEM is generated by energy probability of the DCT coefficients of facial images. In experiments, higher face recognition performance figures of 100% for the ORL database and 98.8% for the ETRI database have been achieved.

  • PDF