• 제목/요약/키워드: face expression recognition

검색결과 197건 처리시간 0.027초

웃음 치료 훈련을 위한 웃음 표정 인식 시스템 개발 (Development of a Recognition System of Smile Facial Expression for Smile Treatment Training)

  • 이옥걸;강선경;김영운;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권4호
    • /
    • pp.47-55
    • /
    • 2010
  • 본 논문은 실시간 카메라 영상으로부터 얼굴을 검출하고 얼굴 표정을 인식하여 웃음 치료훈련을 할 수 있는 시스템을 제안한다. 제안된 시스템은 카메라 영상으로부터 Haar-like 특징을 이용하여 얼굴 후보 영역을 검출한 다음, SVM분류기를 이용하여 얼굴 후보 영역이 얼굴 영상인지 아닌지를 검증한다. 그 다음에는 검출된 얼굴 영상에 대해, 조명의 영향을 최소화하기 위한 방법으로 히스토그램 매칭을 이용한 조명 정규화를 수행한다. 표정 인식 단계에서는 PCA를 사용하여 얼굴 특징 벡터를 획득한 후 다층퍼셉트론 인공신경망을 이용해 실시간으로 웃음표정을 인식하였다. 본 논문에서 개발된 시스템은 실시간으로 사용자의 웃음 표정을 인식하여 웃음 양을 화면에 표시해 줌으로써 사용자 스스로 웃음 훈련을 할 수 있게 해 준다. 실험 결과에 따르면, 본 논문에서 제안한 방법은 SVM 분류기를 통한 얼굴 후보 영역 검증과 히스토그램 매칭을 이용한 조명정규화를 이용하여 웃음 표정 인식률을 향상시켰다.

가보필터기반 얼굴인식에서의 유동적 Jet Point Setting (Flexible Jet Point Setting In Gabor Filter Based Face Recognition)

  • 신하송;김병우;이정안;김민기
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.2032-2035
    • /
    • 2003
  • This paper focused on the possibility of face recognition using Flexible let Point Setting method in Gabor Filter Based Face Recognition. Gabor Filter is very sensible to the Texture variation. Therefore, any little change in the face expression or rotation of posture make recognition rate down significantly. A suggested solution for this problem is the Flexible Jet Point Setting. A significant effect of this method is that the number of Jet Point has been reduced from over 150 to under 30 even though the change of recognition rate between two methods is neglectable, Furthermore a set of feature values which results from a set of Gabor filtering became insensible to face variation such as expression, rotation, and light effect. Retinex Algorithm which has been developed by NASA are used as pre-processing.

  • PDF

Facial Expression Recognition through Self-supervised Learning for Predicting Face Image Sequence

  • Yoon, Yeo-Chan;Kim, Soo Kyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권9호
    • /
    • pp.41-47
    • /
    • 2022
  • 본 논문에서는 자동표정인식을 위하여 얼굴 이미지 배열의 가운데 이미지를 예측하는 새롭고 간단한 자기주도학습 방법을 제안한다. 자동표정인식은 딥러닝 모델을 통해 높은 성능을 달성할 수 있으나 일반적으로 큰 비용과 시간이 투자된 대용량의 데이터 세트가 필요하고, 데이터 세트의 크기와 알고리즘의 성능이 비례한다. 제안하는 방법은 추가적인 데이터 세트 구축 없이 기존의 데이터 세트를 활용하여 자기주도학습을 통해 얼굴의 잠재적인 심층표현방법을 학습하고 학습된 파라미터를 전이시켜 자동표정인식의 성능을 향상한다. 제안한 방법은 CK+와 AFEW 8.0 두가지 데이터 세트에 대하여 높은 성능 향상을 보여주었고, 간단한 방법으로 큰 효과를 얻을 수 있음을 보여주었다.

얼굴의 다양한 포즈 및 표정의 변환에 따른 얼굴 인식률 향상에 관한 연구 (A Study on Improvement of Face Recognition Rate with Transformation of Various Facial Poses and Expressions)

  • 최재영;황보 택근;김낙빈
    • 인터넷정보학회논문지
    • /
    • 제5권6호
    • /
    • pp.79-91
    • /
    • 2004
  • 다양한 얼굴 포즈 검출 및 인식은 매우 어려운 문제로서, 이는 특징 공간상의 다양한 포즈의 분포가 정면 영상에 비해 매우 흩어져있고 복잡하기 때문이다. 이에 본 논문에서는 기존의 얼굴 인식 방법들이 제한 사항으로 두었던 입력 영상의 다양한 포즈 및 표정에 강인한 얼굴 인식 시스템을 제안하였다. 제안한 방법은 먼저, TLS 모델을 사용하여 얼굴 영역을 검출한 뒤, 얼굴의 구성요소를 통하여 얼굴 포즈를 추정한다. 추정된 얼굴 포즈는 3차원 X-Y-Z축으로 분해되는데, 두 번째 과정에서는 추정된 벡터를 통하여 만들어진 가변 템플릿과 3D CAN/DIDE모델을 이용하여 얼굴을 정합한다 마지막으로 정합된 얼굴은 분석된 포즈와 표정에 의하여 얼굴 인식에 적합한 정면의 정규화 된 얼굴로 변환된다. 실험을 통하여 얼굴 검출 모델의 사용과 포즈 추정 방법의 타당성을 보였으며, 포즈 및 표정 정규화를 통하여 인식률이 향상됨을 확인하였다.

  • PDF

효과적인 얼굴 표정 인식을 위한 퍼지 웨이브렛 LDA융합 모델 연구 (A Study on Fuzzy Wavelet LDA Mixed Model for an effective Face Expression Recognition)

  • 노종흔;백영현;문성룡
    • 한국지능시스템학회논문지
    • /
    • 제16권6호
    • /
    • pp.759-765
    • /
    • 2006
  • 본 논문에서는 퍼지 소속 함수와 웨이브렛 기저를 이용한 효과적인 얼굴 표정 인식 LDA 융합모델을 제안하였다. 제안된 알고리즘은 최적의 영상을 얻기 위해 퍼지 웨이브렛 알고리즘을 수행하고, 표정 검출은 얼굴 특징 추출단계와 얼굴표절인식 단계로 구성된다. 본 논문에서 얼굴 표정이 담긴 영상을 PCA를 적용하여 고차원에서 저차원의 공간으로 변환 후, LDA 특성을 이용하여 클래스 별호 특징벡터를 분류한다. LDA 융합 모델은 얼굴 표정인식단계는 제안된 LDA융합모델의 특징 벡터에 NNPC를 적응함으로서 얼굴 표정을 인식한다. 제안된 알고리즘은 6가지 기본 감정(기쁨, 화남, 놀람, 공포, 슬픔, 혐오)으로 구성된 데이터베이스를 이용해 실험한 결과, 기존알고리즘에 비해 향상된 인식률과 특정 표정에 관계없이 고른 인식률을 보임을 확인하였다.

Active Shape Model을 이용한 외형기반 얼굴표정인식에 관한 연구 (A Study on Appearance-Based Facial Expression Recognition Using Active Shape Model)

  • 김동주;신정훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권1호
    • /
    • pp.43-50
    • /
    • 2016
  • 본 논문에서는 ASM(Active Shape Model) 특징점(Landmark)을 이용하여 정밀한 얼굴영역을 획득하고, 외형기반 접근법으로 표정을 인식하는 방법에 대하여 제안한다. 외형기반 표정인식은 EHMM(Embedded Hidden Markov Model) 및 이진패턴 히스토그램 특징과 SVM(Support Vector Machine)을 사용하는 알고리즘으로 구성되며, 제안 방법의 성능평가는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 이용하여 수행되었다. 더불어, 성능비교는 기존의 눈 거리 기반의 얼굴 정규화 방법과 비교를 통하여 수행되었고, 또한 ASM 전체 특징점 및 변형된 특징을 SVM으로 인식하는 기하학적 표정인식 방법론과 성능비교를 수행하였다. 실험 결과, 제안 방법은 거리기반 얼굴정규화 영상을 사용한 방법보다 CK 데이터베이스 및 JAFFE 데이터베이스 경우, 최대 6.39%와 7.98%의 성능향상을 보였다. 또한, 제안 방법은 기하학적 특징점을 사용한 방법보다 높은 인식 성능을 보였으며, 이로부터 제안하는 표정인식 방법의 효용성을 확인하였다.

심리로봇적용을 위한 얼굴 영역 처리 속도 향상 및 강인한 얼굴 검출 방법 (Improving the Processing Speed and Robustness of Face Detection for a Psychological Robot Application)

  • 류정탁;양진모;최영숙;박세현
    • 한국산업정보학회논문지
    • /
    • 제20권2호
    • /
    • pp.57-63
    • /
    • 2015
  • 얼굴 표정인식 기술은 다른 감정인식기술에 비해 비접촉성, 비강제성, 편리성의 특징을 가지고 있다. 비전 기술을 심리로봇에 적용하기 위해서는 표정인식을 하기 전 단계에서 얼굴 영역을 정확하고 빠르게 추출할 수 있어야 한다. 본 논문에서는 성능이 향상된 얼굴영역 검출을 위해서 먼저 영상에서 YCbCr 피부색 색상 정보를 이용하여 배경을 제거하고 상태 기반 방법인 Haar-like Feature 방법을 이용하였다. 입력영상에 대하여 배경을 제거함으로써 처리속도가 향상된, 배경에 강건한 얼굴검출 결과를 얻을 수 있었다.

다면기법 SPFACS 영상객체를 이용한 AAM 알고리즘 적용 미소검출 설계 분석 (Using a Multi-Faced Technique SPFACS Video Object Design Analysis of The AAM Algorithm Applies Smile Detection)

  • 최병관
    • 디지털산업정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.99-112
    • /
    • 2015
  • Digital imaging technology has advanced beyond the limits of the multimedia industry IT convergence, and to develop a complex industry, particularly in the field of object recognition, face smart-phones associated with various Application technology are being actively researched. Recently, face recognition technology is evolving into an intelligent object recognition through image recognition technology, detection technology, the detection object recognition through image recognition processing techniques applied technology is applied to the IP camera through the 3D image object recognition technology Face Recognition been actively studied. In this paper, we first look at the essential human factor, technical factors and trends about the technology of the human object recognition based SPFACS(Smile Progress Facial Action Coding System)study measures the smile detection technology recognizes multi-faceted object recognition. Study Method: 1)Human cognitive skills necessary to analyze the 3D object imaging system was designed. 2)3D object recognition, face detection parameter identification and optimal measurement method using the AAM algorithm inside the proposals and 3)Face recognition objects (Face recognition Technology) to apply the result to the recognition of the person's teeth area detecting expression recognition demonstrated by the effect of extracting the feature points.

감정이 있는 얼굴영상과 퍼지 Fisherface를 이용한 얼굴인식 (Face Recognition using Emotional Face Images and Fuzzy Fisherface)

  • 고현주;전명근
    • 제어로봇시스템학회논문지
    • /
    • 제15권1호
    • /
    • pp.94-98
    • /
    • 2009
  • In this paper, we deal with a face recognition method for the emotional face images. Since the face recognition is one of the most natural and straightforward biometric methods, there have been various research works. However, most of them are focused on the expressionless face images and have had a very difficult problem if we consider the facial expression. In real situations, however, it is required to consider the emotional face images. Here, three basic human emotions such as happiness, sadness, and anger are investigated for the face recognition. And, this situation requires a robust face recognition algorithm then we use a fuzzy Fisher's Linear Discriminant (FLD) algorithm with the wavelet transform. The fuzzy Fisherface is a statistical method that maximizes the ratio of between-scatter matrix and within-scatter matrix and also handles the fuzzy class information. The experimental results obtained for the CBNU face databases reveal that the approach presented in this paper yields better recognition performance in comparison with the results obtained by other recognition methods.

A Video Expression Recognition Method Based on Multi-mode Convolution Neural Network and Multiplicative Feature Fusion

  • Ren, Qun
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.556-570
    • /
    • 2021
  • The existing video expression recognition methods mainly focus on the spatial feature extraction of video expression images, but tend to ignore the dynamic features of video sequences. To solve this problem, a multi-mode convolution neural network method is proposed to effectively improve the performance of facial expression recognition in video. Firstly, OpenFace 2.0 is used to detect face images in video, and two deep convolution neural networks are used to extract spatiotemporal expression features. Furthermore, spatial convolution neural network is used to extract the spatial information features of each static expression image, and the dynamic information feature is extracted from the optical flow information of multiple expression images based on temporal convolution neural network. Then, the spatiotemporal features learned by the two deep convolution neural networks are fused by multiplication. Finally, the fused features are input into support vector machine to realize the facial expression classification. Experimental results show that the recognition accuracy of the proposed method can reach 64.57% and 60.89%, respectively on RML and Baum-ls datasets. It is better than that of other contrast methods.