• 제목/요약/키워드: Facial expression recognition

검색결과 283건 처리시간 0.023초

혼합형 특징점 추출을 이용한 얼굴 표정의 감성 인식 (Emotion Recognition of Facial Expression using the Hybrid Feature Extraction)

  • 변광섭;박창현;심귀보
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.132-134
    • /
    • 2004
  • Emotion recognition between human and human is done compositely using various features that are face, voice, gesture and etc. Among them, it is a face that emotion expression is revealed the most definitely. Human expresses and recognizes a emotion using complex and various features of the face. This paper proposes hybrid feature extraction for emotions recognition from facial expression. Hybrid feature extraction imitates emotion recognition system of human by combination of geometrical feature based extraction and color distributed histogram. That is, it can robustly perform emotion recognition by extracting many features of facial expression.

  • PDF

A Video Expression Recognition Method Based on Multi-mode Convolution Neural Network and Multiplicative Feature Fusion

  • Ren, Qun
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.556-570
    • /
    • 2021
  • The existing video expression recognition methods mainly focus on the spatial feature extraction of video expression images, but tend to ignore the dynamic features of video sequences. To solve this problem, a multi-mode convolution neural network method is proposed to effectively improve the performance of facial expression recognition in video. Firstly, OpenFace 2.0 is used to detect face images in video, and two deep convolution neural networks are used to extract spatiotemporal expression features. Furthermore, spatial convolution neural network is used to extract the spatial information features of each static expression image, and the dynamic information feature is extracted from the optical flow information of multiple expression images based on temporal convolution neural network. Then, the spatiotemporal features learned by the two deep convolution neural networks are fused by multiplication. Finally, the fused features are input into support vector machine to realize the facial expression classification. Experimental results show that the recognition accuracy of the proposed method can reach 64.57% and 60.89%, respectively on RML and Baum-ls datasets. It is better than that of other contrast methods.

Active Shape Model을 이용한 외형기반 얼굴표정인식에 관한 연구 (A Study on Appearance-Based Facial Expression Recognition Using Active Shape Model)

  • 김동주;신정훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권1호
    • /
    • pp.43-50
    • /
    • 2016
  • 본 논문에서는 ASM(Active Shape Model) 특징점(Landmark)을 이용하여 정밀한 얼굴영역을 획득하고, 외형기반 접근법으로 표정을 인식하는 방법에 대하여 제안한다. 외형기반 표정인식은 EHMM(Embedded Hidden Markov Model) 및 이진패턴 히스토그램 특징과 SVM(Support Vector Machine)을 사용하는 알고리즘으로 구성되며, 제안 방법의 성능평가는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 이용하여 수행되었다. 더불어, 성능비교는 기존의 눈 거리 기반의 얼굴 정규화 방법과 비교를 통하여 수행되었고, 또한 ASM 전체 특징점 및 변형된 특징을 SVM으로 인식하는 기하학적 표정인식 방법론과 성능비교를 수행하였다. 실험 결과, 제안 방법은 거리기반 얼굴정규화 영상을 사용한 방법보다 CK 데이터베이스 및 JAFFE 데이터베이스 경우, 최대 6.39%와 7.98%의 성능향상을 보였다. 또한, 제안 방법은 기하학적 특징점을 사용한 방법보다 높은 인식 성능을 보였으며, 이로부터 제안하는 표정인식 방법의 효용성을 확인하였다.

쾌 및 각성차원 기반 얼굴 표정인식 (Facial expression recognition based on pleasure and arousal dimensions)

  • 신영숙;최광남
    • 인지과학
    • /
    • 제14권4호
    • /
    • pp.33-42
    • /
    • 2003
  • 본 논문은 내적상태의 차원모형을 기반으로 한 얼굴 표정인식을 위한 새로운 시스템을 제시한다. 얼굴표정 정보는 3단계로 추출된다. 1단계에서는 Gabor 웨이브렛 표상이 얼굴 요소들의 경계선을 추출한다. 2단계에서는 중립얼굴상에서 얼굴표정의 성긴 특징들이 FCM 군집화 알고리즘을 사용하여 추출된다. 3단계에서는 표정영상에서 동적인 모델을 사용하여 성긴 특징들이 추출된다. 마지막으로 다층 퍼셉트론을 사용하여 내적상태의 차원모델에 기반한 얼굴표정 인식을 보인다. 정서의 이차원 구조는 기본 정서와 관련된 얼굴표정의 인식 뿐만 아니라 다양한 정서의 표정들로 인식할 수 있음을 제시한다.

  • PDF

Multiscale Adaptive Local Directional Texture Pattern for Facial Expression Recognition

  • Zhang, Zhengyan;Yan, Jingjie;Lu, Guanming;Li, Haibo;Sun, Ning;Ge, Qi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권9호
    • /
    • pp.4549-4566
    • /
    • 2017
  • This work presents a novel facial descriptor, which is named as multiscale adaptive local directional texture pattern (MALDTP) and employed for expression recognition. We apply an adaptive threshold value to encode facial image in different scales, and concatenate a series of histograms based on the MALDTP to generate facial descriptor in term of Gabor filters. In addition, some dedicated experiments were conducted to evaluate the performance of the MALDTP method in a person-independent way. The experimental results demonstrate that our proposed method achieves higher recognition rate than local directional texture pattern (LDTP). Moreover, the MALDTP method has lower computational complexity, fewer storage space and higher classification accuracy than local Gabor binary pattern histogram sequence (LGBPHS) method. In a nutshell, the proposed MALDTP method can not only avoid choosing the threshold by experience but also contain much more structural and contrast information of facial image than LDTP.

MobileNet과 TensorFlow.js를 활용한 전이 학습 기반 실시간 얼굴 표정 인식 모델 개발 (Development of a Ream-time Facial Expression Recognition Model using Transfer Learning with MobileNet and TensorFlow.js)

  • 차주호
    • 디지털산업정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.245-251
    • /
    • 2023
  • Facial expression recognition plays a significant role in understanding human emotional states. With the advancement of AI and computer vision technologies, extensive research has been conducted in various fields, including improving customer service, medical diagnosis, and assessing learners' understanding in education. In this study, we develop a model that can infer emotions in real-time from a webcam using transfer learning with TensorFlow.js and MobileNet. While existing studies focus on achieving high accuracy using deep learning models, these models often require substantial resources due to their complex structure and computational demands. Consequently, there is a growing interest in developing lightweight deep learning models and transfer learning methods for restricted environments such as web browsers and edge devices. By employing MobileNet as the base model and performing transfer learning, our study develops a deep learning transfer model utilizing JavaScript-based TensorFlow.js, which can predict emotions in real-time using facial input from a webcam. This transfer model provides a foundation for implementing facial expression recognition in resource-constrained environments such as web and mobile applications, enabling its application in various industries.

HCI를 위한 트리 구조 기반의 자동 얼굴 표정 인식 (Automatic Facial Expression Recognition using Tree Structures for Human Computer Interaction)

  • 신윤희;주진선;김은이;;;박세현;정기철
    • 한국산업정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.60-68
    • /
    • 2007
  • 본 논문에서는 자동으로 사용자의 얼굴 표정을 인식할 수 있는 시스템을 제안한다. 제안된 시스템은 휴리스틱 정보를 기반으로 설계된 트리 구조를 이용하여 행복, 역겨움, 놀람의 감정과 무표정을 인식한다. 카메라로부터 영상이 들어오면 먼저 얼굴 특징 검출기에서 피부색 모델과 연결성분 분석을 이용하여 얼굴 영역을 획득한다. 그 후에 신경망 기반의 텍스처 분류기를 사용하여 눈 영역과 비 눈 영역으로 구분한 뒤 눈의 중심 영역과 에지 정보를 기반으로 하여 눈, 눈썹, 입 등의 얼굴 특징을 찾는다. 검출된 얼굴 특징들은 얼굴 표정 인식기에 사용되며 얼굴 인식기는 이를 기반으로 한 decision tree를 이용하여 얼굴 감정을 인식한다. 제안된 방법의 성능을 평가하기 위해 MMI JAFFE, VAK DB에서 총 180장의 이미지를 사용하여 테스트하였고 약 93%의 정확도를 보였다.

  • PDF

에지 방향 정보를 이용한 LDP 코드 개선에 관한 연구 (A Study of Improving LDP Code Using Edge Directional Information)

  • 이태환;조영탁;안용학;채옥삼
    • 전자공학회논문지
    • /
    • 제52권7호
    • /
    • pp.86-92
    • /
    • 2015
  • 본 논문에서는 지역적인 에지의 방향 정보와 반응 크기, 주변 화소와의 밝기값 차이를 LDP 코드에 포함함으로써 얼굴 표정 인식률을 향상시킨다. 기존 LDP 코드를 사용하면 LBP에 비해서 영상의 밝기 변화에 덜 민감하고 잡음에 강한 장점을 가진다. 하지만, 밝기 변화가 없는 매끄러운 영역의 정보를 표현하기 어렵고, 배경에 얼굴과 유사한 에지 패턴이 존재하는 경우에는 인식률이 저하되는 문제점이 있다. 따라서 에지 방향 정보를 기반으로 에지 강도 및 밝기값을 추가할 수 있도록 LDP 코드를 개선하고, 인식률을 측정한다.

웃음 치료 훈련을 위한 웃음 표정 인식 시스템 개발 (Development of a Recognition System of Smile Facial Expression for Smile Treatment Training)

  • 이옥걸;강선경;김영운;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권4호
    • /
    • pp.47-55
    • /
    • 2010
  • 본 논문은 실시간 카메라 영상으로부터 얼굴을 검출하고 얼굴 표정을 인식하여 웃음 치료훈련을 할 수 있는 시스템을 제안한다. 제안된 시스템은 카메라 영상으로부터 Haar-like 특징을 이용하여 얼굴 후보 영역을 검출한 다음, SVM분류기를 이용하여 얼굴 후보 영역이 얼굴 영상인지 아닌지를 검증한다. 그 다음에는 검출된 얼굴 영상에 대해, 조명의 영향을 최소화하기 위한 방법으로 히스토그램 매칭을 이용한 조명 정규화를 수행한다. 표정 인식 단계에서는 PCA를 사용하여 얼굴 특징 벡터를 획득한 후 다층퍼셉트론 인공신경망을 이용해 실시간으로 웃음표정을 인식하였다. 본 논문에서 개발된 시스템은 실시간으로 사용자의 웃음 표정을 인식하여 웃음 양을 화면에 표시해 줌으로써 사용자 스스로 웃음 훈련을 할 수 있게 해 준다. 실험 결과에 따르면, 본 논문에서 제안한 방법은 SVM 분류기를 통한 얼굴 후보 영역 검증과 히스토그램 매칭을 이용한 조명정규화를 이용하여 웃음 표정 인식률을 향상시켰다.

Discrimination of Emotional States In Voice and Facial Expression

  • Kim, Sung-Ill;Yasunari Yoshitomi;Chung, Hyun-Yeol
    • The Journal of the Acoustical Society of Korea
    • /
    • 제21권2E호
    • /
    • pp.98-104
    • /
    • 2002
  • The present study describes a combination method to recognize the human affective states such as anger, happiness, sadness, or surprise. For this, we extracted emotional features from voice signals and facial expressions, and then trained them to recognize emotional states using hidden Markov model (HMM) and neural network (NN). For voices, we used prosodic parameters such as pitch signals, energy, and their derivatives, which were then trained by HMM for recognition. For facial expressions, on the other hands, we used feature parameters extracted from thermal and visible images, and these feature parameters were then trained by NN for recognition. The recognition rates for the combined parameters obtained from voice and facial expressions showed better performance than any of two isolated sets of parameters. The simulation results were also compared with human questionnaire results.