• Title/Summary/Keyword: 얼굴표정인식

검색결과 293건 처리시간 0.022초

Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion (감정확률을 이용한 동적 얼굴표정의 퍼지 모델링)

  • Kang, Hyo-Seok;Baek, Jae-Ho;Kim, Eun-Tai;Park, Mignon
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • This paper suggests to apply mirror-reflected method based 2D emotion recognition database to 3D application. Also, it makes facial expression of fuzzy modeling using probability of emotion. Suggested facial expression function applies fuzzy theory to 3 basic movement for facial expressions. This method applies 3D application to feature vector for emotion recognition from 2D application using mirror-reflected multi-image. Thus, we can have model based on fuzzy nonlinear facial expression of a 2D model for a real model. We use average values about probability of 6 basic expressions such as happy, sad, disgust, angry, surprise and fear. Furthermore, dynimic facial expressions are made via fuzzy modelling. This paper compares and analyzes feature vectors of real model with 3D human-like avatar.

Recognition of Hmm Facial Expressions using Optical Flow of Feature Regions (얼굴 특징영역상의 광류를 이용한 표정 인식)

  • Lee Mi-Ae;Park Ki-Soo
    • Journal of KIISE:Software and Applications
    • /
    • 제32권6호
    • /
    • pp.570-579
    • /
    • 2005
  • Facial expression recognition technology that has potentialities for applying various fields is appling on the man-machine interface development, human identification test, and restoration of facial expression by virtual model etc. Using sequential facial images, this study proposes a simpler method for detecting human facial expressions such as happiness, anger, surprise, and sadness. Moreover the proposed method can detect the facial expressions in the conditions of the sequential facial images which is not rigid motion. We identify the determinant face and elements of facial expressions and then estimates the feature regions of the elements by using information about color, size, and position. In the next step, the direction patterns of feature regions of each element are determined by using optical flows estimated gradient methods. Using the direction model proposed by this study, we match each direction patterns. The method identifies a facial expression based on the least minimum score of combination values between direction model and pattern matching for presenting each facial expression. In the experiments, this study verifies the validity of the Proposed methods.

Recognizing Facial Expressions Using a Neural Network (신경망을 이용한 얼굴 표정인식)

  • 신영숙;이일병
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 한국감성과학회 1998년도 춘계학술발표 논문집
    • /
    • pp.101-105
    • /
    • 1998
  • 기존의 표정인식 연구는 Ekman의 기본정서모형의 특에 의하여 표정인식이 이루어져왔다. 그러나 이러한 6가지 기본정서(행복, 놀람, 공포, 분노, 혐오, 슬픔)에 의한 표정인식은 6개 정서 중에서 선택하는 간제 선택법이 아닌 자유응답방식을 택했을때는 훨씬 인식률이 떨어진다. 이는 표정이 기본정서이외에도 여러 가지 미묘한 마음상태를 표현하고 있기 때문이다. 본 연구는 섬세한 표정인식을 우한 방법으로, 차원모형을 근거로 MLP를 적용한 표정인식을 수행하였다. 차원 모형에 의한 표정은 3가지 차원으로 하나의 표정을 이룬다. 3가지 차원은 쾌-불쾌, 각성-수면과 외부지향-내부지향이다. 3가지 차원을 갖는 각각의 표정은 MLP에 의하여 쾌-불쾌차원 68%, 각성-수면차원 60%, 외부지향-내부지향차원 76%의 인식률을 보였다. 연구결과에서 차원모형에 근거한 표정인식을 통하여 기존의 표정인식을 통하여 기존의 기본정서모형의 한계성을 극복하고 섬세한 표정인식을 수행할 수 있었다.

  • PDF

Real-time Recognition System of Facial Expressions Using Principal Component of Gabor-wavelet Features (표정별 가버 웨이블릿 주성분특징을 이용한 실시간 표정 인식 시스템)

  • Yoon, Hyun-Sup;Han, Young-Joon;Hahn, Hern-Soo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • 제19권6호
    • /
    • pp.821-827
    • /
    • 2009
  • Human emotion can be reflected by their facial expressions. So, it is one of good ways to understand people's emotions by recognizing their facial expressions. General recognition system of facial expressions had selected interesting points, and then only extracted features without analyzing physical meanings. They takes a long time to find interesting points, and it is hard to estimate accurate positions of these feature points. And in order to implement a recognition system of facial expressions on real-time embedded system, it is needed to simplify the algorithm and reduce the using resources. In this paper, we propose a real-time recognition algorithm of facial expressions that project the grid points on an expression space based on Gabor wavelet feature. Facial expression is simply described by feature vectors on the expression space, and is classified by an neural network with its resources dramatically reduced. The proposed system deals 5 expressions: anger, happiness, neutral, sadness, and surprise. In experiment, average execution time is 10.251 ms and recognition rate is measured as 87~93%.

Convolutional Neural Networks for Facial Expression Recognition (얼굴 표정 인식을 위한 Convolutional Neural Networks)

  • Choi, In-Kyu;Song, Hyok;Yoo, Jisang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.17-18
    • /
    • 2016
  • 본 논문에서는 딥러닝 기술 중의 하나인 CNN(Convolutional Neural Network) 기반의 얼굴 표정 인식 기법을 제안한다. 제안한 기법에서는 획득한 여섯 가지 주요 표정의 얼굴영상들을 학습 데이터로 이용할 때 분류 성능을 저해시키는 과적합(over-fitting) 문제를 해결하기 위해서 데이터 증대 기법(data augmentation)을 적용한다. 또한 기존의 CNN 구조에서 convolutional layer 및 node의 수를 변경하여 학습 파라미터 수를 대폭 감소시킬 수 있다. 실험 결과 제안하는 데이터 증대 기법 및 개선한 구조가 높은 얼굴 표정 분류 성능을 보여준다는 것을 확인하였다.

  • PDF

A Study on Customer Feedback using Facial Expression (표정인식을 활용한 고객피드백에 관한 연구)

  • Song, Eun-Jee;Kang, Min-Shik
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 한국정보통신학회 2015년도 추계학술대회
    • /
    • pp.685-686
    • /
    • 2015
  • 최근 감성ICT산업은 성숙기 IT산업을 새롭게 도약시킬 핵심 산업으로 인식되면서 관련 산업계의 주목을 받고 있으며 다양한 분야에 접목되고 있다. 특히, 인간표정을 인식하는 IT기술은 사회적 측면에서 인간중심의 미래생활 패러다임의 변화가 감성이해를 통한 사용자 친화적 솔루션으로 발전하고 있다. 효율적인 경영을 위해 기업은 고객의 요구사항을 정확히 파악하는 것이 중요한데 본 연구에서는 이러한 감성ICT 기술을 이용한 새로운 커뮤니케이션의 사례로서 고객의 감정 중에 특히 얼굴표정을 파악하여 고객중심의 맞춤형 서비스 기능을 제공할 수 있도록 얼굴표정에 의해 호감도를 특정할 수 있는 알고리즘을 제안한다. 이것은 기존의 7개 표정인식 알고리즘을 이용하여 고객만족도를 특정할 수 있도록 한 것이다.

  • PDF

Facial Expression Recognition with Instance-based Learning Based on Regional-Variation Characteristics Using Models-based Feature Extraction (모델기반 특징추출을 이용한 지역변화 특성에 따른 개체기반 표정인식)

  • Park, Mi-Ae;Ko, Jae-Pil
    • Journal of Korea Multimedia Society
    • /
    • 제9권11호
    • /
    • pp.1465-1473
    • /
    • 2006
  • In this paper, we present an approach for facial expression recognition using Active Shape Models(ASM) and a state-based model in image sequences. Given an image frame, we use ASM to obtain the shape parameter vector of the model while we locate facial feature points. Then, we can obtain the shape parameter vector set for all the frames of an image sequence. This vector set is converted into a state vector which is one of the three states by the state-based model. In the classification step, we use the k-NN with the proposed similarity measure that is motivated on the observation that the variation-regions of an expression sequence are different from those of other expression sequences. In the experiment with the public database KCFD, we demonstrate that the proposed measure slightly outperforms the binary measure in which the recognition performance of the k-NN with the proposed measure and the existing binary measure show 89.1% and 86.2% respectively when k is 1.

  • PDF

A Study on Face Detection Performance Enhancement Using FLD (FLD를 이용한 얼굴 검출의 성능 향상을 위한 연구)

  • 남미영;이필규;김광백
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.225-230
    • /
    • 2004
  • 얼굴 검출은 디지털화된 임의의 정지 영상 혹은 연속된 영상으로부터 얼굴 존재 유무를 판단하고, 얼굴이 존재할 경우 영상 내 얼굴의 위치, 방향, 크기 둥을 알아내는 기술로 정의된다. 이러한 얼굴 검출은 얼굴 인식이나 표정인식, 헤드 재스쳐 등의 기초 기술로서 해당 시스템의 성능에 매우 중요한 변수 중에 하나이다. 그러나 영상내의 얼굴은 표정, 포즈, 크기, 빛의 방향 및 밝기, 안경, 수염 둥의 환경적 변화로 인해 얼굴 모양이 다양해지므로 정확하고 빠른 검출이 어렵다. 따라서 본 논문에서는 피셔의 선형 판별 분석을 이용하여 몇 가지 환경적 조건을 극복한 정확하고 빠른 얼굴 검출 방법을 제안한다. 제안된 방법은 포즈와, 배경에 무관하게 얼굴을 검출하면서도 빠른 검출이 가능하다. 이를 위해 계층적인 방법으로 얼굴 검출을 수행하며, 휴리스틱한 방법, 피셔의 판별 분석을 이용하여 얼굴 검출을 수행하고 검색 영역의 축소와 선형 결정의 계산 시간의 단축으로 검출 응답 시간을 빠르게 하였다 추출된 얼굴 영상에서 포즈를 추정하고 눈 영역을 검출함으로써 얼굴 정보의 사용에 있어 보다 많은 정보를 추출할 수 있도록 하였다.

  • PDF

Effect of Depressive Mood on Identification of Emotional Facial Expression (우울감이 얼굴 표정 정서 인식에 미치는 영향)

  • Ryu, Kyoung-Hi;Oh, Kyung-Ja
    • Science of Emotion and Sensibility
    • /
    • 제11권1호
    • /
    • pp.11-21
    • /
    • 2008
  • This study was designed to examine the effect of depressive mood on identification of emotional facial expression. Participants were screened out of 305 college students on the basis of the BDI-II score. Students with BDI-II score higher than 14(upper 20%) were selected for the Depression Group and those with BDI-II score lower than 5(lower 20%) were selected for the Control Group. A final sample of 20 students in the Depression Group and 20 in the Control Group were presented with facial expression stimuli of an increasing degree of emotional intensity, slowly changing from a neutral to a full intensity of happy, sad, angry, or fearful expressions. The result showed that there was the significant interaction of Group by Emotion(esp. happy and sad) which suggested that depressive mood affects processing of emotional stimuli such as facial expressions. Implication of this result for mood-congruent information processing were discussed.

  • PDF

Research on Micro-Movement Responses of Facial Muscles by Intimacy, Empathy, Valence (친밀도, 공감도, 긍정도에 따른 얼굴 근육의 미세움직임 반응 차이)

  • Cho, Ji Eun;Park, Sang-In;Won, Myoung Ju;Park, Min Ji;Whang, Min-Cheol
    • The Journal of the Korea Contents Association
    • /
    • 제17권2호
    • /
    • pp.439-448
    • /
    • 2017
  • Facial expression is important factor on social interaction. Facial muscle movement provides emotion information to develop social network. However, facial movement has less determined to recognize social emotion. This study is to analyze facial micro-movements and to recognize the social emotion such as intimacy, empathy, and valence. 76 university students were presented to the stimuli for social emotions and was measure their facial expression using camera. As a results, facial micro-movement. showed significant difference of social emotion. After extracting the movement amount of 3 unconscious muscles and 18 conscious muscles, Dominant Frequency band was confirmed. While muscle around the nose and cheek showed significant difference in the intimacy, one around mouth did in the empathy and one around jaw in the valence. The results proposed new facial movement to express social emotion in virtual avatars and to recognize social emotion.