• 제목/요약/키워드: emotion recognition

검색결과 647건 처리시간 0.027초

Emotion recognition from speech using Gammatone auditory filterbank

  • 레바부이;이영구;이승룡
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(A)
    • /
    • pp.255-258
    • /
    • 2011
  • An application of Gammatone auditory filterbank for emotion recognition from speech is described in this paper. Gammatone filterbank is a bank of Gammatone filters which are used as a preprocessing stage before applying feature extraction methods to get the most relevant features for emotion recognition from speech. In the feature extraction step, the energy value of output signal of each filter is computed and combined with other of all filters to produce a feature vector for the learning step. A feature vector is estimated in a short time period of input speech signal to take the advantage of dependence on time domain. Finally, in the learning step, Hidden Markov Model (HMM) is used to create a model for each emotion class and recognize a particular input emotional speech. In the experiment, feature extraction based on Gammatone filterbank (GTF) shows the better outcomes in comparison with features based on Mel-Frequency Cepstral Coefficient (MFCC) which is a well-known feature extraction for speech recognition as well as emotion recognition from speech.

감정 인식을 위한 Interactive Feature Selection(IFS) 알고리즘 (Interactive Feature selection Algorithm for Emotion recognition)

  • 양현창;김호덕;박창현;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제16권6호
    • /
    • pp.647-652
    • /
    • 2006
  • 본 논문은 일반적으로 많은 특징들을 갖고 있는 패턴 분류 문제인 감정 인식을 위한 새로운 특징 선택 방법을 제안한다. '특징 선택'은 패턴 인식 성능의 향상에 기여하고 '차원의 저주'문제에도 좋은 해결책으로 많이 사용되는 방법이다. 그래서, 본 논문에서는 강화학습의 개념을 사용한 상호 작용에 의한 특징 선택 방법인 IFS(Interactiv Feature Selection)를 고안하였고 이 알고리즘을 사용하여 선택된 특징들을 감정 인식 시스템에 적용하여 성능이 향상됨을 확인하였다. 또한 기존의 특징 선택 방법과의 비교를 통하여 본 알고리즘의 우수성을 확인하였다.

생리적 내재반응 및 얼굴표정 간 확률 관계 모델 기반의 감정인식 시스템에 관한 연구 (A Study on Emotion Recognition Systems based on the Probabilistic Relational Model Between Facial Expressions and Physiological Responses)

  • 고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.513-519
    • /
    • 2013
  • The current vision-based approaches for emotion recognition, such as facial expression analysis, have many technical limitations in real circumstances, and are not suitable for applications that use them solely in practical environments. In this paper, we propose an approach for emotion recognition by combining extrinsic representations and intrinsic activities among the natural responses of humans which are given specific imuli for inducing emotional states. The intrinsic activities can be used to compensate the uncertainty of extrinsic representations of emotional states. This combination is done by using PRMs (Probabilistic Relational Models) which are extent version of bayesian networks and are learned by greedy-search algorithms and expectation-maximization algorithms. Previous research of facial expression-related extrinsic emotion features and physiological signal-based intrinsic emotion features are combined into the attributes of the PRMs in the emotion recognition domain. The maximum likelihood estimation with the given dependency structure and estimated parameter set is used to classify the label of the target emotional states.

Speech emotion recognition based on genetic algorithm-decision tree fusion of deep and acoustic features

  • Sun, Linhui;Li, Qiu;Fu, Sheng;Li, Pingan
    • ETRI Journal
    • /
    • 제44권3호
    • /
    • pp.462-475
    • /
    • 2022
  • Although researchers have proposed numerous techniques for speech emotion recognition, its performance remains unsatisfactory in many application scenarios. In this study, we propose a speech emotion recognition model based on a genetic algorithm (GA)-decision tree (DT) fusion of deep and acoustic features. To more comprehensively express speech emotional information, first, frame-level deep and acoustic features are extracted from a speech signal. Next, five kinds of statistic variables of these features are calculated to obtain utterance-level features. The Fisher feature selection criterion is employed to select high-performance features, removing redundant information. In the feature fusion stage, the GA is is used to adaptively search for the best feature fusion weight. Finally, using the fused feature, the proposed speech emotion recognition model based on a DT support vector machine model is realized. Experimental results on the Berlin speech emotion database and the Chinese emotion speech database indicate that the proposed model outperforms an average weight fusion method.

이미지의 색채 감성속성을 이용한 대표감성크기 정량화 알고리즘 (Represented by the Color Image Emotion Emotional Attributes of Size, Quantification Algorithm)

  • 이연란
    • 만화애니메이션 연구
    • /
    • 통권39호
    • /
    • pp.393-412
    • /
    • 2015
  • 사람의 이미지를 보고 느끼는 감성인식은 환경, 개인적 성향에 따라 다양하게 변화한다. 그리하여 이미지 감성인식을 숫자로 제어하려는 감성컴퓨터 연구에 집중되고 있다. 그렇지만 기존의 감성컴퓨팅 모형은 숫자화된 객관적이고, 명확한 측정이 미흡한 상황이다. 따라서 이미지 감성인식을 감성컴퓨팅을 통해 정량화하고, 객관적인 평가 방식의 연구가 필요한 상황이다. 이에 본 논문은 이미지 감성인식을 계산 방식에 따라 숫자화한 정량화로 감성크기를 표현했다. 그리하여 이미지 감성인식의 주요한 속성인 색채를 구성인자로 적용한다. 또한 디지털 색채 감성컴퓨팅을 적용하여 계산하는데 연구의 중점을 두었다. 이미지 색채 감성컴퓨팅 연구방식은 감성속성인 색상, 명도, 채도에 중요도에 따른 가중치를 감성점수에 반영한다. 그리고 감성점수를 이미지 감성계산식에 적용하여 쾌정도(X축), 긴장도(Y축)를 숫자 방식으로 계산한다. 거기에 쾌정도(X축), 긴장도(Y축)의 교차하는 위치점을 이미지 감성좌표의 감성점으로 위치한다. 이미지 색채 감성좌표는 러셀의 핵심 효과(Core Affect)를 적용하여 16가지 주요대표감성을 기반으로 한다. 이미지 감성점은 기준의 위치에서 대표감성크기와 감성상관관계를 숫자화하고, 이미지 감성을 정량화한다. 그리하여 이미지 감성인식은 숫자 크기로 비교한다. 감성점수의 대소에 따라 감성이 변화함을 증명한다. 비교 방식은 이미지 감성인식을 16개 대표감성과 연관된 감성의 상위 5위로 구분하고, 집중된 대표감성크기를 비교 분석한다. 향후 감성컴퓨팅 방식이 사람의 감성인식과 더 유사할 수 있도록 감성계산식의 연구가 필요하다.

얼굴 특징 변화에 따른 휴먼 감성 인식 (Human Emotion Recognition based on Variance of Facial Features)

  • 이용환;김영섭
    • 반도체디스플레이기술학회지
    • /
    • 제16권4호
    • /
    • pp.79-85
    • /
    • 2017
  • Understanding of human emotion has a high importance in interaction between human and machine communications systems. The most expressive and valuable way to extract and recognize the human's emotion is by facial expression analysis. This paper presents and implements an automatic extraction and recognition scheme of facial expression and emotion through still image. This method has three main steps to recognize the facial emotion: (1) Detection of facial areas with skin-color method and feature maps, (2) Creation of the Bezier curve on eyemap and mouthmap, and (3) Classification and distinguish the emotion of characteristic with Hausdorff distance. To estimate the performance of the implemented system, we evaluate a success-ratio with emotional face image database, which is commonly used in the field of facial analysis. The experimental result shows average 76.1% of success to classify and distinguish the facial expression and emotion.

  • PDF

멀티 모달 감정인식 시스템 기반 상황인식 서비스 추론 기술 개발 (Development of Context Awareness and Service Reasoning Technique for Handicapped People)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.34-39
    • /
    • 2009
  • 사람의 감정은 주관적인 인식 작용으로서 충동적인 성향을 띄고 있으며 무의식중의 사람의 욕구와 의도를 표현하고 있다. 이는 유비쿼터스 컴퓨팅 환경이나 지능형 로봇의 사용자가 처한 환경의 상황정보 중에서 사용자의 의도를 가장 많이 포함하고 있는 정보라고 할 수 있다. 이러한 사용자의 감정을 파악할 수 있는 지표는 사람의 얼굴 영상에서의 표정과 음성신호에서의 Spectrum 통계치 및 생체신호(근전위, 뇌파, 등)등 이다. 본 논문에서는 감정인식 활용의 편의와 효율성 향상을 주목적으로 하여 사용자의 얼굴 영상과 음성을 이용한 감정인식에 대하여 개별 결과물만을 산출하고 그 인식률을 검토한다. 또한 임의의 상황에서의 인식률 향상을 위하여 영상과 음성의 특징을 기반으로 최적의 특징 정보들을 구별해 내고, 각각의 개별 감정 특징에 대한 융합을 시도하는 특징 융합 기반의 Multi-Modal 감정인식 기법을 구현한다. 최종적으로 감정인식 결과를 이용하여 유비쿼터스 컴퓨팅 환경에서 발생 가능한 상황 설정 시나리오와 베이지만 네트워크를 통해 유비쿼터스 컴퓨팅 서비스의 확률 추론 가능성을 제시하고자 한다.

SER 기술을 이용한 대화형 시뮬레이션 게임 제안 (A Proposal of an Interactive Simulation Game using SER (Speech Emotion Recognition) Technology)

  • 이강희;전서현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제60차 하계학술대회논문집 27권2호
    • /
    • pp.445-446
    • /
    • 2019
  • 본 논문에서는 단순히 필요한 정보를 얻기 위한 수준에 그쳤던 현대의 인공지능을 SER (Speech Emotion Recognition) 기술을 이용하여 사용자와 직접적으로 대화하는 형식으로 발전시키고자 한다. 사용자의 음성 언어에서 감정을 추출하여 인공지능 분야 및 챗봇과 대화함에 있어 좀더 효과적으로 해석할 수 있도록 도움을 준다. 이것을 대화형 시뮬레이션 게임에 접목시켜 단순한 선택형 대화 방식이 아닌 구어체로 대화하며 사용자에게 높은 몰입도를 줄 수 있다.

  • PDF

Incomplete Cholesky Decomposition based Kernel Cross Modal Factor Analysis for Audiovisual Continuous Dimensional Emotion Recognition

  • Li, Xia;Lu, Guanming;Yan, Jingjie;Li, Haibo;Zhang, Zhengyan;Sun, Ning;Xie, Shipeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권2호
    • /
    • pp.810-831
    • /
    • 2019
  • Recently, continuous dimensional emotion recognition from audiovisual clues has attracted increasing attention in both theory and in practice. The large amount of data involved in the recognition processing decreases the efficiency of most bimodal information fusion algorithms. A novel algorithm, namely the incomplete Cholesky decomposition based kernel cross factor analysis (ICDKCFA), is presented and employed for continuous dimensional audiovisual emotion recognition, in this paper. After the ICDKCFA feature transformation, two basic fusion strategies, namely feature-level fusion and decision-level fusion, are explored to combine the transformed visual and audio features for emotion recognition. Finally, extensive experiments are conducted to evaluate the ICDKCFA approach on the AVEC 2016 Multimodal Affect Recognition Sub-Challenge dataset. The experimental results show that the ICDKCFA method has a higher speed than the original kernel cross factor analysis with the comparable performance. Moreover, the ICDKCFA method achieves a better performance than other common information fusion methods, such as the Canonical correlation analysis, kernel canonical correlation analysis and cross-modal factor analysis based fusion methods.

애착 유형에 따른 아동의 정서인식, 정서표현 및 상호작용 (Children's Emotion Recognition, Emotion Expression, and Social Interactions According to Attachment Styles)

  • 최은실
    • 아동학회지
    • /
    • 제33권2호
    • /
    • pp.55-68
    • /
    • 2012
  • The goals of this study were to examine how children's recognition of various emotions, emotion expression, and social interactions among their peers differed according to their attachment styles. A total of 65 three to five years old children completed both attachment story-stem doll plays and a standard emotion recognition task. Trained observers documented children's valence of emotion expression and social interactions among their peers in the classroom. Consistent with attachment theory, children who were categorized as secure in the doll play were more likely to express positive emotions than children who were categorized as avoidant in the doll play. Children who were categorized as avoidant in the doll play were more likely to express neutral emotions among their peers than children who were categorized as secure and anxious in the doll play. The findings of this study contribute to the general attachment literature by documenting how attachment security plays a crucial role in having positive emotions in ordinary situations. It does so by also demonstrating how different attachment styles are associated with children's qualitatively different patterns of emotion processing, especially in terms of their expression of emotions.