• 제목/요약/키워드: Recognizing Emotion

검색결과 106건 처리시간 0.031초

SYMMER: A Systematic Approach to Multiple Musical Emotion Recognition

  • Lee, Jae-Sung;Jo, Jin-Hyuk;Lee, Jae-Joon;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제11권2호
    • /
    • pp.124-128
    • /
    • 2011
  • Music emotion recognition is currently one of the most attractive research areas in music information retrieval. In order to use emotion as clues when searching for a particular music, several music based emotion recognizing systems are fundamentally utilized. In order to maximize user satisfaction, the recognition accuracy is very important. In this paper, we develop a new music emotion recognition system, which employs a multilabel feature selector and multilabel classifier. The performance of the proposed system is demonstrated using novel musical emotion data.

IoT를 위한 음성신호 기반의 톤, 템포 특징벡터를 이용한 감정인식 (Emotion Recognition Using Tone and Tempo Based on Voice for IoT)

  • 변성우;이석필
    • 전기학회논문지
    • /
    • 제65권1호
    • /
    • pp.116-121
    • /
    • 2016
  • In Internet of things (IoT) area, researches on recognizing human emotion are increasing recently. Generally, multi-modal features like facial images, bio-signals and voice signals are used for the emotion recognition. Among the multi-modal features, voice signals are the most convenient for acquisition. This paper proposes an emotion recognition method using tone and tempo based on voice. For this, we make voice databases from broadcasting media contents. Emotion recognition tests are carried out by extracted tone and tempo features from the voice databases. The result shows noticeable improvement of accuracy in comparison to conventional methods using only pitch.

Biosign Recognition based on the Soft Computing Techniques with application to a Rehab -type Robot

  • Lee, Ju-Jang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.29.2-29
    • /
    • 2001
  • For the design of human-centered systems in which a human and machine such as a robot form a human-in system, human-friendly interaction/interface is essential. Human-friendly interaction is possible when the system is capable of recognizing human biosigns such as5 EMG Signal, hand gesture and facial expressions so the some humanintention and/or emotion can be inferred and is used as a proper feedback signal. In the talk, we report our experiences of applying the Soft computing techniques including Fuzzy, ANN, GA and rho rough set theory for efficiently recognizing various biosigns and for effective inference. More specifically, we first observe characteristics of various forms of biosigns and propose a new way of extracting feature set for such signals. Then we show a standardized procedure of getting an inferred intention or emotion from the signals. Finally, we present examples of application for our model of rehabilitation robot named.

  • PDF

퍼지 모델을 기반으로 한 컬러 영상에서의 감성 인식 (Fuzzy Model-Based Emotion Recognition Using Color Image)

  • 주영훈;정근호
    • 한국지능시스템학회논문지
    • /
    • 제14권3호
    • /
    • pp.330-335
    • /
    • 2004
  • 본 논문에서는 컬러 영상을 이용하여 인간의 감성을 인식할 수 있는 방법을 제안한다. 먼저, 컬러 영상으로부터 색모델을 이용하여 피부색 영역을 추출한다. 그 다음, 추출된 피부색 영상으로부터 Eigenface를 이용하여 얼굴 영역을 검출한다. 마지막으로, 얼굴 영역으로부터 인간 얼굴의 특징 점(눈썹, 눈, 코, 입)들을 추출하고, 각 특징 점들 간의 구조적인 관계로부터 인간의 감성(기쁨, 놀람, 슬픔, 분노)을 인식하는 퍼지 모델을 구성한다. 이 모델로부터 퍼지 이론을 이용하여 최종적으로 인간의 감성을 추론한다. 마지막으로, 제안된 방법은 실험을 통해 그 응용 가능성을 확인한다.

게임 캐릭터의 감정구조를 위한 감정규칙의 활용 (Use of Emotion Rule for Game Characters Emotion Structure)

  • 박준형;고일주;성보경
    • 한국게임학회 논문지
    • /
    • 제16권1호
    • /
    • pp.23-32
    • /
    • 2016
  • 최근 감정에 대한 연구는 게임을 하는 사용자와의 상호작용을 높이는 요소로 주목 받고 있다. 그 동안 게임에서 표현되는 감정은 간단한 구조를 사용했었다. 하지만 게임에서 사용되는 감정에 대한 사용자의 요구가 높아지면서 감정을 구조화시킬 필요가 생겼다. 이 논문에서는 게임 속 캐릭터의 감정을 위해 생물학적 감정 원리를 기반으로 제안된 감정규칙을 활용했다. 그리고 감정에 영향을 주는 게임 구성요소를 분류하고 캐릭터가 게임에서 감정을 인지하기 위한 구조를 제안한다. 이를 통해 기존의 게임에서 사용된 감정을 감정의 역할로 분석하고 게임에서 감정을 표현하기 위해 고려해야할 구조적인 틀을 제안한다.

Speech Emotion Recognition Using 2D-CNN with Mel-Frequency Cepstrum Coefficients

  • Eom, Youngsik;Bang, Junseong
    • Journal of information and communication convergence engineering
    • /
    • 제19권3호
    • /
    • pp.148-154
    • /
    • 2021
  • With the advent of context-aware computing, many attempts were made to understand emotions. Among these various attempts, Speech Emotion Recognition (SER) is a method of recognizing the speaker's emotions through speech information. The SER is successful in selecting distinctive 'features' and 'classifying' them in an appropriate way. In this paper, the performances of SER using neural network models (e.g., fully connected network (FCN), convolutional neural network (CNN)) with Mel-Frequency Cepstral Coefficients (MFCC) are examined in terms of the accuracy and distribution of emotion recognition. For Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS) dataset, by tuning model parameters, a two-dimensional Convolutional Neural Network (2D-CNN) model with MFCC showed the best performance with an average accuracy of 88.54% for 5 emotions, anger, happiness, calm, fear, and sadness, of men and women. In addition, by examining the distribution of emotion recognition accuracies for neural network models, the 2D-CNN with MFCC can expect an overall accuracy of 75% or more.

음성 데이터의 내재된 감정인식을 위한 다중 감정 회귀 모델 (Multi-Emotion Regression Model for Recognizing Inherent Emotions in Speech Data)

  • 이명호;임명진;신주현
    • 스마트미디어저널
    • /
    • 제12권9호
    • /
    • pp.81-88
    • /
    • 2023
  • 최근 코로나19로 인한 비대면 서비스의 확산으로 온라인을 통한 소통이 증가하고 있다. 비대면 상황에서는 텍스트나 음성, 이미지 등의 모달리티를 통해 상대방의 의견이나 감정을 인식하고 있다. 현재 다양한 모달리티를 결합한 멀티모달 감정인식에 관한 연구가 활발하게 진행되고 있다. 그중 음성 데이터를 활용한 감정인식은 음향 및 언어정보를 통해 감정을 이해하는 수단으로 주목하고 있으나 대부분 단일한 음성 특징값으로 감정을 인식하고 있다. 하지만 대화문에는 다양한 감정이 복합적으로 존재하기 때문에 다중 감정을 인식하는 방법이 필요하다. 따라서 본 논문에서는 복합적으로 존재하는 내재된 감정인식을 위해 음성 데이터를 전처리한 후 특징 벡터를 추출하고 시간의 흐름을 고려한 다중 감정 회귀 모델을 제안한다.

자폐 스펙트럼 장애의 다중감각 통합과 정서인식: 행동연구와 인지 신경 과학 연구에 대한 개관 (Emotion Perception and Multisensory Integration in Autism Spectrum Disorder: A Review of Behavioral and Cognitive Neuroscience Studies)

  • 조희정;김소연
    • 감성과학
    • /
    • 제21권4호
    • /
    • pp.77-90
    • /
    • 2018
  • 자폐 스펙트럼 장애를 가진 대상(이하 ASD)의 정서 인식 능력에 대한 행동 연구의 결과는 혼재되어 있고, 대부분 단일 감각 양식의 정서 인식 능력에 대한 검증에 치중되어 있다. 따라서 ASD가 실제로 정서 인식 결함을 가지고 있는지에 대한 통합적 이해는 아직 이루어지지 않은 실정이다. 따라서 본 연구는 다중 감각 양식 정서 자극에 대한 따른 ASD 환자의 정서 인식 능력에 초점을 맞추고, ASD의 정서 인식 능력에 대한 혼재된 결과를 설명하기 위하여 최신 행동연구와 인지신경과학 연구들을 개관하였다. 그 결과, 정서 인식 과제에서 행동적 결함을 보이지 않았던 ASD 일지라도, 뇌 영상 결과에서는 정서 정보 통합 기능에서 결함이 발견되었다. 따라서 본 개관 연구에서는, 최근에 제안된 ASD의 다중 감각 양식에 따른 정서 인식 능력의 결함, ASD의 정서 정보 통합 기능 결함, 그리고 실생활에서 정서 인식의 어려움에 대한 가능성과 선행 연구들의 제한점에 대해 논의하였다. 또한, ASD가 정서 정보를 통합하는 과정에서 활용하는 보상 기제를 살펴보고, ASD의 정서 기능 결함과 관련된 치료적 접근 방향과 후속 연구에 대해 제언하였다.

이미지 시퀀스 얼굴표정 기반 감정인식을 위한 가중 소프트 투표 분류 방법 (Weighted Soft Voting Classification for Emotion Recognition from Facial Expressions on Image Sequences)

  • 김경태;최재영
    • 한국멀티미디어학회논문지
    • /
    • 제20권8호
    • /
    • pp.1175-1186
    • /
    • 2017
  • Human emotion recognition is one of the promising applications in the era of artificial super intelligence. Thus far, facial expression traits are considered to be the most widely used information cues for realizing automated emotion recognition. This paper proposes a novel facial expression recognition (FER) method that works well for recognizing emotion from image sequences. To this end, we develop the so-called weighted soft voting classification (WSVC) algorithm. In the proposed WSVC, a number of classifiers are first constructed using different and multiple feature representations. In next, multiple classifiers are used for generating the recognition result (namely, soft voting) of each face image within a face sequence, yielding multiple soft voting outputs. Finally, these soft voting outputs are combined through using a weighted combination to decide the emotion class (e.g., anger) of a given face sequence. The weights for combination are effectively determined by measuring the quality of each face image, namely "peak expression intensity" and "frontal-pose degree". To test the proposed WSVC, CK+ FER database was used to perform extensive and comparative experimentations. The feasibility of our WSVC algorithm has been successfully demonstrated by comparing recently developed FER algorithms.

음성의 피치 파라메터를 사용한 감정 인식 (Emotion Recognition using Pitch Parameters of Speech)

  • 이규현;김원구
    • 한국지능시스템학회논문지
    • /
    • 제25권3호
    • /
    • pp.272-278
    • /
    • 2015
  • 본 논문에서는 음성신호 피치 정보를 이용한 감정 인식 시스템 개발을 목표로 피치 정보로부터 다양한 파라메터 추출방법을 연구하였다. 이를 위하여 다양한 감정이 포함된 한국어 음성 데이터베이스를 이용하여 피치의 통계적인 정보와 수치해석 기법을 사용한 피치 파라메터를 생성하였다. 이러한 파라메터들은 GMM(Gaussian Mixture Model) 기반의 감정 인식 시스템을 구현하여 각 파라메터의 성능을 비교되었다. 또한 순차특징선택 방법을 사용하여 최고의 감정 인식 성능을 나타내는 피치 파라메터들을 선정하였다. 4개의 감정을 구별하는 실험 결과에서 총 56개의 파라메터중에서 15개를 조합하였을 때 63.5%의 인식 성능을 나타내었다. 또한 감정 검출 여부를 나타내는 실험에서는 14개의 파라메터를 조합하였을 때 80.3%의 인식 성능을 나타내었다.