• 제목/요약/키워드: Emotion Classification

검색결과 292건 처리시간 0.023초

음악에 따른 감정분류을 위한 EEG특징벡터 비교 (Comparison of EEG Feature Vector for Emotion Classification according to Music Listening)

  • 이소민;변성우;이석필
    • 전기학회논문지
    • /
    • 제63권5호
    • /
    • pp.696-702
    • /
    • 2014
  • Recently, researches on analyzing relationship between the state of emotion and musical stimuli using EEG are increasing. A selection of feature vectors is very important for the performance of EEG pattern classifiers. This paper proposes a comparison of EEG feature vectors for emotion classification according to music listening. For this, we extract some feature vectors like DAMV, IAV, LPC, LPCC from EEG signals in each class related to music listening and compare a separability of the extracted feature vectors using Bhattacharyya distance. So more effective feature vectors are recommended for emotion classification according to music listening.

어텐션 메커니즘 기반 Long-Short Term Memory Network를 이용한 EEG 신호 기반의 감정 분류 기법 (Emotion Classification based on EEG signals with LSTM deep learning method)

  • 김유민;최아영
    • 한국산업정보학회논문지
    • /
    • 제26권1호
    • /
    • pp.1-10
    • /
    • 2021
  • 본 연구에서는 EEG 신호를 기반으로 감정 인식에 유용한 딥러닝 기법을 제안한다. 감정이 시간에 따라 변화하는 특성을 반영하기 위해 Long-Short Term Memory 네트워크를 사용하였다. 또한, 특정 시점의 감정적 상태가 전체 감정 상태에 영향을 미친다는 이론을 기반으로 특정 순간의 감정 상태에 가중치를 주기 위해 어텐션 메커니즘을 적용했다. EEG 신호는 DEAP 데이터베이스를 사용하였으며, 감정은 긍정과 부정의 정도를 나타내는 정서가(Valence)와 감정의 정도를 나타내는 각성(Arousal) 모델을 사용하였다. 실험 결과 정서가(Valence)와 각성(Arousal)을 2단계(낮음, 높음)로 나누었을 때 분석 정확도는 정서가(Valence)의 경우 90.1%, 각성(Arousal)의 경우 88.1%이다. 낮음, 중간, 높음의 3단계로 감정을 구분한 경우 정서가(Valence)는 83.5%, 각성(Arousal)은 82.5%의 정확도를 보였다.

Classification and Intensity Assessment of Korean Emotion Expressing Idioms for Human Emotion Recognition

  • Park, Ji-Eun;Sohn, Sun-Ju;Sohn, Jin-Hun
    • 대한인간공학회지
    • /
    • 제31권5호
    • /
    • pp.617-627
    • /
    • 2012
  • Objective: The aim of the study was to develop a most widely used Korean dictionary of emotion expressing idioms. This is anticipated to assist the development of software technology that recognizes and responds to verbally expressed human emotions. Method: Through rigorous and strategic classification processes, idiomatic expressions included in this dictionary have been rated in terms of nine different emotions (i.e., happiness, sadness, fear, anger, surprise, disgust, interest, boredom, and pain) for meaning and intensity associated with each expression. Result: The Korean dictionary of emotion expression idioms included 427 expressions, with approximately two thirds classified as 'happiness'(n=96), 'sadness'(n=96), and 'anger'(n=90) emotions. Conclusion: The significance of this study primarily rests in the development of a practical language tool that contains Korean idiomatic expressions of emotions, provision of information on meaning and strength, and identification of idioms connoting two or more emotions. Application: Study findings can be utilized in emotion recognition research, particularly in identifying primary and secondary emotions as well as understanding intensity associated with various idioms used in emotion expressions. In clinical settings, information provided from this research may also enhance helping professionals' competence in verbally communicating patients' emotional needs.

Hybrid-Feature Extraction for the Facial Emotion Recognition

  • Byun, Kwang-Sub;Park, Chang-Hyun;Sim, Kwee-Bo;Jeong, In-Cheol;Ham, Ho-Sang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1281-1285
    • /
    • 2004
  • There are numerous emotions in the human world. Human expresses and recognizes their emotion using various channels. The example is an eye, nose and mouse. Particularly, in the emotion recognition from facial expression they can perform the very flexible and robust emotion recognition because of utilization of various channels. Hybrid-feature extraction algorithm is based on this human process. It uses the geometrical feature extraction and the color distributed histogram. And then, through the independently parallel learning of the neural-network, input emotion is classified. Also, for the natural classification of the emotion, advancing two-dimensional emotion space is introduced and used in this paper. Advancing twodimensional emotion space performs a flexible and smooth classification of emotion.

  • PDF

다양한 눈의 특징 분석을 통한 감성 분류 방법 (Emotion Classification Method Using Various Ocular Features)

  • 김윤경;원명주;이의철
    • 한국콘텐츠학회논문지
    • /
    • 제14권10호
    • /
    • pp.463-471
    • /
    • 2014
  • 본 논문에서는 근적외선 카메라를 이용한 눈의 다양한 특징 분석을 통해 감성을 분류하는 방법에 관한 연구를 진행하였다. 제안하는 방법은 기존의 유사한 연구와 비교했을 때, 감성 분류를 위해 더 많은 눈의 특징을 사용하였고, 각 특징이 모두 유의미한 정보를 포함하고 있음을 검증하였다. 긍정-부정, 각성-이완의 상반된 감성 유발을 위해 청각 자극을 사용함으로써, 눈의 특징에 끼치는 영향을 최소화하였다. 감성 분류를 위한 특징으로써, 동공 크기, 동공 크기 변화율, 깜박임 빈도, 눈을 감은 지속시간을 사용하였으며, 이들은 근적외선 카메라 영상으로부터 자체 개발한 자동화된 처리 방법을 통해 추출된다. 분석 결과, 각성-이완 감성 유발 자극에 대해서는 동공 크기 변화율과 깜박임 빈도 특징이 유의한 차이를 보였다. 또한, 긍정-부정 감성 유발 자극에 대해에서는 눈을 감은 지속시간 특징이 유의한 차이를 보였다. 특히 동공 크기 특징은 각성-이완, 긍정-부정의 상반된 감성 자극 유발 상황에서 모두 유의한 차이가 없음을 확인할 수 있었다.

동공크기 변화신호의 STFT와 CNN을 이용한 2차원 감성분류 (2D Emotion Classification using Short-Time Fourier Transform of Pupil Size Variation Signals and Convolutional Neural Network)

  • 이희재;이다빛;이상국
    • 한국멀티미디어학회논문지
    • /
    • 제20권10호
    • /
    • pp.1646-1654
    • /
    • 2017
  • Pupil size variation can not be controlled intentionally by the user and includes various features such as the blinking frequency and the duration of a blink, so it is suitable for understanding the user's emotional state. In addition, an ocular feature based emotion classification method should be studied for virtual and augmented reality, which is expected to be applied to various fields. In this paper, we propose a novel emotion classification based on CNN with pupil size variation signals which include not only various ocular feature information but also time information. As a result, compared to previous studies using the same database, the proposed method showed improved results of 5.99% and 12.98% respectively from arousal and valence emotion classification.

4채널 뇌파 신호를 이용한 감정 분류에 관한 연구 (A Study on Emotion Classification using 4-Channel EEG Signals)

  • 김동준;이현민
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권2호
    • /
    • pp.23-28
    • /
    • 2009
  • 본 연구에서는 뇌파를 AR모델로 모델링하여 선형예측계수를 특징 파라미터로 이용할 때와 뇌파의 주파수 대역별 상호상관계수를 이용할 때의 감정상태 분류 성능을 비교해 보고자 하였다. 이를 위하여 분노, 슬픔, 기쁨, 안정의 4가지 감정상태에 따른 뇌파를 4개 채널로부터 수집하여 선형예측계수와 ${\theta}$, ${\alpha}$, ${\beta}$ 대역의 주파수 영역에서의 상호상관계수를 추출하여 이들을 특징 파라미터로 한 감정상태 분류 실험을 수행함으로써 두 방법의 감정상태 분류 성능을 비교하였고, 패턴 분류기로는 신경회로망을 이용하였다. 감정 분류 실험 결과 뇌파의 특징 파라미터로서 선형예측계수를 이용한 결과가 상호상관계수를 이용할 때보다 성능이 월등히 좋은 것을 알 수 있었다.

  • PDF

다중채널 뇌파를 이용한 감정상태 분류에 관한 연구 (A Study on the Emotion State Classification using Multi-channel EEG)

  • 강동기;김흥환;김동준;이병채;고한우
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 하계학술대회 논문집 D
    • /
    • pp.2815-2817
    • /
    • 2001
  • This study describes the emotion classification using two different feature extraction methods for four-channel EEG signals. One of the methods is linear prediction analysis based on AR model. Another method is cross-correlation coefficients on frequencies of ${\theta}$, ${\alpha}$, ${\beta}$ bands. Using the linear predictor coefficients and the cross-correlation coefficients of frequencies, the emotion classification test for four emotions, such as anger, sad, joy, and relaxation is performed with a neural network. Comparing the results of two methods, it seems that the linear predictor coefficients produce the better results than the cross-correlation coefficients of frequencies for-emotion classification.

  • PDF

3 레벨 구조 기반의 음악 무드분류 (Music Emotion Classification Based On Three-Level Structure)

  • 김형국;정진국
    • The Journal of the Acoustical Society of Korea
    • /
    • 제26권2E호
    • /
    • pp.56-62
    • /
    • 2007
  • This paper presents the automatic music emotion classification on acoustic data. A three-level structure is developed. The low-level extracts the timbre and rhythm features. The middle-level estimates the indication functions that represent the emotion probability of a single analysis unit. The high-level predicts the emotion result based on the indication function values. Experiments are carried out on 695 homogeneous music pieces labeled with four emotions, including pleasant, calm, sad, and excited. Three machine learning methods, GMM, MLP, and SVM, are compared on the high-level. The best result of 90.16% is obtained by MLP method.