• Title/Summary/Keyword: Emotion Extraction

Search Result 114, Processing Time 0.038 seconds

Extraction of Speech Features for Emotion Recognition (감정 인식을 위한 음성 특징 도출)

  • Kwon, Chul-Hong;Song, Seung-Kyu;Kim, Jong-Yeol;Kim, Keun-Ho;Jang, Jun-Su
    • Phonetics and Speech Sciences
    • /
    • v.4 no.2
    • /
    • pp.73-78
    • /
    • 2012
  • Emotion recognition is an important technology in the filed of human-machine interface. To apply speech technology to emotion recognition, this study aims to establish a relationship between emotional groups and their corresponding voice characteristics by investigating various speech features. The speech features related to speech source and vocal tract filter are included. Experimental results show that statistically significant speech parameters for classifying the emotional groups are mainly related to speech sources such as jitter, shimmer, F0 (F0_min, F0_max, F0_mean, F0_std), harmonic parameters (H1, H2, HNR05, HNR15, HNR25, HNR35), and SPI.

A Study on the Emotion State Classification using Multi-channel EEG (다중채널 뇌파를 이용한 감정상태 분류에 관한 연구)

  • Kang, Dong-Kee;Kim, Heung-Hwan;Kim, Dong-Jun;Lee, Byung-Chae;Ko, Han-Woo
    • Proceedings of the KIEE Conference
    • /
    • 2001.07d
    • /
    • pp.2815-2817
    • /
    • 2001
  • This study describes the emotion classification using two different feature extraction methods for four-channel EEG signals. One of the methods is linear prediction analysis based on AR model. Another method is cross-correlation coefficients on frequencies of ${\theta}$, ${\alpha}$, ${\beta}$ bands. Using the linear predictor coefficients and the cross-correlation coefficients of frequencies, the emotion classification test for four emotions, such as anger, sad, joy, and relaxation is performed with a neural network. Comparing the results of two methods, it seems that the linear predictor coefficients produce the better results than the cross-correlation coefficients of frequencies for-emotion classification.

  • PDF

Ranking Tag Pairs for Music Recommendation Using Acoustic Similarity

  • Lee, Jaesung;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • v.15 no.3
    • /
    • pp.159-165
    • /
    • 2015
  • The need for the recognition of music emotion has become apparent in many music information retrieval applications. In addition to the large pool of techniques that have already been developed in machine learning and data mining, various emerging applications have led to a wealth of newly proposed techniques. In the music information retrieval community, many studies and applications have concentrated on tag-based music recommendation. The limitation of music emotion tags is the ambiguity caused by a single music tag covering too many subcategories. To overcome this, multiple tags can be used simultaneously to specify music clips more precisely. In this paper, we propose a novel technique to rank the proper tag combinations based on the acoustic similarity of music clips.

Emotion Recognition using Pitch Parameters of Speech (음성의 피치 파라메터를 사용한 감정 인식)

  • Lee, Guehyun;Kim, Weon-Goo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.25 no.3
    • /
    • pp.272-278
    • /
    • 2015
  • This paper studied various parameter extraction methods using pitch information of speech for the development of the emotion recognition system. For this purpose, pitch parameters were extracted from korean speech database containing various emotions using stochastical information and numerical analysis techniques. GMM based emotion recognition system were used to compare the performance of pitch parameters. Sequential feature selection method were used to select the parameters showing the best emotion recognition performance. Experimental results of recognizing four emotions showed 63.5% recognition rate using the combination of 15 parameters out of 56 pitch parameters. Experimental results of detecting the presence of emotion showed 80.3% recognition rate using the combination of 14 parameters.

Extraction of Informative Features for Automatic Indexation of Human Sensibility Ergonomic Documents (감성공학 문서 데이터의 지표 자동화를 위한 코퍼스 분석 기반 특성정보 추출)

  • 배희숙;곽현민;채균식;이상태
    • Science of Emotion and Sensibility
    • /
    • v.7 no.2
    • /
    • pp.133-140
    • /
    • 2004
  • A large number of indices are produced from human sensibility ergonomic data, which are accumulated by the project "Study on the Development of Web-Based Database System of Human Sensibility and its Support". Since the research in this field will be increased rapidly, it is necessary to automate the index processing of human sensibility ergonomic data. From the similarity between indexation and summarization, we propose the automation of this process. In this paper, we study on extraction of keywords, information types and expression features that are considered as basic elements of following techniques for automatic summarization: classification of documents, extraction of information types and linguistic features. This study can be applied to automatic summarization system and knowledge management system in the domain of human sensibility ergonomics.rgonomics.

  • PDF

Extraction of the Disparity Using the Epipolar Geometry (에피폴라 기하학을 이용한 변이영상의 추출)

  • 구본기;최이배;정연구
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.11a
    • /
    • pp.21-24
    • /
    • 1998
  • 논문은 상대적인 3차원 정보를 추출하기 위하여 스테레오 정합 알고리듬에 에피폴라 기하학을 적용하였다. 카메라로부터 입력받은 영상에서 추출된 특징 점으로부터 에피폴라 기하학 구조를 구성한다. 이렇게 구한 에피폴라 기하학 정보는 스테레오 영상에서의 정합 점들 간의 기하학적인 상관관계를 구성하고 조밀한 변이영상을 추출한다 실험결과를 통하여 제안된 알고리듬이 실제 공간상에서 대상물체를 실감 있게 표현함을 알 수 있다.

  • PDF

Vision based 2D Human Body Motion Extraction for HCI (HCI를 위한 컴퓨터비젼 기반 사람의 2차원 움직임 정보 추출)

  • 이상환;안상철;김익재;김형곤;김재희
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2000.11a
    • /
    • pp.194-198
    • /
    • 2000
  • 본 논문은 특별한 마커를 사용하지 않고 연속되는 영상들에서 사람의 2차원 움직임 정보를 추출하는 알고리즘을 제안한다. 사람의 움직임 정보 추출을 위해 색상, 움직임, 윤곽선, 그리고 사용자의 개인적인 특성을 반영하는 신체적인 특성 정보를 이용한다. 본 논문에서 제안하는 방법은 사람의 움직임 정보를 이용한 가상 캐릭터의 제어와 같은 마커를 사용하지 않는 다양한 HCI 응용분야에 사용될 수 있다.

  • PDF

Extraction of Emotional Words for Measuring User's Emotions expressed while Using a Web (웹 사용 중 표출되는 사용자의 감성을 측정하기 위한 감성어휘 추출)

  • Jeong, Sang-Hun
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2009.05a
    • /
    • pp.73-74
    • /
    • 2009
  • 본 연구에서는 선행연구를 통해 추출한 사용자가 제품을 사용하는 도중에 유발될 수 있는 인간의 감성 변화를 나타낼 수 있는 감성어휘 88 개 중에서 웹(Web)을 사용하는 상황에서 유발될 수 있는 사용자의 감성을 표현하기에 적합한 감성어휘를 추출하였다. 웹 사용빈도가 높은 남녀 대학생을 대상으로 설문조사를 실시하여 최종적으로 웹을 사용하는 도중에 유발될 수 있는 사용자의 감성을 파악하기 위한 감성어휘를 추출하였다. 본 연구를 통해 추출된 감성어휘는 웹을 사용하면서 표출되는 사용자의 감성을 측정하는 데에 필요한 평가자료로 활용할 수 있을 것이다.

  • PDF

Analysis of Human Sensibility Ergonomic Corpora for Automatic Indexation - Extraction of informative features - (자동 지표화를 위한 감성공학 분야 코퍼스 분석- 전문적 문서의 특성 정보 추출)

  • 배희숙;김관웅;곽현민;이상태
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2002.11a
    • /
    • pp.53-58
    • /
    • 2002
  • 본 논문은 감성공학 데이터의 지속적인 지표화를 위해 과정의 자동화를 제안하며 자동 지표화가 문서의 자동 요약과 유사하다는 점에 착안하여 문서 자동분류, 정보유형 추출, 특성언어 추출 및 문장 재구성이라는 단계별 기술의 기초가 되는 정보유형 및 핵심어, 그리고 특성표현을 통한 정보문 추출 방법에 대해 연구하였다. 감성공학 코퍼스 분석을 통한 본 연구는 감성공학 분야에서의 지식 관리 시스템과 자동 요약 시스템에 활용될 수 있다.

  • PDF