• Title/Summary/Keyword: Speech Emotion Recognition

Search Result 134, Processing Time 0.022 seconds

Design And Implementation of a Speech Recognition Interview Model based-on Opinion Mining Algorithm (오피니언 마이닝 알고리즘 기반 음성인식 인터뷰 모델의 설계 및 구현)

  • Kim, Kyu-Ho;Kim, Hee-Min;Lee, Ki-Young;Lim, Myung-Jae;Kim, Jeong-Lae
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.12 no.1
    • /
    • pp.225-230
    • /
    • 2012
  • The opinion mining is that to use the existing data mining technology also uploaded blog to web, to use product comment, the opinion mining can extract the author's opinion therefore it not judge text's subject, only judge subject's emotion. In this paper, published opinion mining algorithms and the text using speech recognition API for non-voice data to judge the emotions suggested. The system is open and the Subject associated with Google Voice Recognition API sunwihwa algorithm, the algorithm determines the polarity through improved design, based on this interview, speech recognition, which implements the model.

A Study on the Performance of Music Retrieval Based on the Emotion Recognition (감정 인식을 통한 음악 검색 성능 분석)

  • Seo, Jin Soo
    • The Journal of the Acoustical Society of Korea
    • /
    • v.34 no.3
    • /
    • pp.247-255
    • /
    • 2015
  • This paper presents a study on the performance of the music search based on the automatically recognized music-emotion labels. As in the other media data, such as speech, image, and video, a song can evoke certain emotions to the listeners. When people look for songs to listen, the emotions, evoked by songs, could be important points to consider. However; very little study has been done on the performance of the music-emotion labels to the music search. In this paper, we utilize the three axes of human music perception (valence, activity, tension) and the five basic emotion labels (happiness, sadness, tenderness, anger, fear) in measuring music similarity for music search. Experiments were conducted on both genre and singer datasets. The search accuracy of the proposed emotion-based music search was up to 75 % of that of the conventional feature-based music search. By combining the proposed emotion-based method with the feature-based method, we achieved up to 14 % improvement of search accuracy.

Emotion Recognition of Sentence by using Speech Act (화행 정보를 활용한 문장에서의 감정 인식)

  • Kim, Ki-Tai;Ryu, Pum-Mo;Choi, Yong-Seok;Lee, Sang-Tae
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2009.05a
    • /
    • pp.199-200
    • /
    • 2009
  • 자연스러운 대화가 가능한 인공지능 대화시스템을 구축하기 위해서는 사용자의 문장에 내재된 감정을 이해할 수 있는 시스템이어야만 한다. 또한 상호간의 대화를 통해서 풍겨지는 분위기를 파악할 수 있다면 사용자에게 마치 인간과 대화하는 듯한 자연스러움을 느끼도록 할 수 있을 것이다. 실제 대화에서 감정은 언어적인 표현뿐 아니라 비언어적인 표현으로도 표출되지만, 본 논문은 텍스트 상에서 언어적으로 표현되는 감정 정보를 인식하는데 초점을 둔다. 언어적인 표현으로 한정하여 감정을 인식하는 경우에는 감정을 직접 표현하고 있는 형용사나 동사가 중심이 된다. 본 논문에서는 형용사를 중심으로 하여 화행 정보와 결합하여 감정을 인식하는 시스템에 대해서 제시하고자 한다. 이 논문은 문장에 내재되어 있는 숨겨진 감정이나 분위기 등을 파악하기 위한 연구에 대한 선행 연구로서 텍스트 상에서 직접 드러나는 감정을 인식하기 위한 방법을 제안한다.

  • PDF

Discrimination of Emotional States In Voice and Facial Expression

  • Kim, Sung-Ill;Yasunari Yoshitomi;Chung, Hyun-Yeol
    • The Journal of the Acoustical Society of Korea
    • /
    • v.21 no.2E
    • /
    • pp.98-104
    • /
    • 2002
  • The present study describes a combination method to recognize the human affective states such as anger, happiness, sadness, or surprise. For this, we extracted emotional features from voice signals and facial expressions, and then trained them to recognize emotional states using hidden Markov model (HMM) and neural network (NN). For voices, we used prosodic parameters such as pitch signals, energy, and their derivatives, which were then trained by HMM for recognition. For facial expressions, on the other hands, we used feature parameters extracted from thermal and visible images, and these feature parameters were then trained by NN for recognition. The recognition rates for the combined parameters obtained from voice and facial expressions showed better performance than any of two isolated sets of parameters. The simulation results were also compared with human questionnaire results.

Design of Model to Recognize Emotional States in a Speech

  • Kim Yi-Gon;Bae Young-Chul
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • v.6 no.1
    • /
    • pp.27-32
    • /
    • 2006
  • Verbal communication is the most commonly used mean of communication. A spoken word carries a lot of informations about speakers and their emotional states. In this paper we designed a model to recognize emotional states in a speech, a first phase of two phases in developing a toy machine that recognizes emotional states in a speech. We conducted an experiment to extract and analyse the emotional state of a speaker in relation with speech. To analyse the signal output we referred to three characteristics of sound as vector inputs and they are the followings: frequency, intensity, and period of tones. Also we made use of eight basic emotional parameters: surprise, anger, sadness, expectancy, acceptance, joy, hate, and fear which were portrayed by five selected students. In order to facilitate the differentiation of each spectrum features, we used the wavelet transform analysis. We applied ANFIS (Adaptive Neuro Fuzzy Inference System) in designing an emotion recognition model from a speech. In our findings, inference error was about 10%. The result of our experiment reveals that about 85% of the model applied is effective and reliable.

Fuzzy Model for Speech Emotion Recognition (음성으로부터의 감정 인식을 위한 퍼지모델 제안)

  • Moon, Byung-Hyun;Jang, In-Hoon;Sim, Kwee-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2008.04a
    • /
    • pp.115-118
    • /
    • 2008
  • 본 논문에서는 음성으로부터 감정을 인식하고 감성적인 운율로 음성 출력을 산출해 내는 시스템을 제안 한다. 음성적인 운율로부터 감정을 인식하기 위해서 퍼지룰(rule)을 이용한다. 본 논문에서 감정 인식 시스템은 음성 샘플들로 학습 데이터를 구축하고 이를 기반으로 하여 추출된 20개의 특징 집합으로부터 가장 중요한 특징들을 자동적으로 선택한다. 화남, 놀람, 행복, 슬픔, 보통의 5가지 감정 상태를 구분하기 위하여 접근법에 기반한 퍼지를 이용하였다.

  • PDF

Speech Emotion Recognition Framework on Smartphone Environment (스마트폰환경에서 음성기반 감정인식 프레임워크)

  • Bang, Jae Hun;Lee, Sungyoung;Jung, Taechung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.254-256
    • /
    • 2013
  • 기존의 음성기반 감정인식 기술은 충분한 컴퓨팅 파워를 가진 PC에서 수백개의 특징을 사용하여 감정을 인식하고 있다. 이러한 음성기반 감정인식 기술은 컴퓨팅 파워에 제약이 많은 스마트폰 환경을 고려하지 않은 방법이다. 본 논문에서는 제한된 스마트폰 컴퓨팅 파워를 고려한 음성의 특징 추출 기법과 서버 클라이언트 개념을 도입한 효율적인 음성기반 감정인식 프레임워크를 제안한다.

The Subjective Evaluation System Implementation Using Speech Recognition (음성인식을 이용한 주관평가 시스템 구현)

  • 한화영;고한우;윤용현;조택동
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2001.05a
    • /
    • pp.276-279
    • /
    • 2001
  • 환경이나 작업부하 등이 인간에게 주는 피로나, stress 또는 쾌, 불쾌감 등의 감성을 평가하기 위한 정신물리학적인 방법의 하나으로 설문지에 의한 주관적인 평가법이 많이 사용되고 있다. 기존의 수작업으로 이루어지던 설문 방식을 자동화하여 PC 기반으로 설문양식을 자동 생성하고 음성을 통해 응답할 수 있는 프로그램을 개발하였다. 주관평가 자동화 시스템은 주관평가 데이터를 효율적으로 처리를 할 수 있고 음성을 이용함으로써 피험자의 정신적 부담을 경감시키며 생리신호와 주관평가와의 경시적인 변화를 효과적으로 평가할 수 있다. 설문 형식으로는 5점 척도와 7점 척도를 선택하였으며 평가어는 “매우 아니다”∼“매우 그렇다”로 구성되었다. 평가어를 인식함에 있어 좋은 인식률을 얻기 위한 특징벡터의 치수와 기본 프레임 개수를 대상으로 인식실험을 하였다.

  • PDF

A Basic Study on Automation of the Subjective Evaluation using Speech Recognition (음성인식을 이용한 주관평가의 자동화에 관한 기초연구)

  • 한화영;고한우;윤용현;조택동
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2000.11a
    • /
    • pp.113-117
    • /
    • 2000
  • 수작업으로 이루어지고 있는 환경의 영향이나 작업의 영향에 따른 정신피로나 신체피로의 주관적인 평가를 자동화하기 위한 방법에 대하여 논하였다. 사람의 가장 자연스러운 의사소통인 평가어를 척도로 하여 평가가 이루어지는 음성인식기술을 응용한 주관평가법에 대하여 연구하였다. 주관평가의 자동화를 위하여 우선, 평가어에 대한 음성 인식을 한 후 인식된 평가 결과 데이터를 이용하여 설문지를 자동 생성시킴과 동시에 파일 형태로 저장시켰다. 음성 인식 알고리즘으로는 DTW(Dynamic Time Warping)인식 알고리즘을 사용하였고. 설문지 질의 내용은 집중도 평가를 이용하였다. 인식실험은 설문에 대한 응답에 필요한 평가어를 대상으로 하였다.

  • PDF

Analyzing the element of emotion recognition from speech (음성으로부터 감성인식 요소 분석)

  • 박창현;심재윤;이동욱;심귀보
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2001.12a
    • /
    • pp.199-202
    • /
    • 2001
  • 일반적으로 음성신호로부터 사람의 감정을 인식할 수 있는 요소는 (1)대화의 내용에 사용한 단어, (2)톤 (Tone), (3)음성신호의 피치(Pitch), (4)포만트 주파수(Formant Frequency), 그리고 (5)말의 빠르기(Speech Speed) (6)음질(Voice Quality) 등이다. 사람의 경우는 주파수 같은 분석요소 보다는 론과 단어, 빠르기, 음질로 감정을 받아들이게 되는 것이 자연스러운 방법이므로 당연히 후자의 요소들이 감정을 분류하는데 중요한 인자로 쓰일 수 있다. 그리고, 종래는 주로 후자의 요소들을 이용하였는데, 기계로써 구현하기 위해서는 조금 더 공학적인 포만트 주파수를 사용할 수 있게 되는 것이 도움이 된다. 그러므로, 본 연구는 음성 신호로부터 피치와 포만트, 그리고 말의 빠르기 등을 이용하여 감성 인식시스템을 구현하는 것을 목표로 연구를 진행하고 있는데, 그 1단계 연구로서 본 논문에서는 화가 나서 내뱉는 알과 기쁠 때 간단하게 사용하는 말들을 기반으로 하여 극단적인 두 가지 감정의 독특한 특성을 찾아낸다.

  • PDF