• Title/Summary/Keyword: Emotion Classification

Search Result 294, Processing Time 0.03 seconds

Facial Expression Recognition by Combining Adaboost and Neural Network Algorithms (에이다부스트와 신경망 조합을 이용한 표정인식)

  • Hong, Yong-Hee;Han, Young-Joon;Hahn, Hern-Soo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.20 no.6
    • /
    • pp.806-813
    • /
    • 2010
  • Human facial expression shows human's emotion most exactly, so it can be used as the most efficient tool for delivering human's intention to computer. For fast and exact recognition of human's facial expression on a 2D image, this paper proposes a new method which integrates an Discrete Adaboost classification algorithm and a neural network based recognition algorithm. In the first step, Adaboost algorithm finds the position and size of a face in the input image. Second, input detected face image into 5 Adaboost strong classifiers which have been trained for each facial expressions. Finally, neural network based recognition algorithm which has been trained with the outputs of Adaboost strong classifiers determines final facial expression result. The proposed algorithm guarantees the realtime and enhanced accuracy by utilizing fastness and accuracy of Adaboost classification algorithm and reliability of neural network based recognition algorithm. In this paper, the proposed algorithm recognizes five facial expressions such as neutral, happiness, sadness, anger and surprise and achieves 86~95% of accuracy depending on the expression types in real time.

Detects depression-related emotions in user input sentences (사용자 입력 문장에서 우울 관련 감정 탐지)

  • Oh, Jaedong;Oh, Hayoung
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.26 no.12
    • /
    • pp.1759-1768
    • /
    • 2022
  • This paper proposes a model to detect depression-related emotions in a user's speech using wellness dialogue scripts provided by AI Hub, topic-specific daily conversation datasets, and chatbot datasets published on Github. There are 18 emotions, including depression and lethargy, in depression-related emotions, and emotion classification tasks are performed using KoBERT and KOELECTRA models that show high performance in language models. For model-specific performance comparisons, we build diverse datasets and compare classification results while adjusting batch sizes and learning rates for models that perform well. Furthermore, a person performs a multi-classification task by selecting all labels whose output values are higher than a specific threshold as the correct answer, in order to reflect feeling multiple emotions at the same time. The model with the best performance derived through this process is called the Depression model, and the model is then used to classify depression-related emotions for user utterances.

Pattern Classification of Bio-information To Percept Human Emotion (감성 인식을 위한 생체 신호 패턴 분류)

  • Whang Se-Hee;Park Chang-Hyun;Sim Kwee-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.11a
    • /
    • pp.385-388
    • /
    • 2005
  • 감성이란 외부의 자극에 대해 직관적이고 반사적으로 발생하는 저절로 반응하는 현상이다. 감성은 살아온 사회$\cdot$문화적 배경에 따라 흑은 현재 상태에 따라서 다르게 나타난다. 하지만 다소 개인적인 차이가 있을 수 있을지라도 개인이 속한 사회에 따라서 비슷한 상황 아래서는 비슷한 유형의 반응이 나타난다. 현재 감성 인식을 위해서 개인의 행동이나 신체적인 표현을 이용한 감성 인식 연구가 진행 중이다. 이러한 방법은 감성을 표현하는 방식에서 개인차가 커지면 효용성이 떨어질 수밖에 없다. 우리가 거짓말 탐지기를 사용하는 것처럼 본 논문에서는 감정에 따라 달라지는 개인의 생체 신호를 이용해서 감성 인식을 하고자 한다. 이를 위해서 감성에 따른 여러 가지 생체 신호를 추출하고 감성 인식을 위한 생체 신호의 특징점을 파악하고 패턴분류를 하고자 한다.

  • PDF

Recognition and Generation of Facial Expression for Human-Robot Interaction (로봇과 인간의 상호작용을 위한 얼굴 표정 인식 및 얼굴 표정 생성 기법)

  • Jung Sung-Uk;Kim Do-Yoon;Chung Myung-Jin;Kim Do-Hyoung
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.12 no.3
    • /
    • pp.255-263
    • /
    • 2006
  • In the last decade, face analysis, e.g. face detection, face recognition, facial expression recognition, is a very lively and expanding research field. As computer animated agents and robots bring a social dimension to human computer interaction, interest in this research field is increasing rapidly. In this paper, we introduce an artificial emotion mimic system which can recognize human facial expressions and also generate the recognized facial expression. In order to recognize human facial expression in real-time, we propose a facial expression classification method that is performed by weak classifiers obtained by using new rectangular feature types. In addition, we make the artificial facial expression using the developed robotic system based on biological observation. Finally, experimental results of facial expression recognition and generation are shown for the validity of our robotic system.

Using CNN-LSTM for Effective Application of Dialogue Context to Emotion Classification (CNN-LSTM을 이용한 대화 문맥 반영과 감정 분류)

  • Shin, Dong-Won;Lee, Yeon-Soo;Jang, Jung-Sun;Rim, Hae-Chang
    • 한국어정보학회:학술대회논문집
    • /
    • 2016.10a
    • /
    • pp.141-146
    • /
    • 2016
  • 대화 시스템에서 사용자가 나타내는 발화에 내재된 감정을 분류하는 것은, 시스템이 적절한 응답과 서비스를 제공하는데 있어 매우 중요하다. 본 연구에서는 대화 내 감정 분류를 하는데 있어 직접적, 간접적으로 드러나는 감정 자질을 자동으로 학습하고 감정이 지속되는 대화 문맥을 효과적으로 반영하기 위해 CNN-LSTM 방식의 딥 뉴럴 네트워크 구조를 제안한다. 그리고 대량의 구어체 코퍼스를 이용한 사전 학습으로 데이터 부족 문제를 완화하였다. 실험 결과 제안하는 방법이 기존의 SVM이나, 단순한 RNN, CNN 네트워크 구조에 비해 전반전인 성능 향상을 보였고, 특히 감정이 있는 경우 더 잘 분류하는 것을 확인할 수 있었다.

  • PDF

Feature Extraction and Selection for Emotion Classification of inter-persons (개인 내 정서판별을 위한 특징 추출 및 선택)

  • Yang, Heui-Kyung;Lee, Jeong-Whan;Lee, Young-Jae;Lee, Pil-Jae;Sohn, Jin-Hun;Heo, Jun-Hyoung
    • Proceedings of the KIEE Conference
    • /
    • 2011.07a
    • /
    • pp.1970-1971
    • /
    • 2011
  • 정서인식분야에서 현재 활발히 연구되고 있는 방법은 다양한 생체신호를 통해 인간의 감정을 인식하는 것이다. 생리심리학적 연구에서 인간의 감정상태와 생체반응은 강한 상관이 있다고 알려져 있다. 생체신호는 센서 등으로 비교적 간단하게 획득할 수 있으며, 이를 이용한 감정인식은 사회적, 문화적인 차이에 덜 민감하므로 최근에 주목 받고 있다. 본 연구에서는 audio-visual film clips 자극으로 기쁨, 분노, 놀람, 스트레스 4종류의 정서를 유발하고 그에 대한 반응으로써 생체신호를 측정하였다. 그리고 생체신호로부터 feature를 추출하였고, 주성분분석(PCA)로 특징 축소를 수행하였다. 4가지 정서를 분류 한 결과, 9명의 가우시안 프로세스 분류기에 의한 평균 정서 판별율은 64.85 % (57.14~70.0)의 결과를 얻었다.

  • PDF

Intensified Sentiment Analysis of Customer Product Reviews Using Acoustic and Textual Features

  • Govindaraj, Sureshkumar;Gopalakrishnan, Kumaravelan
    • ETRI Journal
    • /
    • v.38 no.3
    • /
    • pp.494-501
    • /
    • 2016
  • Sentiment analysis incorporates natural language processing and artificial intelligence and has evolved as an important research area. Sentiment analysis on product reviews has been used in widespread applications to improve customer retention and business processes. In this paper, we propose a method for performing an intensified sentiment analysis on customer product reviews. The method involves the extraction of two feature sets from each of the given customer product reviews, a set of acoustic features (representing emotions) and a set of lexical features (representing sentiments). These sets are then combined and used in a supervised classifier to predict the sentiments of customers. We use an audio speech dataset prepared from Amazon product reviews and downloaded from the YouTube portal for the purposes of our experimental evaluations.

Automatic Textile-Image Classification System using Human Emotion (감성 기반의 자동 텍스타일 영상 분류 시스템)

  • Kim, Young-Rae;Shin, Yun-Hee;Kim, Eun-Yi
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.561-564
    • /
    • 2008
  • 본 논문에서는 감성을 기반으로 텍스타일 영상을 자동으로 분류할 수 있는 시스템을 제안한다. 이 때, 사용된 감성 그룹은 고바야시의 10가지 감성 키워드 - {romantic, clear, natural, casual, elegant, chic, dynamic, classic, dandy, modern} - 를 이용한다. 제안된 시스템은 특징 추출과 분류로 구성된다. 특징 추출 단계에서는 텍스타일을 구성하는 대표 컬러를 추출하기 위해서 양자화 기법을 이용하고, 패턴정보를 표현하기 위해서는 웨이블릿 변환 후의 통계적인 정보를 이용한다. 신경망 기반의 분류기는 추출된 특징들을 입력으로 받아 입력 텍스타일 영상을 분류한다. 제안된 감성인식 방법의 효율성을 증명하기 위해서 220장의 텍스타일 영상에서 실험한 결과 제안된 방법은 99%의 정확도를 보였다. 이러한 실험 결과는 제안된 방법이 다양한 텍스타일 영상에 대해 일반화되어 사용될 수 있음을 보여주었다.

  • PDF

Lyric-based Emotion Classification using Structured SVM (Structured SVM을 이용한 노래 가사의 감정 분류)

  • Kim, Min-Ho;Kwon, Hyuk-Chul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.273-275
    • /
    • 2012
  • 노래(Song)와 같이 가사를 포함한 음악은 같은 스타일의 멜로디라도 청자에 따라 느끼는 감정이 다르다. 따라서 전통적인 음악 분류에서 사용하는 템포, 박자, 음정, 음표, 리듬과 같은 자질을 이용하여 감정을 분류할 수 없다. 본 연구에서는 가사로부터 감정 자질을 추출하고, 이를 학습 자질로 이용하여 노래 가사의 감정을 분류한다. 감정 자질의 추출 정확도를 높이고자, 한국어의 언어적 특징을 반영한 규칙을 구축한다. 추출된 감정 자질과 structured SVM을 이용하여 노래 가사의 감정을 분류한 결과, Naive Bayes나 SVM과 같은 전통적인 학습 기법보다 높은 성능(accuracy = 68.9%)을 보였다.

A Study on the Classification of Adjectives for Psychological Evaluation of Sounds (음의 심리평가를 위한 어휘의 유형화에 관한 연구)

  • 김선우;장길수;정광용;한명호
    • Journal of KSNVE
    • /
    • v.3 no.4
    • /
    • pp.361-371
    • /
    • 1993
  • A psychological experiment is conducted by using the method of selected description to find out appropriate terms for expressing the attributes of sounds. It is true that the term is an important clue to estimate the sensation or emotion of sounds even though it does not directly express them. On the basis of the results, it is found in the subjective impression that adjectives are classified into 8 types of group: "pleasant and bright", "weak", "mild and beautiful", "shocking", "unpleasant", powerful", "dark", and "dull" feeling. Also, it is found that "loud", "noisy" and "annoying" terms have the meaning of "strong, powerful and magnificant", "metallic and clamorous", and "unpleasant and unpleasing" feeling as a meaning Korean language respectively.ot;, "metallic and clamorous", and "unpleasant and unpleasing" feeling as a meaning Korean language respectively.nguage respectively.

  • PDF