• Title/Summary/Keyword: 놀람

Search Result 81, Processing Time 0.022 seconds

An Emotion Recognition Method using Facial Expression and Speech Signal (얼굴표정과 음성을 이용한 감정인식)

  • 고현주;이대종;전명근
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.6
    • /
    • pp.799-807
    • /
    • 2004
  • In this paper, we deal with an emotion recognition method using facial images and speech signal. Six basic human emotions including happiness, sadness, anger, surprise, fear and dislike are investigated. Emotion recognition using the facial expression is performed by using a multi-resolution analysis based on the discrete wavelet transform. And then, the feature vectors are extracted from the linear discriminant analysis method. On the other hand, the emotion recognition from speech signal method has a structure of performing the recognition algorithm independently for each wavelet subband and then the final recognition is obtained from a multi-decision making scheme.

Fuzzy Model-Based Emotion Recognition Using Color Image (퍼지 모델을 기반으로 한 컬러 영상에서의 감성 인식)

  • Joo, Young-Hoon;Jeong, Keun-Ho
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.14 no.3
    • /
    • pp.330-335
    • /
    • 2004
  • In this paper, we propose the technique for recognizing the human emotion by using the color image. To do so, we first extract the skin color region from the color image by using HSI model. Second, we extract the face region from the color image by using Eigenface technique. Third, we find the man's feature points(eyebrows, eye, nose, mouse) from the face image and make the fuzzy model for recognizing the human emotions (surprise, anger, happiness, sadness) from the structural correlation of man's feature points. And then, we infer the human emotion from the fuzzy model. Finally, we have proven the effectiveness of the proposed method through the experimentation.

Emotion Recognition Method from Speech Signal Using the Wavelet Transform (웨이블렛 변환을 이용한 음성에서의 감정 추출 및 인식 기법)

  • Go, Hyoun-Joo;Lee, Dae-Jong;Park, Jang-Hwan;Chun, Myung-Geun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.14 no.2
    • /
    • pp.150-155
    • /
    • 2004
  • In this paper, an emotion recognition method using speech signal is presented. Six basic human emotions including happiness, sadness, anger, surprise, fear and dislike are investigated. The proposed recognizer have each codebook constructed by using the wavelet transform for the emotional state. Here, we first verify the emotional state at each filterbank and then the final recognition is obtained from a multi-decision method scheme. The database consists of 360 emotional utterances from twenty person who talk a sentence three times for six emotional states. The proposed method showed more 5% improvement of the recognition rate than previous works.

HEEAS: On the Implementation and an Animation Algorithm of an Emotional Expression (HEEAS: 감정표현 애니메이션 알고리즘과 구현에 관한 연구)

  • Kim Sang-Kil;Min Yong-Sik
    • The Journal of the Korea Contents Association
    • /
    • v.6 no.3
    • /
    • pp.125-134
    • /
    • 2006
  • The purpose of this paper is constructed a HEEAAS(Human Emotional Expression Animaion System), which is an animation system to show both the face and the body motion from the inputted voice about just 4 types of emotions such as fear, dislike, surprise and normal. To implement our paper, we chose the korean young man in his twenties who was to show appropriate emotions the most correctly. Also, we have focused on reducing the processing time about making the real animation in making both face and body codes of emotions from the inputted voice signal. That is, we can reduce the search time to use the binary search technique from the face and body motion databases, Throughout the experiment, we have a 99.9% accuracy of the real emotional expression in the cartoon animation.

  • PDF

Development of a Standardized Korean Affective Picture System (KAPS): A Preliminary Study (표준화된 한국정서사진체계 개발: 예비연구)

  • 이경화;이임갑;박경진;최상섭;손진훈
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.11a
    • /
    • pp.74-79
    • /
    • 1998
  • 본 연구에서는 한국인'의 정서 연구에 적합한 시각자극의 표준화를 위해서 한국정서사진체계(Korean Affects Picture System: KAPS)의 제작을 수행하면서 얻어진 결과를 간략히 보고하고자 한다. 총 210개의 시각자극 사진을 선정하여 슬라이드로 제작하고, 충남대학교 남녀 대학생 442명 (20-25세)을 대상으로 의미변별척도와 기본정서 평정척도를 사용하여 주관적 정서반응을 측정하였다 의미변별척도 평정치의 요인분석 결과 18개의 양극성 형용사는 3개의, 정서차원, 즉 즐거움, 각성도, 지배성 차원으로 구분되었다. 이는 국제정서사진체계 (IAPS)의 시각자극을 사용하여 미국인을 대상으로 수행한 연구 결과 및 한국인을 대상으로 수행한 연구 결과와 잘 일치하고 있다. KAPS에 포함되는 시각자각 수는 연구가 계속됨에 파라 지속적으로 확대되며, 실험방법 및 각자의 사진에 대한 세 차원(즐거움, 각성도, 통제력) 및 비연속 기본 정서(기쁨. 공포, 슬픔, 혐오, 놀람, 분노)에 관한 주관적 평정치를 포함하는 manual을 제작하여 정서연구자들에게 제공한다. 다른 연구자들에 의해서 얻어진 평정치 자료들도 계속해서 추가 보완될 것이다. 이를 통해서, 안으로 우리 나라에서의 정서 연구방법의 표준화 및 인구성과의 공유화를 위한 토대를 만들 수 있을 것으로 기대한다.

  • PDF

Patterns of Autonomic Responses to Affective Visual Stimulation: Skin Conductance Response, Heart Rate and Respiration Rate Vary Across Discrete Elicited-Emotions (정서시각자극에 의해 유발된 자율신경계 반응패턴: 유발정서에 따른 피부전도반응, 심박률 및 호흡률 변화)

  • ;Estate M. Sokhadze
    • Science of Emotion and Sensibility
    • /
    • v.1 no.1
    • /
    • pp.79-91
    • /
    • 1998
  • 이 연구의 목적은 IAPS(국제정저사진체계) 사진자극에 의해 유발된 각각의 주관적 정서상태에 특정적인 자율신경계 반응이 존재하는지를 규명하는 것이다. 부정적 정서(분노, 슬픔, 놀람)와 긍정적 정서(행복, 흥분)를 유발하는 IAPS사진을 각 60초 동안 제시하였을 때 유발되는 심박률, 호흡률, 피부전도반응을 측정하였다. 시각자극이 주어진 초리 30초 동안 통계적으로 유의미한 심박률 감속 및 호흡률 감소를 보여주었으며, 뚜렷한 피부전도반응이 출현하였다. 심박률 감속은 혐오보다 흥분에서 더 크게 나타났고, 피부전도반응의 진폭은 혐오보다 흥분에서 더 큰 것으로 나타났다. 한편, 피부전도반응의 진폭이 상승하는 시간은 슬픔, 행복, 놀람보다 혐오에서 더 짧아지는 경향을 보여주었다. 이와 같은 자율신경계 반응(심박률, 호흡률, 피부전도반응)은 정서상태간에 뚜렷한 차이를 보여주며, 특정 정서상태에서 자율신경계 반응은 개인차가 있기는 하지만 전체적으로 매우 전형적인 반응패턴을 보여주었다. 본 연구의 결과는 정서 특정적인 자율신경계 반응이 존재할 가능성을 시사해주며, 생리신호분석을 통해서 심리적 정서를 결정할 수 있는 형판(template)의 구성을 위해서 다양한 자율신경계 정서반응의 지표를 포괄적으로 측정 분석하는 후속연구가 요구된다.

  • PDF

Facial Expression Recognition using ICA-Factorial Representation Method (ICA-factorial 표현법을 이용한 얼굴감정인식)

  • Han, Su-Jeong;Kwak, Keun-Chang;Go, Hyoun-Joo;Kim, Sung-Suk;Chun, Myung-Geun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.13 no.3
    • /
    • pp.371-376
    • /
    • 2003
  • In this paper, we proposes a method for recognizing the facial expressions using ICA(Independent Component Analysis)-factorial representation method. Facial expression recognition consists of two stages. First, a method of Feature extraction transforms the high dimensional face space into a low dimensional feature space using PCA(Principal Component Analysis). And then, the feature vectors are extracted by using ICA-factorial representation method. The second recognition stage is performed by using the Euclidean distance measure based KNN(K-Nearest Neighbor) algorithm. We constructed the facial expression database for six basic expressions(happiness, sadness, angry, surprise, fear, dislike) and obtained a better performance than previous works.

Analysis and Synthesis of Facial Expression using Base Faces (기준얼굴을 이용한 얼굴표정 분석 및 합성)

  • Park, Moon-Ho;Ko, Hee-Dong;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.8
    • /
    • pp.827-833
    • /
    • 2000
  • Facial expression is an effective tool to express human emotion. In this paper, a facial expression analysis method based on the base faces and their blending ratio is proposed. The seven base faces were chosen as axes describing and analyzing arbitrary facial expression. We set up seven facial expressions such as, surprise, fear, anger, disgust, happiness, sadness, and expressionless as base faces. Facial expression was built by fitting generic 3D facial model to facial image. Two comparable methods, Genetic Algorithms and Simulated Annealing were used to search the blending ratio of base faces. The usefulness of the proposed method for facial expression analysis was proved by the facial expression synthesis results.

  • PDF

A Study on the Construction of an Emotion Corpus Using a Pre-trained Language Model (사전 학습 언어 모델을 활용한 감정 말뭉치 구축 연구 )

  • Yeonji Jang;Fei Li;Yejee Kang;Hyerin Kang;Seoyoon Park;Hansaem Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.238-244
    • /
    • 2022
  • 감정 분석은 텍스트에 표현된 인간의 감정을 인식하여 다양한 감정 유형으로 분류하는 것이다. 섬세한 인간의 감정을 보다 정확히 분류하기 위해서는 감정 유형의 분류가 무엇보다 중요하다. 본 연구에서는 사전 학습 언어 모델을 활용하여 우리말샘의 감정 어휘와 용례를 바탕으로 기쁨, 슬픔, 공포, 분노, 혐오, 놀람, 흥미, 지루함, 통증의 감정 유형으로 분류된 감정 말뭉치를 구축하였다. 감정 말뭉치를 구축한 후 성능 평가를 위해 대표적인 트랜스포머 기반 사전 학습 모델 중 RoBERTa, MultiDistilBert, MultiBert, KcBert, KcELECTRA. KoELECTRA를 활용하여 보다 넓은 범위에서 객관적으로 모델 간의 성능을 평가하고 각 감정 유형별 정확도를 바탕으로 감정 유형의 특성을 알아보았다. 그 결과 각 모델의 학습 구조가 다중 분류 말뭉치에 어떤 영향을 주는지 구체적으로 파악할 수 있었으며, ELECTRA가 상대적으로 우수한 성능을 보여주고 있음을 확인하였다. 또한 감정 유형별 성능을 비교를 통해 다양한 감정 유형 중 기쁨, 슬픔, 공포에 대한 성능이 우수하다는 것을 알 수 있었다.

  • PDF

Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity (로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어)

  • Kim, Min-Gyu;Lee, Hui-Sung;Park, Jeong-Woo;Jo, Su-Hun;Chung, Myung-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.547-552
    • /
    • 2008
  • Human and robot will have closer relation in the future, and we can expect that the interaction between human and robot will be more intense. To take the advantage of people's innate ability of communication, researchers concentrated on the facial expression so far. But for the robot to express emotional intensity, other modalities such as gesture, movement, sound, color are also needed. This paper suggests that the intensity of emotion can be expressed with color and blinking so that it is possible to apply the result to LED. Color and emotion definitely have relation, however, the previous results are difficult to implement due to the lack of quantitative data. In this paper, we determined color and blinking period to express the 6 basic emotions (anger, sadness, disgust, surprise, happiness, fear). It is implemented on avatar and the intensities of emotions are evaluated through survey. We figured out that the color and blinking helped to express the intensity of emotion for sadness, disgust, anger. For fear, happiness, surprise, the color and blinking didn't play an important role; however, we may improve them by adjusting the color or blinking.

  • PDF