• 제목/요약/키워드: emotion of fear and anger

검색결과 86건 처리시간 0.033초

에듀테인먼트 로봇을 위한 소리기반 사용자 감성추정과 성장형 감성 HRI시스템 (Sound-based Emotion Estimation and Growing HRI System for an Edutainment Robot)

  • 김종철;박귀홍
    • 로봇학회논문지
    • /
    • 제5권1호
    • /
    • pp.7-13
    • /
    • 2010
  • This paper presents the sound-based emotion estimation method and the growing HRI (human-robot interaction) system for a Mon-E robot. The method of emotion estimation uses the musical element based on the law of harmony and counterpoint. The emotion is estimated from sound using the information of musical elements which include chord, tempo, volume, harmonic and compass. In this paper, the estimated emotions display the standard 12 emotions including Eckman's 6 emotions (anger, disgust, fear, happiness, sadness, surprise) and the opposite 6 emotions (calmness, love, confidence, unhappiness, gladness, comfortableness) of those. The growing HRI system analyzes sensing information, estimated emotion and service log in an edutainment robot. So, it commands the behavior of the robot. The growing HRI system consists of the emotion client and the emotion server. The emotion client estimates the emotion from sound. This client not only transmits the estimated emotion and sensing information to the emotion server but also delivers response coming from the emotion server to the main program of the robot. The emotion server not only updates the rule table of HRI using information transmitted from the emotion client and but also transmits the response of the HRI to the emotion client. The proposed system was applied to a Mon-E robot and can supply friendly HRI service to users.

로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어 (Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity)

  • 김민규;이희승;박정우;조수훈;정명진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.547-552
    • /
    • 2008
  • 앞으로 로봇은 더욱 사람과 가까워 질 것이고, 따라서 사람과 로봇간의 상호작용도 활발해질 것이다. 이 때 직관적인 소통수단이 필수적이기 때문에, 로봇이 표정을 통해 감정을 표현할 수 있도록 하는 연구가 활발히 진행되어왔다. 기존에는 얼굴 표정을 주로 이용하였는데, 사람처럼 감정의 강도를 표현하기 위해서는 얼굴 외의 다른 방법도 필요하다. 로봇이 감정의 강도를 표현하기 위해서는 팔의 제스처, 움직임, 소리, 색깔 등을 이용할 수 있다. 본 논문에서는 LED 를 이용할 수 있도록 색과 깜빡임에 대해 연구하였다. 색깔과 감정의 관계에 대해서는 기존에 연구가 많이 되어 있지만, 실제로 로봇에 구현하기에는 정량적 자료가 부족하여 어려움이 있다. 본 논문에서는 6 가지 기본 감정(화남, 슬픔, 혐오, 놀람, 기쁨, 공포)을 효과적으로 나타낼 수 있는 색과 깜빡임 주기를 결정하고, 아바타를 이용하여 감정의 강도를 설문조사 하였다. 결과적으로, 슬픔, 혐오, 화남의 경우 색깔과 깜빡임을 통해 감정의 강도를 높일 수 있었다. 공포, 기쁨, 놀람의 경우 색깔과 깜빡임이 감정 인식에 큰 영향을 미치지 못했는데, 이는 그 감정에 해당하는 색깔이나 깜빡임을 수정해서 개선할 수 있을 것이다.

  • PDF

이미지 감정색인을 위한 시각적 요인 분석에 관한 탐색적 연구 (An Exploratory Investigation on Visual Cues for Emotional Indexing of Image)

  • 정선영;정은경
    • 한국문헌정보학회지
    • /
    • 제48권1호
    • /
    • pp.53-73
    • /
    • 2014
  • 감정기반 컴퓨팅 환경의 발전에 따라서 이미지를 포함한 멀티미디어 정보 자원의 감정 접근과 이용은 중요한 연구과제이다. 본 연구는 이미지의 감정색인을 위한 시각적인 요인의 탐색적 규명을 목적으로 한다. 연구목적을 성취하기 위해서 본 연구는 사랑, 행복, 슬픔, 공포, 분노의 5가지 기본감정으로 색인된 15건의 이미지를 대상으로 20명의 연구 참여자와의 인터뷰를 통해서 총 620건의 감정 시각적 요인을 추출하였다. 감정을 촉발하는 시각적 요인(5가지)과 하위 요인(18가지)의 분포와 5가지 감정별 시각적 요인 분포를 분석하여 그 결과를 제시하였다. 이미지의 감정을 인지하는 주요한 시각적 요인으로는 얼굴표정, 인물의 동작이나 행위, 선, 형태, 크기 등의 조형적 요소가 차지하는 비중이 높은 것으로 나타났다. 개별 감정과 시각적인 요인과의 관계를 살펴보면, 사랑 감정은 인물의 동작이나 행위와 밀접하게 나타났으며, 행복 감정은 인물의 얼굴표정이 중요한 것으로 나타났다. 슬픔 감정 역시 인물의 동작이나 행위와 밀접하게 연계되어 있으며, 공포 감정은 얼굴의 표정과 깊은 관계가 있다. 분노 감정은 조형적인 요소인 선, 형태, 크기가 특징적으로 나타났다. 이러한 결과는 이미지가 지니는 내용기반 요소와 개념기반 요소의 복합적인 접근이 효과적인 감정색인에 있어서 중요하다는 것을 제시한다.

RECOGNIZING SIX EMOTIONAL STATES USING SPEECH SIGNALS

  • Kang, Bong-Seok;Han, Chul-Hee;Youn, Dae-Hee;Lee, Chungyong
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2000년도 춘계 학술대회 및 국제 감성공학 심포지움 논문집 Proceeding of the 2000 Spring Conference of KOSES and International Sensibility Ergonomics Symposium
    • /
    • pp.366-369
    • /
    • 2000
  • This paper examines three algorithms to recognize speaker's emotion using the speech signals. Target emotions are happiness, sadness, anger, fear, boredom and neutral state. MLB(Maximum-Likeligood Bayes), NN(Nearest Neighbor) and HMM (Hidden Markov Model) algorithms are used as the pattern matching techniques. In all cases, pitch and energy are used as the features. The feature vectors for MLB and NN are composed of pitch mean, pitch standard deviation, energy mean, energy standard deviation, etc. For HMM, vectors of delta pitch with delta-delta pitch and delta energy with delta-delta energy are used. We recorded a corpus of emotional speech data and performed the subjective evaluation for the data. The subjective recognition result was 56% and was compared with the classifiers' recognition rates. MLB, NN, and HMM classifiers achieved recognition rates of 68.9%, 69.3% and 89.1% respectively, for the speaker dependent, and context-independent classification.

  • PDF

The Effects of Color Hue-Tone on Recognizing Emotions of Characters in the Film, Les Misérables

  • Kim, Yu-Jin
    • 감성과학
    • /
    • 제18권1호
    • /
    • pp.67-78
    • /
    • 2015
  • This study investigated whether people experience a correspondence between color hue-tone and the main characters' emotions in the 2012 British musical drama film, Les $Mis\grave{e}rables$ through three practical experiments. Six screen images, which represent the characters' different emotions (Parrot's six primary types including love, joy, surprise, anger, sadness, and fear) were selected. For each screen image, participants were asked to judge the degree of the character's dominant emotions evoked from 17 varied screen images, which consisted of original chromatic and achromatized images as well as 15 color-filtered images (5 hues X 3 tones of the IRI color system). These tasks revealed that a chromatic color scheme is more effective to deliver the characters' positive emotions (i.e. love and joy) than an achromatic one. In addition, they proved that the hue and tone dimensions partially influence the relationships between the character emotions and colors.

국제정서사진체계 ( IAPS ) 를 사용하여 유발된 정서의 뇌파 연구 (An EEG Study of Emotion Using the International Affective Picture System)

  • 이임갑;김지은;이경화;손진훈
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1997년도 한국감성과학회 연차학술대회논문집
    • /
    • pp.224-227
    • /
    • 1997
  • The International Affective Picture System (IAPS) developed by Lang and colleagues[1] is a world-widely adopted tool in studices relating a variety of physiological indices to subjective emotions induced by the presentation of standardized pictures of which subjective ratings are well established in the three dimensions of pleasure, arousal and dominance. In the present stuey we investigated whether distinctive EEG characteristics for six discrete emotions can be discernible using 12 IAPS pictures that scored highest subjective ratings for one of the 6 categorical emotions, i. e., happiness, sadness, fear, anger, disgust, and surprise (Two slides for each emotion). These pictures as visual stimuli were randomly given to 38 right-handed college students (20-26 years old) with 30 sec of exposure time and 30sec of inter-stimulus interval for each picture while EEG signals were recorded from F3, F4, O1, and O2 referenced to linked ears. The FFT technoque were used to analyze the acquired EEG data. There were significant differences in RP value changes of EEG bands, most prominent in theta, between positive positive and negative emotions, and partial also among negative emotions. This result is in agreement with previous studies[2, 3]. However, it requires further studied to decided whether IAPS could be a useful tool for catigorical approaches to emotion in addition to its traditional uwe, namely dimensional to emotion.

  • PDF

챗봇의 사회적 현존감을 위한 비언어적 감정 표현 방식 (Non-verbal Emotional Expressions for Social Presence of Chatbot Interface)

  • 강민정
    • 한국콘텐츠학회논문지
    • /
    • 제21권1호
    • /
    • pp.1-11
    • /
    • 2021
  • 챗봇과 친밀한 관계를 느끼고 대화에 몰입감을 높이기 위해 인간의 감정을 정확히 인지하고 그에 적합한 감정적 반응을 표현하는 인공지능 연구가 활발히 진행되고 있다. 따라서 본 연구에서는 챗봇이 감정을 표현할 때 사람같이 느끼게 하는 사회적 현존감을 높이는 비언어적 표현 방식에 대해서 밝히고자 한다. 본 연구는 우선 배경연구를 진행하여 표정이 가장 감정을 잘 드러내는 비언어적 표현이며 움직임은 관계몰입에 중요하다는 것을 파악하였다. 이를 바탕으로 감정에 따라 사회적 현존감이 느껴지는 표현 방식을 밝히기 위해 5가지 기본 감정인, 기쁨, 슬픔, 놀람, 두려움, 화남을 동적 텍스트, 동적 제스처, 정적 표정 이모티콘으로 자극물을 준비하여 설문조사를 통해 가장 사회적 현존감이 느껴지는 표현 방식을 각 감정별로 택하도록 하였다. 설문 결과 기쁨과 같은 긍정적이고 각성 상태가 높은 감정에서는 동적인 표현이, 슬픔과 화남과 같은 부정적인 감정에서는 정적 표정 이모티콘이, 놀람, 두려움과 같은 중립적 감정의 경우 의미를 확실히 알 수 있는 동적 텍스트가 주로 선택되었다. 본 연구 결과는 챗봇 개발 시 감정을 표현하는 방식을 정할 때 중요한 참고자료가 될 것으로 기대한다.

얼굴표정과 음성을 이용한 감정인식 (An Emotion Recognition Method using Facial Expression and Speech Signal)

  • 고현주;이대종;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.799-807
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정과 음성 속에 담긴 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 혐오, 공포)에 대한 특징을 추출하고 인식하고자 한다. 이를 위해 얼굴표정을 이용한 감정인식에서는 이산 웨이블렛 기반 다해상도 분석을 이용하여 선형판별분석기법으로 특징을 추출하고 최소 거리 분류 방법을 이용하여 감정을 인식한다. 음성에서의 감정인식은 웨이블렛 필터뱅크를 이용하여 독립적인 감정을 확인한 후 다중의사 결정 기법에 외해 감정인식을 한다. 최종적으로 얼굴 표정에서의 감정인식과 음성에서의 감정인식을 융합하는 단계로 퍼지 소속함수를 이용하며, 각 감정에 대하여 소속도로 표현된 매칭 감은 얼굴에서의 감정과 음성에서의 감정별로 더하고 그중 가장 큰 값을 인식 대상의 감정으로 선정한다.

딥러닝 기반의 다범주 감성분석 모델 개발 (Development of Deep Learning Models for Multi-class Sentiment Analysis)

  • 알렉스 샤이코니;서상현;권영식
    • 한국IT서비스학회지
    • /
    • 제16권4호
    • /
    • pp.149-160
    • /
    • 2017
  • Sentiment analysis is the process of determining whether a piece of document, text or conversation is positive, negative, neural or other emotion. Sentiment analysis has been applied for several real-world applications, such as chatbot. In the last five years, the practical use of the chatbot has been prevailing in many field of industry. In the chatbot applications, to recognize the user emotion, sentiment analysis must be performed in advance in order to understand the intent of speakers. The specific emotion is more than describing positive or negative sentences. In light of this context, we propose deep learning models for conducting multi-class sentiment analysis for identifying speaker's emotion which is categorized to be joy, fear, guilt, sad, shame, disgust, and anger. Thus, we develop convolutional neural network (CNN), long short term memory (LSTM), and multi-layer neural network models, as deep neural networks models, for detecting emotion in a sentence. In addition, word embedding process was also applied in our research. In our experiments, we have found that long short term memory (LSTM) model performs best compared to convolutional neural networks and multi-layer neural networks. Moreover, we also show the practical applicability of the deep learning models to the sentiment analysis for chatbot.

코로나 19상황에 발생하는 부정적 정서에 대한 대처 (Responding to negative emotions in COVID-19)

  • 양혜진
    • 문화기술의 융합
    • /
    • 제6권3호
    • /
    • pp.135-143
    • /
    • 2020
  • 본 연구는 코로나 19상황에서 대학신입생의 부정적 정서와 그에 대한 대처방법을 파악하기 위해 시도되었다. 2020년 4월 6일부터 13일까지 온라인을 통해 설문조사를 실시하였으며, 불충분한 설문을 제외하고 총 220부의 설문자료를 활용하여 결과를 분석하였다. 분석결과, 대상자의 부정적 정서로는 답답함이 가장 높았으며 무기력, 불안, 분노 순으로 평균값이 높게 나타났다. 성별에 따른 차이 검증 결과 불안, 무기력, 분노, 두려움, 혼란 모두 여자가 남자에 비해 통계적으로 더 유의미하게 많이 경험하는 것을 알 수 있었다. 대상자의 부정적 정서와 부정적 정서를 해소하기 위한 방법 간의 상관관계를 분석한 결과, 무기력은 가족, 친구, 지인과 대화하는 활동에 유의미한 부적 상관관계가 있는 것으로 나타났으며, 집에서 또는 혼자서 술 마시기와는 통계적으로 유의미한 정적 상관관계가 있는 것으로 나타났다. 이러한 결과를 바탕으로 대학에서 적용할 수 있는 몇 가지 실천적 방법을 제시하였다.