• Title/Summary/Keyword: 기쁨

Search Result 339, Processing Time 0.028 seconds

Effect of Depressive Mood on Identification of Emotional Facial Expression (우울감이 얼굴 표정 정서 인식에 미치는 영향)

  • Ryu, Kyoung-Hi;Oh, Kyung-Ja
    • Science of Emotion and Sensibility
    • /
    • v.11 no.1
    • /
    • pp.11-21
    • /
    • 2008
  • This study was designed to examine the effect of depressive mood on identification of emotional facial expression. Participants were screened out of 305 college students on the basis of the BDI-II score. Students with BDI-II score higher than 14(upper 20%) were selected for the Depression Group and those with BDI-II score lower than 5(lower 20%) were selected for the Control Group. A final sample of 20 students in the Depression Group and 20 in the Control Group were presented with facial expression stimuli of an increasing degree of emotional intensity, slowly changing from a neutral to a full intensity of happy, sad, angry, or fearful expressions. The result showed that there was the significant interaction of Group by Emotion(esp. happy and sad) which suggested that depressive mood affects processing of emotional stimuli such as facial expressions. Implication of this result for mood-congruent information processing were discussed.

  • PDF

Development of Content for the Robot that Relieves Depression in the Elderly Using Music Therapy (음악요법을 이용한 노인의 우울증 완화 로봇 'BOOGI'의 콘텐츠 개발)

  • Jung, Yu-Hwa;Jeong, Seong-Won
    • The Journal of the Korea Contents Association
    • /
    • v.15 no.2
    • /
    • pp.74-85
    • /
    • 2015
  • The positive effect of percussion instruments can induce increases in self-esteem and decreases in depression in the elderly. Based on this, the content for a percussion instrument robot that the elderly can use to play music is developed. The elements of the interaction between the elderly and the robot through the robot content are extracted. Music that arouses positive memories in the elderly is selected as part of the music therapy robot content in order to relieve depression, and a scoring system for playing music is constructed. In addition, the interaction components of the robot's facial expressions, which stimulate emotions and sensitivity in the elderly, are also designed. These components enable the elderly to take an active part in using the instrument to change the robot's facial expressions, which have three degrees of emotion: neutral-happy, happy, and very happy. The robot is not only a music game machine: it also maximizes the relief of depression in the elderly through interactions with the robot that allow the elderly person to listen to what the robot plays and through the elderly person becoming involved and playing music along with the robot.

A Study on Confirmation Bias in Early User Experience Stage (초기 사용자 경험 단계의 확증편향에 관한 연구)

  • Lee, Young-Ju
    • Journal of Digital Convergence
    • /
    • v.19 no.1
    • /
    • pp.355-360
    • /
    • 2021
  • In this study, the factors of confirmation bias that may occur in the initial user experience stage were analyzed using a honeycomb model by deriving user experience factors for each factor. In the initial user experience stage, confirmation bias occurs in the impression stage. At the processing stage of memory, sensory memory, working memory, and long-term memory, which stores and retrieves selective memory, were closely related. Confirmation bias was classified into visibility, correlation, memory, clarity, and universality in the usability part, and satisfaction, joy, and dissatisfaction were derived as emotional factors. As a result of the analysis with the honeycomb model, visuality, clarity, universality in the usability factor, and joy in the emotional factor had little effect on the confirmation bias, and satisfaction and dissatisfaction were analyzed as the main factors of the confirmation bias in the correlation, memory and emotional factors. This study is meaningful in that it can be usefully used as a reference material for companies that customize design patterns for the factor of confirmation bias.

Confucius' viewpoint of happiness: Focusing on Analects (공자의 행복관 : 『논어(論語)』를 중심으로)

  • Ahn, Woe-Soon
    • (The)Study of the Eastern Classic
    • /
    • no.41
    • /
    • pp.303-331
    • /
    • 2010
  • The theme, 'Good Life', is one of the most classical questions all over the oriental and European societies in the history of politic ideas. Confucius (BC. 551 ~ BC. 479), a philosopher representing oriental ideas, also sought 'Good World' by proposing new world, and such 'Good World' cannot be separated from 'Good Life', which is 'Happy Life', so that his foundation of Confucius School means that he dreamt of 'Confucianism based Happiness' in another words. This study is aimed to look into Confucius' viewpoint of happiness using Analects that best shows his ideas, words and behaviors. In the Chapter 2, I checked good life and happy life dealt in the ancient European societies to get a general cognition of them. Then, I looked into the details written in the Chapter 1 Introduction, Section 1 'HakEe(學而)', Analects, in which Confucius thought that the genuine happiness of human was the process toward internal joy from learning, external joy from communicating with society and humanistic human that was the completion of oneself, which I used as the keys for this study. In the Chapter 3, 4 and 5, therefore, I investigated how such keys shown in the Chapter 1 of the Section 'HakEe' were achieved all through Analects.

Non-verbal Emotional Expressions for Social Presence of Chatbot Interface (챗봇의 사회적 현존감을 위한 비언어적 감정 표현 방식)

  • Kang, Minjeong
    • The Journal of the Korea Contents Association
    • /
    • v.21 no.1
    • /
    • pp.1-11
    • /
    • 2021
  • The users of a chatbot messenger can be better engaged in the conversation if they feel intimacy with the chatbot. This can be achieved by the chatbot's effective expressions of human emotions to chatbot users. Thus motivated, this study aims to identify the appropriate emotional expressions of a chatbot that make people feel the social presence of the chatbot. In the background research, we obtained that facial expression is the most effective way of emotions and movement is important for relationship emersion. In a survey, we prepared moving text, moving gestures, and still emoticon that represent five emotions such as happiness, sadness, surprise, fear, and anger. Then, we asked the best way for them to feel social presence with a chatbot in each emotion. We found that, for an arousal and pleasant emotion such as 'happiness', people prefer moving gesture and text most while for unpleasant emotions such as 'sadness' and 'anger', people prefer emoticons. Lastly, for the neutral emotions such as 'surprise' and 'fear', people tend to select moving text that delivers clear meaning. We expect that this results of the study are useful for developing emotional chatbots that enable more effective conversations with users.

Speech emotion recognition for affective human robot interaction (감성적 인간 로봇 상호작용을 위한 음성감정 인식)

  • Jang, Kwang-Dong;Kwon, Oh-Wook
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF

Design and implementation of a class homepage to cultivate the right character of elementary school students (초등학생의 바른 인성 함양을 위한 학급 홈페이지 설계 및 구현)

  • Kang, Dong-Sug;Moon, Wae-Shik
    • 한국정보교육학회:학술대회논문집
    • /
    • 2004.08a
    • /
    • pp.362-369
    • /
    • 2004
  • 인성 교육은 창의성 교육과 더불어 교육 개혁 과제의 핵심이자 새 학교 문화 창조의 밑바탕으로 일선 교육 현장에서 최우선으로 해결해야 할 당면 과제이다. 교육의 궁극적인 목적이 '인간에 의한, 인간을 위한, 인간의 교육' 임을 알고 있으면서도 다양한 체험 활동을 통한 인성 교육을 등한시하고 지식을 중시하는 지식 편중의 교육 활동을 전개하는 실정이다. 오늘날 교육은 웹의 풍부한 자원의 활용으로 새로운 교육형태, 학습모형 등이 점차 확산되어 가고 있는 추세이다. 그러나 학생들에게 풍부한 학습환경 제공과 비례하여 극단적인 이기풍조는 여전히 우리의 삶을 위협하고 교육을 저해하는 요인이 되고 있다. 이러한 교육적 현실로 전통적인 학습방법에서 탈피하여 사이버 공간의 학급홈페이지를 이용한 인성교육의 프로그램을 개발하여 좀더 능동적이고 시간과 장소에 제약을 받지 않는 자유로운 마음열기 대화활동을 통해서 아동들의 적성과 능력을 극대화하고 자아실현의 기쁨을 느끼게 하는 올바른 심성의 장 학급홈페이지 설계 및 구현을 통해 온라인 상에서 이루어지는 학생과 학생, 학생과 교사 등 상호작용의 장으로서 그 역할을 담당하고 쉽고 친숙한 학급홈페이지의 활용면에서 있어서도 성과가 있을 것이다.

  • PDF

Comparison and Analysis of Speech Signals for Emotion Recognition (감정 인식을 위한 음성신호 비교 분석)

  • Cho Dong-Uk;Kim Bong-Hyun;Lee Se-Hwan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.533-536
    • /
    • 2006
  • 본 논문에서는 음성 신호로부터 감정의 특징을 나타내는 요소를 찾아내는 것을 목표로 하고 있다. 일반적으로 감정을 인식할 수 있는 요소는 단어, 톤, 음성신호의 피치, 포만트, 그리고 발음 속도 및 음질 등이 있다. 음성을 기반으로 감정을 익히는 방법 중에서 현재 가장 많이 접근하고 있는 방법은 피치에 의한 방법이 있다. 사람의 경우는 주파수 같은 분석 요소보다는 톤과 단어, 빠르기, 음질로 감정을 받아들이게 되는 것이 자연스러운 방법이므로 이러한 요소들이 감정을 분류하는데 중요한 요소로 쓰일 수 있다. 따라서, 본 논문에서는 감정에 따른 음성의 특징을 추출하기 위해 사람의 감정 중에서 비교적 자주 쓰이는 평상, 기쁨, 화남, 슬픔에 관련된 4가지 감정을 비교 분석하였으며, 인간의 감정에 대한 음성의 특성을 분석한 결과, 강도와 스펙트럼에서 각각의 일관된 결과를 추출할 수 있었고, 이러한 결과에 대한 실험 과정과 최종 결과 및 근거를 제시하였다. 끝으로 실험에 의해 제안한 방법의 유용성을 입증하고자 한다.

  • PDF

A Study on the Acoustic Modeling of the Emotional Speech (감정 음성의 음향학적 모델링에 관한 연구)

  • 천희진;이양희
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.815-818
    • /
    • 2000
  • 본 논문에서는 감정 표현 음성 합성 시스템을 구현하기 위해서, 감정 음성 데이터베이스의 음향학적 특징인 피치, 에너지, 지속시간, 스펙트럼 포락에 대해 분석한 결과와 문법적 요소인 품사에 따른 감정 음성 데이터의 피치 변화를 분석하였다. 분석 결과, 기본 주파수, 에너지, 지속시간, 스펙트럼 포락은 감정 표현에 중요한 영향을 미치는 것으로 나타났으며, 전반적으로 화남과 기쁨의 감정이 평상과 슬픔의 감정 보다 피치 및 에너지의 변화가 크게 나타났으며, 특히 기쁜 감정의 경우 부사, 관형사, 연결어미, 조사, 접미사에서 피치 변화가 많았으며, 화난 감정의 경우, 관형사, 명사, 용언, 접미사에서 피치 변화가 높게 나타났다. 이러한 분석 결과를 적용해 감정 음성을 합성하기 위하여, 평상 음성에 각 감정 음성의 운율 요소를 적용하여 감정 음성을 합성하여 평가한 결과, 기쁜 감정은 기본 주파수의 변화에 의해 86.7%, 화난 감정은 에너지의 변화에 의해 91%, 슬픈 감정은 음절지속시간의 변화에 의해 76.7%가 각각 올바른 감정으로 인지되었다.

  • PDF

Emotion Recognition and Expression using Facial Expression (얼굴표정을 이용한 감정인식 및 표현 기법)

  • Ju, Jong-Tae;Park, Gyeong-Jin;Go, Gwang-Eun;Yang, Hyeon-Chang;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.04a
    • /
    • pp.295-298
    • /
    • 2007
  • 본 논문에서는 사람의 얼굴표정을 통해 4개의 기본감정(기쁨, 슬픔, 화남, 놀람)에 대한 특징을 추출하고 인식하여 그 결과를 이용하여 감정표현 시스템을 구현한다. 먼저 주성분 분석(Principal Component Analysis)법을 이용하여 고차원의 영상 특징 데이터를 저차원 특징 데이터로 변환한 후 이를 선형 판별 분석(Linear Discriminant Analysis)법에 적용시켜 좀 더 효율적인 특징벡터를 추출한 다음 감정을 인식하고, 인식된 결과를 얼굴 표현 시스템에 적용시켜 감정을 표현한다.

  • PDF