• 제목/요약/키워드: expression of emotion

검색결과 607건 처리시간 0.024초

정서-색채 이론에 기반한 게임 캐릭터의 동적 얼굴 색 제어 (Facial Color Control based on Emotion-Color Theory)

  • 박규호;김태용
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1128-1141
    • /
    • 2009
  • 게임 산업이 성장하면서 게임 그래픽 분야는 가장 빠르게 발전하고 있으며 지금은 실제 사진과 컴퓨터 그래픽을 구분하기 힘든 정도로 그래픽 기술은 양적으로나 질적으로 성장했다. 그러나 이러한 발전에도 불구하고 새롭게 출시되는 게임에 등장하는 캐릭터는 정서를 표현하지 않거나 소극적으로 표현하고 있다. 일반적으로 사람들은 얼굴의 표정이나 얼굴의 색(안색)에서 많은 정서 정보를 인지하는 것은 누구나 아는 사실이다. 그러므로 컴퓨터의 게임 환경에서 등장하는 캐릭터에게도 얼굴의 색의 변화를 통하여 유저에게 게임의 사실적인 느낌을 줄 수 있다. 본 논문에서는 기존의 맥박과 피부 온도만을 이용한 방법과는 다른 인간의 정서 이론을 기반한 정서 모형과 애니메이션의 정서표현 색 그리고 성격이론을 기반한 정서의 반응 속도를 결합하여 게임 캐릭터의 얼굴의 색을 동적으로 변화시켜 정서를 표현할 수 있는 얼굴 색 적응 기술 (Facial Color Adaptive Technique: FCAT)를 제안한다. 실제 얼굴 색 적응 기술을 이용하여 만든 얼굴색 모형(Facial Color Model : FCM)과 애니메이션 콘텐츠의 정서표현을 비교한 결과 정서 표현 색상과 변화율이 애니메이션과 유사하게 시뮬레이션 되었다. 또한 2차원 이미지뿐만 아니라 3차원 이미지에도 적용이 가능함을 확인 하였다.

  • PDF

효과적인 로봇 행동 생성을 위한 선형의 정서-표정 공간 내 감정 경계의 결정 -비선형의 제스처 동기화를 위한 정서, 표정 공간의 영역 결정 (The Emotional Boundary Decision in a Linear Affect-Expression Space for Effective Robot Behavior Generation)

  • 조수훈;이희승;박정우;김민규;정영진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.540-546
    • /
    • 2008
  • 미래에는 로봇이 사람의 감정 상태를 이해하거나 적절하게 자신의 행동을 표현하는 기능은 중요해 질 것이다. 사람간의 교류에서 메세지의 93%가 행동 표현에 있으며, 바디 랭귀지는 감정의 양을 표현하므로 행동 표현은 중요한 감정 표현 수단이다. 최근의 로봇들은 얼굴, 제스처, LED, 소리 등의 복합적 방법을 이용하여 사람과 교류하고 있지만 포즈는 위치와 방위, 얼굴이나 제스처는 속도, 말이나 색 풍은 시간에 대한 정보가 필요하기 때문에 하나의 모델로 통합하거나 동기화 시키기 어렵다. 한편 작은 세기의 감정에서, 얼굴은 쉽게 표현이 가능하지만 제스처는 표현이 힘들다. 또한 기존의 감정 경계는 같은 형태와 크기를 가지거나, HHI 분야에 국한되어 연구되어 왔다. 본 논문에서는 정서 공간에서 감정의 경계를 어떻게 정의할 것이며, 복합적 표현 방법을 시스템적으로 어떻게 동기화할 수 있을지를 제안한다.

  • PDF

감정 분류를 이용한 표정 연습 보조 인공지능 (Artificial Intelligence for Assistance of Facial Expression Practice Using Emotion Classification)

  • 김동규;이소화;봉재환
    • 한국전자통신학회논문지
    • /
    • 제17권6호
    • /
    • pp.1137-1144
    • /
    • 2022
  • 본 연구에서는 감정을 표현하기 위한 표정 연습을 보조하는 인공지능을 개발하였다. 개발한 인공지능은 서술형 문장과 표정 이미지로 구성된 멀티모달 입력을 심층신경망에 사용하고 서술형 문장에서 예측되는 감정과 표정 이미지에서 예측되는 감정 사이의 유사도를 계산하여 출력하였다. 사용자는 서술형 문장으로 주어진 상황에 맞게 표정을 연습하고 인공지능은 서술형 문장과 사용자의 표정 사이의 유사도를 수치로 출력하여 피드백한다. 표정 이미지에서 감정을 예측하기 위해 ResNet34 구조를 사용하였으며 FER2013 공공데이터를 이용해 훈련하였다. 자연어인 서술형 문장에서 감정을 예측하기 위해 KoBERT 모델을 전이학습 하였으며 AIHub의 감정 분류를 위한 대화 음성 데이터 세트를 사용해 훈련하였다. 표정 이미지에서 감정을 예측하는 심층신경망은 65% 정확도를 달성하여 사람 수준의 감정 분류 능력을 보여주었다. 서술형 문장에서 감정을 예측하는 심층신경망은 90% 정확도를 달성하였다. 감정표현에 문제가 없는 일반인이 개발한 인공지능을 이용해 표정 연습 실험을 수행하여 개발한 인공지능의 성능을 검증하였다.

정서 상태와 얼굴표정간의 연결 능력의 발달 (Developmental Changes in Emotional-States and Facial Expression)

  • 박수진;송인혜;김혜리;조경자
    • 감성과학
    • /
    • 제10권1호
    • /
    • pp.127-133
    • /
    • 2007
  • 본 연구에서는 얼굴표정을 통하여 다른 사람의 정서 상태를 판단하는 능력이 연령(3세, 5세, 대학생), 성별(남, 여), 얼굴제시영역(얼굴전체, 눈), 정서의 종류(기본정서, 복합정서)에 따라 어떻게 다른지 알아보고자 하였다. 본 연구에서는 얼굴표정과 정서어휘 간의 연결이 비교적 분명하게 나타나는 32개의 정서 상태를 자극으로 사용하였으며, 표정사진은 32개의 정서 상태에 해당하는 얼굴표정을 배우에게 연기하도록 하여 사용하였다. 과제는 각 실험참가자에게 정서유발 상황에 대한 이야기를 들려주고 이야기 속의 주인공이 어떤 얼굴표정을 할 것인지를 판단하게 한 후 네 개의 얼굴표정 중에 적절한 것을 선택하도록 한 것이었다. 그 결과 연령이 증가함에 따라 얼굴표정을 판단하는 능력이 증가하였으며, 눈만 제시한 경우보다는 얼굴전체를 제시하였을 때, 복합정서보다는 기본정서에서 더 좋은 수행을 보였다. 또한 여자는 제시영역에 따른 수행의 차이가 없는 것에 반해, 남자는 눈 조건에 비해 얼굴조건의 경우에 더 좋은 수행을 보였다. 본 연구의 결과는 연령, 얼굴제시영역, 정서의 종류가 얼굴표정을 통해 타인의 정서를 판단하는데 영향을 줌을 시사한다.

  • PDF

뇌졸중 환자의 일반적 특성에 따른 정서인식의 차이 (Emotional Recognition According to General Characteristics of Stroke Patients)

  • 박성호;김민호
    • 대한통합의학회지
    • /
    • 제3권1호
    • /
    • pp.63-69
    • /
    • 2015
  • Purpose: The purpose of this study was to investigate the differences in emotion recognition according to general characteristics of stroke patients. Method: The subjects consisted of 38 stroke patients receiving rehabilitation at S Hospital in Busan. Used the eMETT program to assess emotional cognition. Result: The age and duration of disease showed statistically significant differences in emotion recognition ability score, the gender and lesion showed a statistically significant difference in some emotion(p<.05). Conclusion: The results of this study it can be seen that the difference in emotion recognition ability in accordance with the general characteristics of the stroke. There will be a variety of future research related to standardized research or interventions targeted at stroke patients and normal controls to be carried out.

조선시대 아동용 교재들 속에 나타난 정서지능 (Emotional Intelligence in Children's Textbooks of the Chosun Dynasty)

  • 우남희
    • 아동학회지
    • /
    • 제20권1호
    • /
    • pp.3-14
    • /
    • 1999
  • Seven textbooks for children used in homes and schools (sudangs) of the Chosun dynasty were examined to investigate how they taught emotional intelligence in traditional Korean society. The contents of the books were analyzed according to the 4 abilities of emotional intelligence described by Salovey and Mayer (1966): (1) perception, appraisal, and expression of emotion, (2) emotion's facilitation of thinking, (3) understanding and analyzing emotions, and (4) regulation of emotion to promote emotional and intellectual growth. The analysis showed that most of the books valued emotional intelligence and taught children how they perceive, appraise, and express emotions. The emotional ability to facilitate thinking was also emphasized, whereas the ability to understand and analyze emotions was seldom mentioned. It was also found that the regulation of emotion was emphasized; that is, children were educated to control and depress their emotions rather than to express them naturally.

  • PDF

Multimodal Parametric Fusion for Emotion Recognition

  • Kim, Jonghwa
    • International journal of advanced smart convergence
    • /
    • 제9권1호
    • /
    • pp.193-201
    • /
    • 2020
  • The main objective of this study is to investigate the impact of additional modalities on the performance of emotion recognition using speech, facial expression and physiological measurements. In order to compare different approaches, we designed a feature-based recognition system as a benchmark which carries out linear supervised classification followed by the leave-one-out cross-validation. For the classification of four emotions, it turned out that bimodal fusion in our experiment improves recognition accuracy of unimodal approach, while the performance of trimodal fusion varies strongly depending on the individual. Furthermore, we experienced extremely high disparity between single class recognition rates, while we could not observe a best performing single modality in our experiment. Based on these observations, we developed a novel fusion method, called parametric decision fusion (PDF), which lies in building emotion-specific classifiers and exploits advantage of a parametrized decision process. By using the PDF scheme we achieved 16% improvement in accuracy of subject-dependent recognition and 10% for subject-independent recognition compared to the best unimodal results.

가상 캐릭터의 몸짓과 얼굴표정의 일치가 감성지각에 미치는 영향: 어떤 얼굴표정이 중요한가? (The Congruent Effects of Gesture and Facial Expression of Virtual Character on Emotional Perception: What Facial Expression is Significant?)

  • 류지헌;유승범
    • 한국콘텐츠학회논문지
    • /
    • 제16권5호
    • /
    • pp.21-34
    • /
    • 2016
  • 디지털 콘텐츠에서 구현되는 가상 캐릭터를 효과적으로 개발하기 위해서는 감성 상태(기쁨, 슬픔, 공포, 화남)가 제대로 전달되도록 하는 것이 중요하다. 이 연구에서는 가상 캐릭터의 얼굴표정과 몸짓이 표현하는 감성 상태의 일치여부에 따라서 사용자가 가상 캐릭터의 감성 상태를 어떻게 지각하며, 가상 캐릭터의 몸짓을 어떻게 평가하는가를 검증하였다. 이를 위하여 몸짓과 얼굴표정의 감성표현을 동일하게 구성한 일치조건, 정반대의 감성표현으로 구성된 불일치조건, 그리고 무표정한 얼굴표정으로 구현된 통제집단을 구성했다. 연구결과에 따르면 슬픔 조건에서 의도된 감성 상태가 제대로 전달되지 않았을 뿐만 아니라 오히려 화난 것으로 지각되었다. 그러나 나머지 감성 상태에서는 몸짓과 얼굴표정의 일치여부는 의도된 감성 전달에 영향을 미치지 않았다. 감성 상태의 표현에 대한 가상 캐릭터의 전체적인 몸짓에 대한 평가에서는 기쁨을 표현한 몸짓이 불일치 조건의 얼굴표정을 갖게 될 때, 평가 점수가 낮았다. 가상 캐릭터의 감성을 표현할 때는 얼굴 표정도 중요하지만 몸짓 자체의 감성표현이 전반적으로 결정적인 역할을 수행하고 있음을 확인할 수 있었다. 가상 캐릭터의 성별이나 연령과 같은 사회적 단서에 대한 연구의 필요성을 설명했다.

Effects of LED on Emotion-Like Feedback of a Single-Eyed Spherical Robot

  • Onchi, Eiji;Cornet, Natanya;Lee, SeungHee
    • 감성과학
    • /
    • 제24권3호
    • /
    • pp.115-124
    • /
    • 2021
  • Non-verbal communication is important in human interaction. It provides a layer of information that complements the message being transmitted. This type of information is not limited to human speakers. In human-robot communication, increasing the animacy of the robotic agent-by using non-verbal cues-can aid the expression of abstract concepts such as emotions. Considering the physical limitations of artificial agents, robots can use light and movement to express equivalent emotional feedback. This study analyzes the effects of LED and motion animation of a spherical robot on the emotion being expressed by the robot. A within-subjects experiment was conducted at the University of Tsukuba where participants were asked to rate 28 video samples of a robot interacting with a person. The robot displayed different motions with and without light animations. The results indicated that adding LED animations changes the emotional impression of the robot for valence, arousal, and dominance dimensions. Furthermore, people associated various situations according to the robot's behavior. These stimuli can be used to modulate the intensity of the emotion being expressed and enhance the interaction experience. This paper facilitates the possibility of designing more affective robots in the future, using simple feedback.