• 제목/요약/키워드: Artificial Emotion Model

검색결과 50건 처리시간 0.022초

인공 감정 모델의 설계 (Design of an Artificial Emotion Model)

  • 이인근;서석태;정혜천;권순학
    • 한국지능시스템학회논문지
    • /
    • 제17권5호
    • /
    • pp.648-653
    • /
    • 2007
  • 인간의 감정을 모방하여 다양한 외부 자극에 대해 인위적으로 감정을 생성하는 인공 감정에 관한 연구가 최근에 시작되어 이루어지고 있다. 그러나 기존의 인공 감정 연구에서는 외부 감정 자극에 대한 감정 상태를 선형적, 지수적으로 변화시킴으로써 감정 상태가 급격하게 변하는 단점을 갖고 있다. 본 논문에서는 외부 감정 자극의 강도와 빈도뿐만 아니라 자극의 반복 주기를 감정 상태에 반영하고, 시간에 따른 감정의 변화를 시그모이드 곡선 형태로 표현하는 인공 감정 생성 모델을 제안한다. 그리고 기존의 감정 자극에 대한 회상을 통해 외부 감정 자극이 없는 상황에서도 감정을 생성할 수 있는 인공감정 시스템을 제안하고 컴퓨터 모의실험 결과를 통해 그 효용성을 보인다.

Behavior Decision Model Based on Emotion and Dynamic Personality

  • Yu, Chan-Woo;Choi, Jin-Young
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.101-106
    • /
    • 2005
  • In this paper, we propose a behavior decision model for a robot, which is based on artificial emotion, various motivations and dynamic personality. Our goal is making a robot which can express its emotion human-like way. To achieve this goal, we applied several emotion and personality theories in psychology. Especially, we introduced the concept of dynamic personality model for a robot. Drawing on this concept, we could make a behavior decision model so that the emotion expression of the robot has adaptability to various environments through interactions between human and the robot.

  • PDF

심리학 기반 인공감정모델을 이용한 감정의 시각화 -햄릿의 등장인물을 중심으로- (Visualizing Emotions with an Artificial Emotion Model Based on Psychology -Focused on Characters in Hamlet-)

  • 함준석;여지혜;고일주
    • 감성과학
    • /
    • 제11권4호
    • /
    • pp.541-552
    • /
    • 2008
  • 감정은 수량, 크기, 종류를 측정하기 어려워 언어로 표현하는데 한계가 있다. 세익스피어의 '햄릿'에서 주인공 햄릿의 경우 여러 가지 극적인 상황으로 인해 말로 표현하기 힘든 감정 상태를 가진다. 따라서 본 논문은 현재의 감정 상태를 말 대신 위치와 색으로 시각화하여 표현하는 인공감정을 제안하고, 이를 이용하여 '햄릿'에 나오는 등장인물들의 감정을 시각화했다. 제안된 인공감정은 네 단계에 걸쳐 구성된다. 첫 번째 단계에선 감정을 인과관계에 따라 분석하여 어떤 종류의 감정자극이 얼마만큼 들어왔는지 분석한다. 두 번째 단계에선, 감정의 생성과 소멸을 표현하는 단위감정그래프를 제안하고, 이를 통해 들어온 감정 자극의 생성, 유지, 소멸을 성격에 따라 표현한다. 세 번째 단계에선 단위감정그래프를 이용하여 같은 종류의 연속된 감정자극을 표현하는 감정그래프를 제안한다. 그리고 감정별로 감정그래프를 하나씩 둬서 각 감정들의 생성과 소멸을 개별적으로 관리한다. 네 번째 단계에선 서로 다른 감정 간의 상호관계에 따라 감정별 감정그래프의 현재 감정을 복합하는 감정장을 제안하고, 감정장상의 위치와 위치에 따른 색으로 현재의 감정 상태를 표현한다. 제안된 인공감정으로 감정상태의 변화를 시각화해보기 위해 '햄릿'에서 등장인물인 햄릿과 거트루드의 감정변화를 인공감정을 통해 시각화하였다.

  • PDF

강화학습과 감정모델 기반의 지능적인 가상 캐릭터의 구현 (Implementation of Intelligent Virtual Character Based on Reinforcement Learning and Emotion Model)

  • 우종하;박정은;오경환
    • 한국지능시스템학회논문지
    • /
    • 제16권3호
    • /
    • pp.259-265
    • /
    • 2006
  • 학습과 감정은 지능형 시스템을 구현하는데 있어 가장 중요한 요소이다. 본 논문에서는 강화학습을 이용하여 사용자와 상호작용을 하면서 학습을 수행하고 내부적인 감정모델을 가지고 있는 지능적인 가상 캐릭터를 구현하였다. 가상 캐릭터는 여러 가지 사물들로 이루어진 3D의 가상 환경 내에서 내부상태에 의해 자율적으로 동작하며, 또한 사용자는 가상 캐릭터에게 반복적인 명령을 통해 원하는 행동을 학습시킬 수 있다. 이러한 명령은 인공신경망을 사용하여 마우스의 제스처를 인식하여 수행할 수 있고 감정의 표현을 위해 Emotion-Mood-Personality 모델을 새로 제안하였다. 그리고 실험을 통해 사용자와 상호작용을 통한 감정의 변화를 살펴보았고 가상 캐릭터의 훈련에 따른 학습이 올바르게 수행되는 것을 확인하였다.

An Intelligent Emotion Recognition Model Using Facial and Bodily Expressions

  • Jae Kyeong Kim;Won Kuk Park;Il Young Choi
    • Asia pacific journal of information systems
    • /
    • 제27권1호
    • /
    • pp.38-53
    • /
    • 2017
  • As sensor technologies and image processing technologies make collecting information on users' behavior easy, many researchers have examined automatic emotion recognition based on facial expressions, body expressions, and tone of voice, among others. Specifically, many studies have used normal cameras in the multimodal case using facial and body expressions. Thus, previous studies used a limited number of information because normal cameras generally produce only two-dimensional images. In the present research, we propose an artificial neural network-based model using a high-definition webcam and Kinect to recognize users' emotions from facial and bodily expressions when watching a movie trailer. We validate the proposed model in a naturally occurring field environment rather than in an artificially controlled laboratory environment. The result of this research will be helpful in the wide use of emotion recognition models in advertisements, exhibitions, and interactive shows.

인공 감정 모델의 설계 (A Design of Artificial Emotion Model)

  • 이인근;서석태;정혜천;권순학
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.58-62
    • /
    • 2007
  • 인간이 생성한 음성, 표정 영상, 문장 등으로부터 인간의 감정 상태를 인식하는 연구와 함께, 인간의 감정을 모방하여 다양한 외부 자극으로 감정을 생성하는 인공 감정(Artificial Emotion)에 관한 연구가 이루어지고 있다. 그러나 기존의 인공 감정 연구는 외부 감정 자극에 대한 감정 변화 상태를 선형적, 지수적으로 변화시킴으로써 감정 상태가 급격하게 변하는 형태를 보인다. 본 논문에서는 외부 감정 자극의 강도와 빈도뿐만 아니라 자극의 반복 주기를 감정 상태에 반영하고, 시간에 따른 감정의 변화를 Sigmoid 곡선 형태로 표현하는 감정 생성 모델을 제안한다. 그리고 기존의 감정 자극에 대한 회상(recollection)을 통해 외부 감정 자극이 없는 상황에서도 감정을 생성할 수 있는 인공 감정 시스템을 제안한다.

  • PDF

감정의 시각화를 위한 인공감정 설계 (Design of an Artificial Emotion for visualizing emotion)

  • 함준석;손충연;정찬순;박준형;여지혜;고일주
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 추계학술대회
    • /
    • pp.91-94
    • /
    • 2009
  • 인공감정에 관련된 기존의 연구는 대부분 감정의 인식과 물리적 표현에 중점 되어 연구되었다. 하지만 감정은 성격에 따라 달리 표출되고, 시간에 따라 변화 양상을 갖는다. 또한 새로운 감정자극을 받기 이 전의 감정상태에 따라서 표출 될 감정은 달라진다. 본 논문은 감정을 성격, 시간, 감정간의 관계에 따라 관리하여 현재 표출될 감정을 시각화 해주는 인공감정을 제안한다. 감정을 시각화하기 위해서 본 논문의 인공감정은 감정그래프와 감정장을 갖는다. 감정그래프는 특정 감정을 성격과 시간에 따라 표현하는 2차원 형태의 그래프 이다. 감정장은 감정그래프에서 표현된 서로 다른 종류의 감정들을 시간과 감정간의 관계에 따라 시각화 해주는 3차원 형태의 모델이다. 제안된 인공감정을 통해 감정을 시각화해 보기 위해, 감정의 인식과 물리적 표현을 텍스트 기반으로 간소화시킨 시뮬레이터에 적용했다.

  • PDF

HRI를 위한 사람의 내적 요소 기반의 인공 정서 표현 시스템 (Human emotional elements and external stimulus information-based Artificial Emotion Expression System for HRI)

  • 오승원;한민수
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.7-12
    • /
    • 2008
  • 사람과 로봇의 인터랙션에 있어 정서의 역할은 중요하다. 그러므로 사람과 유사한 정서 메커니즘이 로봇에게 필요하다. 본 논문에서는 사람의 정서에 대한 심리적 연구를 바탕으로 사람의 내적 요소에 기반한 새로운 인공 정서 표현 시스템을 제안한다. 제안된 시스템은 external stimulus, emotion, mood, personality, tendency, machine rhythm 의 6가지 정보 요소를 활용하며, 각 요소들은 그들의 특성에 따라 결과적으로 emotion 표현 패턴의 변화에 영향을 준다. 그 결과 통일한 외부 자극들은 내적 상태에 따라 emotion의 변화를 만들어 낸다. 제안된 시스템은 사람과 로봇의 자연스러운 인터랙션을 유지하고, 친밀한 관계를 형성할 수 있도록 도움을 줄 것이다.

  • PDF

심리학 기반 감정 모델의 공학적 접근에 의한 인공감정의 제안과 적용 (Developing and Adopting an Artificial Emotion by Technological Approaching Based on Psychological Emotion Model)

  • 함준석;여지혜;고일주
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2008년도 제38차 하계학술발표논문집 16권1호
    • /
    • pp.331-336
    • /
    • 2008
  • 같은 상황이라도 사람에 따라 느끼는 감정은 다르다. 따라서 감정을 일반화하여 현재의 감정 상태를 정량적으로 표현하는데 는 한계가 있다. 본 논문은 현재의 감정 상태를 나타내기 위해, 인간의 감정을 모델링한 심리학의 감정 모델을 공학적으로 접근하여 심리학기반 공학적 인공감정을 제안한다. 제안된 인공감정은 심리학을 기반으로 감정발생의 인과관계, 성격에 따른 감정의 차이, 시간에 따른 감정의 차이, 연속된 감정자극에 따른 감정의 차이, 감정간의 상호관계에 따른 감정의 차이를 반영하여 구성했다. 현재의 감정 상태를 위치로 나타내기 위해서 감정장을 제안했고, 감정장 상의 위치와 위치에 따른 색깔로 현재의 감정 상태를 표현했다. 감정상태의 변화를 제안된 인공감정을 통해 시각화해보기 위해 셰익스피어의 '햄릿'에서 극중 등장인물인 햄릿의 감정변화를 제안된 인공감정을 통해 시각화 해 보였다.

  • PDF

Multimodal Attention-Based Fusion Model for Context-Aware Emotion Recognition

  • Vo, Minh-Cong;Lee, Guee-Sang
    • International Journal of Contents
    • /
    • 제18권3호
    • /
    • pp.11-20
    • /
    • 2022
  • Human Emotion Recognition is an exciting topic that has been attracting many researchers for a lengthy time. In recent years, there has been an increasing interest in exploiting contextual information on emotion recognition. Some previous explorations in psychology show that emotional perception is impacted by facial expressions, as well as contextual information from the scene, such as human activities, interactions, and body poses. Those explorations initialize a trend in computer vision in exploring the critical role of contexts, by considering them as modalities to infer predicted emotion along with facial expressions. However, the contextual information has not been fully exploited. The scene emotion created by the surrounding environment, can shape how people perceive emotion. Besides, additive fusion in multimodal training fashion is not practical, because the contributions of each modality are not equal to the final prediction. The purpose of this paper was to contribute to this growing area of research, by exploring the effectiveness of the emotional scene gist in the input image, to infer the emotional state of the primary target. The emotional scene gist includes emotion, emotional feelings, and actions or events that directly trigger emotional reactions in the input image. We also present an attention-based fusion network, to combine multimodal features based on their impacts on the target emotional state. We demonstrate the effectiveness of the method, through a significant improvement on the EMOTIC dataset.