• Title/Summary/Keyword: 인간 감정

Search Result 536, Processing Time 0.028 seconds

Model Behavior selection based on the motivation and hierarchicalized emotions. (동기와 계층화된 감정에 기반한 로봇의 행동결정)

  • 안형철;박명수;최진영
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.04a
    • /
    • pp.29-33
    • /
    • 2004
  • 본 논문에서는 인간과 엔터테인먼트 로봇의 상호작용을 위해, 동기(motivation)와 계층화된 감정(hierarchical emotion)에 기반한 행동결정 모델을 설계하였다. 감정모델은 계층화되고 학습 가능하도록 하여, 인간의 행동결정과 유사하게 동작하도록 하였다. 감정모델을 통해 로봇의 행동에 대한 인간의 반응이 학습되는데, 그 결과가 행동결정에 영향을 주어 로봇의 행동에 반영되도록 하였다. 감정모델과 함께 동기가 행동결정에 영향을 주는데, 초기에는 외부에서 주어지는 동기가 주로 행동을 결정하고, 감정모델이 학습될수록 점차 감정의 영향이 증가하여 동기와 계층화된 감정을 함께 고려하여 행동을 결정하도록 하였다. 그럼으로써, 인간과의 상호작용을 통해 정보를 축적하고 인간의 반응에 적응해나갈 수 있게 하였다

  • PDF

Impact Analysis of nonverbal multimodals for recognition of emotion expressed virtual humans (가상 인간의 감정 표현 인식을 위한 비언어적 다중모달 영향 분석)

  • Kim, Jin Ok
    • Journal of Internet Computing and Services
    • /
    • v.13 no.5
    • /
    • pp.9-19
    • /
    • 2012
  • Virtual human used as HCI in digital contents expresses his various emotions across modalities like facial expression and body posture. However, few studies considered combinations of such nonverbal multimodal in emotion perception. Computational engine models have to consider how a combination of nonverbal modal like facial expression and body posture will be perceived by users to implement emotional virtual human, This paper proposes the impacts of nonverbal multimodal in design of emotion expressed virtual human. First, the relative impacts are analysed between different modals by exploring emotion recognition of modalities for virtual human. Then, experiment evaluates the contribution of the facial and postural congruent expressions to recognize basic emotion categories, as well as the valence and activation dimensions. Measurements are carried out to the impact of incongruent expressions of multimodal on the recognition of superposed emotions which are known to be frequent in everyday life. Experimental results show that the congruence of facial and postural expression of virtual human facilitates perception of emotion categories and categorical recognition is influenced by the facial expression modality, furthermore, postural modality are preferred to establish a judgement about level of activation dimension. These results will be used to implementation of animation engine system and behavior syncronization for emotion expressed virtual human.

A Design of Artificial Emotion Model (인공 감정 모델의 설계)

  • Lee, In-Geun;Seo, Seok-Tae;Jeong, Hye-Cheon;Gwon, Sun-Hak
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.04a
    • /
    • pp.58-62
    • /
    • 2007
  • 인간이 생성한 음성, 표정 영상, 문장 등으로부터 인간의 감정 상태를 인식하는 연구와 함께, 인간의 감정을 모방하여 다양한 외부 자극으로 감정을 생성하는 인공 감정(Artificial Emotion)에 관한 연구가 이루어지고 있다. 그러나 기존의 인공 감정 연구는 외부 감정 자극에 대한 감정 변화 상태를 선형적, 지수적으로 변화시킴으로써 감정 상태가 급격하게 변하는 형태를 보인다. 본 논문에서는 외부 감정 자극의 강도와 빈도뿐만 아니라 자극의 반복 주기를 감정 상태에 반영하고, 시간에 따른 감정의 변화를 Sigmoid 곡선 형태로 표현하는 감정 생성 모델을 제안한다. 그리고 기존의 감정 자극에 대한 회상(recollection)을 통해 외부 감정 자극이 없는 상황에서도 감정을 생성할 수 있는 인공 감정 시스템을 제안한다.

  • PDF

A study on measuring the personality for emotion modeling based on physiological recordings (생체신호기반 감정 모델링을 위한 개인성향 측정 방법)

  • Lee, Saebyeok;Lim, Heuiseok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.1215-1217
    • /
    • 2012
  • 기계가 인간의 감정을 인식하기 위해서는 인간의 감정을 정량적으로 측정할 수 있는 모델이 있어야 한다. 하지만, 인간의 감정은 그 사람이 살아온 환경과 그 사람의 기질에 따라서 같은 자극에 노출되어도 사람마다 느끼는 것이 다르다. 따라서 기계가 인간의 감정을 사람의 기질을 포함하는 개인성향 기반의 감정 모델이 필요하다. 본 논문에서는 감정 모델링을 위해 BAS/BIS 가 제안한 개인 성향을 EEG 기반으로 측정 해보고 각 감정 유발 자극 별로 전두엽에서 발생하는 전위를 분석한 결과 각 성향 별로 대뇌 반응이 다르게 나왔다. 이는 인지적 감정이 전이될 때, 성향별로 대뇌에서 다르게 반응 한다는 것을 의미한다.

Engine of computational Emotion model for emotional interaction with human (인간과 감정적 상호작용을 위한 '감정 엔진')

  • Lee, Yeon Gon
    • Science of Emotion and Sensibility
    • /
    • v.15 no.4
    • /
    • pp.503-516
    • /
    • 2012
  • According to the researches of robot and software agent until now, computational emotion model is dependent on system, so it is hard task that emotion models is separated from existing systems and then recycled into new systems. Therefore, I introduce the Engine of computational Emotion model (shall hereafter appear as EE) to integrate with any robots or agents. This is the engine, ie a software for independent form from inputs and outputs, so the EE is Emotion Generation to control only generation and processing of emotions without both phases of Inputs(Perception) and Outputs(Expression). The EE can be interfaced with any inputs and outputs, and produce emotions from not only emotion itself but also personality and emotions of person. In addition, the EE can be existed in any robot or agent by a kind of software library, or be used as a separate system to communicate. In EE, emotions is the Primary Emotions, ie Joy, Surprise, Disgust, Fear, Sadness, and Anger. It is vector that consist of string and coefficient about emotion, and EE receives this vectors from input interface and then sends its to output interface. In EE, each emotions are connected to lists of emotional experiences, and the lists consisted of string and coefficient of each emotional experiences are used to generate and process emotional states. The emotional experiences are consisted of emotion vocabulary understanding various emotional experiences of human. This study EE is available to use to make interaction products to response the appropriate reaction of human emotions. The significance of the study is on development of a system to induce that person feel that product has your sympathy. Therefore, the EE can help give an efficient service of emotional sympathy to products of HRI, HCI area.

  • PDF

The Emotion Inference Model Bassed using Neural Network (신경망을 이용한 감정추론 모델)

  • 김상헌;정재영;이원호;이형우;노태정
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.309-312
    • /
    • 2004
  • 본 논문에서는 인간과 로봇의 상호작용을 위해 감정에 기반한 감정 처리 모델을 설계하였다. 감정 재현 기술은 사용자에게 친근감을 주기 위해 로봇 시스템이 제스처, 표정을 통하여 사람이나 동물의 감성과 동작을 표현하는 분야이다. 로봇이 감정을 표현하는 문제에는 많은 심리학적, 해부학적, 공학적 문제가 관련된다. 여러가지 애매모호한 상황임에 불구하고 심리학자인 Ekman과 Friesen에 의해 사람의 여섯 가지 기본 표정이 놀람, 공포, 혐오, 행복감, 두려움, 슬픔은 문화에 영향을 받지 않고 공통적으로 인식되는 보편성을 가지고 있는 것으로 연구됐다. 사람의 행동에 대한 로봇의 반응이 학습되어 감정모델이 결정되고, 그 결과가 행동결정에 영향을 주어 로봇의 행동에 반영되도록 하였다. 본 논문에서는 인간과 로봇과의 상호작용을 통해 정보를 축적하고 인간의 반응에 적응해나 갈 수 있는 감정 처리 모델을 제안한다.

  • PDF

Three-Layered Hybrid Architecture for Emotional Reactive System (하이브리드 구조에 의한 감정 반응 시스템)

  • Jung, Jun-Young;Lee, Dong-Wook;Lee, Ho-Gil
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2008.04a
    • /
    • pp.54-55
    • /
    • 2008
  • 본 논문에서는 인간형 로봇의 태스크 실행 중 자율 감정 생성을 위하여 Three-layered hybrid architecture에 기반한 감정 반응 시스템을 제안한다. Three-layered hybrid architecture는 Deliberative layer, Reactive layer Hardware abstraction layer의 3단계의 계층으로 되어 있으며, 모바일 로봇의 자율 동작을 위해서 개발되었다. 본 연구에서는 저자가 개발중인 안드로이드 EveR-2의 감정 시스템에 적용하여 로봇의 태스크 동작 중에 외부의 자극들로부터 자신의 감정을 생성하고, 생성된 감정과 태스크를 조합하여 자신의 행동을 변화시키며 인간과 상호작용하는 로봇 감정 시스템을 구현하였다.

  • PDF

Emotional Expression System Based on Dynamic Emotion Space (동적 감성 공간에 기반한 감성 표현 시스템)

  • 변광섭;박창현;심귀보;정인철;함호상
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.130-133
    • /
    • 2004
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니고 다양한 감정의 복합으로, 눈에 띄는 강정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion Space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 키리 설정된 몇개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제로 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion space를 이용한 감성 표현 시스템의 성능을 입증한다.

  • PDF

Acquisition Of Biometric Data To Percept Human Emotion (감성 인식을 위한 생체 정보 수집)

  • Whang Se-Hee;Park Chang-Hyun;Sim Kwee-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.04a
    • /
    • pp.353-356
    • /
    • 2005
  • 감성이란 외부의 여러 가지 감각적인 자극에 대해 직관적이고 반사적으로 발생하는 반응이다. 감성에는 희로애락과 같은 다양한 감정이 포함된다. 감성은 개인과 환경의 영향을 받는 동시에 사회$\cdot$문화적인 영향에 의해 달라지는 종합적이고 복합적인 느낌이기 때문에 명확하게 표현하기 어렵다. 개인적인 차이는 있지만 인간의 감정은 다양한 행동이나 신체적 혹은 생리적인 반응으로 표출되기 때문에 이러한 다양한 반응을 이용해서 인간의 감정을 유추할 수 있다. 행동이나 신체적인 표현은 개인과 환경, 사회$\cdot$문화적인 영향에 따라 다양하게 나타나기 때문에 이를 정량화하기에는 힘든 부분이 있다. 반면 감정 상태에 따른 생리적인 반응은 여러 사람들에게서 공통적인 부분을 찾을 수가 있다. 본 논문에서는 감정에 따라 다양하게 나타나는 인간의 생리적인 반응 정토를 측정하고 이들의 공통점에 따라 생리적 반응을 통해 인간의 감정에 유추할 수 있는 공학적 모델을 제시하고자 한다.

  • PDF

Emotion Recognition from Body Movement (신체움직임에 대한 컴퓨터비전 기반 실시간 감정인식)

  • 박한훈;박종일;우운택
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.157-160
    • /
    • 2001
  • 컴퓨터와 주변장치의 급속한 발전은 인간과 컴퓨터 사이의 인터페이스에 많은 변화를 가져왔다. 특히, 인간의 감정을 인식하는 기술은 컴퓨터를 보다 인간 친화적으로 만들기 위한 노력으로, 그 동안 꾸준히 진행되어 왔다. 본 논문에서는 한대의 카메라로 촬영한 영상으로부터 실시간으로 신체움직임이 표현하는 감정을 인식할 수 있는 방법을 제안하고, PC기반의 실시간 감정 인식 시스템을 구현한다.

  • PDF