• 제목/요약/키워드: expression of emotion

검색결과 603건 처리시간 0.032초

감정 트레이닝: 얼굴 표정과 감정 인식 분석을 이용한 이미지 색상 변환 (Emotion Training: Image Color Transfer with Facial Expression and Emotion Recognition)

  • 김종현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권4호
    • /
    • pp.1-9
    • /
    • 2018
  • 본 논문은 얼굴의 표정 변화를 통해 감정을 분석하는 방법으로 조현병의 초기 증상을 스스로 인지할 수 있는 감정 트레이닝 프레임워크를 제안한다. 먼저, Microsoft의 Emotion API를 이용하여 캡처된 얼굴 표정의 사진으로부터 감정값을 얻고, 피크 분석 기반 표준편차로 시간에 따라 변화하는 얼굴 표정의 미묘한 차이를 인식해 감정 상태를 각각 분류한다. 그리하여 Ekman이 제안한 여섯 가지 기본 감정 상태에 반하는 감정들의 정서 및 표현능력이 결핍된 부분에 대해 분석하고, 그 값을 이미지 색상 변환 프레임워크에 통합시켜 사용자 스스로 감정의 변화를 쉽게 인지하고 트레이닝 할 수 있도록 하는 것이 최종목적이다.

얼굴 특징점 추적을 통한 사용자 감성 인식 (Emotion Recognition based on Tracking Facial Keypoints)

  • 이용환;김흥준
    • 반도체디스플레이기술학회지
    • /
    • 제18권1호
    • /
    • pp.97-101
    • /
    • 2019
  • Understanding and classification of the human's emotion play an important tasks in interacting with human and machine communication systems. This paper proposes a novel emotion recognition method by extracting facial keypoints, which is able to understand and classify the human emotion, using active Appearance Model and the proposed classification model of the facial features. The existing appearance model scheme takes an expression of variations, which is calculated by the proposed classification model according to the change of human facial expression. The proposed method classifies four basic emotions (normal, happy, sad and angry). To evaluate the performance of the proposed method, we assess the ratio of success with common datasets, and we achieve the best 93% accuracy, average 82.2% in facial emotion recognition. The results show that the proposed method effectively performed well over the emotion recognition, compared to the existing schemes.

감정표현의 직관성을 향상시키기 위한 색상을 이용한 감정모델의 개발과 적용 (Developing and Adapting an Emotion Model Using Colors for an Emotion Expression)

  • 여지혜;정명범;함준석;박준형;고일주
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.152-157
    • /
    • 2008
  • 인간은 감정을 인지하는데 있어 시각을 많이 사용한다. 인간은 감정을 인지하는데 있어 시각을 많이 사용한다. 빛에 의해 물체를 지가하며 색채의 한가운데 살아간다. 그만큼 색채는 우리 생활과 매우 밀접하게 관련되어있어 많은 시각정보 중에서도 색채에 대해 민감하게 받아들인다. 그래서 감정을 색채로 표현한다면 직관적으로 받아들일 수 있다. 본 논문은 색상과 감정 간의 관계연구를 통한 색상을 이용한 감정표현을 목적으로 한다. 정서를 동그라미 모형으로 표현한 Plutchik의 정서동그라미와 색상을 동그라미 모형으로 표현한 모세스 해리스의 해리스1은 기준 축을 중심으로 결합하여 다른 감정을 찾아내거나 색채가 만들어지기 때문에 색상과 감정 간의 관계연구를 하는데 사용하였다. 두 모델의 유사특징을 이용해 Plutchik의 정서동그라미에서 기본이 되는 감정을 선택해 비슷한 느낌과 특정을 가지는 색상을 모세스 해리스의 해리스1에서 찾아 감정을 매칭 시키는 방법으로 색상환을 이용해 감정을 표현한다. 색상과 감정 간의 매칭 만족도를 알아보기 위해서는 감정의 자극이 계속적으로 들어와 많은 감정의 변화를 실시간으로 확인할 수 있어야 한다. 비행슈팅 게임은 여러 가지 감정의 자극이 계속적으로 들어오고, 실시간으로 감정의 변화를 확인할 수 있기 때문에 본 연구를 적용하기에 적합하다. 따라서 비행슈팅게임의 캐릭터 색상으로 적용해보았다.

  • PDF

생리적 내재반응 및 얼굴표정 간 확률 관계 모델 기반의 감정인식 시스템에 관한 연구 (A Study on Emotion Recognition Systems based on the Probabilistic Relational Model Between Facial Expressions and Physiological Responses)

  • 고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.513-519
    • /
    • 2013
  • The current vision-based approaches for emotion recognition, such as facial expression analysis, have many technical limitations in real circumstances, and are not suitable for applications that use them solely in practical environments. In this paper, we propose an approach for emotion recognition by combining extrinsic representations and intrinsic activities among the natural responses of humans which are given specific imuli for inducing emotional states. The intrinsic activities can be used to compensate the uncertainty of extrinsic representations of emotional states. This combination is done by using PRMs (Probabilistic Relational Models) which are extent version of bayesian networks and are learned by greedy-search algorithms and expectation-maximization algorithms. Previous research of facial expression-related extrinsic emotion features and physiological signal-based intrinsic emotion features are combined into the attributes of the PRMs in the emotion recognition domain. The maximum likelihood estimation with the given dependency structure and estimated parameter set is used to classify the label of the target emotional states.

사용자의 성향 기반의 얼굴 표정을 통한 감정 인식률 향상을 위한 연구 (A study on the enhancement of emotion recognition through facial expression detection in user's tendency)

  • 이종식;신동희
    • 감성과학
    • /
    • 제17권1호
    • /
    • pp.53-62
    • /
    • 2014
  • 인간의 감정을 인식하는 기술은 많은 응용분야가 있음에도 불구하고 감정 인식의 어려움으로 인해 쉽게 해결되지 않는 문제로 남아 있다. 인간의 감정 은 크게 영상과 음성을 이용하여 인식이 가능하다. 감정 인식 기술은 영상을 기반으로 하는 방법과 음성을 이용하는 방법 그리고 두 가지를 모두 이용하는 방법으로 많은 연구가 진행 중에 있다. 이 중에 특히 인간의 감정을 가장 보편적으로 표현되는 방식이 얼굴 영상을 이용한 감정 인식 기법에 대한 연구가 활발히 진행 중이다. 그러나 지금까지 사용자의 환경과 이용자 적응에 따라 많은 차이와 오류를 접하게 된다. 본 논문에서는 감정인식률을 향상시키기 위해서는 이용자의 내면적 성향을 이해하고 분석하여 이에 따라 적절한 감정인식의 정확도에 도움을 주어서 감정인식률을 향상 시키는 메카니즘을 제안하였으며 본 연구는 이러한 이용자의 내면적 성향을 분석하여 감정 인식 시스템에 적용함으로 얼굴 표정에 따른 감정인식에 대한 오류를 줄이고 향상 시킬 수 있다. 특히 얼굴표정 미약한 이용자와 감정표현에 인색한 이용자에게 좀 더 향상된 감정인식률을 제공 할 수 있는 방법을 제안하였다.

캐릭터 성격에 따른 동일 감정 표현의 다양화를 위한 감정 조정 방안 (Emotion Adjustment Method for Diverse Expressions of Same Emotion Depending on Each Character's Characteristics)

  • 이창숙;엄기현;조경은
    • 한국게임학회 논문지
    • /
    • 제10권2호
    • /
    • pp.37-47
    • /
    • 2010
  • 감정은 언어 이외에 인간이 자신의 의사를 전달할 수 있는 효과적인 수단이다. 언어와 더불어 감정을 표현함으로서 상대방에게 자신의 의사를 보다 잘 전달할 수 있다. 또한 동일한 감정의 각기 다른 표현은 개인의 성향을 가늠하는 척도로 이용되기도 한다. 따라서 가상 캐릭터의 감정 표현이 일률적이지 않으려면 성격 특성에 따라 동일 감정의 생성 및 소멸 폭을 조정해 주어야 한다. 본 논문에서는 각 감정에 영향을 주는 성격 특성을 정의하고, 이를 통해 감정을 증감 및 조정하는 방안을 제시한다. 본 논문에서는 세분화된 성격 특성이 의미하는 바와 감정을 나타내는 명사의 사전적 의미를 매치시켜 특정 감정이 어떤 성격 특성과 관계가 있는지를 정의하였다. 또한 성격 검사에서 얻어진 원점수를 활용하여, 각 감정의 증감 및 지속, 소멸을 위한 가중치를 정의한 후, 이를 토대로 감정을 조정하였다. 실제 사람의 성격 검사 데이터를 활용하여 동일한 감정을 조정한 결과, 성격 별로 다른 결과치가 나오는 것을 확인할 수 있었다. 본 연구는 5개의 차원과 30개의 하위 특성으로 이루어진 NEO-PI(NEO Personality Inventory)성인판을 이용하여 연구를 진행하였다.

Korean Mothers' Intuitive Theories Regarding Emotion Socialization of their Children

  • Park, Seong-Yeon;Trommsdorff, Gisela;Lee, Eun-Gyoung
    • International Journal of Human Ecology
    • /
    • 제13권1호
    • /
    • pp.39-56
    • /
    • 2012
  • This study aims at exploring Korean mothers' beliefs on the development of emotion of their children. In specific, sensitivity and maternal reactions to their children's both negative and positive emotion expressions were explored. Further, associations among maternal sensitivity, maternal reactions and child emotion regulation were examined. A total of 100 Korean mothers whose children were between 6 and 7 years old participated in the study. In order to assess mothers' beliefs about sensitivity, vignettes in a forced-choice format were presented through individual interviews. Mothers' self reported reactions to their children's negative emotions and positive emotions and mothers' perceptions of children's emotion regulation were assessed using questionnaires. Results revealed that Korean mothers endorsed both proactive and reactive sensitivity. However, their sensitivity differed depending on the situation. Mothers tended to endorse either Emotion Focused or Problem Focused reactions to their children's negative emotions. Mothers reported that they were most likely to restrict their child positive emotional expression with explanation in supportive way followed by invalidating through reprimanding it. Mothers' reported Distress Reactions and Punitive Reactions to children's expression of negative emotion were associated with children's liability whereas Emotion-Focused Reaction and Problem-Focused Reaction were associated with children's functional emotion regulation. The results are discussed within a theoretical framework of socialization of emotions.

미디어리터러시와 자기표현 및 정서조절전략이 청소년의 자기조절학습능력에 미치는 영향 (Effects of Media Literacy and Self-Expression and Emotion Regulation Strategies on Self-Regulated Learning Abilities For Youth)

  • 육명신;박명신;박용한
    • 한국산학기술학회논문지
    • /
    • 제16권10호
    • /
    • pp.6940-6948
    • /
    • 2015
  • 본 연구는 미디어리터러시와 자기표현 및 정서조절전략이 청소년의 자기조절학습능력에 미치는 영향을 분석하기 위해 D지역의 청소년 453명을 대상으로 실시하였다. 연구결과, 미디어리터러시, 자기표현, 정서조절전략은 청소년의 자기조절학습능력에 유의한 영향을 미치는 것으로 나타났다. 이를 통해 청소년의 자기조절학습능력에 미디어리터러시는 중요한 역할을 하며, 자기표현 및 정서조절전략은 미디어리터러시와 청소년의 자기조절학습능력 사이에서 매개효과가 있음을 알 수 있었다. 이러한 연구결과는 미디어리터러시 시대에 학교생활 및 교육현장의 교육과정을 통해 청소년의 자기조절학습능력과 자기표현 및 정서조절전략 향상을 위한 많은 노력과 교육 프로그램이 필요함과 우리 미래의 희망인 청소년의 삶에 필요한 자기표현, 정서조절전략, 자기조절학습능력의 향상과 학교교육의 질적 수준을 높일 수 있는 이론적이고 실증적인 기초자료를 제공하는 데 많은 시사점을 준다.

Audio and Video Bimodal Emotion Recognition in Social Networks Based on Improved AlexNet Network and Attention Mechanism

  • Liu, Min;Tang, Jun
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.754-771
    • /
    • 2021
  • In the task of continuous dimension emotion recognition, the parts that highlight the emotional expression are not the same in each mode, and the influences of different modes on the emotional state is also different. Therefore, this paper studies the fusion of the two most important modes in emotional recognition (voice and visual expression), and proposes a two-mode dual-modal emotion recognition method combined with the attention mechanism of the improved AlexNet network. After a simple preprocessing of the audio signal and the video signal, respectively, the first step is to use the prior knowledge to realize the extraction of audio characteristics. Then, facial expression features are extracted by the improved AlexNet network. Finally, the multimodal attention mechanism is used to fuse facial expression features and audio features, and the improved loss function is used to optimize the modal missing problem, so as to improve the robustness of the model and the performance of emotion recognition. The experimental results show that the concordance coefficient of the proposed model in the two dimensions of arousal and valence (concordance correlation coefficient) were 0.729 and 0.718, respectively, which are superior to several comparative algorithms.