• 제목/요약/키워드: Emotion processing

검색결과 311건 처리시간 0.036초

자연어 처리 딥러닝 모델 감정분석을 통한 감성 콘텐츠 개발 연구 (A Study on the Development of Emotional Content through Natural Language Processing Deep Learning Model Emotion Analysis)

  • 이현수;김민하;서지원;김정이
    • 문화기술의 융합
    • /
    • 제9권4호
    • /
    • pp.687-692
    • /
    • 2023
  • 본 연구는 자연어 처리 딥러닝 모델의 감정분석 정확성을 확인해보고 이를 감성 콘텐츠 개발에 활용하도록 제안한다. GPT-3모델의 개요를 살펴본 후 Aihub에서 제공하는 희곡 대사 데이터 약 6000개를 입력하고 '기쁨', '슬픔', '공포', '분노', '혐오', '놀람', '흥미', '지루함', '통증' 총 9가지 감정 범주로 분류하였다. 이후 자연어 처리 모델 평가 방법인 정확도, 정밀도, 재현율, F1-score 의 평가지표를 활용하여 성능평가를 진행하였다. 감정분석 결과 91% 이상의 정확도를 보였으며 정밀도의 경우 '공포','통증'이 낮은 수치를 보였다. 재현도의 경우 '슬픔', '분노', '혐오'와 같은 부정적인 감정에서 낮은 수치가 나타났고 특히 '혐오'의 경우 데이터 양의 부족으로 인해 오차가 나타난 것으로 확인된다. 기존 연구의 경우 감정분석을 긍정, 부정, 중립으로 나누는 극성분석에만 주로 사용되어 그 특성상 피드백 단계에서만 사용되는 한계가 있었다. 본 연구는 감정분석을 9가지 범주로 확장하여 기획 단계에서부터 이를 고려한 개발을 통해 게임, 전시, 공연, 관광, 디자인, 에듀테크, 미디어 등에서 감성 콘텐츠 개발에 활용될 수 있음을 제안한다. 후속 연구를 통하여 더욱 다양한 일상 대화들을 추가로 수집하여 감정분석을 진행한다면 더욱 정확한 결과를 얻을 수 있을 것으로 기대된다.

감정 온톨로지의 구축을 위한 구성요소 분석 (Component Analysis for Constructing an Emotion Ontology)

  • 윤애선;권혁철
    • 인지과학
    • /
    • 제21권1호
    • /
    • pp.157-175
    • /
    • 2010
  • 의사소통에서 대화자 간 감정의 이해는 메시지의 내용만큼이나 중요하다. 비언어적 요소에 의해 감정에 관한 더 많은 정보가 전달되고 있기는 하지만, 텍스트에도 화자의 감정을 나타내는 언어적 표지가 다양하고 풍부하게 녹아들어 있다. 본 연구의 목적은 인간언어공학에 활용할 수 있는 감정 온톨로지를 구축할 수 있도록 그 구성요소를 분석하는 데 있다. 텍스트 기반 감정 처리 분야의 선행 연구가 감정을 분류하고, 각 감정의 서술적 어휘 목록을 작성하고, 이를 텍스트에서 검색함으로써, 추출된 감정의 정확도가 높지 않았다. 이에 비해, 본 연구에서 제안하는 감정 온톨로지는 다음과 같은 장점이 있다. 첫째, 감정 표현의 범주를 기술 대상과 방식에 따라 6개 범주로 분류하고, 이들 간 상호 대응관계를 설정함으로써, 멀티모달 환경에 적용할 수 있다. 둘째, 세분화된 감정을 분류할 수 있되, 감정 간 차별성을 가질 수 있도록 24개의 감정 명세를 선별하고, 더 섬세하게 감정을 분류할 수 있는 속성으로 강도와 극성을 설정하였다. 셋째, 텍스트에 나타난 감정 표현을 명시적으로 구분할 수 있도록, 경험자 기술 대상과 방식 언어적 자질에 관한 속성을 도입하였다. 넷째, 본 연구의 감정분류는 Plutchik의 분류와 호환성을 갖고 있으며, 언어적 요소의 기술에서 국제표준의 태그세트를 수용함으로써, 다국어 처리에 활용을 극대화할 수 있도록 고려했다.

  • PDF

Audio and Video Bimodal Emotion Recognition in Social Networks Based on Improved AlexNet Network and Attention Mechanism

  • Liu, Min;Tang, Jun
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.754-771
    • /
    • 2021
  • In the task of continuous dimension emotion recognition, the parts that highlight the emotional expression are not the same in each mode, and the influences of different modes on the emotional state is also different. Therefore, this paper studies the fusion of the two most important modes in emotional recognition (voice and visual expression), and proposes a two-mode dual-modal emotion recognition method combined with the attention mechanism of the improved AlexNet network. After a simple preprocessing of the audio signal and the video signal, respectively, the first step is to use the prior knowledge to realize the extraction of audio characteristics. Then, facial expression features are extracted by the improved AlexNet network. Finally, the multimodal attention mechanism is used to fuse facial expression features and audio features, and the improved loss function is used to optimize the modal missing problem, so as to improve the robustness of the model and the performance of emotion recognition. The experimental results show that the concordance coefficient of the proposed model in the two dimensions of arousal and valence (concordance correlation coefficient) were 0.729 and 0.718, respectively, which are superior to several comparative algorithms.

사용자 취향, 감성 및 상황인지 기반 음원 추천 서비스 구현 (A Design of real sound recommendation service based-on User's preference, emotion and circumstance)

  • 정종진;임태범;이석필
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 춘계학술발표대회
    • /
    • pp.689-691
    • /
    • 2011
  • Due to the rapid development of Information and communication, the technology of multimedia presentation technology is evolving into the service that user can actively, realistically enjoy and play based on user's preference and taste not only for User's passive service. Especially, the industry related the realistic multimedia service that supports targeting Human emotion with the property of Human hearing is expected to be formed of the high value-added premium market. Audio technology is affected on human's emotion and the viewing environment around than video technology. Also the audio technology compared to video technology is a research part that appeals to human emotion and emphasize on psychological aspects. With this viewpoint, the development of intelligent and realistic audio technology needs highly specialty. In this study, "intelligent real-sound presentation technology" that support high quality and realistic audio and the "core technologies" that are composing of this will be introduced.

제어 기반 감성 모델 (Emotion-Based Control Model)

  • Ko, Sung-Bum;Lim, Gi-Young
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2001년도 춘계학술대회 학술발표 논문집
    • /
    • pp.199-202
    • /
    • 2001
  • We, Human beings, use both powers of reason and emotion simultaneously, which surely help us to obtain flexible adaptability against the dynamic environment. We assert that this principle can be applied into the general system. That is, it would be possible to improve the adaptability by covering a digital oriented information processing system with an analog oriented emotion layer. In this paper, we proposed a vertical slicing model with an emotion layer in it. And we showed that the emotion-based control allows us to improve the adaptability of a system at least under some conditions.

  • PDF

제어 기반 감성 (Emotion - Based Control)

  • Ko, Sung-Bum;Lim, Gi-Young
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(5)
    • /
    • pp.227-230
    • /
    • 2001
  • We, Human beings, use both powers of reason and emotion simultaneously, which surely help us to obtain flexible adaptability against the dynamic environment. We assert that this principle can be applied into the general system. That is, it would be possible to improve the adaptability by covering a digital oriented information processing system with an analog oriented emotion layer. In this paper. we proposed a vertical slicing model with an emotion layer in it. And we showed that the emotion-based control allows us to improve the adaptability of a system at least under some conditions.

  • PDF

정서의 자동처리기제 (The Automatic Processing of Emotion)

  • 이수정;권준모;이훈구
    • 인지과학
    • /
    • 제9권1호
    • /
    • pp.13-29
    • /
    • 1998
  • 이 문헌 연구는 정보처리 기제 중 자동적인 처리과정의 원리로 다양한 정서 자극에 대한 반응양식이 과연 설명될 수 있을지를 타진해 보고자 한다. 인지적인 판단이 필요한 통제과정이 전혀 개입되지 않고서도 정서 유발 자극이 Bargh(1989)가 제시한 자동처리의 원리에 따라 암묵적으로 처리될 수 있을 것인가$\ulcorner$ 몇몇 연구들은 정서 유발 자극에 대한 자동적인 처리과정은 의미론적인 처리과정보다 훨씬 우선적이며 즉각적으로 처리된다고 주장한다. 자각이 없는 상태에서도 정서 가를 파악하는 현상은 우리의 정보처리과정 중 의식적이며 인지적인 개입이 필요한 명시적인 지식 체계에 의해서가 아니라 스스로의 자각이 없이도 처리가 이루어지는 암묵적인 지식의 체계에 의해 담당될 것이라 이해할 수 있을 것이다. 이 연구에서는 이러한 암묵적인 기억과정의 원리와 그에 대한 생리학적인 근거도 제시함으로써 정서가 가미된 정보의 처리과정이 어떠한 경로를 통하여 이루어질 지에 대해 요약하여 보았다.

  • PDF

음성을 통한 감정 해석: 감정 인식을 위한 딥 뉴럴 네트워크 예비 연구 (Unraveling Emotions in Speech: Deep Neural Networks for Emotion Recognition)

  • 에드워드 카야디;송미화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.411-412
    • /
    • 2023
  • Speech emotion recognition(SER) is one of the interesting topics in the machine learning field. By developing SER, we can get numerous benefits. By using a convolutional neural network and Long Short Term Memory (LSTM ) method as a part of Artificial intelligence, the SER system can be built.

애착 유형에 따른 아동의 정서인식, 정서표현 및 상호작용 (Children's Emotion Recognition, Emotion Expression, and Social Interactions According to Attachment Styles)

  • 최은실
    • 아동학회지
    • /
    • 제33권2호
    • /
    • pp.55-68
    • /
    • 2012
  • The goals of this study were to examine how children's recognition of various emotions, emotion expression, and social interactions among their peers differed according to their attachment styles. A total of 65 three to five years old children completed both attachment story-stem doll plays and a standard emotion recognition task. Trained observers documented children's valence of emotion expression and social interactions among their peers in the classroom. Consistent with attachment theory, children who were categorized as secure in the doll play were more likely to express positive emotions than children who were categorized as avoidant in the doll play. Children who were categorized as avoidant in the doll play were more likely to express neutral emotions among their peers than children who were categorized as secure and anxious in the doll play. The findings of this study contribute to the general attachment literature by documenting how attachment security plays a crucial role in having positive emotions in ordinary situations. It does so by also demonstrating how different attachment styles are associated with children's qualitatively different patterns of emotion processing, especially in terms of their expression of emotions.

딥네트워크 기반 음성 감정인식 기술 동향 (Speech Emotion Recognition Based on Deep Networks: A Review)

  • 무스타킴;권순일
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.331-334
    • /
    • 2021
  • In the latest eras, there has been a significant amount of development and research is done on the usage of Deep Learning (DL) for speech emotion recognition (SER) based on Convolutional Neural Network (CNN). These techniques are usually focused on utilizing CNN for an application associated with emotion recognition. Moreover, numerous mechanisms are deliberated that is based on deep learning, meanwhile, it's important in the SER-based human-computer interaction (HCI) applications. Associating with other methods, the methods created by DL are presenting quite motivating results in many fields including automatic speech recognition. Hence, it appeals to a lot of studies and investigations. In this article, a review with evaluations is illustrated on the improvements that happened in the SER domain though likewise arguing the existing studies that are existence SER based on DL and CNN methods.