• 제목/요약/키워드: Learning Emotion

검색결과 401건 처리시간 0.03초

시조 「공산에 우는 접동」의 감정 코딩 (Emotion Coding of Sijo Crying Cuckoo at the Empty Mountain)

  • 박인과
    • 문화기술의 융합
    • /
    • 제5권1호
    • /
    • pp.13-20
    • /
    • 2019
  • 이 연구는 시조의 감정 코드를 AI에 코딩시킬 수 있는 부호들을 연구하여 문학치료에 활용하고자 하는 것이다. 본 연구에서는 시조 "공산에 우는 접동"의 감정 코딩을 시행해보았다. 결과적으로 Emotion Codon은 슬픔의 카타르시스의 상태를 나타낼 수 있었다. 이렇게 시조의 감정 코드들을 Emotion Codon으로 착상시키는 것은 인체의 감정을 AI에 착상시키는 것과 같다고 할 수 있다. 기본적인 감정 코드들을 Emotion Codon에 착상시켜 AI의 자가 학습을 유도하면 인체에서 일어나는 다양한 감정들을 AI가 조합할 수 있다고 본다. 이때 AI는 인간의 감정을 대신할 수 있게 되어 인체의 감정 치료에 유용하게 활용될 수 있다. 본 연구를 지속하면 인체의 감정을 유도하여 마음과 정신을 치료할 수 있을 것으로 사료된다.

표정 피드백을 이용한 딥강화학습 기반 협력로봇 개발 (Deep Reinforcement Learning-Based Cooperative Robot Using Facial Feedback)

  • 전해인;강정훈;강보영
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.264-272
    • /
    • 2022
  • Human-robot cooperative tasks are increasingly required in our daily life with the development of robotics and artificial intelligence technology. Interactive reinforcement learning strategies suggest that robots learn task by receiving feedback from an experienced human trainer during a training process. However, most of the previous studies on Interactive reinforcement learning have required an extra feedback input device such as a mouse or keyboard in addition to robot itself, and the scenario where a robot can interactively learn a task with human have been also limited to virtual environment. To solve these limitations, this paper studies training strategies of robot that learn table balancing tasks interactively using deep reinforcement learning with human's facial expression feedback. In the proposed system, the robot learns a cooperative table balancing task using Deep Q-Network (DQN), which is a deep reinforcement learning technique, with human facial emotion expression feedback. As a result of the experiment, the proposed system achieved a high optimal policy convergence rate of up to 83.3% in training and successful assumption rate of up to 91.6% in testing, showing improved performance compared to the model without human facial expression feedback.

음향적 요소분석과 DRNN을 이용한 음성신호의 감성 인식 (Analyzing the Acoustic Elements and Emotion Recognition from Speech Signal Based on DRNN)

  • 심귀보;박창현;주영훈
    • 한국지능시스템학회논문지
    • /
    • 제13권1호
    • /
    • pp.45-50
    • /
    • 2003
  • 최근 인간형 로봇에 대한 개발이 괄목할 만한 성장을 이루고 있고, 친근한 로봇의 개발에 중요한 역할을 담당하는 것으로써 감성/감정의 인식이 필수적이라는 인식이 확산되고 있나. 본 논문은 음성의 감정인식에 있어 가장 큰 부분을 차지하는 피치의 패턴을 인식하여 감정을 분류/인식하는 시뮬레이터의 개발과 시뮬레이션 결과를 나타낸다. 또한, 피치뿐 아니라 음향학적으로 날카로움, 낮음 등의 요소를 분류의 기준으로 포함시켜서 좀더 신뢰성 있는 인식을 할 수 있음을 보인다. 주파수와 음성의 다양한 분석을 통하여, 음향적 요소와 감성의 상관관계에 대한 분석이 선행되어야 하므로, 본 논문은 사람들의 음성을 녹취하여 분석하였다 시뮬레이터의 내부 구조로는 음성으로부터 피치를 추출하는 부분과 피치의 패턴을 학습시키는 DRNN 부분으로 이루어져 있다.

Multimodal Attention-Based Fusion Model for Context-Aware Emotion Recognition

  • Vo, Minh-Cong;Lee, Guee-Sang
    • International Journal of Contents
    • /
    • 제18권3호
    • /
    • pp.11-20
    • /
    • 2022
  • Human Emotion Recognition is an exciting topic that has been attracting many researchers for a lengthy time. In recent years, there has been an increasing interest in exploiting contextual information on emotion recognition. Some previous explorations in psychology show that emotional perception is impacted by facial expressions, as well as contextual information from the scene, such as human activities, interactions, and body poses. Those explorations initialize a trend in computer vision in exploring the critical role of contexts, by considering them as modalities to infer predicted emotion along with facial expressions. However, the contextual information has not been fully exploited. The scene emotion created by the surrounding environment, can shape how people perceive emotion. Besides, additive fusion in multimodal training fashion is not practical, because the contributions of each modality are not equal to the final prediction. The purpose of this paper was to contribute to this growing area of research, by exploring the effectiveness of the emotional scene gist in the input image, to infer the emotional state of the primary target. The emotional scene gist includes emotion, emotional feelings, and actions or events that directly trigger emotional reactions in the input image. We also present an attention-based fusion network, to combine multimodal features based on their impacts on the target emotional state. We demonstrate the effectiveness of the method, through a significant improvement on the EMOTIC dataset.

Affording Emotional Regulation of Distant Collaborative Argumentation-Based Learning at University

  • POLO, Claire;SIMONIAN, Stephane;CHAKER, Rawad
    • Educational Technology International
    • /
    • 제23권1호
    • /
    • pp.1-39
    • /
    • 2022
  • We study emotion regulation in a distant CABLe (Collaborative Argumentation Based-Learning) setting at university. We analyze how students achieve the group task of synthesizing the literature on a topic through scientific argumentation on the institutional Moodle's forum. Distinguishing anticipatory from reactive emotional regulation shows how essential it is to establish and maintain a constructive working climate in order to make the best out of disagreement both on social and cognitive planes. We operationalize the analysis of anticipatory emotional regulation through an analytical grid applied to the data of two groups of students facing similar disagreement. Thanks to sharp anticipatory regulation, group 1 solved the conflict both on the social and the cognitive plane, while group 2 had to call out for external regulation by the teacher, stuck in a cyclically resurfacing dispute. While the institutional digital environment did afford anticipatory emotional regulation, reactive emotional regulation rather occurred through complementary informal and synchronous communication tools. Based on these qualitative case studies, we draw recommendations for fostering distant CABLe at university.

SOM 이용한 각성수준의 자동인식 (Automatic Recognition in the Level of Arousal using SOM)

  • 정찬순;함준석;고일주
    • 감성과학
    • /
    • 제14권2호
    • /
    • pp.197-206
    • /
    • 2011
  • 본 논문에서는 신경망 SOM학습을 이용하여 피험자의 각성수준을 높은각성과 낮은각성으로 자동인식하는 것을 제안한다. 각성수준의 자동인식 단계는 세 단계로 구성된다 첫 번째는 ECG 측정 및 분석단계로 슈팅게임을 플레이하는 피험자를 ECG로 측정하고, SOM 학습을 하기 위해 특징을 추출한다. 두 번째는 SOM 학습 단계로 특징이 추출된 입력벡터들을 학습한다. 마지막으로 각성인식 단계는 SOM 학습이 완료된 후에 새로운 입력벡터가 들어왔을 때, 피험자의 각성수준을 인식한다. 실험결과는 각성수준의 SOM 학습결과와 새로운 입력벡터가 들어왔을 때 각성수준의 인식결과, 그리고 각성수준을 수치와 그래프로 보여준다. 마지막으로 SOM의 평가는 기존연구의 감성평가 결과와 SOM의 자동인식 결과를 순차적으로 비교하여 평균 86%로 분석되었다. 본 연구를 통해서 SOM을 이용하여 피험자마다 다른 각성수준을 자동인식 할 수 있었다.

  • PDF

감성 인식 컴퓨팅 기술을 적용한 이러닝 상호작용 기술 연구 (Enhancing e-Learning Interactivity vla Emotion Recognition Computing Technology)

  • 박정현;김인옥;정상목;송기상;김종백
    • 컴퓨터교육학회논문지
    • /
    • 제11권2호
    • /
    • pp.89-98
    • /
    • 2008
  • 학습자와 이러닝 시스템 사이의 상호작용은 이러닝 시스템의 효율성을 결정짓는 중요한 요소이다. 기존의 웹기반 콘텐츠의 경우에도 다양한 상호작용 기능이 채용되고 있지만 학습자들은 인간-컴퓨터 상호작용 기술의 한계에 따른 실시간 인간 교사로부터 받는 것과 같은 피드백을 경험하는 것은 한계가 있다. 본 논문에서는 학습자의 얼굴 표정을 이용하여 감정을 인식하는 시스템을 개발하고 튜터링 시스템에 통합시켰다. 관찰되는 학습자의 감정 변화에 대하여 인간 교사가 하듯이 적합한 피드백 메시지를 제공하여 이러닝 환경에서 나타날 수 있는 학습자의 고립감을 제거할 수 있도록 하였다. 본 체제를 실제 수업에 도입한 결과 학업 성취도의 개선과 이러닝 학습의 흥미도 개선이 유의미하게 이루어질 수 있음을 보였다.

  • PDF

Speech Emotion Recognition Using 2D-CNN with Mel-Frequency Cepstrum Coefficients

  • Eom, Youngsik;Bang, Junseong
    • Journal of information and communication convergence engineering
    • /
    • 제19권3호
    • /
    • pp.148-154
    • /
    • 2021
  • With the advent of context-aware computing, many attempts were made to understand emotions. Among these various attempts, Speech Emotion Recognition (SER) is a method of recognizing the speaker's emotions through speech information. The SER is successful in selecting distinctive 'features' and 'classifying' them in an appropriate way. In this paper, the performances of SER using neural network models (e.g., fully connected network (FCN), convolutional neural network (CNN)) with Mel-Frequency Cepstral Coefficients (MFCC) are examined in terms of the accuracy and distribution of emotion recognition. For Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS) dataset, by tuning model parameters, a two-dimensional Convolutional Neural Network (2D-CNN) model with MFCC showed the best performance with an average accuracy of 88.54% for 5 emotions, anger, happiness, calm, fear, and sadness, of men and women. In addition, by examining the distribution of emotion recognition accuracies for neural network models, the 2D-CNN with MFCC can expect an overall accuracy of 75% or more.

다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템 (Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm)

  • 염홍기;주종태;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.20-26
    • /
    • 2008
  • 지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다.

Stress Level Based Emotion Classification Using Hybrid Deep Learning Algorithm

  • Sivasankaran Pichandi;Gomathy Balasubramanian;Venkatesh Chakrapani
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권11호
    • /
    • pp.3099-3120
    • /
    • 2023
  • The present fast-moving era brings a serious stress issue that affects elders and youngsters. Everyone has undergone stress factors at least once in their lifetime. Stress is more among youngsters as they are new to the working environment. whereas the stress factors for elders affect the individual and overall performance in an organization. Electroencephalogram (EEG) based stress level classification is one of the widely used methodologies for stress detection. However, the signal processing methods evolved so far have limitations as most of the stress classification models compute the stress level in a predefined environment to detect individual stress factors. Specifically, machine learning based stress classification models requires additional algorithm for feature extraction which increases the computation cost. Also due to the limited feature learning characteristics of machine learning algorithms, the classification performance reduces and inaccurate sometimes. It is evident from numerous research works that deep learning models outperforms machine learning techniques. Thus, to classify all the emotions based on stress level in this research work a hybrid deep learning algorithm is presented. Compared to conventional deep learning models, hybrid models outperforms in feature handing. Better feature extraction and selection can be made through deep learning models. Adding machine learning classifiers in deep learning architecture will enhance the classification performances. Thus, a hybrid convolutional neural network model was presented which extracts the features using CNN and classifies them through machine learning support vector machine. Simulation analysis of benchmark datasets demonstrates the proposed model performances. Finally, existing methods are comparatively analyzed to demonstrate the better performance of the proposed model as a result of the proposed hybrid combination.