• Title/Summary/Keyword: 다중 감정인식

Search Result 49, Processing Time 0.031 seconds

Emotion Recognition of Speech Using the Wavelet Transform (웨이블렛 변환을 이용한 음성에서의 감정인식)

  • Go, Hyoun-Joo;Lee, Dae-Jong;Chun, Myung-Geun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04b
    • /
    • pp.817-820
    • /
    • 2002
  • 인간과 기계와의 인터페이스에 있어서 궁극적 목표는, 인간과 기계가 마치 사람과 사람이 대화하듯 자연스런 인터페이스가 이루어지도록 하는데 있다. 이에 본 논문에서는 사람의 음성속에 깃든 6개의 기본 감정을 인식하는 알고리듬을 제안하고자 한다. 이를 위하여 뛰어난 주파수 분해능력을 갖고 있는 웨이블렛 필터뱅크를 이용하여 음성을 여러 개의 서브밴드로 나누고 각 밴드에서 특징점을 추출하여 감정을 이식하고 이를 최종적으로 융합, 단일의 인식값을 내는 다중의사 결정 구조를 갖는 알고리듬을 제안하였다. 이를 적용하여 실제 음성 데이타에 적용한 결과 기존의 방법보다 높은 90%이상의 인식률을 얻을 수 있었다.

  • PDF

Design of Emotion and Situation Awareness System (감정 및 상황 인지 시스템의 설계)

  • Choi, Jong-Hwa;Choi, Soon-Yong;Shin, Dong-Il;Shin, Dong-Kyoo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.05a
    • /
    • pp.849-852
    • /
    • 2004
  • 이 논문에서 제시하는 감정 및 상황데이타 인지 시스템이란 감정 및 상황인식 데이터에 대한 능동적인 인지를 통하여 주변 제어 가전 및 AV가전에 대한 통제를 가능하게하는 실시간 시스템을 말한다. 감정 및 상황데이터 분석을 위하여 Context 정의 및 Context Awareness에 대한 Context 모델링 및 지능적 분석 알고리즘을 제시한다. 감정 및 상황인식을 통한 주변 가전제어에서는 분석된 감정 및 상황 데이터만을 가지고 지능적 시스템이 주변 가전을 제어하는 것이 아니라 여기에 첨가하여 사용자의 행동 패턴에 대한 분석이 필요하다. 지능적 분석 알고리즘에서는 사용자의 행동패턴에 대한 분석을 위하여 신경망의 일부 개념을 도입하였다. 인지 시스템의 검증을 위한 시뮬레이션으로 이 논문에서는 실내환경에서의 가전제어를 제시하고 이에 대한 프레임워크로 OSGi를 도입하였다. 마지막으로 감정 및 상황인지에 대한 분석데이터에 대한 서비스와 가전상태에 대한 인터페이스 제공 모델을 UIML을 이용하여 다중 디바이스 서비스를 제공하는 방법을 제시한다.

  • PDF

Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm (다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템)

  • Yeom, Hong-Gi;Joo, Jong-Tae;Sim, Kwee-Bo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.18 no.1
    • /
    • pp.20-26
    • /
    • 2008
  • As they have more and more intelligence robots or computers these days, so the interaction between intelligence robot(computer) - human is getting more and more important also the emotion recognition and expression are indispensable for interaction between intelligence robot(computer) - human. In this paper, firstly we extract emotional features at speech signal and facial image. Secondly we apply both BL(Bayesian Learning) and PCA(Principal Component Analysis), lastly we classify five emotions patterns(normal, happy, anger, surprise and sad) also, we experiment with decision fusion and feature fusion to enhance emotion recognition rate. The decision fusion method experiment on emotion recognition that result values of each recognition system apply Fuzzy membership function and the feature fusion method selects superior features through SFS(Sequential Forward Selection) method and superior features are applied to Neural Networks based on MLP(Multi Layer Perceptron) for classifying five emotions patterns. and recognized result apply to 2D facial shape for express emotion.

Quantified Lockscreen: Integration of Personalized Facial Expression Detection and Mobile Lockscreen application for Emotion Mining and Quantified Self (Quantified Lockscreen: 감정 마이닝과 자기정량화를 위한 개인화된 표정인식 및 모바일 잠금화면 통합 어플리케이션)

  • Kim, Sung Sil;Park, Junsoo;Woo, Woontack
    • Journal of KIISE
    • /
    • v.42 no.11
    • /
    • pp.1459-1466
    • /
    • 2015
  • Lockscreen is one of the most frequently encountered interfaces by smartphone users. Although users perform unlocking actions every day, there are no benefits in using lockscreens apart from security and authentication purposes. In this paper, we replace the traditional lockscreen with an application that analyzes facial expressions in order to collect facial expression data and provide real-time feedback to users. To evaluate this concept, we have implemented Quantified Lockscreen application, supporting the following contributions of this paper: 1) an unobtrusive interface for collecting facial expression data and evaluating emotional patterns, 2) an improvement in accuracy of facial expression detection through a personalized machine learning process, and 3) an enhancement of the validity of emotion data through bidirectional, multi-channel and multi-input methodology.

Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion (감정확률을 이용한 동적 얼굴표정의 퍼지 모델링)

  • Kang, Hyo-Seok;Baek, Jae-Ho;Kim, Eun-Tai;Park, Mignon
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.1
    • /
    • pp.1-5
    • /
    • 2009
  • This paper suggests to apply mirror-reflected method based 2D emotion recognition database to 3D application. Also, it makes facial expression of fuzzy modeling using probability of emotion. Suggested facial expression function applies fuzzy theory to 3 basic movement for facial expressions. This method applies 3D application to feature vector for emotion recognition from 2D application using mirror-reflected multi-image. Thus, we can have model based on fuzzy nonlinear facial expression of a 2D model for a real model. We use average values about probability of 6 basic expressions such as happy, sad, disgust, angry, surprise and fear. Furthermore, dynimic facial expressions are made via fuzzy modelling. This paper compares and analyzes feature vectors of real model with 3D human-like avatar.

Performance Enhancement of Phoneme and Emotion Recognition by Multi-task Training of Common Neural Network (공용 신경망의 다중 학습을 통한 음소와 감정 인식의 성능 향상)

  • Kim, Jaewon;Park, Hochong
    • Journal of Broadcast Engineering
    • /
    • v.25 no.5
    • /
    • pp.742-749
    • /
    • 2020
  • This paper proposes a method for recognizing both phoneme and emotion using a common neural network and a multi-task training method for the common neural network. The common neural network performs the same function for both recognition tasks, which corresponds to the structure of multi-information recognition of human using a single auditory system. The multi-task training conducts a feature modeling that is commonly applicable to multiple information and provides generalized training, which enables to improve the performance by reducing an overfitting occurred in the conventional individual training for each information. A method for increasing phoneme recognition performance is also proposed that applies weight to the phoneme in the multi-task training. When using the same feature vector and neural network, it is confirmed that the proposed common neural network with multi-task training provides higher performance than the individual one trained for each task.

A Study on the Mediating Effect of Emotional Labor and Filial Piety on the Relationship between the Working Environment and Service Quality of Elderly Care Workers (노인 돌봄 수행인력의 근무환경과 서비스 질 관계에서 감정노동과 효인식의 매개효과에 관한 연구)

  • Il-Hyun Yun
    • Journal of Industrial Convergence
    • /
    • v.20 no.12
    • /
    • pp.269-276
    • /
    • 2022
  • This study was conducted with the purpose of verifying the effect of the working environment of elderly care workers on service quality and the mediating effect of emotional labor and recognition of filial piety. The subjects of the study were 460 elderly care workers. For the collected data, SPSS Process macro was used. As a result, First, it was found that all variables had a significant positive (+) relationship. Second, the parallel mediating effect of emotional labor and recognition of filial piety was confirmed. Third, the mediating effect of recognition of filial piety and the moderating effect of emotional labor were verified. Based on this study, it was found that filial piety awareness education and emotional labor management are necessary. A follow-up study with a more expanded concept should be conducted.

Automated Emotional Tagging of Lifelog Data with Wearable Sensors (웨어러블 센서를 이용한 라이프로그 데이터 자동 감정 태깅)

  • Park, Kyung-Wha;Kim, Byoung-Hee;Kim, Eun-Sol;Jo, Hwi-Yeol;Zhang, Byoung-Tak
    • KIISE Transactions on Computing Practices
    • /
    • v.23 no.6
    • /
    • pp.386-391
    • /
    • 2017
  • In this paper, we propose a system that automatically assigns user's experience-based emotion tags from wearable sensor data collected in real life. Four types of emotional tags are defined considering the user's own emotions and the information which the user sees and listens to. Based on the collected wearable sensor data from multiple sensors, we have trained a machine learning-based tagging system that combines the known auxiliary tools from the existing affective computing research and assigns emotional tags. In order to show the usefulness of this multi-modality-based emotion tagging system, quantitative and qualitative comparison with the existing single-modality-based emotion recognition approach are performed.

Effects of Online Game Users' Need for Affect and Social Norms on their Attitude and Flow Experience (온라인 게임 이용자의 감정욕구와 사회규범 인식이 게임에 대한 태도 및 몰입에 미치는 영향)

  • Kang, Naewon
    • Journal of Korea Game Society
    • /
    • v.20 no.4
    • /
    • pp.21-32
    • /
    • 2020
  • The study took online game users' need for affect (approach/avoidance) and social norms (subjective/descriptive) into account and examined how these variables affected their attitude (utilitarian/hedonic) toward online games and their flow experience. Results from the hierarchical multiple regression analysis showed that, game users' approach affect and subjective norm had significant impacts on their utilitarian attitude, while their approach/avoidance affect and subjective norm had on their hedonic attitude toward onine games. Plus, the avoidance affect, subjective norm, and utilitarian/hedonic attitudes of game users had significant impacts on their flow experience.

An Emotion Based Adaptive Agent Model using a Fuzzy Decision Method (퍼지 결정 방법을 이용한 감정 기반의 적응형 에이전트 모델)

  • 이의성;윤소정;오경환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.18-20
    • /
    • 2000
  • 에이전트를 다른 소프트웨어와 구별 시켜주는 요인들은 여러 가지가 있지만 그 중에서도 가장 큰 특징은 에이전트의 자율성, 적응성, 그리고 지능을 들 수 있다. 이러한 것을 가능하게 만들기 위해서는 행동 선택을 유발하는 모티브의 생성이 자동적으로 이루어져야 한다. 이러한 행동 선택에 있어서 자동적인 모티브를 제공해 주는 것이 감정이다. 감정은 그것을 가지고 있는 자율 시스템이 그 동안 겪어온 외부 환경과 내부 상태에 대한 글로벌 상태를 함축하고 있다. 그러므로, 접근 가능한 정보와 자원이 제한되어 있는 자율 시스템이 다중의 목표, 환경에서의 모호성과 다른 에이전트와의 조정 등을 하는데 있어서 감정 모델은 유용한 해결책을 제시해 줄 수 있다. 본 논문에서는 에이전트가 환경과 적응하면서 변화하는 에이전트의 내부 상태의 변화와 외부 사건에 대한 에이전트의 인식과 평가를 계속 반영하여 에이전트가 시스템 환경을 경험하면서 가질 수 있는 에이전트만의 시스템에 대한 광범위한 시야를 갖도록 감정 모델을 구축하는 것을 목적으로 한다. 또한 이렇게 생성된 감정 델을 통해서 에이전트에 특정 사건이 발생하였을 때 에이전트가 감정 모델에 기초하여 적절히 행동에 반응할 수 있는 적응적 에이전트 모델을 제시한다.

  • PDF