• 제목/요약/키워드: Multi-emotion recognition

검색결과 51건 처리시간 0.031초

텍스트와 음성의 앙상블을 통한 다중 감정인식 모델 (Multi-Emotion Recognition Model with Text and Speech Ensemble)

  • 이명호;임명진;신주현
    • 스마트미디어저널
    • /
    • 제11권8호
    • /
    • pp.65-72
    • /
    • 2022
  • COVID-19로 인해 대면으로 이루어지던 상담 방식이 비대면으로 진행되면서 비대면 상담의 중요성이 높아지고 있다. 비대면 상담은 온라인으로 언제 어디서든 상담할 수 있고, COVID-19에 안전하다는 장점이 있다. 그러나 비언어적 표현의 소통이 어려워 내담자의 마음을 이해하기 어렵다. 이에 비대면 상담 시 내담자의 마음을 잘 알기 위해서는 텍스트와 음성을 정확하게 분석하여 감정을 인식하는 것이 중요하다. 따라서 본 논문에서는 텍스트 데이터는 자음을 분리한 후 FastText를 사용하여 벡터화하고, 음성 데이터는 Log Mel Spectrogram과 MFCC를 사용하여 각각 특징을 추출하여 벡터화한다. 벡터화된 데이터를 LSTM 모델을 활용하여 5가지 감정을 인식하는 다중 감정인식 모델을 제안한다. 다중 감정인식은 RMSE을 활용하여 계산한다. 실험 결과 텍스트와 음성 데이터를 각각 사용한 모델보다 제안한 모델의 RMSE가 0.2174로 가장 낮은 오차를 확인하였다.

딥러닝을 이용한 증강현실 얼굴감정스티커 기반의 다중채널네트워크 플랫폼 구현 (Implementation of Multi Channel Network Platform based Augmented Reality Facial Emotion Sticker using Deep Learning)

  • 김대진
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권7호
    • /
    • pp.1349-1355
    • /
    • 2018
  • 최근 인터넷을 통한 다양한 콘텐츠 서비스가 일반화 되고 있으며, 그 중에서 다중채널네트워크 플랫폼 서비스는 스마트 폰의 일반화와 함께 인기가 높아지고 있다. 다중채널네트워크 플랫폼은 스트리밍을 기본으로 하면서, 서비스 향상을 위하여 다양한 요소를 추가하고 있다. 그중 얼굴인식을 이용한 증강현실 스티커 서비스가 많이 이용되고 있다. 본 논문에서는 기존 서비스보다 흥미 요소를 더욱 증가 시킬 목적으로 얼굴 감정인식을 통하여 증강현실 스티커를 얼굴에 마스킹 하는 다중채널네트워크 플랫폼을 구현하였다. 얼굴감정인식을 위해 딥러닝 기술을 이용하여 7가지 얼굴의 감정을 분석하였고, 이를 기반으로 감정 스티커를 얼굴에 적용하여, 사용자들의 만족도를 더욱 높일 수 있었다. 제안하는 다중채널네트워크 플랫폼 구현을 위해서 클라이언트에 감정 스티커를 적용하였고, 서버에서 스트리밍 서비스 할 수 있는 여러 가지 서버들을 설계하였다.

다중 센서 융합 알고리즘을 이용한 운전자의 감정 및 주의력 인식 기술 개발 (Development of Driver's Emotion and Attention Recognition System using Multi-modal Sensor Fusion Algorithm)

  • 한철훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권6호
    • /
    • pp.754-761
    • /
    • 2008
  • 최근 자동차 산업 및 기술이 발전함에 따라 기계적인 부분에서 서비스적인 부분으로 관심이 점점 바뀌고 있는 추세이다. 이와 같은 추세에 발맞추어 운전자에게 보다 안정적이며 편리한 운전 환경을 조성하기 위한 방법으로 감정 및 인지 인식에 대한 관심이 점점 높아지고 있다. 감정 및 주의력을 인식하는 것은 감정공학 기술로서 이 기술은 1980년대 후반부터 얼굴, 음성, 제스처를 통해 인간의 감정을 분석하고 이를 통해 인간 진화적인 서비스를 제공하기 위한 기술로 연구되어 왔다. 이와 같은 기술을 자동차 기술에 접목시키고 운전자의 안정적인 주행을 돕고 운전자의 감정 및 인지 상황에 따른 다양한 서비스를 제공할 수 있다. 또한 Real-Time으로 운전자의 제스처를 인식하여 졸음운전이나 부주의에 의한 사고를 사전에 예방하고 보다 안전한 운전을 돕는 서비스가 필요시 되고 있다. 본 논문은 운전자가 안전 운전을 하기 위해 생체-행동 신호를 이용하여 감정 및 졸음, 주의력의 신호를 추출하여 일정한 형태의 데이터베이스로 구축하고, 구축된 데이터를 이용하여 운전자의 감정 및 졸음, 주의력의 특징 점들을 검출하여, 그 결과 값을 Multi-Modal 방법을 통해 응합함으로써 운전자의 감정 및 주의력 상태를 인식할 수 있는 시스템을 개발하는데 목표를 두고 있다.

웨이블렛 변환을 이용한 음성에서의 감정 추출 및 인식 기법 (Emotion Recognition Method from Speech Signal Using the Wavelet Transform)

  • 고현주;이대종;박장환;전명근
    • 한국지능시스템학회논문지
    • /
    • 제14권2호
    • /
    • pp.150-155
    • /
    • 2004
  • 본 논문에서는 사람의 음성속에 내포된 6가지 기본 감정(기쁨, 슬픔, 화남, 놀람, 공포, 혐오)의 특징을 추출하고 인식하고자 한다. 제안한 감정인식 알고리즘은 웨이블렛 필터뱅크를 이용하여 각각의 감정별 코드북을 만들고, 인식단계에서 필터뱅크별 감정을 확인한 후 최종적으로 다중의사결정기법에 의해 감정을 인식하는 구조로 이루어져 있다. 이와 같은 웨이블렛 필터뱅크와 다중의사 결정기법에 기반을 둔 알고리즘의 유용성을 보이기 위해 실험에 사용된 음성은 20명의 화자로부터 6가지의 감정을 대상으로 각각 3번씩 발음한 감정음성을 녹음하여 총 360개의 데이터베이스로 구성하고 실험하였다. 이와 같이 제안한 알고리즘은 기존의 연구에 비해 5% 이상 향상된 인식률을 보였다.

모바일 어플리케이션의 감정 적응형 사용자 인터페이스 저작 프레임워크 (An Authoring Framework for Emotion-Aware User Interface of Mobile Applications)

  • 이은정;김규완;김우빈
    • 한국멀티미디어학회논문지
    • /
    • 제18권3호
    • /
    • pp.376-386
    • /
    • 2015
  • Since affective computing has been introduced in 90s, affect recognition technology has achieved substantial progress recently. However, the application of user emotion recognition into software user interface is in its early stages. In this paper, we describe a new approach for developing mobile user interface which could react differently depending on user emotion states. First, an emotion reaction model is presented which determines user interface reactions for each emotional state. We introduce a pair of mappings from user states to different user interface versions. The reacting versions are implemented by a set of variations for a view. Further, we present an authoring framework to help developers/designers to create emotion-aware reactions based on the proposed emotion reaction model. The authoring framework is necessary to alleviate the burden of creating and handling multi versions for views at the development process. A prototype implementation is presented as an extension of the existing authoring tool DAT4UX. Moreover, a proof-of-concept application featuring an emotion-aware interface is developed using the tool.

음성 데이터의 내재된 감정인식을 위한 다중 감정 회귀 모델 (Multi-Emotion Regression Model for Recognizing Inherent Emotions in Speech Data)

  • 이명호;임명진;신주현
    • 스마트미디어저널
    • /
    • 제12권9호
    • /
    • pp.81-88
    • /
    • 2023
  • 최근 코로나19로 인한 비대면 서비스의 확산으로 온라인을 통한 소통이 증가하고 있다. 비대면 상황에서는 텍스트나 음성, 이미지 등의 모달리티를 통해 상대방의 의견이나 감정을 인식하고 있다. 현재 다양한 모달리티를 결합한 멀티모달 감정인식에 관한 연구가 활발하게 진행되고 있다. 그중 음성 데이터를 활용한 감정인식은 음향 및 언어정보를 통해 감정을 이해하는 수단으로 주목하고 있으나 대부분 단일한 음성 특징값으로 감정을 인식하고 있다. 하지만 대화문에는 다양한 감정이 복합적으로 존재하기 때문에 다중 감정을 인식하는 방법이 필요하다. 따라서 본 논문에서는 복합적으로 존재하는 내재된 감정인식을 위해 음성 데이터를 전처리한 후 특징 벡터를 추출하고 시간의 흐름을 고려한 다중 감정 회귀 모델을 제안한다.

감정노동, 감성지능이 종업원의 감정고갈에 미치는 영향에 관한 연구 (Emotion Labor and Emotional Exhaustion : The Role of Emotional Intelligence)

  • 홍용기
    • 경영과정보연구
    • /
    • 제25권
    • /
    • pp.243-273
    • /
    • 2008
  • A new research paradigm is emerging within organizational behavior, in both theory and empiricism, based on the increasing recognition of the importance of emotions to organizational life. This paper suggest that emotion intelligence play a moderate variables in relationship of emotion labor and emotional exhaustion. More specifically, it is proposed that emotional intelligence, the ability to understand and manage emotions in the employee self and others, contribute to effective emotions management in organizations. Four major aspects of emotion labor, appraisal and expression of emotion in oneself, appraisal and recognition of emotion in others, regulation of emotion in oneself and use of emotion to facilitate performance, are described. Also, the emotional intelligence are consists of four aspects, frequency of appropriate emotional display, attentiveness to required displayed rules, variety of emotions to be displayed and emotional dissonance. Then I propose how emotional intelligence contributes to of relations the emotion labor and emotional exhaustion. The purpose of this research is to investigate the impact of emotion labor to employee's emotional exhaustion to explore the moderating effects of the emotional intelligence between the emotion labor and emotional exhaustion. To complete the research the data were collected through a questionnaire from 147 employees from service company. After multi-hierarchical regression analysis, the outcomes of this study are the employee's emotional exhaustion are affected negatively by the three factors: major aspects of emotion labor, regulation of emotion in oneself, use of emotion to facilitate performance, make the moderation effect between emotion labor and emotional intelligence. These results indicate that instilling in others an appreciation of the importance of work activities: encouraging of true expression individual emotions, generating and maintaining well emotional climate and cooperation situations, and managing a meaningful environment for an organizational life.

  • PDF

Active Shape Model과 통계적 패턴인식기를 이용한 얼굴 영상 기반 감정인식 (Video-based Facial Emotion Recognition using Active Shape Models and Statistical Pattern Recognizers)

  • 장길진;조아라;박정식;서용호
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권3호
    • /
    • pp.139-146
    • /
    • 2014
  • 본 논문에서는 얼굴 영상으로부터 자동으로 사람의 감정을 인식하는 효과적인 방법을 제안한다. 얼굴 표정으로부터 감정을 파악하기 위해서는 카메라로부터 얼굴영상을 입력받고, ASM (active shape model)을 이용하여 얼굴의 영역 및 얼굴의 주요 특징점을 추출한다. 추출한 특징점으로부터 각 장면별로 49차의 크기 및 변이에 강인한 특징벡터를 추출한 후, 통계기반 패턴분류 방법을 사용하여 얼굴표정을 인식하였다. 사용된 패턴분류기는 Naive Bayes, 다중계층 신경회로망(MLP; multi-layer perceptron), 그리고 SVM (support vector machine)이며, 이중 SVM을 이용하였을 때 가장 높은 최종 성능을 얻을 수 있었으며, 6개의 감정분류에서 50.8%, 3개의 감정분류에서 78.0%의 인식결과를 보였다.

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

음성 신호와 얼굴 영상을 이용한 특징 및 결정 융합 기반 감정 인식 방법 (Emotion Recognition Method based on Feature and Decision Fusion using Speech Signal and Facial Image)

  • 주종태;양현창;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.11-14
    • /
    • 2007
  • 인간과 컴퓨터간의 상호교류 하는데 있어서 감정 인식은 필수라 하겠다. 그래서 본 논문에서는 음성 신호 및 얼굴 영상을 BL(Bayesian Learning)과 PCA(Principal Component Analysis)에 적용하여 5가지 감정 (Normal, Happy, Sad, Anger, Surprise) 으로 패턴 분류하였다. 그리고 각각 신호의 단점을 보완하고 인식률을 높이기 위해 결정 융합 방법과 특징 융합 방법을 이용하여 감정융합을 실행하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 융합하였으며, 특정 융합 방법은 SFS(Sequential Forward Selection)특정 선택 방법을 통해 우수한 특정들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 융합을 실행하였다.

  • PDF