• Title/Summary/Keyword: 감정식별

Search Result 71, Processing Time 0.025 seconds

Identification and Detection of Emotion Using Probabilistic Output SVM (확률출력 SVM을 이용한 감정식별 및 감정검출)

  • Cho, Hoon-Young;Jung, Gue-Jun
    • The Journal of the Acoustical Society of Korea
    • /
    • v.25 no.8
    • /
    • pp.375-382
    • /
    • 2006
  • This paper is about how to identify emotional information and how to detect a specific emotion from speech signals. For emotion identification and detection task. we use long-term acoustic feature parameters and select the optimal Parameters using the feature selection technique based on F-score. We transform the conventional SVM into probabilistic output SVM for our emotion identification and detection system. In this paper we propose three approximation methods for log-likelihoods in a hypothesis test and compare the performance of those three methods. Experimental results using the SUSAS database showed the effectiveness of both feature selection and Probabilistic output SVM in the emotion identification task. The proposed methods could detect anger emotion with 91.3% correctness.

The Design of Context-Aware Middleware Architecture for Emotional Awareness Using Categorization of Feeling Words (감정표현단어 범주화 기반의 감정인식을 위한 상황인식 미들웨어 구조의 설계)

  • Kim, Jin-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.998-1000
    • /
    • 2014
  • 상황인식 컴퓨팅 환경에서 가장 핵심적인 부분은 서비스를 제공받는 객체의 상황(Context)을 인식하고 정보화하여 그 상황에 따라서 객체 중심의 지능화된 최적의 서비스를 제공해 주는 것이다. 이러한 지능화된 최적의 서비스를 제공하기 위해서는 최적의 상황을 인식하는 상황인식 컴퓨팅 기술 연구와 그 상황을 설계하는 모델링 기술이 중요하다. 또한, 인간과 컴퓨터간의 의사소통을 원활히 할 수 있는 최적의 상황을 인식해야 한다. 현재까지 연구된 대부분의 상황인식 컴퓨팅 기술은 상황정보로 객체의 위치정보와 객체의 식별정보만을 주로 사용하고 있다. 그러므로 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에만 주된 초점을 두고 있다. 그러나 본 논문에서는 객체의 감정표현단어를 상황정보로 사용하여 감정인식을 위한 상황인식 미들웨어로서 ECAM의 구조를 제안한다. ECAM은 감정표현단어의 범주화 기술을 기반으로 온톨로지를 구축하여 객체의 감정을 인식한다. 객체의 감정표현단어 정보를 상황정보로 사용하고, 인간의 감정에 영향을 미칠 수 있는 환경정보(온도, 습도, 날씨)를 추가하여 인식한다. 객체의 감정을 표현하기 위해서 OWL 언어를 사용하여 온톨로지를 구축하였으며, 감정추론 엔진은 Jena를 사용하였다.

A Study on the Development of Super-Impose ID System (Super-Impose 개인식별 영상시스템 개발 및 감정연구)

  • 송현교;이진행;이양원;강민구
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 1998.05a
    • /
    • pp.216-221
    • /
    • 1998
  • 슈퍼임포즈는 개인식별 방법으로 신원 미상의 두개골의 발견 시, 두개골의 사진과 용의자 생전 사진의 동일 비율로 확대, 축소 후 두 영상을 중첩하므로서 동일인 여부를 비교, 판별하는 기법이다. 삼풍백화점 붕괴사고와 Guam KAL기 추락사고와 같이 대형사건에서의 개인식별에 매우 중요한 문제이다. 본 연구는 비디오 카메라로 입력한 두개골 영상과 스캐너로 입력한 생전 사진의 중첩을 위한 H/W 시스템의 구축과 영상처리 기법을 응용한 응용 프로그램을 개발하였다 슈퍼임포즈의 영상처리 기법으로는 두개골 및 생전 사진의 윤곽선 추출, 중첩점 조정, 상,하,좌,우 각도조정, 윤곽선보정, Hue 조정, 히스토그램 조정 등 다양한 영상처리 기법을 응용하였다. 또한, 이들 영상처리기법은 법의학 체제에 입각한 슈퍼임포즈 영상합성이 개인식별 감정시 필요한 최적의 영상 비교가 가능하도록 DB 시스템 구축과 분석시스템을 개발하였다. 그리고, 실제 감정시 본 영상시스템으로 감정해 본 결과로 보다 정확하고 실시간으로 감정이 가능하다. 본 슈퍼 임포즈 영상시스템은 슈퍼 임포즈 영상자료의 처리와 축적 기술의 발전으로, 두개골 영상과 생전 사진을 이용한 생전의 3차원 실 영상의 복원연구가 가능하리라 사료된다.

  • PDF

Exploration of deep learning facial motions recognition technology in college students' mental health (딥러닝의 얼굴 정서 식별 기술 활용-대학생의 심리 건강을 중심으로)

  • Li, Bo;Cho, Kyung-Duk
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.26 no.3
    • /
    • pp.333-340
    • /
    • 2022
  • The COVID-19 has made everyone anxious and people need to keep their distance. It is necessary to conduct collective assessment and screening of college students' mental health in the opening season of every year. This study uses and trains a multi-layer perceptron neural network model for deep learning to identify facial emotions. After the training, real pictures and videos were input for face detection. After detecting the positions of faces in the samples, emotions were classified, and the predicted emotional results of the samples were sent back and displayed on the pictures. The results show that the accuracy is 93.2% in the test set and 95.57% in practice. The recognition rate of Anger is 95%, Disgust is 97%, Happiness is 96%, Fear is 96%, Sadness is 97%, Surprise is 95%, Neutral is 93%, such efficient emotion recognition can provide objective data support for capturing negative. Deep learning emotion recognition system can cooperate with traditional psychological activities to provide more dimensions of psychological indicators for health.

Emotion Recognition Using Template Vector and Neural-Network (형판 벡터와 신경망을 이용한 감성인식)

  • 오재흥;이상윤;주영훈
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.325-328
    • /
    • 2002
  • 본 논문에서는 사람의 식별과 감정을 인식하기 위한 하나의 방법을 제안한다. 제안된 방법은 색차 정보에 의한 형판의 위치 인식과 형판 벡터 추출에 기반한다. 단일 색차 공간만을 이용할 경우 살색 영역을 정확히 추출하기 힘들다. 이를 보완하기 위해서 여러 가지 색차 공간을 병행하여 살색 영역을 추출하며, 이를 응용하여 각각의 형판을 추출하는 방법을 제안한다. 그리고, 사람의 식별과 감정 인식을 위해서 추출된 형판에 대한 각각의 특징 벡터 추출 방법을 제시하며, 마지막으로 추출된 형판 벡터를 이용하여 신경망을 통한 학습과 인식을 수행하는 방법을 제시한다.

Enhancing Multimodal Emotion Recognition in Speech and Text with Integrated CNN, LSTM, and BERT Models (통합 CNN, LSTM, 및 BERT 모델 기반의 음성 및 텍스트 다중 모달 감정 인식 연구)

  • Edward Dwijayanto Cahyadi;Hans Nathaniel Hadi Soesilo;Mi-Hwa Song
    • The Journal of the Convergence on Culture Technology
    • /
    • v.10 no.1
    • /
    • pp.617-623
    • /
    • 2024
  • Identifying emotions through speech poses a significant challenge due to the complex relationship between language and emotions. Our paper aims to take on this challenge by employing feature engineering to identify emotions in speech through a multimodal classification task involving both speech and text data. We evaluated two classifiers-Convolutional Neural Networks (CNN) and Long Short-Term Memory (LSTM)-both integrated with a BERT-based pre-trained model. Our assessment covers various performance metrics (accuracy, F-score, precision, and recall) across different experimental setups). The findings highlight the impressive proficiency of two models in accurately discerning emotions from both text and speech data.

Face and Emotion Recognition Using Eigenface (Eigenface를 이용한 인간의 얼굴인식과 감정인식)

  • 이상윤;오재흥;장근호;주영훈
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.321-324
    • /
    • 2002
  • 본 논문에서는 다양한 환경하에서 인간의 식별과 감정을 인식할 수 있는 감정 인식 알고리즘을 제안한다. 제안된 알고리즘을 구현하기 위해, 먼저, CCD 칼라 카메라에 의해 획득한 원 영상으로부터 피부색을 이용해 얼굴영상을 얻는 과정을 거친다. 그 다음, 주요 요소분석을 기본으로 하는 얼굴인식기술인 Eigenface를 사용하여 이미지들을 고차원의 픽셀공간으로부터 저차원공간으로의 변환하는 파정을 거친다. 제안된 개인에 대한 식별과 감성인식은 사용한 특징벡터들의 추출로 인한 Eigenface의 가중치와 상관관계를 통해 이루어진다 즉, 영상의 가중치로부터 개인에 대한 식별과 감성정보를 찾는 방법을 제안한다. 마지막으로, 실험을 통해 제안된 방법의 응용가능성을 보인다.

Emotional Recognition System Using Eigenfaces (Eigenface를 이용한 인간의 감정인식 시스템)

  • Joo, Young-Hoon;Lee, Sang-Yun;Sim, Kwee-Bo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.13 no.2
    • /
    • pp.216-221
    • /
    • 2003
  • Emotions recognition is a topic on which little research has been done to date. This paper proposes a new method that can recognize the human s emotion from facial image by using eigenspace. To do so, first, we get the face image by using the skin color from the original color image acquired by CCD color camera. Second, we get the vector image which is projected the obtained face image into eigenspace. And then, we propose the method for finding out each person s identification and emotion from the weight of vector image. Finally, we show the practical application possibility of the proposed method through the experiment.

Face Emotion Recognition using ResNet with Identity-CBAM (Identity-CBAM ResNet 기반 얼굴 감정 식별 모듈)

  • Oh, Gyutea;Kim, Inki;Kim, Beomjun;Gwak, Jeonghwan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.559-561
    • /
    • 2022
  • 인공지능 시대에 들어서면서 개인 맞춤형 환경을 제공하기 위하여 사람의 감정을 인식하고 교감하는 기술이 많이 발전되고 있다. 사람의 감정을 인식하는 방법으로는 얼굴, 음성, 신체 동작, 생체 신호 등이 있지만 이 중 가장 직관적이면서도 쉽게 접할 수 있는 것은 표정이다. 따라서, 본 논문에서는 정확도 높은 얼굴 감정 식별을 위해서 Convolution Block Attention Module(CBAM)의 각 Gate와 Residual Block, Skip Connection을 이용한 Identity- CBAM Module을 제안한다. CBAM의 각 Gate와 Residual Block을 이용하여 각각의 표정에 대한 핵심 특징 정보들을 강조하여 Context 한 모델로 변화시켜주는 효과를 가지게 하였으며 Skip-Connection을 이용하여 기울기 소실 및 폭발에 강인하게 해주는 모듈을 제안한다. AI-HUB의 한국인 감정 인식을 위한 복합 영상 데이터 세트를 이용하여 총 6개의 클래스로 구분하였으며, F1-Score, Accuracy 기준으로 Identity-CBAM 모듈을 적용하였을 때 Vanilla ResNet50, ResNet101 대비 F1-Score 0.4~2.7%, Accuracy 0.18~2.03%의 성능 향상을 달성하였다. 또한, Guided Backpropagation과 Guided GradCam을 통해 시각화하였을 때 중요 특징점들을 더 세밀하게 표현하는 것을 확인하였다. 결과적으로 이미지 내 표정 분류 Task에서 Vanilla ResNet50, ResNet101을 사용하는 것보다 Identity-CBAM Module을 함께 사용하는 것이 더 적합함을 입증하였다.

Emotion Recognition System based Deep Learning (딥 러닝 기반 감정인식 시스템 개발)

  • Lee, Min Kyu;Kim, Dae Ha;Choi, Dong Yoon;Song, Byung Cheol
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.11a
    • /
    • pp.16-18
    • /
    • 2017
  • 최근 딥 러닝의 발전으로 얼굴인식뿐만 아니라 더 세부적인 기술인 ID식별, 감정인식 등을 분류할 수 있는 알고리즘이 많이 제안되었다. 하지만 딥 러닝은 방대한 연산량을 처리해야 하기 때문에 실시간으로 영상을 구현하는 것은 한계가 있다. 본 논문은 위와 같은 문제를 개선하기 위하여 얼굴인식은 연산량이 비교적 적은 HOG알고리즘을 적용하여 전처리를 진행한다. 그 이후 ID식별 네트워크인 FaceNet과 EmotiW 2017 Challenge의 논문의 감정인식 네트워크를 Multi-Thread 기술을 적용하여 스레드를 분할 연산을 통하여 실시간으로 영상을 출력하는 알고리즘을 제안한다.

  • PDF