• 제목/요약/키워드: 감정인식

검색결과 914건 처리시간 0.044초

음성 인식 정보를 사용한 감정 인식 (Emotion Recognition using Speech Recognition Information)

  • 김원구
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2008년도 춘계학술대회 학술발표회 논문집
    • /
    • pp.425-428
    • /
    • 2008
  • 본 논문은 음성을 사용한 인간의 감정 인식 시스템의 성능을 향상시키기 위하여 감정 변화에 강인한 음성 인식 시스템과 결합된 감정 인식 시스템에 관하여 연구하였다. 이를 위하여 우선 다양한 감정이 포함된 음성 데이터베이스를 사용하여 감정 변화가 음성 인식 시스템의 성능에 미치는 영향에 관한 연구와 감정 변화의 영향을 적게 받는 음성 인식 시스템을 구현하였다. 감정 인식은 음성 인식의 결과에 따라 입력 문장에 대한 각각의 감정 모델을 비교하여 입력 음성에 대한 최종 감정 인식을 수행한다. 실험 결과에서 강인한 음성 인식 시스템은 음성 파라메터로 RASTA 멜 켑스트럼과 델타 켑스트럼을 사용하고 신호편의 제거 방법으로 CMS를 사용한 HMM 기반의 화자독립 단어 인식기를 사용하였다. 이러한 음성 인식기와 결합된 감정 인식을 수행한 결과 감정 인식기만을 사용한 경우보다 좋은 성능을 나타내었다.

  • PDF

얼굴표정과 음성을 이용한 감정인식 (An Emotion Recognition Method using Facial Expression and Speech Signal)

  • 고현주;이대종;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.799-807
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정과 음성 속에 담긴 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 혐오, 공포)에 대한 특징을 추출하고 인식하고자 한다. 이를 위해 얼굴표정을 이용한 감정인식에서는 이산 웨이블렛 기반 다해상도 분석을 이용하여 선형판별분석기법으로 특징을 추출하고 최소 거리 분류 방법을 이용하여 감정을 인식한다. 음성에서의 감정인식은 웨이블렛 필터뱅크를 이용하여 독립적인 감정을 확인한 후 다중의사 결정 기법에 외해 감정인식을 한다. 최종적으로 얼굴 표정에서의 감정인식과 음성에서의 감정인식을 융합하는 단계로 퍼지 소속함수를 이용하며, 각 감정에 대하여 소속도로 표현된 매칭 감은 얼굴에서의 감정과 음성에서의 감정별로 더하고 그중 가장 큰 값을 인식 대상의 감정으로 선정한다.

감정표현단어 범주화 기반의 감정인식을 위한 상황인식 미들웨어 구조의 설계 (The Design of Context-Aware Middleware Architecture for Emotional Awareness Using Categorization of Feeling Words)

  • 김진봉
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 춘계학술발표대회
    • /
    • pp.998-1000
    • /
    • 2014
  • 상황인식 컴퓨팅 환경에서 가장 핵심적인 부분은 서비스를 제공받는 객체의 상황(Context)을 인식하고 정보화하여 그 상황에 따라서 객체 중심의 지능화된 최적의 서비스를 제공해 주는 것이다. 이러한 지능화된 최적의 서비스를 제공하기 위해서는 최적의 상황을 인식하는 상황인식 컴퓨팅 기술 연구와 그 상황을 설계하는 모델링 기술이 중요하다. 또한, 인간과 컴퓨터간의 의사소통을 원활히 할 수 있는 최적의 상황을 인식해야 한다. 현재까지 연구된 대부분의 상황인식 컴퓨팅 기술은 상황정보로 객체의 위치정보와 객체의 식별정보만을 주로 사용하고 있다. 그러므로 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에만 주된 초점을 두고 있다. 그러나 본 논문에서는 객체의 감정표현단어를 상황정보로 사용하여 감정인식을 위한 상황인식 미들웨어로서 ECAM의 구조를 제안한다. ECAM은 감정표현단어의 범주화 기술을 기반으로 온톨로지를 구축하여 객체의 감정을 인식한다. 객체의 감정표현단어 정보를 상황정보로 사용하고, 인간의 감정에 영향을 미칠 수 있는 환경정보(온도, 습도, 날씨)를 추가하여 인식한다. 객체의 감정을 표현하기 위해서 OWL 언어를 사용하여 온톨로지를 구축하였으며, 감정추론 엔진은 Jena를 사용하였다.

강인한 음성 인식 시스템을 사용한 감정 인식 (Emotion Recognition using Robust Speech Recognition System)

  • 김원구
    • 한국지능시스템학회논문지
    • /
    • 제18권5호
    • /
    • pp.586-591
    • /
    • 2008
  • 본 논문은 음성을 사용한 인간의 감정 인식 시스템의 성능을 향상시키기 위하여 감정 변화에 강인한 음성 인식 시스템과 결합된 감정 인식 시스템에 관하여 연구하였다. 이를 위하여 우선 다양한 감정이 포함된 음성 데이터베이스를 사용하여 감정 변화가 음성 인식 시스템의 성능에 미치는 영향에 관한 연구와 감정 변화의 영향을 적게 받는 음성 인식 시스템을 구현하였다. 감정 인식은 음성 인식의 결과에 따라 입력 문장에 대한 각각의 감정 모델을 비교하여 입력 음성에 대한 최종감정 인식을 수행한다. 실험 결과에서 강인한 음성 인식 시스템은 음성 파라메터로 RASTA 멜 켑스트럼과 델타 켑스트럼을 사용하고 신호편의 제거 방법으로 CMS를 사용한 HMM 기반의 화자독립 단어 인식기를 사용하였다. 이러한 음성 인식기와 결합된 감정 인식을 수행한 결과 감정 인식기만을 사용한 경우보다 좋은 성능을 나타내었다.

이동로봇에서의 2D얼굴 영상을 이용한 사용자의 감정인식 (Emotion Recognition of User using 2D Face Image in the Mobile Robot)

  • 이동훈;서상욱;고광은;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.131-134
    • /
    • 2006
  • 본 논문에서는 가정용 로봇 및 서비스 로봇과 같은 이동로봇에서 사용자의 감정을 인식하는 방법중 한가지인 얼굴영상을 이용한 감정인식 방법을 제안한다. 얼굴영상인식을 위하여 얼굴의 여러 가지 특징(눈썹, 눈, 코, 입)의 움직임 및 위치를 이용하며, 이동로봇에서 움직이는 사용자를 인식하기 위한 움직임 추적 알고리즘을 구현하고, 획득된 사용자의 영상에서 얼굴영역 검출 알고리즘을 사용하여 얼굴 영역을 제외한 손과 배경 영상의 피부색은 제거한다. 검출된 얼굴영역의 거리에 따른 영상 확대 및 축소, 얼굴 각도에 따른 영상 회전변환 등의 정규화 작업을 거친 후 이동 로봇에서는 항상 고정된 크기의 얼굴 영상을 획득 할 수 있도록 한다. 또한 기존의 특징점 추출이나 히스토그램을 이용한 감정인식 방법을 혼합하여 인간의 감성 인식 시스템을 모방한 로봇에서의 감정인식을 수행한다. 본 논문에서는 이러한 다중 특징점 추출 방식을 통하여 이동로봇에서의 얼굴 영상을 이용한 사용자의 감정인식 시스템을 제안한다.

  • PDF

스마트폰에서 음성과 컨텍스트 기반 감정인식 융합을 활용한 감정인식 시스템 설계 (Design of Emotion Recognition system utilizing fusion of Speech and Context based emotion recognition in Smartphone)

  • 조성진;이성호;이승룡
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2012년도 제46차 하계학술발표논문집 20권2호
    • /
    • pp.323-324
    • /
    • 2012
  • 최근 스마트폰 환경에서 제공되는 수많은 서비스들은 일률적으로 소비자에게 단방향으로 제공되던 예전과 달리 사용자마다 개인화된 서비스 제공을 통해, 더욱 효율적으로 서비스를 제공하려는 시도들이 이루어지고 있다. 그 중에서 감정인식을 이용한 연구는 사용자에게 최적화된 개인화 서비스 제공을 위해 사용자의 감정을 인식하여 사용자가 느끼는 감정에 맞는 서비스를 제공함으로써 보다 몰입감을 느낄 수 있도록 하여 결과적으로 특정 서비스의 이용을 유도하도록 할 수 있다. 본 논문에서는 사용자 선호도와 컨텍스트 정보를 활용하여 사용자의 감정을 추출하고 이를 음성기반 감정인식과 융합하여 그 정확도를 높이고 실제서비스에서 활용할 수 있는 시스템 설계를 제안한다. 제안하는 시스템은 사용자 선호도와 컨텍스트 인식으로 감정을 판단했을 경우의 오류를 음성을 통한 감정인식으로 보완하며, 사용자가 감정인식 시스템을 활용하기 위한 비용을 최소화한다. 제안하는 시스템은 스마트폰에서 사용자 감정을 이용한 애플리케이션이나 추천서비스 등에서 활용이 가능하다.

  • PDF

음성 신호와 얼굴 표정을 이용한 감정인식 몇 표현 기법 (An Emotion Recognition and Expression Method using Facial Image and Speech Signal)

  • 주종태;문병현;서상욱;장인훈;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.333-336
    • /
    • 2007
  • 본 논문에서는 감정인식 분야에서 가장 많이 사용되어지는 음성신호와 얼굴영상을 가지고 4개의(기쁨, 슬픔, 화남, 놀람) 감정으로 인식하고 각각 얻어진 감정인식 결과를 Multi modal 기법을 이용해서 이들의 감정을 융합한다. 이를 위해 얼굴영상을 이용한 감정인식에서는 주성분 분석(Principal Component Analysis)법을 이용해 특징벡터를 추출하고, 음성신호는 언어적 특성을 배재한 acoustic feature를 사용하였으며 이와 같이 추출된 특징들을 각각 신경망에 적용시켜 감정별로 패턴을 분류하였고, 인식된 결과는 감정표현 시스템에 작용하여 감정을 표현하였다.

  • PDF

음성신호를 이용한 감정인식 (An Emotion Recognition Technique Using Speech Signals)

  • 정병욱;천성표;김연태;김성신
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.123-126
    • /
    • 2007
  • 본 논문은 음성신호를 이용한 감정인식에 관한 연구이다. 감정인식에 관한 연구는 휴먼 인터페이스(Human Interface) 기술의 발전에서 인간과 기계의 상호작용을 위한 것이다. 본 연구에서는 음성신호를 이용하여 감정을 분석하고자 한다. 음성신호의 감정인식을 위해서 음성신호의 특정을 추출하여야한다. 본 논문에서는 개인에 따른 음성신호의 감정인식을 하고자하였다. 그래서 화자인식에 많이 사용되는 음성신호 분석기법인 Perceptual Linear Prediction(PLP) 분석을 이용하여 음성신호의 특정을 추출하였다. 본 연구에서는 PLP 분석을 통하여 개인화된 감정 패턴을 생성하여 간단하면서도 실시간으로 음성신호로부터 감정을 평가 할 수 있는 알고리즘을 만들었다.

  • PDF

MLP에 기반한 감정인식 모델 개발 (Development of Emotion Recognition Model based on Multi Layer Perceptron)

  • 이동훈;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제16권3호
    • /
    • pp.372-377
    • /
    • 2006
  • 본 논문에서, 우리는 뇌파를 이용하여 사용자의 감정을 인식하는 감정인식 모델을 제안한다. 사용자의 감정을 인식하기 위해서는 우선 생체 데이터나 감정 데이터를 포함한 뇌파의 정량적인 데이터를 획득하는 방법이 필요하며 다음으로 획득된 뇌파를 통하여 현재 사용자의 감정 상태를 규명하는 패턴인식 기법이 중요한 문제가 된다. 본 논문에서는 뇌파를 통하여 현재 사용자의 감정 상태를 규명하고 인식할 수 있는 패턴인식 기법으로 Multi Layer Perceptron(MLP)을 사용한 패턴인식 기법을 사용한다. 본 논문에서 제안한 감정인식 모델의 실험을 위하여 특정 공간 내에서 여러 피험자의 감정별 뇌파를 측정하고, 측정된 뇌파로 집중도 및 안정도를 도출하여 유의미한 데이터로 감정 DB를 구축한다. 감정별 DB를 본 논문에서 제안한 감정인식 모델로 학습한 후 새로운 사용자의 뇌파로 현재 사용자의 감정을 인식한다. 마지막으로 피험자의 수와 은닉 노드의 수에 따른 인식률의 변화를 측정함으로서 뇌파를 이용한 감정인식 모델의 성능을 평가한다.

이러닝 학습자의 감정 피드백을 위한 상황인식 미들웨어 설계 (Context-Aware Middleware Design for Emotion Feedback of E-Learning Learners)

  • 김진봉
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.670-672
    • /
    • 2022
  • 이러닝 시스템을 유용하게 활용하려면 학습자의 감정을 인식하여 학습자에게 적절한 피드백을 주는 것이 무엇보다 중요하다. 이러닝 시스템의 학습효율을 높이기 위해서는 학습자의 감정을 인식하여 그에 적절한 피드백을 제공하는 것이 중요하다. 본 논문에서는 학습자에 대한 적절한 피드백을 제공하기 위해서 상황인식 컴퓨팅 기술을 바탕으로 학습자의 감정표현단어를 상황정보로 사용하여 감정을 인식할 수 있는 상황인식 미들웨어로서 EF-CAM을 제안한다. EF-CAM은 감정표현단어의 범주화기술을 기반으로 온톨로지를 구축하여 학습자의 감정을 인식한다. 이러닝 학습자의 감정을 인식하기 위해서 학습자의 감정표현 단어를 상황정보로 사용하고, 학습자의 감정에 영향을 미칠 수 있는 환경정보(온도, 습도, 날씨 등)를 추가하여 인식한다. 학습자의 감정을 표현하기 위해서 OWL 언어를 사용하여 온톨로지를 구축하였다.