• 제목/요약/키워드: 감정(感情)

검색결과 4,485건 처리시간 0.037초

감정 온톨로지의 구축을 위한 구성요소 분석 (Component Analysis for Constructing an Emotion Ontology)

  • 윤애선;권혁철
    • 인지과학
    • /
    • 제21권1호
    • /
    • pp.157-175
    • /
    • 2010
  • 의사소통에서 대화자 간 감정의 이해는 메시지의 내용만큼이나 중요하다. 비언어적 요소에 의해 감정에 관한 더 많은 정보가 전달되고 있기는 하지만, 텍스트에도 화자의 감정을 나타내는 언어적 표지가 다양하고 풍부하게 녹아들어 있다. 본 연구의 목적은 인간언어공학에 활용할 수 있는 감정 온톨로지를 구축할 수 있도록 그 구성요소를 분석하는 데 있다. 텍스트 기반 감정 처리 분야의 선행 연구가 감정을 분류하고, 각 감정의 서술적 어휘 목록을 작성하고, 이를 텍스트에서 검색함으로써, 추출된 감정의 정확도가 높지 않았다. 이에 비해, 본 연구에서 제안하는 감정 온톨로지는 다음과 같은 장점이 있다. 첫째, 감정 표현의 범주를 기술 대상과 방식에 따라 6개 범주로 분류하고, 이들 간 상호 대응관계를 설정함으로써, 멀티모달 환경에 적용할 수 있다. 둘째, 세분화된 감정을 분류할 수 있되, 감정 간 차별성을 가질 수 있도록 24개의 감정 명세를 선별하고, 더 섬세하게 감정을 분류할 수 있는 속성으로 강도와 극성을 설정하였다. 셋째, 텍스트에 나타난 감정 표현을 명시적으로 구분할 수 있도록, 경험자 기술 대상과 방식 언어적 자질에 관한 속성을 도입하였다. 넷째, 본 연구의 감정분류는 Plutchik의 분류와 호환성을 갖고 있으며, 언어적 요소의 기술에서 국제표준의 태그세트를 수용함으로써, 다국어 처리에 활용을 극대화할 수 있도록 고려했다.

  • PDF

다음색 감정 음성합성 응용을 위한 감정 SSML 처리기 (An emotional speech synthesis markup language processor for multi-speaker and emotional text-to-speech applications)

  • 유세희;조희;이주현;홍기형
    • 한국음향학회지
    • /
    • 제40권5호
    • /
    • pp.523-529
    • /
    • 2021
  • 본 논문에서는 감정 마크업을 포함하는 Speech Synthesis Markup Language(SSML) 처리기를 설계하고 개발하였다. 다양한 음색과 감정 표현이 가능한 음성합성 기술이 개발되고 있으며 다양한 음색 및 감정 음성합성의 응용 확대를 위하여 표준화된 음성 인터페이스 마크업 언어인 SSML을 감정 표현이 가능하도록 확장한 감정 SSML(Emotional SSML)을 설계하였다. 감정 SSML 처리기는 그래픽 사용자 인터페이스로 손쉽게 음색 및 감정을 원하는 텍스트 부분에 표시할 수 있는 다음색 감정 텍스트 편집기, 편집 결과를 감정 SSML 문서로 생성하는 감정 SSML 문서 생성기, 생성된 감정 SSML 문서를 파싱하는 감정 SSML 파서, 감정 SSML 파서의 결과인 다음색 감정 합성 시퀀스를 기반으로 합성기와 연동하여 음성 스트림의 합성 을 제어하는 시퀀서로 구성된다. 본 논문에서 개발한 다음색 감정합성을 위한 감정 SSML 처리기는 프로그래밍 언어 및 플랫폼 독립적인 개방형 표준인 SSML을 기반으로 하여 다양한 음성합성 엔진에 쉽게 연동할 수 있는 구조를 가지며 다양한 음색과 감정 음성합성이 필요한 다양한 응용 개발에 활용될 것으로 기대한다.

음성신호를 이용한 감정인식 (An Emotion Recognition Technique Using Speech Signals)

  • 정병욱;천성표;김연태;김성신
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.123-126
    • /
    • 2007
  • 본 논문은 음성신호를 이용한 감정인식에 관한 연구이다. 감정인식에 관한 연구는 휴먼 인터페이스(Human Interface) 기술의 발전에서 인간과 기계의 상호작용을 위한 것이다. 본 연구에서는 음성신호를 이용하여 감정을 분석하고자 한다. 음성신호의 감정인식을 위해서 음성신호의 특정을 추출하여야한다. 본 논문에서는 개인에 따른 음성신호의 감정인식을 하고자하였다. 그래서 화자인식에 많이 사용되는 음성신호 분석기법인 Perceptual Linear Prediction(PLP) 분석을 이용하여 음성신호의 특정을 추출하였다. 본 연구에서는 PLP 분석을 통하여 개인화된 감정 패턴을 생성하여 간단하면서도 실시간으로 음성신호로부터 감정을 평가 할 수 있는 알고리즘을 만들었다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.401-404
    • /
    • 2007
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링을 기반으로한 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 6가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고, 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

  • PDF

표현 대상과 노출 대상을 고려한 대화문장의 감정 파악 (Identifying Emotional Cues in Dialogue Sentences According to Targets)

  • 민혜진;박종철
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.461-468
    • /
    • 2007
  • 일상 생활에서의 대화 또는 컴퓨터를 매개로 이루어지는 대화에서 자기노출은 서로에 대한 개인적인 정보를 공유하여 친밀한 관계를 유지하기 위한 과정이다. 자기노출에서의 개인적인 정보는 생각 및 경험을 비롯하여 감정 등을 의미하는데, 감정은 특히 대화 분위기 형성 및 원활한 대화 진행을 위한 효과적인 의사소통수단으로 작용한다. 대화 시의 감정노출은 대화 상대방(노출 대상)과 감정표현의 대상(표현 대상)에 따라 표현의 실제강도와 노출의 정도가 달라지게 된다. 본 연구에서는 인터넷을 통해 대화를 주고 받거나 자료를 전송할 수 있는 인스턴트 메신저를 통하여 이루어진 대화에서 노출 대상과 표현 대상을 고려하여 대화참여자의 감정상태를 파악한다. 이를 위한 사전조사로 드라마 스크립트 상의 등장인물들의 감정표현 패턴을 분석하고 이를 활용하여 노출 대상이 각각 다른 대화문장에서 통사 및 의미 분석 과정을 거쳐 표현 대상에 따른 대화참여자의 감정상태를 파악하고, 대화참여자가 자신의 감정을 관찰할 수 있는 인터페이스를 제공한다.

  • PDF

부부간의 감정적 자기노출 정도와 유형에 관한연구 - 감정의 언어적 자기노출을 중심으로 - (A Study on the Degree and Type of Emotional Self-Disclosure of Husband and Wife - Linguistic Self-Dischosure on Emotion -)

  • 김순옥
    • 가정과삶의질연구
    • /
    • 제12권1호
    • /
    • pp.93-103
    • /
    • 1994
  • 본 연구는 부부의 감정적 자기노출 정도를 알아보고 그 유형을 분류한 뒤 관계되는 변인을 밝힘으로써 부부간의 감정적 자기노출에 관한 이해를 명확히 하는데 연구의 목적을 두었다. 248쌍의 부부를 대상으로 분석한 결과를 요약하면 다음과 같다. 1) 부부의 감정적 자기노출 정도는 부인이 남편보다 높은것으로 나타났다. 2) 부부의 감정적 자기노출에 가장 영향을 미치는 변인은 긍정적 노출의 경우는 심리적 변인이었으며 부정적 노출의 경우는 가정환경적 변인으로 나타났다. 3) 남편과 부인의 감정적 자기노출유형은 남편의 경우는 완전폐쇄형(43.3%), 부인의 경우는 완전노출형(48.2%)이 가장 많았으며, 부부간의 감정적 자기노출유형은 긍정적 자기노출에서는 상호노출형(43.7%), 부정적 자기노출에서는 상호폐쇄형 (38.4%)이 가장 많은것으로 나타났다. 4) 감정적 자기노출유형을 판별하는 가장 강력한 변인은 남편의 경우는 남성성, 부인의 경우는 자아개념으로 나타났다.

  • PDF

인공생명체의 감정표현을 위한 음성처리 (Emotional Text-to-Speech System for Artificial Life Systems)

  • 장국현;한동주;이상훈;서일홍
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.2252-2255
    • /
    • 2003
  • 인간과 인공생명체(Artificial Life Systems)가 서로 커뮤니케이션을 진행하기 위하여 인공생명체는 자신이 의도한 바를 음성, 표정, 행동 등 다양한 방식을 통하여 표현할 수 있어야 한다. 특히 자신의 좋아함과 싫음 등 자율적인 감정을 표현할 수 있는 것은 인공생명체가 더욱 지능적이고 실제 생명체의 특성을 가지게 되는 중요한 전제조건이기도 하다. 위에서 언급한 인공생명체의 감정표현 특성을 구현하기 위하여 본 논문에서는 음성 속에 감정을 포함시키는 방법을 제안한다. 먼저 인간의 감정표현 음성데이터를 실제로 구축하고 이러한 음성데이터에서 감정을 표현하는데 사용되는 에너지, 지속시간, 피치(pitch) 등 특징을 추출한 후, 일반적인 음성에 위 과정에서 추출한 감정표현 특징을 적용하였으며 부가적인 주파수대역 필터링을 통해 기쁨, 슬픔, 화남, 두려움, 혐오, 놀람 등 6가지 감정을 표현할 수 있게 하였다. 감정표현을 위한 음성처리 알고리즘은 현재 음성합성에서 가장 널리 사용되고 있는 TD-PSOLA[1] 방법을 사용하였다.

  • PDF

신문기사의 감정추출 방법에 관한 연구 (A Study on Method for Extraction of Emotion in Newspaper)

  • 백선경;김판구
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.562-564
    • /
    • 2005
  • 정보검색에서의 사용자의 다양한 질의어는 객관적인 키워드에서 인간이 주관적으로 생각하고 느끼는 감정요소를 동반한 어휘들로 범위가 넓어지고 있다. 이에 본 논문에서는 감정에 기반한 신문기사 검색을 위하여 기사의 구문 분석 및 품사 태깅 절차를 거쳐 동사를 추출하고 그 중 감점을 내포하는 동사들의 관계를 이용하여 신문기사의 감정을 추출한다. 감정동사의 관계를 창조하기 위하여 감정동사들을 OWL/RDF(S)를 이용해서 온톨로지를 구축하였고 에지(Edge)기반의 유사도 측정방법을 제안하였다. 제안한 방법은 여러 가지 감정을 추출하고 감정 정도를 측정할 수 있기 때문에 이는 향후 감정기반 신문기사 검색에 효과적으로 사용될 수 있을 것이다.

  • PDF

생체신호기반 감정 모델링을 위한 개인성향 측정 방법 (A study on measuring the personality for emotion modeling based on physiological recordings)

  • 이새벽;임희석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.1215-1217
    • /
    • 2012
  • 기계가 인간의 감정을 인식하기 위해서는 인간의 감정을 정량적으로 측정할 수 있는 모델이 있어야 한다. 하지만, 인간의 감정은 그 사람이 살아온 환경과 그 사람의 기질에 따라서 같은 자극에 노출되어도 사람마다 느끼는 것이 다르다. 따라서 기계가 인간의 감정을 사람의 기질을 포함하는 개인성향 기반의 감정 모델이 필요하다. 본 논문에서는 감정 모델링을 위해 BAS/BIS 가 제안한 개인 성향을 EEG 기반으로 측정 해보고 각 감정 유발 자극 별로 전두엽에서 발생하는 전위를 분석한 결과 각 성향 별로 대뇌 반응이 다르게 나왔다. 이는 인지적 감정이 전이될 때, 성향별로 대뇌에서 다르게 반응 한다는 것을 의미한다.

복합색인어 기반 단문텍스트 감정 인식 기법 (Short Text Emotion Recognition based on Complex Keywords)

  • 한기현;이승룡
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.520-522
    • /
    • 2013
  • 스마트 폰의 확산으로 대화의 개념이 음성에서 텍스트로 확대 되고 있다. 방대하게 누적되고 있는 메신저의 텍스트 데이터로부터 유용한 정보들을 찾아 사용자에게 추천서비스를 제공할 수 있다. 이를 뒷받침 해주기 위해서는 텍스트 감정 인식이 중요하다. 기존에는 PMI기법과 감정키워드를 이용하여 감정을 분류 하였다. 그러나 특정단어로 감정을 분류하기 때문에 정확도가 낮았다. 본 논문에서는 복합색인어 기반 텍스트 감정 인식 기법을 제안한다. 문장에서 동사와 복합색인어를 추출하여 음운으로 분해한다. 그리고 스트링커널에서 벡터 값을 추출하여 기계학습 알고리즘(SVM)으로 4가지 감정(행복, 슬픔. 화남, 평범)으로 분류하는 방법이다. 동사와 감정에 영향을 주는 색인어를 추출하여 감정을 인식하는 기법으로 실험결과 정확도는 기존에 동사만 사용했을 때 보다 15%향상됨을 보였다.