• 제목/요약/키워드: 감정 표현구

검색결과 22건 처리시간 0.021초

감정 표현구 단위 분류기와 문장 단위 분류기의 결합을 통한 주관적 문장 분류의 성능 향상 (Combining Sentimental Expression-level and Sentence-level Classifiers to Improve Subjective Sentence Classification)

  • 강인호
    • 정보처리학회논문지B
    • /
    • 제14B권7호
    • /
    • pp.559-566
    • /
    • 2007
  • 주관적 문장이란 주관적인 내용을 포함한 문장으로써 저자의 제품이나 사건에 대한 생각을 알 수 있다. 주관적 내용임을 나타내는 주관적인 표현은 문장 전반적으로 골고루 나타날 수도 있지만 일부 한정된 영역에서만 발견될 수도 있다. 따라서 보다 정확한 분류를 위해서는, 문장 전체를 고려하는 정보 외에 사실이나 감정을 표현하는 주관적 혹은 객관적 표현구 정보의 활용이 필요하다. 본 연구에서는 문장 전체를 이용한 분류 결과와 감정 표현구를 이용한 분류 결과를 결합하여 주/객관적 문장 분류기의 성능을 향상시키는 방법을 제안한다. 한 문장은 여러 개의 표현구를 가질 수 있어 복수개의 표현구 단위 결과를 얻게 되며 기계 학습을 응용하여 문장 단위 결과와 결합한다. 실험을 통한 결과, 표현구 단위 결과물 중 최대값을 가지는 두 가지 결과와 문장 전체를 이용한 결과를 합침으로써 2.5% 성능 향상된 79.7%의 정확률을 얻을 수 있었다.

비전 기반의 감정인식 로봇 개발 (Development of Vision based Emotion Recognition Robot)

  • 박상성;김정년;안동규;김재연;장동식
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.670-672
    • /
    • 2005
  • 본 논문은 비전을 기반으로 한 감정인식 로봇에 관한 논문이다. 피부스킨칼라와 얼굴의 기하학적 정보를 이용한 얼굴검출과 감정인식 알고리즘을 제안하고, 개발한 로봇 시스템을 설명한다. 얼굴 검출은 RGB 칼라 공간을 CIElab칼라 공간으로 변환하여, 피부스킨 후보영역을 추출하고, Face Filter로 얼굴의 기하학적 상관관계를 통하여 얼굴을 검출한다. 기하학적인 특징을 이용하여 눈, 코, 입의 위치를 판별하여 표정 인식의 기본 데이터로 활용한다. 눈썹과 입의 영역에 감정 인식 윈도우를 적용하여, 윈도우 내에서의 픽셀값의 변화와 크기의 변화로 감정인식의 특징 칼을 추출한다. 추출된 값은 실험에 의해서 미리 구해진 샘플과 비교를 통해 강정을 표현하고, 표현된 감정은 Serial Communication을 통하여 로봇에 전달되고, 감정 데이터를 받은 얼굴에 장착되어 있는 모터를 통해 표정을 표현한다.

  • PDF

소설 『こころ』에 나타난 감정표현 '포(怖)'에 관한 번역 양상 - 한국어 번역 작품과 영어 번역 작품을 중심으로 - (A study about the aspect of translation on 'Hu(怖)' in novel 『Kokoro』 - Focusing on novels translated in Korean and English -)

  • 양정순
    • 비교문화연구
    • /
    • 제53권
    • /
    • pp.131-161
    • /
    • 2018
  • 감정표현은 마음 의식의 내적 정태를 나타내는 것으로, 그 종류에는 '감정표현어휘', '고백표현', '문 구성', '간투사 표현', '사역 수동 수수 표현', '조사' '호칭', '문체 선택' 등이 제시되고 있다. 본고는 이러한 감정표현 가운데서 감정을 묘사하는 어휘를 중심으로, "こころ"에 나타난 '포(怖)'의 감정표현의 번역 양상을 '품사' '주어처리' '의미 분류'로 나누어 분석했다. 그 결과 '포(怖)'에 관한 번역 양상을 보면, 사전에 제시된 지시적 표현 이외에, '포(怖)'의 의미가 아닌 다른 표현, 다른 품사로도 번역되었음을 알 수 있었다. 일본어 문에서 사용된 '포(怖)'의 감정 어휘에 대해, 한국어역은 일부 '명사', '관용구', '부사+동사'를 제외하고는 대체로 일본어와 유사한 품사로 번역되었다. '명사'인 경우는 용언으로 풀어 설명한 후 강조 어휘를 더해 번역했으며, '부사+동사'는 2개 이상의 어휘가 이용된 어구로 번역되기도 했다. 상황에 따라 번역 어휘는 'Fear류(類)' 뿐 아니라 'Surprise류(類)'와 'Sadness류(類)'의 어휘까지도 다양하게 사용되었다. 영어 역의 경우, 한국어 역에서 보였던 것과 다른 양상을 보였다. 주로 '동사⇨동사, be+동사의 과거분사', '형용사⇨형용사, 동사, be+동사의 과거분사' '명사⇨be+동사의 과거분사'로 번역되었으며, 'Surprise류(類)', 'Anger류(類)', 'Fear류(類)' 등의 감정을 표현하는 어휘 외에 감정 주체의 상태를 표현할 수 있는 어휘까지 이용되는 등 매우 다양했다. 일본어 문의 감정 주체의 유무에 따른 한국어 역은 대체로 일본어 문과 유사한 문 구조로 번역되었고, 감정 주체가 생략된 3인칭인 일부 예에서는 생략된 요소가 복원 가능하도록 유도한 번역이 보였다. 영어 역을 보면, 일본어 문의 감정 주체의 생략 유무와 관계없이 감정 주체와 판단 주체까지도 복원했으며, 서술자 중심의 주어를 내세워 그에 따른 서술어를 선정해 번역하기도 했다. 그러나 주어 자리에는 반드시 감정을 느끼는 사람만 사용된 것이 아니라 사건, 행위, 감정의 요인 등이 사용되기도 했으며, 화자가 화자의 감정을 직접적으로 서술하기 보다는 주변 상황과 장면을 설명하면서 그로 인해 일어나는 감정을 서술한 경우도 있었다.

복합적 감정(mixed feelings)에 대한 감정차원 연구 (English Title - A Study of Emotional Dimension for Mixed Feelings)

  • 한의환;차형태
    • 감성과학
    • /
    • 제16권4호
    • /
    • pp.469-480
    • /
    • 2013
  • 본 논문에서는 기존에 Russell의 감정차원 모델(A Circumplex model)상에서 데이터의 분산 값을 줄이고, 복합적감정(mixed feelings)을 표현하는 새로운 방법을 제안한다. Russell의 감정차원 모델은 감정을 뜻하는 단어(기쁨, 슬픔, 행복, 신남 등)를 제시한 뒤, 자가진단방식(SAM)을 이용하여 단어들의 평균과 분산을 구하고, 각 단어들을 PAD차원(Pleasure, Arousal, Dominance)에 하나의 점으로 표시한다. 하지만 다른 연구자에 의하여 Russell모델의 문제점으로 각 단어들의 분산 값이 커서 데이터의 신뢰도나 정확성이 떨어지며, Russell의 모델의 구조에선 복합적 감정(mixed feelings)을 표현할 수 없는 등의 문제점들이 지속적으로 제기되었다. 본 논문에서는 이와 같은 문제점을 보완하기 위해 설문 방식의 변화를 통해서 실험을 진행하여, 데이터의 분산 값을 줄일 수 있었다. 또한 복합적 감정을 유발 할 수 있는 실험을 통해 감정 상태의 긍정적/부정적인 부분의 관계를 확인해보고, Russell모델에서도 복합적 감정을 표현할 수 있음을 입증하였다. 본 논문에서 제안하는 방법을 이용하여 기존의 연구에서 보다 신뢰도와 정확도가 높은 데이터를 얻을 수 있으며, Russell모델을 적용시키기 어려웠던 생체신호, 복합적 감정, 실감 방송 등의 여러 분야에 적용 시킬 수 있다.

영화 시나리오와 영화촬영기법을 이용한 감정 예측 시스템 (Emotion Prediction System using Movie Script and Cinematography)

  • 김진수
    • 한국융합학회논문지
    • /
    • 제9권12호
    • /
    • pp.33-38
    • /
    • 2018
  • 최근에 다양한 정보로부터 감정을 예측하여 청중에게 감독이 알리고자 하는 정보를 빠르게 전달하고자 한다. 또한, 청중은 감독의 의도를 대화 내용에 나타나는 대사뿐만 아니라, 영상내의 다양한 정보인 촬영 기법, 장면의 배경, 배경 음악 등을 통해 비대사 구간에서도 감정의 흐름을 이해하려고 한다. 본 논문에서는 대사와 같은 문맥의 상황뿐만 아니라, 촬영 영상에 담아낸 색상, 음향, 구도, 배치 등에 의해 표현된 정보를 혼합하여 감정을 추출하고자 한다. 즉, 다양한 감정 표현 기법을 대사 구간, 비대사 구간으로 나누어 학습하고 판별하여 영상의 완성도에 기여하고 새로운 변화에 빠르게 적용할 수 있는 감정 예측 시스템을 제안한다. 본 논문에서 제안한 감정 예측시스템이 변형된 n-gram 방식과 형태소 분석을 적용한 사례와 비교했을 때, 정확도는 약 5.1%, 0.4% 향상되었고, 재현율은 약 4.3%, 1.6% 향상되었다.

박동철의 사진강좌

  • 한국광학기기협회
    • 광학세계
    • /
    • 통권126호
    • /
    • pp.68-71
    • /
    • 2010
  • 구성은 구도보다 넓은 의미로 쓰이며, 서로 구별되어져야 하지만 실제 사진예술에는 이 두가지가 상관하면서 주제를 표현하게 된다. 또한 구성이나 구도 모두 인간의 균형감각과 조화로움을 느끼는 시각에서 출발하게 되는데, 이는 어느 누구에게나 보편적인 감정을 유발한다. 이러한 기술들은 사진 기법들의 정확한 이해를 기반으로 응용하고 활용하면서 내 것이 되고 작품의 가치가 결정되는 것이다. 이번호에서는 두 번째 시간으로 사진의 구성과 구도에 대해서 알아보겠다.

  • PDF

HMM 기반 감정 음성 합성기 개발을 위한 감정 음성 데이터의 음색 유사도 분석 (Analysis of Voice Color Similarity for the development of HMM Based Emotional Text to Speech Synthesis)

  • 민소연;나덕수
    • 한국산학기술학회논문지
    • /
    • 제15권9호
    • /
    • pp.5763-5768
    • /
    • 2014
  • 하나의 합성기에서 감정이 표현되지 않는 기본 음성과 여러 감정 음성을 함께 합성하는 경우 음색을 유지하는 것이 중요해 진다. 감정이 과도하게 표현된 녹음 음성을 사용하여 합성기를 구현하는 경우 음색이 유지되지 못해 각 합성음이 서로 다른 화자의 음성처럼 들릴 수 있다. 본 논문에서는 감정 레벨을 조절하는 HMM 기반 음성 합성기를 구현하기 위해 구축한 음성데이터의 음색 변화를 분석하였다. 음성 합성기를 구현하기 위해서는 음성을 녹음하여 데이터베이스를 구축하게 되는데, 감정 음성 합성기를 구현하기 위해서는 특히 녹음 과정이 매우 중요하다. 감정을 정의하고 레벨을 유지하는 것은 매우 어렵기 때문에 모니터링이 잘 이루어져야 한다. 음성 데이터베이스는 일반 음성과 기쁨(Happiness), 슬픔(Sadness), 화남(Anger)의 감정 음성으로 구성하였고, 각 감정은 High/Low의 2가지 레벨로 구별하여 녹음하였다. 기본음성과 감정 음성의 음색 유사도 측정을 위해 대표 모음들의 각각의 스펙트럼을 누적하여 평균 스펙트럼을 구하고, 평균 스펙트럼에서 F1(제 1포만트)을 측정하였다. 감정 음성과 일반 음성의 음색 유사도는 Low-level의 감정 데이터가 High-level의 데이터 보다 우수하였고, 제안한 방법이 이러한 감정 음성의 음색 변화를 모니터링 할 수 있는 방법이 될 수 있음을 확인할 수 있었다.

부모의 지각에 따른 유아영재의 비동시적 발달특성 (Asynchronous development of young gifted children by parents′ perception)

  • 윤형주;윤여홍
    • 영재교육연구
    • /
    • 제13권1호
    • /
    • pp.65-80
    • /
    • 2003
  • 본 연구는 부모가 지각한 유아영재의 각 발달특성의 수준을 알아보고, 발달 특성 영역간 발달수준 차이가 있는 지를 알아보고자 만 30개월부터 6세 10개월까지 유아영재교육을 받고 있는 145명 유아영재를 대상으로 하여 30개월부터 47개월까지, 48개월부터 60개월까지, 60개월부터 6세 10개월까지를 유아 1,2,3집단으로 세분화하여 살펴보았다. 연구결과, 첫째, 유아영재들은 모든 발달특성에서의 발달수준을 살펴본 결과, 모든 연령 대에서 보통 수준이상으로 발달하고 있는 것으로 나타났다. 여러 발달특성 중 언어이해 및 표현능력이 가장 높은 수준으로 발달하고 있었으며, 지적능력, 정서적 성숙함, 손과-눈의 협응력 및 손을 이용한 활동능력, 도덕성, 자기행동조절능력, 감정 조절 및 통제능력, 신체발달, 사회성, 또래관계형성능력, 리더십 순으로 발달하고 있었다. 둘째, 지적 능력과 언어이해 및 표현능력과 같은 인지적인 발달은 모든 연령 대에서 사회$.$신체발달 및 감정조절 및 통제능력에 비하여 빠르게 발달하고 있음을 알 수 있었다. 연령이 어릴수록 신체발달과 자기행동조절능력, 감정조절 및 통제능력간의 발달차이가 더 나타나고 있었으며, 연령이 높아질수록 언어이해 및 표현능력과 손을 이용한 활동능력간의 발달차이가 더 커짐을 알 수 있었다. 그리고 사회성, 또래관계형성능력과 같은 사회성 발달도 자기행동조절과 감정조절 및 통제능력발달 수준에 못 미치고 있음을 알 수 있었다. 또한 감정조절 능력 및 통제능력에 비해 리더십은 발달하지 않고 있었으며, 도덕성은 자기행동조절능력 발달수준에 못 미치고 있음을 알 수 있었다. 이러한 연구결과는 유아 단계의 영재아동을 대상으로 하여 그들의 발달특성을 고려한 교육 프로그램뿐만 아니라, 영재아들이 여러 어려움을 극복할 수 있도록 도와줄 수 있는 부모와 교사들에게 기초자료가 되었다는 점에서 그 의의가 있다처리구에서는 낮았다. 이는 $B_{0}$$B_4$ 처리구에서 뿌리발육의 저해/수량감소 특성과 연관된 것으로 보였다. 그러나 orchardgrass는 일관성을 보이지 안 했다. 두 목초 중 Mn, Cu 및 Zn의 함량에 미치는 붕소시비의 영향은 일관성을 보이지 안 했다. 4. 붕소 시용수준이 미량요소 양이온 총 농도((Fe+Mn+Cu+Zn)에 미치는 효과는 미약하였다. 일반적으로 충 농도의 변화는 Mn과 Zn의 함량에 밀접한 영향을 받았고, 반면에 Fe과 Cu의 함량은 경미한 영향을 보였다. white clover 중총 농도는 혼파보다 단파재배에서 더 높았다. 처리구보다 더 높았으며 반면에 white clover는 가장 낮았다. 큰 요인을 형성하는 1차적 환경이 가정이라는 점에서 2000 가족과 함께 하는 창의성 경진대회는 창의성 축제의 한마당이었다고 감히 결론짓고자 한다.계시비 수준은 3회 예취구에서 558.9 kg $ha^{-1}\;yr^{-1}$, 4회 예취구에서 531.4 kg $ha^{-1}\;yr^{-1}$, 5회 예취구에서 546.3 kg $ha^{-1}\;yr^{-1}$ 이었으며, 이 때 얻어지는 최대 건물수량은 각각 18.4 ton, 12.7 ton, 10.6 ton $ha^{-1}$ 이었다. 8. 예취빈도별 예취번초의 경제적 시비수준은 3회 예취구에서 42.6~123.8 kg $ha^{-1}$, 4회 예취구에서 2 27.3~144.1 kg $ha^{-1}$, 5회 예취구에서 9.3~159.4 kg $ha^{-1}$의 범위를 나타내었다. 9. 유휴 논 토양에서 무기태 질소를 단기간 시비하여 reed canarygrass의 건물수량을 얻기 위해서는 예취빈도는 연간

감정 인식을 통한 음악 검색 성능 분석 (A Study on the Performance of Music Retrieval Based on the Emotion Recognition)

  • 서진수
    • 한국음향학회지
    • /
    • 제34권3호
    • /
    • pp.247-255
    • /
    • 2015
  • 본 논문은 자동으로 분류된 음악 신호의 감정을 기반으로 하는 음악 검색 의 성능을 분석하였다. 음성, 영상 등의 다른 미디어 신호와 마찬가지로 음악은 인간에게 특정한 감정을 불러일으킬 수 있다. 이러한 감정은 사람들이 음악을 검색할 때 중요한 고려요소가 될 수 있다. 그렇지만 아직까지 음악의 감정을 직접 인식하여 음악 검색을 수행하고 성능을 검증한 경우는 거의 없었다. 본 논문에서는 음악 감정을 표현하는 주요한 세 축인 유발성, 활성, 긴장 과 기본 5대 감정인 행복, 슬픔, 위안, 분노, 불안의 정도를 구하고, 그 값들의 유사도를 기반으로 음악 검색을 수행하였다. 장르와 가수 데이터셋에서 실험을 수행하였다. 제안된 감정 기반 음악 검색 성능은 기존의 특징 기반 방법의 성능에 대비해서 최대 75 % 수준의 검색 정확도를 보였다. 또한 특징 기반 방법을 제안된 감정 기반 방법과 병합할 경우 최대 14 % 검색 성능 향상을 이룰 수 있었다.

인공지능 기반 사회적 지지를 위한 대형언어모형의 공감적 추론 향상: 심리치료 모형을 중심으로 (Enhancing Empathic Reasoning of Large Language Models Based on Psychotherapy Models for AI-assisted Social Support)

  • 이윤경;이인주;신민정;배서연;한소원
    • 인지과학
    • /
    • 제35권1호
    • /
    • pp.23-48
    • /
    • 2024
  • 대형언어모형(LLM)을 현실에 적용하려는 지속적인 노력에도 불구하고, 인공지능이 맥락을 이해하고 사람의 의도에 맞게 사회적 지지를 제공하는 능력은 아직 제한적이다. 본 연구에서는 LLM이 사람의 감정 상태를 추론하도록 유도하기 위해, 심리 치료 이론을 기반으로 한 공감 체인(Chain of Empathy, CoE) 프롬프트 방법을 새로 개발했다. CoE 기반 LLM은 인지-행동 치료(CBT), 변증법적 행동 치료(DBT), 인간 중심 치료(PCT) 및 현실 치료(RT)와 같은 다양한 심리 치료 방식을 참고하였으며, 각 방식의 목적에 맞게 내담자의 정신 상태를 해석하도록 설계했다. CoE 기반 추론을 유도하지 않은 조건에서는 LLM이 사회적 지지를 구하는 내담자의 글에 주로 탐색적 공감 표현(예: 개방형 질문)만을 생성했으며, 추론을 유도한 조건에서는 각 심리 치료 모형을 대표하는 정신 상태 추론 방법과 일치하는 다양한 공감 표현을 생성했다. 공감 표현 분류 과제에서 CBT 기반 CoE는 감정적 반응, 탐색, 해석 등을 가장 균형적으로 분류하였으나, DBT 및 PCT 기반 CoE는 감정적 반응 공감 표현을 더 잘 분류하였다. 추가로, 각 프롬프트 조건 별로 생성된 텍스트 데이터를 정성적으로 분석하고 정렬 정확도를 평가하였다. 본 연구의 결과는 감정 및 맥락 이해가 인간-인공지능 의사소통에 미치는 영향에 대한 함의를 제공한다. 특히 인공지능이 안전하고 공감적으로 인간과 소통하는 데 있어 추론 방식이 중요하다는 근거를 제공하며, 이러한 추론 능력을 높이는 데 심리학의 이론이 인공지능의 발전과 활용에 기여할 수 있음을 시사한다.