• 제목/요약/키워드: 감정 변화

검색결과 622건 처리시간 0.025초

신체움직임에 대한 컴퓨터비전 기반 실시간 감정인식 (Emotion Recognition from Body Movement)

  • 박한훈;박종일;우운택
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 제14회 신호처리 합동 학술대회 논문집
    • /
    • pp.157-160
    • /
    • 2001
  • 컴퓨터와 주변장치의 급속한 발전은 인간과 컴퓨터 사이의 인터페이스에 많은 변화를 가져왔다. 특히, 인간의 감정을 인식하는 기술은 컴퓨터를 보다 인간 친화적으로 만들기 위한 노력으로, 그 동안 꾸준히 진행되어 왔다. 본 논문에서는 한대의 카메라로 촬영한 영상으로부터 실시간으로 신체움직임이 표현하는 감정을 인식할 수 있는 방법을 제안하고, PC기반의 실시간 감정 인식 시스템을 구현한다.

  • PDF

구어체 정서표현에 있어서의 음성 특성 연구 (A study on the vocal characteristics of spoken emotional expressions)

  • 이수정;김명재;김정수
    • 감성과학
    • /
    • 제2권2호
    • /
    • pp.53-66
    • /
    • 1999
  • 현 연구에서는 음성합성의 기초자료 수집을 위하여 대화체 감정표현의 음성적인 패러미터를 찾아내려고 시도하였다. 이를 이하여 일단 가장 자주 사용되는 대화체 감정표현자료가 수집되었고 이들 표현을 발화할 때 가장 주의를 기울이는 발성의 특징들이 탐색되었다. 구어체적 감정표현의 타당한 데이터베이스를 작성하기 위하여 20대와 30대로 연령층을 구분하여 자료를 수집, 분석하였다. 그 결과 다양한 감정표현의 발화특성들은 음의 강도, 강도변화, 그리고 음색이 중요한 기준으로 작용하는 것으로 나타났다. 다차원분석 결과 산출된 20대와 30대의 음성표현이 도면은 개별정서들이 음성의 잠재차원 상에서 상당한 일관된 특징을 지님을 보여 주었다.

  • PDF

구어체 정서표현에 있어서의 음성 특성 연구 (A study on the vocal characteristics of spoken emotional expressions)

  • 이수정
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1999년도 추계학술대회 논문집
    • /
    • pp.277-291
    • /
    • 1999
  • 현 연구에서는 음성합성의 기초자료 수집을 위하여 대화체 감정표현의 음성적인 패러미터를 찾아내려고 시도하였다. 이를 위하여 일단 가장 자주 사용되는 대화체 감정 표현자료가 수집되었고 이들 표현을 발화할 때 가장 주의를 기울이는 발성의 특징들이 탐색되었다. 구어체적 감정표현의 타당한 데이타베이스를 작성하기 위하여 20대와 30로 연령층을 구분하여 자료를 수집, 분석하였다. 그 결과 다양한 감정표현의 발화특성들은 음의 강도, 강도변화, 그리고 음색이 중요한 기준으로 작용하는 것으로 나타났다. 다차원 분석 결과 산출된 20대와 30대의 음성표현의 도면은 개별정서들이 음성의 잠재차원 상에서 상당한 일관된 특징을 지님을 보여 주었다.

  • PDF

심리적 흥분의 측정가능성 (Measure Possibility of Psychological Temper)

  • 차민규;곽대경
    • 한국재난정보학회:학술대회논문집
    • /
    • 한국재난정보학회 2015년 정기학술대회
    • /
    • pp.315-316
    • /
    • 2015
  • 이 논문에서는 생체정보를 활용하여 심리적 흥분의 측정 가능성에 대한 연구를 하였다. 지능형 전자발찌의 도입에 있어서 생체정보와 감정의 관계를 연구하는 것은 매우 필요하다. 위험상황을 예측하는데 있어서 부착자의 감정을 측정할 수 있다는 것은 하나의 중요한 지표가 될 수 있다. 자율신경계와 감정은 밀접한 관게가 있으며 교감신경은 신체적 반응을 불러일으키는 역할을 하므로 심박을 통해서 감정의 변화, 즉, 심리적 흥분을 측정하는 것은 가능할 것으로 예측된다.

  • PDF

아동·청소년 대상 성범죄 팩션영화의 사회적 역할 탐색: 텍스트 마이닝 기법을 활용한 수용자 감정반응 분석 (Social Roles of Child Sexual Crime Faction Films: Text Mining Analysis of Audiences' Emotional Reactions)

  • 김호경;권기석
    • 한국산학기술학회논문지
    • /
    • 제18권6호
    • /
    • pp.662-672
    • /
    • 2017
  • 아동 청소년 대상 성범죄는 꾸준히 증가 추세에 있지만 실효적인 예방 전략을 수립하기는 역부족이다. 사회문제를 고발하는 영화는 관심을 증폭시키고 조속한 대응방안을 촉구하여 사회변화를 이끌어낸다. 본 연구는 텍스트 마이닝 기법을 활용하여 <도가니>, <소원>, 그리고 <한공주>를 중심으로 아동 청소년 대상 성범죄 팩션영화에 대한 수용자의 반응을 살펴보았다. 영화 개봉 이전 네이버 블로그 총 2,727개를 분석한 결과 사건을 설명하는 사실적인 단어가 빈번하게 등장하였고, 영화 개봉 이후 리뷰 코멘트 총 3,000개를 분석한 결과 감정적인 단어가 주로 언급되었다. 각 영화별로 긍정 부정형의 감정 범주와 정도에 있어서도 차이가 나타났다. <도가니>의 경우 '화나다'와 함께 '억울하다'와 같은 부정적 감정표현이 강한 단어들의 빈도가 높았다. <한공주>도 부정형의 감정단어만이 등장하였지만 '슬프다'는 감정이 가장 많이 등장하고 부정형 강도가 다소 약한 단어들이 뒤를 이었다. <소원>에는 긍정형의 감정표현인 '좋다' 범주가 유일하게 등장하였다. 즉 영화가 개봉되기 이전 수용자는 사건에 대해 객관적인 정보위주로 인식한 반면, 영화를 관람한 이후에는 주관적인 감정과 느낌을 표현하였다. 동일주제를 다루고 있지만, <도가니>는 폭발적인 분노를 일으켰고 사회변화를 이끄는 시민 참여적 움직임을 결성시켰다. 그 결과 성폭력 범죄에 대한 처벌을 강화하는 법률안이 처리되어 시행되는 계기를 마련하였다. 사회 고발적 팩션영화에 대한 수용자의 상이한 감정반응을 파악하고, 향후 사회변화를 이끄는 팩션영화의 방향성에 대해 논의하였다는 점에서 연구의 의의가 있다. 또한 텍스트마이닝을 활용하여 감정포현을 분석한 결과를 바탕으로, 향후 영화에 대한 다양한 감정표현을 위계적으로 분류하는 작업의 필요성이 제기된다.

감정 상호작용 로봇을 위한 신뢰도 평가를 이용한 화자독립 감정인식 (Speech Emotion Recognition Using Confidence Level for Emotional Interaction Robot)

  • 김은호
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.755-759
    • /
    • 2009
  • 인간의 감정을 인식하는 기술은 인간-로봇 상호작용 분야의 중요한 연구주제 중 하나이다. 특히, 화자독립 감정인식은 음성감정인식의 상용화를 위해 꼭 필요한 중요한 이슈이다. 일반적으로, 화자독립 감정인식 시스템은 화자종속 시스템과 비교하여 감정특징 값들의 화자 그리고 성별에 따른 변화로 인하여 낮은 인식률을 보인다. 따라서 본 논문에서는 신뢰도 평가방법을 이용한 감정인식결과의 거절 방법을 사용하여 화자독립 감정인식 시스템을 일관되고 정확하게 구현할 수 있는 방법을 제시한다. 또한, 제안된 방법과 기존 방법의 비교를 통하여 제안된 방법의 효율성 및 가능성을 검증한다.

어텐션 메커니즘 기반 Long-Short Term Memory Network를 이용한 EEG 신호 기반의 감정 분류 기법 (Emotion Classification based on EEG signals with LSTM deep learning method)

  • 김유민;최아영
    • 한국산업정보학회논문지
    • /
    • 제26권1호
    • /
    • pp.1-10
    • /
    • 2021
  • 본 연구에서는 EEG 신호를 기반으로 감정 인식에 유용한 딥러닝 기법을 제안한다. 감정이 시간에 따라 변화하는 특성을 반영하기 위해 Long-Short Term Memory 네트워크를 사용하였다. 또한, 특정 시점의 감정적 상태가 전체 감정 상태에 영향을 미친다는 이론을 기반으로 특정 순간의 감정 상태에 가중치를 주기 위해 어텐션 메커니즘을 적용했다. EEG 신호는 DEAP 데이터베이스를 사용하였으며, 감정은 긍정과 부정의 정도를 나타내는 정서가(Valence)와 감정의 정도를 나타내는 각성(Arousal) 모델을 사용하였다. 실험 결과 정서가(Valence)와 각성(Arousal)을 2단계(낮음, 높음)로 나누었을 때 분석 정확도는 정서가(Valence)의 경우 90.1%, 각성(Arousal)의 경우 88.1%이다. 낮음, 중간, 높음의 3단계로 감정을 구분한 경우 정서가(Valence)는 83.5%, 각성(Arousal)은 82.5%의 정확도를 보였다.

감정 상태에 따른 음악 선택 시스템 (Automatic Music Selecting System according to Emotional State)

  • 황신범;김준규;원대희;김양우;손영달;이현태
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 춘계학술발표대회
    • /
    • pp.696-698
    • /
    • 2009
  • 현대인들의 감정 불안정 상태로 인한 질병과 사회문제, 범죄 등이 많은 이슈로 나타나고 있다. 본 논문은 사람의 감정에 따른 생리적인 변화를 생체신호를 측정하여 분석하고 이를 이용하여 사람의 감정을 조절할 수 있는 음악을 선택하여 조절한다. 사람의 심박수를 측정하고 그 데이터를 HRV(심장박동 변화율)로 변환하면 그 사람의 현재 기분을 추정해 낼 수 있다는 연구 결과를 적용하여 기분에 따라 알맞은 음악을 자동으로 선택 하여 들려줄 수 있는 시스템을 설계하고 구현한다.

감정요소가 적용된 게임 캐릭터의 표현을 위한 인공감정 모델 (An Artificial Emotion Model for Expression of Game Character)

  • 김기일;윤진홍;박병선;김미진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 2부
    • /
    • pp.411-416
    • /
    • 2008
  • 게임의 발달은 시각적으로 현실에 가까운 게임캐릭터의 탄생을 가져왔고 현재는 아바타나 이모티 콘 등으로 게임 캐릭터에 감정을 불어넣는 움직임이 활발히 진행되고는 있으나 이는 유동적으로 변화하는 게임 속 환경에 능동적으로 대처하는 감정표현이 아닌 1차적인 입력에 의해 결과 값만을 표현하는 것으로서, 아직 깊이 있는 게임캐릭터의 감정표현은 이루어지고 있지 않다. 이에 본 논문은 유동적으로 변화하는 게임 속 환경에 능동적으로 행동과 감정을 표현하는 게임캐릭터를 제작하기 위해 게임 캐릭터에게 적용할 수 있는 감정 요소를 대표적인 인지심리모델인 OCC모델을 바탕으로 분류하고 이를 상용화 된 RPG게임의 게임 상황 분석을 온톨로지를 통하여 체계화시켜 게임캐릭터를 위한 인공감정모델 'CROSS(Character Reaction on Specific Situation) Model AE Engine'을 제안하고자 한다.

  • PDF

HMM 기반 감정 음성 합성기 개발을 위한 감정 음성 데이터의 음색 유사도 분석 (Analysis of Voice Color Similarity for the development of HMM Based Emotional Text to Speech Synthesis)

  • 민소연;나덕수
    • 한국산학기술학회논문지
    • /
    • 제15권9호
    • /
    • pp.5763-5768
    • /
    • 2014
  • 하나의 합성기에서 감정이 표현되지 않는 기본 음성과 여러 감정 음성을 함께 합성하는 경우 음색을 유지하는 것이 중요해 진다. 감정이 과도하게 표현된 녹음 음성을 사용하여 합성기를 구현하는 경우 음색이 유지되지 못해 각 합성음이 서로 다른 화자의 음성처럼 들릴 수 있다. 본 논문에서는 감정 레벨을 조절하는 HMM 기반 음성 합성기를 구현하기 위해 구축한 음성데이터의 음색 변화를 분석하였다. 음성 합성기를 구현하기 위해서는 음성을 녹음하여 데이터베이스를 구축하게 되는데, 감정 음성 합성기를 구현하기 위해서는 특히 녹음 과정이 매우 중요하다. 감정을 정의하고 레벨을 유지하는 것은 매우 어렵기 때문에 모니터링이 잘 이루어져야 한다. 음성 데이터베이스는 일반 음성과 기쁨(Happiness), 슬픔(Sadness), 화남(Anger)의 감정 음성으로 구성하였고, 각 감정은 High/Low의 2가지 레벨로 구별하여 녹음하였다. 기본음성과 감정 음성의 음색 유사도 측정을 위해 대표 모음들의 각각의 스펙트럼을 누적하여 평균 스펙트럼을 구하고, 평균 스펙트럼에서 F1(제 1포만트)을 측정하였다. 감정 음성과 일반 음성의 음색 유사도는 Low-level의 감정 데이터가 High-level의 데이터 보다 우수하였고, 제안한 방법이 이러한 감정 음성의 음색 변화를 모니터링 할 수 있는 방법이 될 수 있음을 확인할 수 있었다.