• 제목/요약/키워드: 인간 감정

검색결과 541건 처리시간 0.028초

동적 감성 공간에 기반한 감성 표현 시스템 (Emotional Expression System Based on Dynamic Emotion Space)

  • 심귀보;변광섭;박창현
    • 한국지능시스템학회논문지
    • /
    • 제15권1호
    • /
    • pp.18-23
    • /
    • 2005
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니라 다양한 감정의 복합으로, 눈에 띄는 감정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 미리 설정된 몇 개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제의 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion spaces를 이용한 감성 표현 시스템의 성능을 입증한다.

RPG게임캐릭터의 능력치변화량에 따라 감정요소가 적용된 걷기동작 구현 (Design and Implementation of Walking Motions Applied with Player's Emotion Factors According to Variable Statistics of RPG Game Character)

  • 강현아;김미진
    • 한국콘텐츠학회논문지
    • /
    • 제7권5호
    • /
    • pp.63-71
    • /
    • 2007
  • 본 논문에서는 플레이어의 감정 이입을 위한 게임 캐릭터 디자인 방법으로 RPG 장르의 능력치 변화량에 따라 인간의 감정 요소가 적용된 게임 캐릭터 걷기 동작을 구현하였다. 인간의 얼굴 표정에서 나타나는 기본적인 감정 요소와 캐릭터 애니메이션에서 감정 요소가 적용된 걷기 동작을 분석해 보고, RPG 장르의 능력치 요소와의 상관관계를 통해 인간의 감정 요소가 적용된 걷기 동작을 8가지 형태로 분류하였다. 이것을 RPG 게임 캐릭터 중 인간의 외형적인 특징과 가장 유사한 기사 캐릭터에 적용시켜 능력치 변화량에 따라 달라지는 걷기 동작을 구현하였다. 인간의 감정 요소가 적용된 게임 캐릭터를 플레이어가 직접 제어함으로써 플레이어의 게임 캐릭터에 대한 감정 이입 효과가 높아질 것이고 게임에 대한 몰입도가 증가할 것으로 예상된다.

감정 상호작용 로봇을 위한 신뢰도 평가를 이용한 화자독립 감정인식 (Speech Emotion Recognition Using Confidence Level for Emotional Interaction Robot)

  • 김은호
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.755-759
    • /
    • 2009
  • 인간의 감정을 인식하는 기술은 인간-로봇 상호작용 분야의 중요한 연구주제 중 하나이다. 특히, 화자독립 감정인식은 음성감정인식의 상용화를 위해 꼭 필요한 중요한 이슈이다. 일반적으로, 화자독립 감정인식 시스템은 화자종속 시스템과 비교하여 감정특징 값들의 화자 그리고 성별에 따른 변화로 인하여 낮은 인식률을 보인다. 따라서 본 논문에서는 신뢰도 평가방법을 이용한 감정인식결과의 거절 방법을 사용하여 화자독립 감정인식 시스템을 일관되고 정확하게 구현할 수 있는 방법을 제시한다. 또한, 제안된 방법과 기존 방법의 비교를 통하여 제안된 방법의 효율성 및 가능성을 검증한다.

감정표현단어 범주화 기반의 감정인식을 위한 상황인식 미들웨어 구조의 설계 (The Design of Context-Aware Middleware Architecture for Emotional Awareness Using Categorization of Feeling Words)

  • 김진봉
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 춘계학술발표대회
    • /
    • pp.998-1000
    • /
    • 2014
  • 상황인식 컴퓨팅 환경에서 가장 핵심적인 부분은 서비스를 제공받는 객체의 상황(Context)을 인식하고 정보화하여 그 상황에 따라서 객체 중심의 지능화된 최적의 서비스를 제공해 주는 것이다. 이러한 지능화된 최적의 서비스를 제공하기 위해서는 최적의 상황을 인식하는 상황인식 컴퓨팅 기술 연구와 그 상황을 설계하는 모델링 기술이 중요하다. 또한, 인간과 컴퓨터간의 의사소통을 원활히 할 수 있는 최적의 상황을 인식해야 한다. 현재까지 연구된 대부분의 상황인식 컴퓨팅 기술은 상황정보로 객체의 위치정보와 객체의 식별정보만을 주로 사용하고 있다. 그러므로 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에만 주된 초점을 두고 있다. 그러나 본 논문에서는 객체의 감정표현단어를 상황정보로 사용하여 감정인식을 위한 상황인식 미들웨어로서 ECAM의 구조를 제안한다. ECAM은 감정표현단어의 범주화 기술을 기반으로 온톨로지를 구축하여 객체의 감정을 인식한다. 객체의 감정표현단어 정보를 상황정보로 사용하고, 인간의 감정에 영향을 미칠 수 있는 환경정보(온도, 습도, 날씨)를 추가하여 인식한다. 객체의 감정을 표현하기 위해서 OWL 언어를 사용하여 온톨로지를 구축하였으며, 감정추론 엔진은 Jena를 사용하였다.

대중 가요의 음악적 요소와 신나는 감성과의 상관관계 연구 (A Study of the correlation between the musical elements and exciting sensibility of popular music)

  • 김보경;이승연
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2014년도 추계 종합학술대회 논문집
    • /
    • pp.95-96
    • /
    • 2014
  • 대중음악에서의 가사는 인간의 감정을 전달하는 하나의 감성 표현으로 음악 요소와 서로 밀접한 관련이 있다. 인간이 느끼는 감정 상태에 따라 음악을 선택하는 기준이 달라지며, 이러한 선택은 음악의 선호도와 유행에 민감한 영향을 미친다. 본 연구는 신나는 이라는 감성을 중심으로 가사와 템포, 조성, 화성진행, 전조 등의 음악 요소를 분석하고 감정에 따른 가사와 음악요소의 비교분석을 통하여 음악과 인간의 감성과의 상관관계를 연구하고자 한다.

  • PDF

인간의 감정에 기반한 동적 군중 시뮬레이션 (Emotion-Based Dynamic Crowd Simulation)

  • 문찬일;한상훈
    • 한국컴퓨터정보학회논문지
    • /
    • 제9권3호
    • /
    • pp.87-93
    • /
    • 2004
  • 본 논문에서는 인간의 행동과 유사하게 군중을 재편성하는 행동패턴 모델을 제안하고, 그 모델을 가상 환경의 캐릭터에 적용하여 구현하였다. 게임과 같은 가상환경에서 군중을 표현하는 군중 시뮬레이션의 사실감을 높이기 위하여 군중의 행동 패턴을 결정함에 있어 인간의 감정에 기반을 두었다. 이러한 모델을 바탕으로 인간의 감정을 캐릭터에 적용하고자 몇 가지 규칙을 정의하였고, 이를 바탕으로 군중에 속해있는 캐릭터들의 군중간의 이동을 사실적으로 구현하였다. 본 연구를 적용하여 보다 자연스러운 군중의 행동을 시뮬레이션 할 수 있을 것이다.

  • PDF

생체 신호와 몸짓을 이용한 감성인식 방법 (Emotion Recognition Method using Physiological Signals and Gesture)

  • 김호덕;양현창;박창현;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.25-28
    • /
    • 2007
  • Electroencephalograhic(EEG)는 심리학의 영역에서 인간 두뇌의 활동을 측정 기록하는데 오래 전부터 사용하였다. 과학의 발달함에 따라 점차적으로 인간의 두뇌에서 감정을 조절하는 기본적인 영역들이 밝혀지고 있다. 그래서 인간의 감정을 조절하는 인간의 두뇌 활동 영역들을 EEG를 이용하여 측정하였다. 본 논문에서는 EEG의 신호들과 몸짓을 이용해서 감정을 인식하였다. 특히, 기존에 생체신호나 몸짓 중 한 가지만을 이용하여 각각 실험해서 감성을 인식하였지만, 본 논문에서는 EEG 신호와 몸짓을 동시에 이용해서 피 실험자의 감성을 인식하는 실험을 하였다. 실험결과 기존의 생체신호나 몸짓 한 가지만을 가지고 실험했을 때의 인식률 보다 더 높은 인식률을 보임을 알 수 있었다. 그리고 생체신호와 몸짓들의 특징 신호들은 강화학습의 개념을 이용한 IFS(Interactive Feature Selection)를 이용하여 특징 선택을 하였다.

  • PDF

국내 감성로봇 연구 현황 (State-of-the-Art of Domestic Emotional Robots)

  • 차고음;김은진;이강희
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2017년도 제55차 동계학술대회논문집 25권1호
    • /
    • pp.161-162
    • /
    • 2017
  • 외부환경을 인식하고 상황을 판단해 자율적으로 행동하는 지능형 서비스 로봇은 앞으로 새로운 시장을 열어줄 것으로 기대되며 이와 관련된 연구와 개발이 빠르게 확대되고 있다. 이러한 서비스 로봇에게 가장 중요한 기능은 인간과의 원활한 상호작용이다. 여기서 말하는 상호작용이란 단순히 인간이 원하는 것을 명령하고, 로봇이 이 명령을 수행하는 것에 그치는 것이 아니라, 로봇이 스스로 인간의 감정을 파악하고, 이에 대한 적절한 로봇 자신의 감정 표출이나 서비스, 행동을 제공함으로써 직접적인 소통이 이루어지는 것을 의미한다. 이렇게 로봇이 자연스럽게 인간과 함께 공존하기 위해서 감성 로봇(Emotional Robot) 분야에서 관련된 연구가 활발히 진행되고 있다 본 논문에서는 국내의 감성 로봇의 연구 현황과 발전 방향에 대해 서술한다.

  • PDF

사용자의 감정을 표현하는 소형 로봇 (Handy Robot that Conveys User's Emotion)

  • 김승식;김상호;박진규;한창희;김원일
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.48-53
    • /
    • 2009
  • 이 논문에서 우리는 로봇이 인간의 대화 내용 중에 전달된 감정을 인식하고, 그것을 효율적으로 표현하는 방법을 제안한다. 인간과 닳은 로봇을 만들기 위해 인간의 감정을 분석하는 연구들이 활발하게 진행되어 왔는데, 이러한 연구들 중에서 6가지 감정 분류체계 방법을 기반으로 본 연구의 감정 분석 방법을 제안한다. 제안된 방법은 우선 대화의 내용을 분석하고, 분석결과에 의해서 감정을 결정하며, 결정된 감정을 몸짓, 표정, 소리의 3가지 요소로 종합되어 표현한다. 우리는 이 논문에서 제안된 방법을 소형로봇에 적용하여 구현하였다.

인공생명체의 감정표현을 위한 음성처리 (Emotional Text-to-Speech System for Artificial Life Systems)

  • 장국현;한동주;이상훈;서일홍
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.2252-2255
    • /
    • 2003
  • 인간과 인공생명체(Artificial Life Systems)가 서로 커뮤니케이션을 진행하기 위하여 인공생명체는 자신이 의도한 바를 음성, 표정, 행동 등 다양한 방식을 통하여 표현할 수 있어야 한다. 특히 자신의 좋아함과 싫음 등 자율적인 감정을 표현할 수 있는 것은 인공생명체가 더욱 지능적이고 실제 생명체의 특성을 가지게 되는 중요한 전제조건이기도 하다. 위에서 언급한 인공생명체의 감정표현 특성을 구현하기 위하여 본 논문에서는 음성 속에 감정을 포함시키는 방법을 제안한다. 먼저 인간의 감정표현 음성데이터를 실제로 구축하고 이러한 음성데이터에서 감정을 표현하는데 사용되는 에너지, 지속시간, 피치(pitch) 등 특징을 추출한 후, 일반적인 음성에 위 과정에서 추출한 감정표현 특징을 적용하였으며 부가적인 주파수대역 필터링을 통해 기쁨, 슬픔, 화남, 두려움, 혐오, 놀람 등 6가지 감정을 표현할 수 있게 하였다. 감정표현을 위한 음성처리 알고리즘은 현재 음성합성에서 가장 널리 사용되고 있는 TD-PSOLA[1] 방법을 사용하였다.

  • PDF