• 제목/요약/키워드: Emotion contents

검색결과 577건 처리시간 0.03초

사용자의 감성을 유도하는 실시간 반응형 감성 이미지 콘텐츠 플레이어 시스템 개발 (Development of real-time reactive emotion image contents player system to induce the user's emotion)

  • 이해나;김동근
    • 한국정보통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.155-161
    • /
    • 2014
  • 본 연구는 사용자의 감성을 효율적으로 유도하는 실시간 감성 이미지 콘텐츠 플레이어를 제안한다. 감성 이미지 콘텐츠 플레이어는 실시간으로 이미지 콘텐츠의 명도, 채도에 변화를 줌으로써 사용자의 감성에 따라 효율적으로 감성 유도가 가능하도록 설계하였다. 감성인식 부분은 자율신경계 기반의 맥파, 피부온도, 피부저항의 생체신호를 활용하였다. 사용된 감성 콘텐츠 이미지는 국제적 정서체계(IAPS)에서 분류된 9가지 감성영역의 이미지를 적용하였다. 실험결과로 감성 이미지 콘텐츠 플레이어를 통해 이미지의 감성 상태에 맞는 사용자의 감성이 10% 더 정확하게 유도되었다. 감성 콘텐츠 플레이어는 실시간으로 감성 반영을 통해 사용자와 콘텐츠간의 감성적 교감을 증대시킬 것으로 기대된다.

인터넷 폰을 이용한 감성인식 시스템 구현 (Implementation of Emotion Recognition System using Internet Phone)

  • 권병헌;서범석
    • 디지털콘텐츠학회 논문지
    • /
    • 제8권1호
    • /
    • pp.35-40
    • /
    • 2007
  • 본 논문에서는 감성 인식과 감성을 표현하는 캐릭터 애니메이션에 대한 내용을 소개한다. 본 논문에서 우리는 사용자의 감성을 표현하는 특성 파라미터를 찾는 방법과 패턴 매칭 알고리즘을 통해 감성을 추론하는 방법을 제안했다. 또한, 인터넷 폰에서 화자의 감성을 인식하여 캐릭터 애니메이션을 디스플레이하는 플랫폼을 구현하여 감성 인식 시스템의 성능을 실험하였다.

  • PDF

동적 내러티브 구조에 대한 사용자 감정모델링 : 영화와 게임을 중심으로 (User's Emotion Modeling on Dynamic Narrative Structure : towards of Film and Game)

  • 김미진;김재호
    • 한국콘텐츠학회논문지
    • /
    • 제12권1호
    • /
    • pp.103-111
    • /
    • 2012
  • 본 논문은 엔터테인먼트 콘텐츠의 제작단계 초기에 성공과 실패를 예측할 수 있는 시스템을 만들기 위한 기초 연구 중 하나로써, 엔터테인먼트 콘텐츠의 동적 내러티브에 대한 사용자의 감정을 모델링하고자 한다. 이를 위해 1) 내러티브구조와 인지감정모델에 대한 이론적 연구를 바탕으로 사용자의 감정모델을 제안하며, 2) 제안된 모델의 3가지(desire, expectation, emotion type)감정 파라미터를 추출하기 위한 감정유형 및 강도함수를 설정한다. 3) 동적 내러티브의 각 스토리이벤트 단계에서 사용자의 감정을 측정하기 위해 영화, 게임사용자의 인지행동과 내용을 정립한다. 기존 인문학적 측면의 개념적, 분석적 연구는 매체에 대한 비평과 사용자태도에 대한 예측을 목적으로 하고 있으며 그 결과들을 서술적으로 묘사하고 있다. 이에 반해, 본 논문은 동적 내러티브에 대한 사용자의 감정모델링 방법을 제안하고 있어 엔터테인먼트 콘텐츠의 감성적 평가방법의 구체적인 정보로 활용 될 수 있다.

소리 주파수대역 기반 멀티미디어 콘텐츠의 감성 추출 (Emotion Extraction of Multimedia Contents based on Specific Sound Frequency Bands)

  • 권영훈;장재건
    • 디지털융복합연구
    • /
    • 제11권11호
    • /
    • pp.381-387
    • /
    • 2013
  • 최근 인간의 감성에 반응하고, 감성을 유도하는 감성콘텐츠가 문화산업 분야에서 크게 주목을 받으면서 멀티미디어 콘텐츠가 유발하는 감성 추출에 초점이 모아지고 있다. 게다가 최근 멀티미디어 콘텐츠가 빠르고 방대하게 생산, 유통되는 흐름으로 볼 때 콘텐츠에서 유발하는 감성을 자동으로 추출하는 기법의 연구들이 주목받고 있다. 본 논문은 멀티미디어 콘텐츠의 소리 정보 중 특정 주파수대역의 볼륨 값을 활용하여 멀티미디어 콘텐츠 내의 감성지수를 추출하는 방법에 대해 연구하고자 한다. 이러한 연구는 동영상 콘텐츠의 감성지수를 자동으로 추출할 수 있도록 하며 추출된 정보를 활용하여 사용자의 현재 감성, 혹은 날씨 등과 같은 기타 요소에 맞추어 사용자에게 맞춤형 콘텐츠를 제공하는데 사용되어질 것이다.

AE-Artificial Emotion

  • Xuyan, Tu;Liqun, Han
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.146-149
    • /
    • 2003
  • This paper proposes the concept of “Artificial Emotion”(AE). The goal of AE is simulation, extension and expansion of natural emotion, especially human emotion. The object of AE is machine emotion and emotion machine. The contents of AE are emotion recognition, emotion measurement, emotion understanding emotion representation emotion generation, emotion processing, emotion control and emotion communication. The methodology, technology, scientific significance and application value of artificial emotion are discussed

  • PDF

음악 감성의 사용자 조절에 따른 음악의 특성 변형에 관한 연구 (A Study on the Variation of Music Characteristics based on User Controlled Music Emotion)

  • 응웬반로이;허빈;김동림;임영환
    • 한국콘텐츠학회논문지
    • /
    • 제17권3호
    • /
    • pp.421-430
    • /
    • 2017
  • 본 논문은 기존에 연구되었던 음악 감성 모델을 이용하여 음악의 감성을 판단하고 해당 감성 데이터를 사용자가 원하는 감도의 감성으로 변화 시켰을 때 그에 맞는 감성이 표현될 수 있도록 음악의 특성을 변화시키는 것에 대한 논문이다. 기존의 음악 감성 유형만을 판단하는 1차원적 음악 감성 모델을 이용하여 음악의 템포, 역동성, 진폭변화, 밝기, 잡음 등 5가지 요소의 가중치를 계산하여 실제적인 음악의 감성 데이터(X,Y)를 추출하였으며, 예측된 음악의 감성을 다른 감성 값(X',Y')으로 변형시킴으로써 대응되는 5가지 변형 요소의 데이터 계산이 가능하도록 하였다. 이는 밝은 분위기의 음악을 데이터 변형만으로 우울한 분위기의 음악으로 조절이 가능하다는 점에서 향후 음악 감성 변화에 대한 기초모델을 제시하였다.

감성 트리 기반의 음악 감성 조절 알고리즘 (Music Emotion Control Algorithm based on Sound Emotion Tree)

  • 김동림;림빈;임영환
    • 한국콘텐츠학회논문지
    • /
    • 제15권3호
    • /
    • pp.21-31
    • /
    • 2015
  • 본 논문에서는 기존에 연구되었던 Thayer의 인간의 감성 모델을 바탕으로 음악을 듣고 느끼는 감성을 8가지 감성으로 정의한 음악 감성모델로 제시하였다. 감성에 영향을 주는 음악의 요소는 음악의 템포, 역동성, 진폭변화, 밝기, 잡음 등 5가지로 선택하였다. 8가지 감성으로 이루어진 감성 모델에 따라서 8가지 감성으로 분류된 160곡의 노래를 선곡하여 실제 데이터를 추출하여 분석하였다. 실제 데이터의 분석을 통해 5가지 요소의 가중치로 이루어진 감성 수식을 도출하였고 임의의 음악에 대하여 감성 수식을 통해서 2차원 감성 좌표계에 매핑 하여 감성을 예측할 수 있도록 알고리즘을 설계하였다. 또한 2차원 감성 좌표계에서의 좌표 값을 이동시켜 감성을 제어할 수 있는 방법을 제시하였다.

감성 정보 기반 맞춤형 미디어콘텐츠 큐레이션 시스템 개발 (Development of Personalized Media Contents Curation System based on Emotional Information)

  • 임지희;장두성;최호섭;옥철영
    • 한국콘텐츠학회논문지
    • /
    • 제16권12호
    • /
    • pp.181-191
    • /
    • 2016
  • 현재 IPTV에서 서비스되는 미디어콘텐츠의 검색 질의어 분석을 통해, 고객의 미디어콘텐츠를 선택하는 기준을 살펴보았다. 그 결과 명시적인 메타정보뿐만 아니라 콘텐츠의 내용(소재, 줄거리 등)과 감성 정보가 중요한 요소가 된다는 점을 발견하였다. 그리하여 본 연구에서는 IPTV에서 제공하는 다양한 미디어콘텐츠를 사용자에게 효율적으로 제공하기 위해, 미디어콘텐츠의 감성 정보를 활용하기 위한 감성분류체계를 설계하였다. 그리고 제안한 감성분류체계를 기반으로 사용자 감성 프로파일을 구축하고, 단계적 처리 모듈을 탑재하여 미디어콘텐츠를 편성하는 맞춤형 큐레이션 시스템을 제안하였다. 마지막으로 제안한 맞춤형 미디어콘텐츠 큐레이션 시스템의 효과를 입증하기 위하여, 사용자 만족도 설문 조사를 실시하여 72.0점을 받았다. 또한 인기도 기준으로 편성한 결과와 제안한 시스템의 편성 결과를 비교한 결과 실 사용자의 시청 행위로 이어지는 비율이 최대 10배 높게 나타났다.

Emotion Architecture 적용 사례 분석에 관한 연구 (A Study on Analysis of Cases of Application of Emotion Architecture)

  • 윤호창;오정석;전현주
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2003년도 추계종합학술대회 논문집
    • /
    • pp.447-453
    • /
    • 2003
  • Emotion을 이용한 컴퓨터 인공 지능, 그래픽, 로봇, 상호 작용 등 다양한 분야에 나타나고 있다. 이에 각 분야에 적용되어진 이론적 배경과, 적용의 특징, 기술 등을 본 글에서 다루고자 한다. 먼저 이론적 접근방식에 있어서는 심리학적 접근과, 사람의 감정 연구, Behavior-Bas설 접근, 생물 행동적 접근, 등이 있으며 이를 구현하기 위한 기술로는 학습 알고리즘, Neural Network 의 Self-Organizing Maps, Fuzzy Cognition Maps등이 있다. 적용 분야로는 Software Agent, Agent Robot과 Entrainment Robot 등이 있다. 본 글에서는 이들의 적용 사례들을 살펴보고 Emotion Architecture에 대해서 분석하고자 한다.

  • PDF

Listeners' Perception of Intended Emotions in Music

  • Chong, Hyun Ju;Jeong, Eunju;Kim, Soo Ji
    • International Journal of Contents
    • /
    • 제9권4호
    • /
    • pp.78-85
    • /
    • 2013
  • Music functions as a catalyst for various emotional experiences. Among the numerous genres of music, film music has been reported to induce strong emotional responses. However, the effectiveness of film music in evoking different types of emotions and its relationship in terms of which musical elements contribute to listeners' perception of intended emotion have been rarely investigated. The purpose of this study was to examine the congruence between the intended emotion and the perceived emotion of listeners in film music listening and to identify musical characteristics of film music that correspond with specific types of emotion. Additionally, the study aimed to investigate possible relationships between participants' identification responses and personal musical experience. A total of 147 college students listened to twelve 15-second music excerpts and identified the perceived emotion during music listening. The results showed a high degree of congruence between the intended emotion in film music and the participants' perceived emotion. Existence of tonality and modality were found to play an important role in listeners' perception of intended emotion. The findings suggest that identification of perceived emotion in film music excerpts was congruent regardless of individual differences. Specific music components that led to high congruence are further discussed.