• 제목/요약/키워드: Dimensional Emotion Model

검색결과 48건 처리시간 0.033초

물리적 인지적 상황을 고려한 감성 인식 모델링 (Emotion recognition modeling in considering physical and cognitive factors)

  • 송성호;박희환;지용관;박지형;박장현
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2005년도 춘계학술대회 논문집
    • /
    • pp.1937-1943
    • /
    • 2005
  • The technology of emotion recognition is a crucial factor in day of ubiquitous that it provides various intelligent services for human. This paper intends to make the system which recognizes the human emotions based on 2-dimensional model with two bio signals, GSR and HRV. Since it is too difficult to make model the human's bio system analytically, as a statistical method, Hidden Markov Model(HMM) is used, which uses the transition probability among various states and measurable observation variance. As a result of experiments for each emotion, we can get average recognition rates of 64% for first HMM results and 55% for second HMM results

  • PDF

인간심리를 이용한 감성 모델과 영상검색에의 적용 (Emotional Model via Human Psychological Test and Its Application to Image Retrieval)

  • 유헌우;장동식
    • 대한산업공학회지
    • /
    • 제31권1호
    • /
    • pp.68-78
    • /
    • 2005
  • A new emotion-based image retrieval method is proposed in this paper. The research was motivated by Soen's evaluation of human emotion on color patterns. Thirteen pairs of adjective words expressing emotion pairs such as like-dislike, beautiful-ugly, natural-unnatural, dynamic-static, warm-cold, gay-sober, cheerful-dismal, unstablestable, light-dark, strong-weak, gaudy-plain, hard-soft, heavy-light are modeled by 19-dimensional color array and $4{\times}3$ gray matrix in off-line. Once the query is presented in text format, emotion model-based query formulation produces the associated color array and gray matrix. Then, images related to the query are retrieved from the database based on the multiplication of color array and gray matrix, each of which is extracted from query and database image. Experiments over 450 images showed an average retrieval rate of 0.61 for the use of color array alone and an average retrieval rate of 0.47 for the use of gray matrix alone.

로봇의 인간과 유사한 행동을 위한 2차원 무드 모델 제안 (Proposal of 2D Mood Model for Human-like Behaviors of Robot)

  • 김원화;박정우;김우현;이원형;정명진
    • 로봇학회논문지
    • /
    • 제5권3호
    • /
    • pp.224-230
    • /
    • 2010
  • As robots are no longer just working labors in the industrial fields, but stepping into the human's daily lives, interaction and communication between human and robot is becoming essential. For this social interaction with humans, emotion generation of a robot has become necessary, which is a result of very complicated process. Concept of mood has been considered in psychology society as a factor that effects on emotion generation, which is similar to emotion but not the same. In this paper, mood factors for robot considering not only the conditions of the robot itself but also the circumstances of the robot are listed, chosen and finally considered as elements defining a 2-dimensional mood space. Moreover, architecture that combines the proposed mood model and a emotion generation module is given at the end.

Grooming 사용자의 2차원 감성 모델링에 의한 터치폰의 GUI 요소에 대한 연구 (Research on GUI(Graphic User Interaction) factors of touch phone by two dimensional emotion model for Grooming users)

  • 김지혜;황민철;김종화;우진철;김치중;김용우;박영충;정광모
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2009년도 춘계학술대회
    • /
    • pp.55-58
    • /
    • 2009
  • 본 연구는 주관적인 사용자의 감성을 객관적으로 정의하여 2차원 감성 모델에 의한 터치폰의 GUI 디자인 요소에 대한 디자인 가이드라인을 제시하고자 한다. 본 연구는 다음과 같은 단계로 연구를 진행하였다. 첫 번째 단계로 그루밍(Grooming) 사용자들의 라이프 스타일을 조사하여 Norman(2002)에 의거한 감각적, 행태적, 그리고 심볼적 세 가지 레벨의 감성요소를 추출하였다. 두 번째 단계로 Russell(1980)의 28개 감성 어휘와 세 단계 감성과의 관계성을 설문하여 감성모델을 구현하였다. 마지막으로 요인분석을 이용하여 대표 감성 어휘를 도출한 후 감성적 터치폰의 GUI(Graphic User Interaction) 디자인 요소를 제시함으로써 사용자의 감성이 반영된 인간 중심적인 제품 디자인을 위한 가이드라인을 제안한다.

  • PDF

Speech Emotion Recognition Using 2D-CNN with Mel-Frequency Cepstrum Coefficients

  • Eom, Youngsik;Bang, Junseong
    • Journal of information and communication convergence engineering
    • /
    • 제19권3호
    • /
    • pp.148-154
    • /
    • 2021
  • With the advent of context-aware computing, many attempts were made to understand emotions. Among these various attempts, Speech Emotion Recognition (SER) is a method of recognizing the speaker's emotions through speech information. The SER is successful in selecting distinctive 'features' and 'classifying' them in an appropriate way. In this paper, the performances of SER using neural network models (e.g., fully connected network (FCN), convolutional neural network (CNN)) with Mel-Frequency Cepstral Coefficients (MFCC) are examined in terms of the accuracy and distribution of emotion recognition. For Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS) dataset, by tuning model parameters, a two-dimensional Convolutional Neural Network (2D-CNN) model with MFCC showed the best performance with an average accuracy of 88.54% for 5 emotions, anger, happiness, calm, fear, and sadness, of men and women. In addition, by examining the distribution of emotion recognition accuracies for neural network models, the 2D-CNN with MFCC can expect an overall accuracy of 75% or more.

Facial Expression Recognition with Fuzzy C-Means Clusstering Algorithm and Neural Network Based on Gabor Wavelets

  • Youngsuk Shin;Chansup Chung;Lee, Yillbyung
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2000년도 춘계 학술대회 및 국제 감성공학 심포지움 논문집 Proceeding of the 2000 Spring Conference of KOSES and International Sensibility Ergonomics Symposium
    • /
    • pp.126-132
    • /
    • 2000
  • This paper presents a facial expression recognition based on Gabor wavelets that uses a fuzzy C-means(FCM) clustering algorithm and neural network. Features of facial expressions are extracted to two steps. In the first step, Gabor wavelet representation can provide edges extraction of major face components using the average value of the image's 2-D Gabor wavelet coefficient histogram. In the next step, we extract sparse features of facial expressions from the extracted edge information using FCM clustering algorithm. The result of facial expression recognition is compared with dimensional values of internal stated derived from semantic ratings of words related to emotion. The dimensional model can recognize not only six facial expressions related to Ekman's basic emotions, but also expressions of various internal states.

  • PDF

다차원 척도 분석법을 통한 Grooming 사용자의 터치폰 감성 GUI 디자인에 대한 연구 (A research on the emotion GUI design of touch mobile for Grooming user by using a multidimensional standard analysis)

  • 김지혜;황민철;김용우;임좌상
    • 감성과학
    • /
    • 제12권4호
    • /
    • pp.501-510
    • /
    • 2009
  • 본 연구는 다차원척도법에 의한 그루밍 사용자의 2차원 감성 모델을 정의함에 따라 터치폰의 GUI 요소를 결정하는 것이 목적이다. 본 연구는 다음과 같은 단계로 진행되었다. 첫 번째 단계로 그루밍(Grooming) 사용자들의 라이프스타일을 조사하여 Norman(2002)에 의거한 감각적, 행태적, 그리고 심볼적 레벨의 감성요소를 추출하였다. 두 번째 단계로 요인분석을 이용하여 대표 감성 어휘를 도출한다. 세 번째 단계로 도출된 대표감성 어휘는 다차원척도분석을 통해 2차원 감성 모델링을 하였다. 마지막으로 매핑 된 그루밍 사용자의 감성과 터치폰 GUI 요소의 관계성을 설문 한 후 정규화를 통해 0~1사이의 정량적 수치로 디자인에 반영될 주요감성 어휘를 도출하였다. 본 연구 결과 터치폰의 43개 디자인 요소에 해당하는 그루밍 사용자의 6개의 대표감성으로 '특이한', '주관이 뚜렷한', '세련된', '자유로운' '열정적인', '깔끔한'을 제시하였다. 또한 정규화를 통해 각각의 GUI 요소를 디자인 할 때 중요하게 고려되어야 할 감성을 제시하였다.

  • PDF

SNS 사용자의 관계유형에 따른 사회감성 모델의 타당화 분석 (Validity analysis of the social emotion model based on relation types in SNS)

  • 차예술;김지혜;김종화;김송이;김동근;황민철
    • 감성과학
    • /
    • 제15권2호
    • /
    • pp.283-296
    • /
    • 2012
  • 본 연구는 SNS 사용자 간의 관계 유형을 감성공유관계와 정보공유관계로 분류하여 두 관계에 따른 사회감성모델을 구축하는 것이 목적이다. 이를 위해 먼저, 기존 문헌에 근거하여 92개의 감성을 수집하여 적합성 검증을 수행한 후 연구목적에 부합하는 26개의 사회감성을 추출하였다. 추출된 사회감성은 관계 유형에 따른 요인분석을 통해 12개의 대표 사회감성과 13개의 대표 사회감성을 도출하였다. 도출된 대표 사회감성은 다차원척도분석을 통하여 2차원의 공간에 매핑하여 사회감성 모델을 도출하였다. 도출된 사회감성 모델은 구조방정식모형 분석을 통해 통계적으로 유의하지 않은 요소들을 제거하였다. 타당성 검증 결과 적합도 지수를 통해 감성공유관계의 사회감성 모델(CFI:.887, TLI:.885, RMSEA:.094)과 정보공유관계의 사회감성 모델(CFI:.917, TLI:.900, RMSEA:.050)의 적합도가 나타났다. 본 연구의 결과로 사용자 관계 유형에 따라 상이한 사회감성 모델이 검증되었다. 본 연구를 통해 제시된 사회감성 모델은 SNS상에서 인간의 감성을 측정하는데 필요한 평가 자료로 활용될 수 있을 뿐만 아니라 향후 사회감성의 발전 방향을 제시할 수 있는 자료로 활용될 수 있을 것이라 사료된다.

  • PDF

LED조명 시스템을 이용한 음악 감성 시각화에 대한 연구 (Emotion-based music visualization using LED lighting control system)

  • 응웬반로이;김동림;임영환
    • 한국게임학회 논문지
    • /
    • 제17권3호
    • /
    • pp.45-52
    • /
    • 2017
  • 본 논문은 음악의 감성을 시각화하는 새로운 방법을 제안하는 논문으로 시각화를 위하여 감성 LED조명 제어 시스템을 고안하였으며 이 시스템은 청중들의 음악 경험을 더욱 풍요롭게 하기 위함에 목적이 있다. 이 시스템은 기존 연구의 음악 감성 분석 알고리즘을 이용하였는데 하나의 음악에서 하나의 감성을 추출하는 기존 연구의 한계를 보완하고자 음악의 1초당 세그먼트에서 감성을 추출 하여 감성 변화를 감지하는 방법을 연구하였다. 또한 LED조명의 감성 컬러는 IRI컬러 모델과 Thayer의 감성 모델을 기초로 새로운 감성 컬러 36가지를 정의 하여 각 감성에 맞는 색으로 연출 할 수 있도록 구성하고 애니메이션과 더불어 감성 LED 조명으로 표현 할 수 있도록 하였다. 이 시스템의 검증을 위한 실험 결과, 듣는이의 감성과 감성 LED 조명 시스템의 감성 일치율이 60% 이상으로 향후 음악 감성 기반 서비스의 중요한 밑거름이 될 것으로 보인다.

바이오센서 기반 특징 추출 기법 및 감정 인식 모델 개발 (Development of Bio-sensor-Based Feature Extraction and Emotion Recognition Model)

  • 조예리;배동성;이윤규;안우진;임묘택;강태구
    • 전기학회논문지
    • /
    • 제67권11호
    • /
    • pp.1496-1505
    • /
    • 2018
  • The technology of emotion recognition is necessary for human computer interaction communication. There are many cases where one cannot communicate without considering one's emotion. As such, emotional recognition technology is an essential element in the field of communication. n this regard, it is highly utilized in various fields. Various bio-sensor sensors are used for human emotional recognition and can be used to measure emotions. This paper proposes a system for recognizing human emotions using two physiological sensors. For emotional classification, two-dimensional Russell's emotional model was used, and a method of classification based on personality was proposed by extracting sensor-specific characteristics. In addition, the emotional model was divided into four emotions using the Support Vector Machine classification algorithm. Finally, the proposed emotional recognition system was evaluated through a practical experiment.