• 제목/요약/키워드: Emotion Classification

검색결과 292건 처리시간 0.027초

감성 요소에 기반한 추상 CGI의 분류 (Classification Scheme using Emotional Elements for Abstract Computer-Generated Images)

  • 서동수;최민영
    • 감성과학
    • /
    • 제14권2호
    • /
    • pp.293-300
    • /
    • 2011
  • CGI(Computer-generated Image) 기술은 이미지 생성을 자동화한다는 측면에서 디자이너에게 도움을 줄 수 있다. CGI를 활용하는 과정에서 두 가지 중요한 활동은 이미지의 제작과 관리이다. 다양성을 추구하는 디자이너에게 추상이미지의 자동 생성과 같은 기법은 자유로운 형태의 이미지 획득에 많은 도움을 줄 수 있다. 이와 더불어 중요한 이슈는 방대한 분량의 이미지를 적절한 메커니즘을 통해 관리하는 것이다. 추상이미지는 특성상 이미지에 대응하는 검색어 설정이 어려우며, 분류 역시 까다로운 문제로 남아있다. 본 논문은 디자이너에게 친숙한 조형 요소와 감성 요소를 분류와 표현의 정보로 이용함으로써 자동 생산된 추상 이미지를 효과적으로 분류하고 표현하는 방법을 제안한다. 추상이미지에 대한 적절한 분류와 표현은 이미지 데이타베이스 구축 및 검색에 있어 간결하고 효과적인 기술로 활용할 수 있으며 대규모 컨텐츠 관리에 도움을 줄 수 있다.

  • PDF

Classification between Intentional and Natural Blinks in Infrared Vision Based Eye Tracking System

  • Kim, Song-Yi;Noh, Sue-Jin;Kim, Jin-Man;Whang, Min-Cheol;Lee, Eui-Chul
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.601-607
    • /
    • 2012
  • Objective: The aim of this study is to classify between intentional and natural blinks in vision based eye tracking system. Through implementing the classification method, we expect that the great eye tracking method will be designed which will perform well both navigation and selection interactions. Background: Currently, eye tracking is widely used in order to increase immersion and interest of user by supporting natural user interface. Even though conventional eye tracking system is well focused on navigation interaction by tracking pupil movement, there is no breakthrough selection interaction method. Method: To determine classification threshold between intentional and natural blinks, we performed experiment by capturing eye images including intentional and natural blinks from 12 subjects. By analyzing successive eye images, two features such as eye closed duration and pupil size variation after eye open were collected. Then, the classification threshold was determined by performing SVM(Support Vector Machine) training. Results: Experimental results showed that the average detection accuracy of intentional blinks was 97.4% in wearable eye tracking system environments. Also, the detecting accuracy in non-wearable camera environment was 92.9% on the basis of the above used SVM classifier. Conclusion: By combining two features using SVM, we could implement the accurate selection interaction method in vision based eye tracking system. Application: The results of this research might help to improve efficiency and usability of vision based eye tracking method by supporting reliable selection interaction scheme.

음악신호와 뇌파 특징의 회귀 모델 기반 감정 인식을 통한 음악 분류 시스템 (Music classification system through emotion recognition based on regression model of music signal and electroencephalogram features)

  • 이주환;김진영;정동기;김형국
    • 한국음향학회지
    • /
    • 제41권2호
    • /
    • pp.115-121
    • /
    • 2022
  • 본 논문에서는 음악 청취 시에 나타나는 뇌파 특징을 이용하여 사용자 감정에 따른 음악 분류 시스템을 제안한다. 제안된 시스템에서는 뇌파 신호로부터 추출한 감정별 뇌파 특징과 음악신호에서 추출한 청각적 특징 간의 관계를 회귀 심층신경망을 통해 학습한다. 실제 적용 시에는 이러한 회귀모델을 기반으로 제안된 시스템은 입력되는 음악의 청각 특성에 매핑된 뇌파 신호 특징을 자동으로 생성하고, 이 특징을 주의집중 기반의 심층신경망에 적용함으로써 음악을 자동으로 분류한다. 실험결과는 제안된 자동 음악분류 프레임 워크의 음악 분류 정확도를 제시한다.

웹사이트 사용자 감성유형 분류를 통한 감성척도 연구 (A Study on the Image Scale through the Classification of Emotion in Web Site)

  • 홍수연;이현주;진기남
    • 감성과학
    • /
    • 제12권1호
    • /
    • pp.1-10
    • /
    • 2009
  • 본 연구는 사용자들이 웹 페이지에서 기본적으로 느끼는 감성을 분석한 후 감성척도(Image Scale)를 구성하여, 웹사이트 디자인과 감성의 관계를 분석하기 위한 연구이다. 웹사이트 감성유형 분류 및 감성척도 연구방법은 다음과 같다. 감성유형 분류는 문헌연구와 설문조사로 이루어 졌으며, 언어전문가 검증과 요인분석으로 이루어졌다. 감성척도 연구는 감성유형 분류 결과를 다차원척도 분석을 통해 이루어졌다. 또한, 웹사이트 디자인과 감성의 관계를 분석하기 위해서는 웹사이트 사용자 감성평가 설문을 통해, 감성유형에 따른 웹사이트 표본을 추출하였다. 추출된 표본을 감성척도 공간에 배치하여 감성과 웹사이트 디자인 관계를 분석하였다. 연구 결과는 다음과 같다. 웹페이지 대표 감성유형은 '상쾌함', '차분함', '고급스러움', '강렬함', '젊음', '독특함', '미래적임' 이다. 다차원척도로 형용사간의 유사성을 분석한 결과 '무겁다-가볍다'와 '부드럽다-딱딱하다'의 축으로 구성된 웹사이트 감성척도 공간을 구성하였다. 또한, 웹사이트 디자인 요소와 감성의 관계는 '딱딱하다-부드럽다' 느낌에서는 색채와 레이아웃의 영향이 가장 두드러졌으며, '가벼운-무거운' 느낌에서는 명도와 색상의 영향을 많이 받는 것으로 나타났다.

  • PDF

감성 정보 기반 맞춤형 미디어콘텐츠 큐레이션 시스템 개발 (Development of Personalized Media Contents Curation System based on Emotional Information)

  • 임지희;장두성;최호섭;옥철영
    • 한국콘텐츠학회논문지
    • /
    • 제16권12호
    • /
    • pp.181-191
    • /
    • 2016
  • 현재 IPTV에서 서비스되는 미디어콘텐츠의 검색 질의어 분석을 통해, 고객의 미디어콘텐츠를 선택하는 기준을 살펴보았다. 그 결과 명시적인 메타정보뿐만 아니라 콘텐츠의 내용(소재, 줄거리 등)과 감성 정보가 중요한 요소가 된다는 점을 발견하였다. 그리하여 본 연구에서는 IPTV에서 제공하는 다양한 미디어콘텐츠를 사용자에게 효율적으로 제공하기 위해, 미디어콘텐츠의 감성 정보를 활용하기 위한 감성분류체계를 설계하였다. 그리고 제안한 감성분류체계를 기반으로 사용자 감성 프로파일을 구축하고, 단계적 처리 모듈을 탑재하여 미디어콘텐츠를 편성하는 맞춤형 큐레이션 시스템을 제안하였다. 마지막으로 제안한 맞춤형 미디어콘텐츠 큐레이션 시스템의 효과를 입증하기 위하여, 사용자 만족도 설문 조사를 실시하여 72.0점을 받았다. 또한 인기도 기준으로 편성한 결과와 제안한 시스템의 편성 결과를 비교한 결과 실 사용자의 시청 행위로 이어지는 비율이 최대 10배 높게 나타났다.

음성신호기반의 감정인식의 특징 벡터 비교 (A Comparison of Effective Feature Vectors for Speech Emotion Recognition)

  • 신보라;이석필
    • 전기학회논문지
    • /
    • 제67권10호
    • /
    • pp.1364-1369
    • /
    • 2018
  • Speech emotion recognition, which aims to classify speaker's emotional states through speech signals, is one of the essential tasks for making Human-machine interaction (HMI) more natural and realistic. Voice expressions are one of the main information channels in interpersonal communication. However, existing speech emotion recognition technology has not achieved satisfactory performances, probably because of the lack of effective emotion-related features. This paper provides a survey on various features used for speech emotional recognition and discusses which features or which combinations of the features are valuable and meaningful for the emotional recognition classification. The main aim of this paper is to discuss and compare various approaches used for feature extraction and to propose a basis for extracting useful features in order to improve SER performance.

모의 지능로봇에서의 음성 감정인식 (Speech Emotion Recognition on a Simulated Intelligent Robot)

  • 장광동;김남;권오욱
    • 대한음성학회지:말소리
    • /
    • 제56호
    • /
    • pp.173-183
    • /
    • 2005
  • We propose a speech emotion recognition method for affective human-robot interface. In the Proposed method, emotion is classified into 6 classes: Angry, bored, happy, neutral, sad and surprised. Features for an input utterance are extracted from statistics of phonetic and prosodic information. Phonetic information includes log energy, shimmer, formant frequencies, and Teager energy; Prosodic information includes Pitch, jitter, duration, and rate of speech. Finally a pattern classifier based on Gaussian support vector machines decides the emotion class of the utterance. We record speech commands and dialogs uttered at 2m away from microphones in 5 different directions. Experimental results show that the proposed method yields $48\%$ classification accuracy while human classifiers give $71\%$ accuracy.

  • PDF

모의 지능로봇에서 음성신호에 의한 감정인식 (Speech Emotion Recognition by Speech Signals on a Simulated Intelligent Robot)

  • 장광동;권오욱
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2005년도 추계 학술대회 발표논문집
    • /
    • pp.163-166
    • /
    • 2005
  • We propose a speech emotion recognition method for natural human-robot interface. In the proposed method, emotion is classified into 6 classes: Angry, bored, happy, neutral, sad and surprised. Features for an input utterance are extracted from statistics of phonetic and prosodic information. Phonetic information includes log energy, shimmer, formant frequencies, and Teager energy; Prosodic information includes pitch, jitter, duration, and rate of speech. Finally a patten classifier based on Gaussian support vector machines decides the emotion class of the utterance. We record speech commands and dialogs uttered at 2m away from microphones in 5different directions. Experimental results show that the proposed method yields 59% classification accuracy while human classifiers give about 50%accuracy, which confirms that the proposed method achieves performance comparable to a human.

  • PDF

Extracting and Clustering of Story Events from a Story Corpus

  • Yu, Hye-Yeon;Cheong, Yun-Gyung;Bae, Byung-Chull
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권10호
    • /
    • pp.3498-3512
    • /
    • 2021
  • This article describes how events that make up text stories can be represented and extracted. We also address the results from our simple experiment on extracting and clustering events in terms of emotions, under the assumption that different emotional events can be associated with the classified clusters. Each emotion cluster is based on Plutchik's eight basic emotion model, and the attributes of the NLTK-VADER are used for the classification criterion. While comparisons of the results with human raters show less accuracy for certain emotion types, emotion types such as joy and sadness show relatively high accuracy. The evaluation results with NRC Word Emotion Association Lexicon (aka EmoLex) show high accuracy values (more than 90% accuracy in anger, disgust, fear, and surprise), though precision and recall values are relatively low.

정서 관련 척도를 이용한 사상체질의 감정 특성 요인 연구 (The study of Emotion Traits in Sasang Constitution by Several Mood scale)

  • 김우철;김경수;김경옥
    • 동의신경정신과학회지
    • /
    • 제22권4호
    • /
    • pp.63-75
    • /
    • 2011
  • Objectives : One's mind is turned over by environment and personal relationship. This Emotion is called Chiljung in Oriental Medicine. Sasang Constitution is sorted each Emotion by Nature & Emotion(性情). So, this study aimed at figuring out the relations on Sasang Constitution, and emotion traits of oriental medicine students by EEQ and CISS(as named Mood scale). Methods : 199 students of Dongshin university oriental medicine were tested by Questionnaire for Sasang Constitution ClassificationII(QSCCII) and Mood scale. In this study is used 156 students' data, except 43 students' one for research. 156 students are classified four groups by QSCCII. The degree of emotion was determined by Mood scale. These data ware analyzed by frequency, t-test, ANOVA, Multiple comparison, Correlation, Regression with SPSS windows 15.0. Results : 1. Soeumin has high score on EEQ more than Soyangin. 2. Sasang constitution make no difference on CISS, except emotion-oriented coping in not classify group. 3. It has influence on Emotional express by Sasang constotution that Task-oriented coping, EEQ and CISS. Conclusions : Sasang constitution has significant difference on Emotional express.