• 제목/요약/키워드: Basic Emotion

검색결과 414건 처리시간 0.02초

사용자 행동 자세를 이용한 시각계 기반의 감정 인식 연구 (A Study on Visual Perception based Emotion Recognition using Body-Activity Posture)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제18B권5호
    • /
    • pp.305-314
    • /
    • 2011
  • 사람의 의도를 인지하기 위해 감정을 시각적으로 인식하는 연구는 전통적으로 감정을 드러내는 얼굴 표정을 인식하는 데 집중해 왔다. 최근에는 감정을 드러내는 신체 언어 즉 신체 행동과 자세를 통해 감정을 나타내는 방법에서 감정 인식의 새로운 가능성을 찾고 있다. 본 연구는 신경생리학의 시각계 처리 방법을 적용한 신경모델을 구축하여 행동에서 기본 감정 의도를 인식하는 방법을 제안한다. 이를 위해 시각 피질의 정보 처리 모델에 따라 생물학적 체계의 신경모델 검출기를 구축하여 신체 행동의 정적 자세에서 6가지 주요 기본 감정을 판별한다. 파라미터 변화에 강건한 제안 모델의 성능은 신체행동 자세 집합을 대상으로 사람 관측자와의 평가 결과를 비교 평가하여 가능성을 제시한다.

생물학 가설의 생성에서 나타난 과학적 감성의 생성 과정 (The Generating Processes of Scientific Emotion in the Generation of Biological Hypotheses)

  • 권용주;신동훈;박지영
    • 한국과학교육학회지
    • /
    • 제25권4호
    • /
    • pp.503-513
    • /
    • 2005
  • 본 연구의 목적은 생물학 가설 생성 중에 나타나는 과학적 감성 생성 과정을 밝히는 것이다. 먼저 예비연구를 통해 잠정적 모형을 구성하고, 사고 발성법 훈련 계획을 확정하고, 표준화된 면접지 개발하였다. 본 연구에서는 8명의 대학생을 대상으로 사고 발성법과 회상적 면접법, 심층 면접을 이용한 삼각측정법으로 언어적 프로토콜과 행동 프로토콜을 수집하였다. 잠정적 모형을 근거를 선언적 지식과 절차적 지식의 분석틀을 개발하였고, 이 분석틀을 이용하여 부호화 프로토콜을 개발하였다. 부호화 프로토콜을 분석한 결과 과학적 감성 생성의 4가지 유형을 개발하였다. 첫 번째 생성 유형은 기본 과정으로서 인식하기 전에 먼저 느끼는 과정을 설명한다. 두 번째 생성 유형은 회상적 과정으로서 과거의 감성기억이 되살아나는 과정을 설명한다. 세 번째 생성 유형은 인지적 과정으로서 인지적 목표를 달성하기 위해 일어나는 일련의 사고 과정에서 생성되는 감성을 설명한다. 네 번째 생성 유형은 귀인 과정으로서 인지적 목표의 달성 여부에 대한 귀인평가 과정에서 생성되는 감성을 설명한다. 기본 과정에서 생성한 감성은 기본 감성이라 하고, 회상 과정에서 생성한 감성은 회상 감성이라 하고, 인지적 과정에서 생성한 감성은 인지적 감성이라 하고, 귀인 과정에서 생성한 감성은 귀인감성이라 한다. 개발된 과학적 감성 생성 과정 유형은 감성 생성 과정 모형 개발과 감성적 두뇌 기반 학습 전략 수립의 기초가 될 것으로 기대한다.

놀람 자극에 대한 심혈관 반응 (Cardiovascular response to surprise stimulus)

  • 엄진섭;박혜준;노지혜;손진훈
    • 감성과학
    • /
    • 제14권1호
    • /
    • pp.147-156
    • /
    • 2011
  • 여러 연구자들이 정서특정적 자율신경계 활동을 밝히기 위하여 행복, 슬픔, 분노, 공포 및 혐오를 포함한 기본 정서들을 사용하여왔지만, Ekman 등(1983)의 기본정서들 중 놀람 정서에 대한 연구는 많지 않다. 본 연구의 목적은 ECG와 PPG를 이용하여 놀람 자극에 대한 심혈관 반응을 밝히는 것이다. 76명의 대학생에게 놀람자극을 제시하기 전과 후에 ECG와 PPG를 기록하였으며, ECG와 PPG 신호로부터 심박률(HR), R-R 간격의 표준편차(SD-RR), 연속된 R-R 간격 차이의 제곱평균제곱근(RMSSD-RR), 호흡성 부정맥(RSA), 손가락 혈류량 파형의 진폭(FBVPA), 손가락 맥파 전달시간(FPTT)을 산출하였다. HR과 SD-RR, RMSSD-RR은 놀람자극 제시 전에 비하여 놀람자극이 제시된 후에 유의하게 증가하였으며, FBVPA는 유의하게 감소하였고, FPTT는 유의하게 짧아졌다. 놀람 자극은 말초혈관을 수축시키고, 심박률을 증가시키는 교감신경계 반응특성을 가지는 것으로 볼 수 있으며, 심박률 변산성을 증가시키는 부교감신경계도 동시에 활성화될 가능성이 있는 것으로 나타났다. 이러한 연구 결과는 정서이론의 발전과, 인간정서를 탐지하는 컴퓨터 시스템의 기초를 확립하는데 기여하는 바가 있을 것이다.

  • PDF

음악 단서와 시각 단서 조건에 따른 학령기 자폐스펙트럼장애 아동과 일반아동의 정서 인식 비교 (Emotion Recognition in Children With Autism Spectrum Disorder: A Comparison of Musical and Visual Cues)

  • 윤예은
    • 인간행동과 음악연구
    • /
    • 제19권1호
    • /
    • pp.1-20
    • /
    • 2022
  • 본 연구의 목적은 국내 자폐스펙트럼장애 아동(Autism Spectrum Disorder, 이하 ASD)과 일반 아동(Typically developing, 이하 TD)의 음악 단서와 시각 단서 조건에 따른 4가지 기본정서(행복, 슬픔, 분노, 두려움) 인식 정확도를 평가하기 위해 실험연구가 실시되었다. 본 연구의 참여자는 ASD 진단 기준을 충족한 만 7세~13세 아동 9명과 일반 아동 14명으로, 모든 참가자를 대상으로 4가지 기본정서 인식 능력을 평가하는 음악 과제와 시각 과제를 실시하였다. ASD 아동과 TD 아동의 단서 조건, 즉 음악 단서와 시각 단서에 따른 정서를 인식하는 정확도와 정서 유형에 있어 차이가 있는지를 비교 분석한 결과, ASD 아동이 TD 아동에 비해 정서 인식 정확도가 유의하게 낮게 나타났다. 또한, 시각 단서보다 음악 단서에서 정서 인식 정확도가 높은 경향으로 나왔다. 마지막으로 정서 유형에 따른 차이는 ASD 아동과 TD 아동 두 그룹 모두 음악 단서에서 행복이 정서 인식 정확도가 높게 나타났고, 시각 단서에서 ASD 아동은 행복이 TD 아동은 분노가 가장 높게 나타났다. 이 결과를 바탕으로 ASD 아동은 음악 매체가 제공되었을 때 시각 매체보다 정서를 보다 잘 인식할 수 있음을 확인하였다. 본 연구는 국내에서 ASD 아동 대상 정서와 관련된 첫 시도라는 점에 의의가 있으며 본 연구의 결과를 바탕으로 관련한 후속 연구가 지속적으로 시행되기를 기대한다.

COMPUTATIONAL MODELING OF KANSEI PROCESSES FOR HUMAN-CENTERED INFORMATION SYSTEMS

  • Kato, Toshikazu
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2002년도 춘계학술대회 논문집
    • /
    • pp.3-8
    • /
    • 2002
  • This paper introduces the basic concept of computational modeling of perception processes for multimedia data. Such processes are modeled as hierarchical inter- and intra- relationships amongst information in physical, physiological, psychological and cognitive layers in perception. Based on our framework, this paper gives the algorithms for content-based retrieval for multimedia database systems.

  • PDF

얼굴표정과 음성을 이용한 감정인식 (An Emotion Recognition Method using Facial Expression and Speech Signal)

  • 고현주;이대종;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.799-807
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정과 음성 속에 담긴 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 혐오, 공포)에 대한 특징을 추출하고 인식하고자 한다. 이를 위해 얼굴표정을 이용한 감정인식에서는 이산 웨이블렛 기반 다해상도 분석을 이용하여 선형판별분석기법으로 특징을 추출하고 최소 거리 분류 방법을 이용하여 감정을 인식한다. 음성에서의 감정인식은 웨이블렛 필터뱅크를 이용하여 독립적인 감정을 확인한 후 다중의사 결정 기법에 외해 감정인식을 한다. 최종적으로 얼굴 표정에서의 감정인식과 음성에서의 감정인식을 융합하는 단계로 퍼지 소속함수를 이용하며, 각 감정에 대하여 소속도로 표현된 매칭 감은 얼굴에서의 감정과 음성에서의 감정별로 더하고 그중 가장 큰 값을 인식 대상의 감정으로 선정한다.

한국인 표준 얼굴 표정 이미지의 감성 인식 정확률 (The Accuracy of Recognizing Emotion From Korean Standard Facial Expression)

  • 이우리;황민철
    • 한국콘텐츠학회논문지
    • /
    • 제14권9호
    • /
    • pp.476-483
    • /
    • 2014
  • 본 논문은 국내 표정 연구에 적합한 얼굴 표정 이미지를 제작하는 것에 목적을 두었다. 이를 위해서 1980년대 태생의 한국인의 표준 형상에 FACS-Action Unit을 결합하여, KSFI(Korean Standard Facial Image) AU set를 제작하였다. KSFI의 객관성을 확보하기 위해 6가지 기본 감성(슬픔, 행복, 혐오, 공포, 화남, 놀람) 이미지를 제작하여, 감성 별 인식 정확률과 얼굴 요소의 감성인식 기여도를 평가하였다. 실험 결과, 정확률이 높은 행복, 놀람, 슬픔, 분노의 이미지의 경우 주로 눈과 입의 얼굴 요소를 통해 감성을 판단하였다. 이러한 연구 결과를 통해 본 연구에서는 표정 이미지의 AU 변경할 수 있는 KSFI 콘텐츠를 제안하였다. 향후 KSFI가 감성 인식률 향상에 기여할 수 있는 학습 콘텐츠로서의 역할을 할 수 있을 것으로 사료된다.

Statistical Hierarchical Analysis of Children Emotional Intelligence's Effects on Mural Preference, Emotion Cultivation, and Community Connection

  • Lee, Kang Il;Ko, Young Chun
    • 통합자연과학논문집
    • /
    • 제7권1호
    • /
    • pp.50-56
    • /
    • 2014
  • To explore effects on each the emotional awareness, emotional expression, emotional empathy, and emotional regulation, of the sub-factors of the child's emotional intelligence, to mural preference, emotion cultivation, and community connection, the hierarchical multiple regression analyses are performed(as in Table 1, 2, and 3). As the results, we found the following facts. Children's mural preference, emotion cultivation, and community connection were expressed by the following equations in order, respectively. Mural Preference = $.170{\times}$[Emotional Awareness](t=2.118, $p=.036^*$) - $.025{\times}$[Emotional Expression](t=-.275, p=.783) + $.088{\times}$[Emotional Empathy](t=.938, p=.350) + $.139{\times}$[Emotional Regulation] (t=1.529, p=.128). Mural Emotion Cultivation = $-.021{\times}$[Emotional Awareness](t=-.294, p=.769) - $.205{\times}$[Emotional Expression](t=-2.573, $p=.011^*$) + $.265{\times}$[Emotional Empathy](t=3.156, $p=.002^*$) + $.192{\times}$[Emotional Regulation](t=2.361, $p=.019^*$). Mural Community Connection = $-.001{\times}$[Emotional Awareness](t=-.007, p=.995) - $.132{\times}$[Emotional Expression](t=-1.478, p=.141) + $.172{\times}$[Emotional Empathy](t=1.732, $p=.027^*$) + $.098{\times}$[Emotional Regulation](t=1.072, p=.285).

Incomplete Cholesky Decomposition based Kernel Cross Modal Factor Analysis for Audiovisual Continuous Dimensional Emotion Recognition

  • Li, Xia;Lu, Guanming;Yan, Jingjie;Li, Haibo;Zhang, Zhengyan;Sun, Ning;Xie, Shipeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권2호
    • /
    • pp.810-831
    • /
    • 2019
  • Recently, continuous dimensional emotion recognition from audiovisual clues has attracted increasing attention in both theory and in practice. The large amount of data involved in the recognition processing decreases the efficiency of most bimodal information fusion algorithms. A novel algorithm, namely the incomplete Cholesky decomposition based kernel cross factor analysis (ICDKCFA), is presented and employed for continuous dimensional audiovisual emotion recognition, in this paper. After the ICDKCFA feature transformation, two basic fusion strategies, namely feature-level fusion and decision-level fusion, are explored to combine the transformed visual and audio features for emotion recognition. Finally, extensive experiments are conducted to evaluate the ICDKCFA approach on the AVEC 2016 Multimodal Affect Recognition Sub-Challenge dataset. The experimental results show that the ICDKCFA method has a higher speed than the original kernel cross factor analysis with the comparable performance. Moreover, the ICDKCFA method achieves a better performance than other common information fusion methods, such as the Canonical correlation analysis, kernel canonical correlation analysis and cross-modal factor analysis based fusion methods.

가상 인간의 감정 표현 인식을 위한 비언어적 다중모달 영향 분석 (Impact Analysis of nonverbal multimodals for recognition of emotion expressed virtual humans)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.9-19
    • /
    • 2012
  • 디지털 콘텐츠에서 HCI로 활용되는 가상 인간은 얼굴 표정과 신체자세와 같은 모달을 이용하여 다양한 감정을 표현하지만 비언어적 다중모달의 조합에 대한 연구는 많지 않다. 감정을 표현하는 가상 인간을 제작하려면 계산 엔진 모델은 얼굴 표정과 신체자세와 같은 비언어적 모달의 조합이 사용자에 의해 어떻게 인식되는지를 고려해야 하기 때문에 본 연구는 가상 인간의 감정 표현 디자인에 필요한 비언어적 다중모달의 영향을 분석하여 제시한다. 먼저 가상 인간에 대한 다중모달 별 감정 인식을 평가하여 다른 모달간의 상대적 영향성을 분석하였다. 그리고 일치하는 얼굴과 자세 모달을 통해 기본 감정 및 정서가와 활성화 인식에 대한 영향을 평가하며 감정이 불일치하는 다중모달을 통해 일상생활에서 빈번하게 드러나는 중첩된 감정의 인식 정도를 관측하였다. 실험 결과, 가상 인간의 얼굴과 신체자세의 표정이 일치하면 감정 인식이 용이하며, 얼굴 표정으로 감정 카테고리를 판별하지만 감정의 활성화 차원 판단에는 자세 모달리티가 선호됨을 확인하였다. 본 연구 결과는 감정을 드러내는 가상 인간의 행동 동기화 및 애니메이션 엔진 시스템 구현에 활용할 수 있다.