• 제목/요약/키워드: 얼굴감정인식

검색결과 130건 처리시간 0.027초

영상분석법에 의한 자의적 정서변화에 따른 표정연구 (Facial Expression Research according to Arbitrary Changes in Emotions through Visual Analytic Method)

  • 변인경;이재호
    • 한국콘텐츠학회논문지
    • /
    • 제13권10호
    • /
    • pp.71-81
    • /
    • 2013
  • 의식적 통제가 가능한 언어는 감정을 숨길 수 있으나, 얼굴 표정은 다양한 문화 속에서도 일관성을 가진다. 표정은 사람의 이미지를 결정하며, 표정에서 감정을 해석하는 능력은 대인관계의 핵심으로 사람의 태도와 결정을 바꿀 만큼 중요하다. 불안정 애착아동, 노인, 자폐증, ADHD 아동, 우울증집단은 얼굴 표정인식 능력과제의 수행결과가 낮아, 이들에 대한 적극적인 개입은 심리장애의 예방과 치료 효과의 가능성을 기대하기도 한다. 지금까지 연구는 주로 상대방 표정에 의한 정서읽기, 수용자의 감정변화가 중심이었으며, 자신의 정서를 스스로 나타내는 "자기표현 표정수행" 및 표정 변화에 대한 정량적 분석 연구가 미흡하였다. 따라서 본 연구에서는 영상을 통한 표정의 정량적 분석법 개발을 목표로 8개의 정서 표정을 "자기표현 표정수행"방법으로 분석하였다. 연구의 정량적 결과는 심리장애 극복을 위한 교육, 심리 행동 치료, 감성공학, 글로벌화 되는 다문화(multi-culture)사회에서 문화극복을 위한 사회관계 대안, 한국문화와 예술 콘텐츠의 다양한 분야에 적용을 기대한다.

딥러닝의 얼굴 정서 식별 기술 활용-대학생의 심리 건강을 중심으로 (Exploration of deep learning facial motions recognition technology in college students' mental health)

  • 리파;조경덕
    • 한국정보통신학회논문지
    • /
    • 제26권3호
    • /
    • pp.333-340
    • /
    • 2022
  • 코로나19는 모두로 하여금 초조하고 불안하게 만들고, 사람들간에는 거리두기가 필요하다. 코로나19로 인해 심리적으로 초조하고 불안 해 지고 거리두기가 필요해졌다. 대학교에서는 학기 초에 정신건강에 대한 단체 평가와 검사가 이루어진다. 본 연구에서는 다층감지기 신경망 모델을 채택하고 훈련시켜 딥러닝을 진행했다. 훈련이 끝난 후, 실제 사진과 동영상을 입력하고, 안면탐지를 진행하고, 표본에 있는 사람의 얼굴 위치를 알아낸 후, 그 감정을 다시 분류하고, 그 표본의 예측한 감정 결과를 그림으로 보여주었다. 결과는 다음과 같다. 테스트 시험에서는 93.2%의 정확도를 얻었고, 실제 사용에서는 95.57%의 정확도를 얻었다. 그중 분노의 식별율은 95%, 혐오의 식별율은 97%, 행복의 식별율은 96%, 공포의 식별율은 96%, 슬픔의 식별율은 97%, 놀라움의 식별율은 95%, 중립의 식별율은 93%이었다. 본 연구의 고효율적 정서 식별 기술은 학생들의 부정적 정서를 포착하는 객관적 데이터를 제공 할 수 있다. 딥러닝의 감정식별 시스템은 심리건강을 향상하기 위한 데이터들을 제공할 수 있다.

정신분열병 환자에서의 감정표현불능증과 얼굴정서인식결핍 (Alexithymia and the Recognition of Facial Emotion in Schizophrenic Patients)

  • 노진찬;박성혁;김경희;김소율;신성웅;이건석
    • 생물정신의학
    • /
    • 제18권4호
    • /
    • pp.239-244
    • /
    • 2011
  • Objectives Schizophrenic patients have been shown to be impaired in both emotional self-awareness and recognition of others' facial emotions. Alexithymia refers to the deficits in emotional self-awareness. The relationship between alexithymia and recognition of others' facial emotions needs to be explored to better understand the characteristics of emotional deficits in schizophrenic patients. Methods Thirty control subjects and 31 schizophrenic patients completed the Toronto Alexithymia Scale-20-Korean version (TAS-20K) and facial emotion recognition task. The stimuli in facial emotion recognition task consist of 6 emotions (happiness, sadness, anger, fear, disgust, and neutral). Recognition accuracy was calculated within each emotion category. Correlations between TAS-20K and recognition accuracy were analyzed. Results The schizophrenic patients showed higher TAS-20K scores and lower recognition accuracy compared with the control subjects. The schizophrenic patients did not demonstrate any significant correlations between TAS-20K and recognition accuracy, unlike the control subjects. Conclusions The data suggest that, although schizophrenia may impair both emotional self-awareness and recognition of others' facial emotions, the degrees of deficit can be different between emotional self-awareness and recognition of others' facial emotions. This indicates that the emotional deficits in schizophrenia may assume more complex features.

머신 러닝과 Microservice 기반 디지털 미러 시스템 (Digital Mirror System with Machine Learning and Microservices)

  • 송명호;김수동
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제9권9호
    • /
    • pp.267-280
    • /
    • 2020
  • 거울은 일반적으로 아말감으로 코팅된 물리적 반사 표면으로 거울 앞의 상을 선명하게 반사한다. 이것은 언제 어디서나 사용이 가능하며 사용자의 얼굴이나 외모를 확인하기 위한 필수적인 도구이다. 현대 소프트웨어 기술의 출현으로 사람들은 실시간 처리, Microservice 및 머신 러닝이 적용된 편의성과 지능성을 통해 거울 반사 기능을 향상시킬 수 있다. 본 논문에서는 거울로써 실시간 반영과 동시에 사용자 맞춤 정보 조회, 공공 정보 조회, 외모를 통한 나이와 감정 탐지 등의 기능을 가진 디지털 거울 시스템 개발을 제안한다. 더불어, 본 시스템은 터치 기반, 음성 인식 기반, 제스처 기반의 Multi-Modal 사용자 인터페이스를 제공한다. 본 논문에서는 이 시스템에 대한 디자인을 제시하고 현재 기술을 이용하여 실시간 거울 반영과 동시에 유용한 정보 제공 및 지능형 머신 러닝 기술을 제공하는 구현 방법을 제안한다.

동작 인식을 통한 인터랙티브 애니메이션 (Interactive Animation by Action Recognition)

  • 황지연;임양미;박지완;장성갑
    • 한국콘텐츠학회논문지
    • /
    • 제6권12호
    • /
    • pp.269-277
    • /
    • 2006
  • 본 연구는 인간의 과장적 제스처 중, 팔에 대한 키 프레임을 추출하여 팔 동작(제스처)과 만화적 감정 표현 애니메이션과의 매칭을 위한 인터렉티브 시스템 구현을 목적으로 한다. 실시간 애니메이션 구현을 위하여 필요한 요소는 표정 변화에 따른 수많은 프레임 제작이다. 따라서, 애니메이션 제작에 따르는 시간 을 최소화하기 위해 3D 어플리케이션을 이용한 얼굴 감정 표현의 변형과정을 소개한다. 두 번째는 3D 어플리케이션에서 만들어진 많은 프레임들을 동작과 매칭하는 방법을 소개한다. 팔의 동작 변화에 따른 과장된 표정의 이미지 시퀀스를 매칭 시킴으로서 관객의 동작이 작품의 시동점이 되어 기존의 초상화가 과장된 움직임을 가칠 수 있게 함으로서 직접적으로 초상화와 의사소통을 하는듯한 느낌을 갖도록 했다.

  • PDF

SIFT 특징을 이용하여 중첩상황에 강인한 AAM 기반 얼굴 추적 (Robust AAM-based Face Tracking with Occlusion Using SIFT Features)

  • 엄성은;장준수
    • 정보처리학회논문지B
    • /
    • 제17B권5호
    • /
    • pp.355-362
    • /
    • 2010
  • 얼굴추적은 3차원 공간상에서 머리(head)와 안면(face)의 움직임을 추정하는 기술로, 얼굴 표정 감정인식과 같은 상위 분석단계의 중요한 기반기술이다. 본 논문에서는 AAM 기반의 얼굴추적 알고리즘을 제안한다. AAM은 변형되는 대상을 분할하고 추적하는데 광범위하게 적용되고 있다. 그러나 여전히 여러 가지 해결해야할 제약사항들이 있다. 특히 자체중첩(self-occlusion)과 부분적인 중첩, 그리고 일시적으로 완전히 가려지는 완전중첩 상황에서 보통 국부해에 수렴(local convergence)하거나 발산하기 쉽다. 본 논문에서는 이러한 중첩상황에 대한 AAM의 강인성을 향상시키기 위해서 SIFT 특징을 이용하고 있다. SIFT는 일부 영상의 특징점으로 안정적인 추적이 가능하기 때문에 자체와 부분중첩에 효과적이며, 완전중첩의 상황에도 SIFT의 전역적인 매칭성능으로 별도의 재초기화 없이 연속적인 추적이 가능하다. 또한 추적과정에서 큰 자세변화에 따른 움직임을 효과적으로 추정하기 위해서 다시점(multi-view) 얼굴영상의 SIFT 특징을 온라인으로 등록하여 활용하고 있다. 제안한 알고리즘의 이러한 강인성은 위 세 가지 중첩상황에 대해서 기존 알고리즘들과의 비교실험을 통해서 보여준다.

감정예측모형의 성과개선을 위한 Support Vector Regression 응용 (Application of Support Vector Regression for Improving the Performance of the Emotion Prediction Model)

  • 김성진;유은정;정민규;김재경;안현철
    • 지능정보연구
    • /
    • 제18권3호
    • /
    • pp.185-202
    • /
    • 2012
  • 오늘날 정보사회에서는 정보에 대한 가치를 인식하고, 이를 위한 정보의 활용과 수집이 중요해지고 있다. 얼굴 표정은 그림 하나가 수천개의 단어를 표현할 수 있듯이 수천 개의 정보를 지니고 있다. 이에 주목하여 최근 얼굴 표정을 통해 사람의 감정을 판단하여 지능형 서비스를 제공하기 위한 시도가 MIT Media Lab을 필두로 활발하게 이루어지고 있다. 전통적으로 기존 연구에서는 인공신경망, 중회귀분석 등의 기법을 통해 사람의 감정을 판단하는 연구가 이루어져 왔다. 하지만 중회귀모형은 예측 정확도가 떨어지고, 인공신경망은 성능은 뛰어나지만 기법 자체가 지닌 과적합화 문제로 인해 한계를 지닌다. 본 연구는 사람들의 자극에 대한 반응으로서 나타나는 얼굴 표정을 통해 감정을 추론해내는 지능형 모형을 개발하는 것을 목표로 한다. 기존 얼굴 표정을 통한 지능형 감정판단모형을 개선하기 위하여, Support Vector Regression(이하 SVR) 기법을 적용하는 새로운 모형을 제시한다. SVR은 기존 Support Vector Machine이 가진 뛰어난 예측 능력을 바탕으로, 회귀문제 영역을 해결하기 위해 확장된 것이다. 본 연구의 제안 모형의 목적은 사람의 얼굴 표정으로부터 쾌/불쾌 수준 그리고 몰입도를 판단할 수 있도록 설계되는 것이다. 모형 구축을 위해 사람들에게 적절한 자극영상을 제공했을 때 나타나는 얼굴 반응들을 수집했고, 이를 기반으로 얼굴 특징점을 도출 및 보정하였다. 이후 전처리 과정을 통해 통계적 유의변수를 추출 후 학습용과 검증용 데이터로 구분하여 SVR 모형을 통해 학습시키고, 평가되도록 하였다. 다수의 일반인들을 대상으로 수집된 실제 데이터셋을 기반으로 제안모형을 적용해 본 결과, 매우 우수한 예측 정확도를 보임을 확인할 수 있었다. 아울러, 중회귀분석이나 인공신경망 기법과 비교했을 때에도 본 연구에서 제안한 SVR 모형이 쾌/불쾌 수준 및 몰입도 모두에서 더 우수한 예측성과를 보임을 확인할 수 있었다. 이는 얼굴 표정에 기반한 감정판단모형으로서 SVR이 상당히 효과적인 수단이 될 수 있다는 점을 알 수 있었다.

감성 인식 컴퓨팅 기술을 적용한 이러닝 상호작용 기술 연구 (Enhancing e-Learning Interactivity vla Emotion Recognition Computing Technology)

  • 박정현;김인옥;정상목;송기상;김종백
    • 컴퓨터교육학회논문지
    • /
    • 제11권2호
    • /
    • pp.89-98
    • /
    • 2008
  • 학습자와 이러닝 시스템 사이의 상호작용은 이러닝 시스템의 효율성을 결정짓는 중요한 요소이다. 기존의 웹기반 콘텐츠의 경우에도 다양한 상호작용 기능이 채용되고 있지만 학습자들은 인간-컴퓨터 상호작용 기술의 한계에 따른 실시간 인간 교사로부터 받는 것과 같은 피드백을 경험하는 것은 한계가 있다. 본 논문에서는 학습자의 얼굴 표정을 이용하여 감정을 인식하는 시스템을 개발하고 튜터링 시스템에 통합시켰다. 관찰되는 학습자의 감정 변화에 대하여 인간 교사가 하듯이 적합한 피드백 메시지를 제공하여 이러닝 환경에서 나타날 수 있는 학습자의 고립감을 제거할 수 있도록 하였다. 본 체제를 실제 수업에 도입한 결과 학업 성취도의 개선과 이러닝 학습의 흥미도 개선이 유의미하게 이루어질 수 있음을 보였다.

  • PDF

감정이 있는 얼굴영상과 퍼지 Fisherface를 이용한 얼굴인식 (Face Recognition using Emotional Face Images and Fuzzy Fisherface)

  • 고현주;전명근
    • 제어로봇시스템학회논문지
    • /
    • 제15권1호
    • /
    • pp.94-98
    • /
    • 2009
  • In this paper, we deal with a face recognition method for the emotional face images. Since the face recognition is one of the most natural and straightforward biometric methods, there have been various research works. However, most of them are focused on the expressionless face images and have had a very difficult problem if we consider the facial expression. In real situations, however, it is required to consider the emotional face images. Here, three basic human emotions such as happiness, sadness, and anger are investigated for the face recognition. And, this situation requires a robust face recognition algorithm then we use a fuzzy Fisher's Linear Discriminant (FLD) algorithm with the wavelet transform. The fuzzy Fisherface is a statistical method that maximizes the ratio of between-scatter matrix and within-scatter matrix and also handles the fuzzy class information. The experimental results obtained for the CBNU face databases reveal that the approach presented in this paper yields better recognition performance in comparison with the results obtained by other recognition methods.

감정표현을 위한 FACS 기반의 안드로이드 헤드의 개발 (Development of FACS-based Android Head for Emotional Expressions)

  • 최동운;이덕연;이동욱
    • 방송공학회논문지
    • /
    • 제25권4호
    • /
    • pp.537-544
    • /
    • 2020
  • 본 논문에서는 FACS(Facial Action Coding System)에 기반을 둔 안드로이드 로봇 헤드의 개발을 통한 감정표현 방법을 제안한다. 안드로이드 로봇은 인간과 가까운 외모를 가진 로봇을 말하며, 인공 피부, 인공 근육을 가지고 있다. 감정 표현을 로봇으로 구현하기 위해서는 인공 근육의 개수와 배치를 정하여야 하는데 이를 위해 인간의 얼굴 움직임을 해부학적으로 분석하였다. FACS는 해부학을 기반으로 하여 표정을 만들 때의 얼굴의 움직임을 분석한 시스템이다. FACS에서는 표정은 AU(Action Unit)의 조합으로 만들어지며, 이 AU를 기반으로 로봇의 인공 근육의 수와 위치를 정하게 된다. 개발된 안드로이드 헤드는 30개의 인공 근육에 해당되는 모터와 와이어를 가지고 있으며, 표정 구현을 위한 인공 피부를 가지고 있다. 제한된 머리 공간에 많은 모터를 탑재하기 위해 spherical joint와 스프링을 이용하여 초소형 안구 모듈이 개발되었고, 와이어 경로의 효율적인 설계를 기반으로 30개의 모터가 배치되었다. 제작된 안드로이드 헤드는 30 자유도를 가지고 13개의 기본 감정 표현을 구현 가능하였고, 전시회에서 일반 관람객들을 대상으로 인식률을 평가 받았다.