• 제목/요약/키워드: Emotional Facial Expression

검색결과 125건 처리시간 0.023초

애니메이선 캐릭터의 표정연출 유형 연구 (A Study on Pattern of Facial Expression Presentation in Character Animation)

  • 홍순구
    • 한국콘텐츠학회논문지
    • /
    • 제6권8호
    • /
    • pp.165-174
    • /
    • 2006
  • 버드휘스텔(Birdwhistell)은 말이 전하는 의미는 전체커뮤니케이션의 35%이하에 불과하고 나머지 65% 이상은 비언어적 형태로 전달되며 인간은 전적으로 언어에 의해 의사소통을 하는 존재가 아니라 모든 감각을 사용하는 감각적 존재라고 설명하고 있다. 인간의 커뮤니케이션은 언어 외에 표정, 몸 동작 등을 통해 보다 더 구체적인 의미 전달이 가능하며, 특히 얼굴표정은 개인의 성격, 관심, 반응에 대한 정보 및 감정의 상태를 전달해주는 다면적 메시지체계로 강력한 커뮤니케이션 도구라고 할 수 있다. 다양한 표현기법과 표현의 정도, 특성에 따라 달라질 수 있지만 표정이 갖는 상징적 기호는 일반화 된 특성을 가지고 있다. 스토리상의 등장인물로서 내면세계와 심리적 상태가 행동이나 표정으로 자연스럽게 노출되고 읽어낼 수 있는 감정표현에서 애니메이션 캐릭터는 생명력을 갖는다.

  • PDF

혐오자극에 대한 정서조절전략이 얼굴표정 및 정서경험에 미치는 영향 (The Effects of the Emotion Regulation Strategy to the Disgust Stimulus on Facial Expression and Emotional Experience)

  • 장성리;이장한
    • 한국심리학회지ㆍ건강
    • /
    • 제15권3호
    • /
    • pp.483-498
    • /
    • 2010
  • 본 연구는 혐오정서 유발자극에 대한 선행사건초점 조절전략과 반응초점 조절전략이 얼굴표정 및 정서경험에 미치는 영향을 알아보고자 하였다. 연구는 여자 대학생 50명을 대상으로 실시되었고, 참여자들이 혐오정서 유발동영상을 시청할 때 서로 다른 정서조절전략(정서 표현, 표현 억제, 인지적 재평가, 표현 불일치)을 사용하도록 하여 얼굴표정과 정서경험을 측정하였다. 분석결과, 정서 표현집단에서 혐오표현단위의 빈도가 가장 높았고 표현 불일치, 인지적 재평가, 표현 억제집단의 순으로 빈도가 높게 나타났다. 그리고 실제 경험한 정서를 반영하는 얼굴 윗부분에서 인지적 재평가집단의 혐오관련표현단위의 빈도가 정서 표현집단과 표현 불일치집단보다 낮게 나타났다. 자기보고식 정서 상태 측정결과, 표현 불일치집단에서 가장 많이 긍정정서가 감소한 반면, 인지적 재평가집단에서는 긍정정서가 증가하는 경향을 보였다. 본 연구는 정서조절전략이 얼굴표정 및 정서경험에 미친 영향을 통해 인지적 재평가전략이 가장 기능적인 정서조절전략임을 확인하였다.

컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구 (Design of the emotion expression in multimodal conversation interaction of companion robot)

  • 이슬비;유승헌
    • 디자인융복합연구
    • /
    • 제16권6호
    • /
    • pp.137-152
    • /
    • 2017
  • 본 연구는 실버세대를 위한 컴패니언 로봇의 인터랙션 경험 디자인을 위해 사용자 태스크- 로봇 기능 적합도 매핑에 기반한 로봇 유형 분석과 멀티모달 대화 인터랙션에서의 로봇 감정표현 연구를 수행하였다. 노인의 니즈 분석을 위해 노인과 자원 봉사자를 대상으로 FGI, 에스노그래피를 진행하였으며 로봇 지원 기능과 엑추에이터 매칭을 통해 로봇 기능 조합 유형에 대한 분석을 하였다. 도출된 4가지 유형의 로봇 중 표정 기반 대화형 로봇 유형으로 프로토타이핑을 하였으며 에크만의 얼굴 움직임 부호화 시스템(Facial Action Coding System: FACS)을 기반으로 6가지 기본 감정에 대한 표정을 시각화하였다. 사용자 실험에서는 로봇이 전달하는 정보의 정서코드에 맞게 로봇의 표정이 변화할 때와 로봇이 인터랙션 사이클을 자발적으로 시작할 때 사용자의 인지와 정서에 미치는 영향을 이야기 회상 검사(Story Recall Test: STR)와 표정 감정 분석 소프트웨어 Emotion API로 검증하였다. 실험 결과, 정보의 정서코드에 맞는 로봇의 표정 변화 그룹이 회상 검사에서 상대적으로 높은 기억 회상률을 보였다. 한편 피험자의 표정 분석에서는 로봇의 감정 표현과 자발적인 인터랙션 시작이 피험자들에게 정서적으로 긍정적 영향을 주고 선호되는 것을 확인하였다.

Discrimination of Emotional States In Voice and Facial Expression

  • Kim, Sung-Ill;Yasunari Yoshitomi;Chung, Hyun-Yeol
    • The Journal of the Acoustical Society of Korea
    • /
    • 제21권2E호
    • /
    • pp.98-104
    • /
    • 2002
  • The present study describes a combination method to recognize the human affective states such as anger, happiness, sadness, or surprise. For this, we extracted emotional features from voice signals and facial expressions, and then trained them to recognize emotional states using hidden Markov model (HMM) and neural network (NN). For voices, we used prosodic parameters such as pitch signals, energy, and their derivatives, which were then trained by HMM for recognition. For facial expressions, on the other hands, we used feature parameters extracted from thermal and visible images, and these feature parameters were then trained by NN for recognition. The recognition rates for the combined parameters obtained from voice and facial expressions showed better performance than any of two isolated sets of parameters. The simulation results were also compared with human questionnaire results.

얼굴 표정의 제시 유형과 제시 영역에 따른 정서 인식 효과 (Effects of the facial expression presenting types and facial areas on the emotional recognition)

  • 이정헌;박수진;한광희;김혜리;조경자
    • 감성과학
    • /
    • 제10권1호
    • /
    • pp.113-125
    • /
    • 2007
  • 본 연구에서는 동영상 자극과 정지 영상 자극을 사용하여 얼굴 표정의 영역(얼굴 전체/눈 영역/입 영역)에 따른 정서 상태 전달 효과를 알아보고자 하였다. 동영상 자극은 7초 동안 제시되었으며, 실험 1에서는 12개의 기본 정서에 대한 얼굴 표정 제시 유형과 제시 영역에 따른 정서 인식 효과를, 실험 2에서는 12개의 복합 정서에 대한 얼굴 표정 제시 유형과 제시 영역에 따른 정서 인식 효과를 살펴보았다. 실험 결과, 동영상 조건이 정지 영상 조건보다 더 높은 정서 인식 효과를 보였으며, 입 영역과 비교하였을 때 동영상에서의 눈 영역이 정지 영상 보다 더 큰 효과를 보여 눈의 움직임이 정서 인식에 중요할 것임을 시사하였다. 이는 기본 정서 뿐 아니라 복합 정서에서도 어느 정도 관찰될 수 있는 결과였다. 그럼에도 불구하고 정서의 종류에 따라 동영상의 효과가 달라질 수 있기 때문에 개별 정서별 분석이 필요하며, 또한, 얼굴의 특정 영역에 따라서도 상대적으로 잘 나타나는 정서 특성이 다를 수 있음을 사사해 준다.

  • PDF

정서-색채 이론에 기반한 게임 캐릭터의 동적 얼굴 색 제어 (Facial Color Control based on Emotion-Color Theory)

  • 박규호;김태용
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1128-1141
    • /
    • 2009
  • 게임 산업이 성장하면서 게임 그래픽 분야는 가장 빠르게 발전하고 있으며 지금은 실제 사진과 컴퓨터 그래픽을 구분하기 힘든 정도로 그래픽 기술은 양적으로나 질적으로 성장했다. 그러나 이러한 발전에도 불구하고 새롭게 출시되는 게임에 등장하는 캐릭터는 정서를 표현하지 않거나 소극적으로 표현하고 있다. 일반적으로 사람들은 얼굴의 표정이나 얼굴의 색(안색)에서 많은 정서 정보를 인지하는 것은 누구나 아는 사실이다. 그러므로 컴퓨터의 게임 환경에서 등장하는 캐릭터에게도 얼굴의 색의 변화를 통하여 유저에게 게임의 사실적인 느낌을 줄 수 있다. 본 논문에서는 기존의 맥박과 피부 온도만을 이용한 방법과는 다른 인간의 정서 이론을 기반한 정서 모형과 애니메이션의 정서표현 색 그리고 성격이론을 기반한 정서의 반응 속도를 결합하여 게임 캐릭터의 얼굴의 색을 동적으로 변화시켜 정서를 표현할 수 있는 얼굴 색 적응 기술 (Facial Color Adaptive Technique: FCAT)를 제안한다. 실제 얼굴 색 적응 기술을 이용하여 만든 얼굴색 모형(Facial Color Model : FCM)과 애니메이션 콘텐츠의 정서표현을 비교한 결과 정서 표현 색상과 변화율이 애니메이션과 유사하게 시뮬레이션 되었다. 또한 2차원 이미지뿐만 아니라 3차원 이미지에도 적용이 가능함을 확인 하였다.

  • PDF

정서재활 바이오피드백을 위한 얼굴 영상 기반 정서인식 연구 (Study of Emotion Recognition based on Facial Image for Emotional Rehabilitation Biofeedback)

  • 고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제16권10호
    • /
    • pp.957-962
    • /
    • 2010
  • If we want to recognize the human's emotion via the facial image, first of all, we need to extract the emotional features from the facial image by using a feature extraction algorithm. And we need to classify the emotional status by using pattern classification method. The AAM (Active Appearance Model) is a well-known method that can represent a non-rigid object, such as face, facial expression. The Bayesian Network is a probability based classifier that can represent the probabilistic relationships between a set of facial features. In this paper, our approach to facial feature extraction lies in the proposed feature extraction method based on combining AAM with FACS (Facial Action Coding System) for automatically modeling and extracting the facial emotional features. To recognize the facial emotion, we use the DBNs (Dynamic Bayesian Networks) for modeling and understanding the temporal phases of facial expressions in image sequences. The result of emotion recognition can be used to rehabilitate based on biofeedback for emotional disabled.

감정노동자를 위한 딥러닝 기반의 스트레스 감지시스템의 설계 (Stress Detection System for Emotional Labor Based On Deep Learning Facial Expression Recognition)

  • 옥유선;조우현
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.613-617
    • /
    • 2021
  • 서비스 산업의 성장과 함께 감정노동자의 스트레스가 사회적 문제로 인식되어 2018년 감정노동자 보호법이 시행되었다. 그러나 실질적인 감정노동자 보호 시스템의 부족으로 스트레스 관리를 위한 디지털 시스템이 필요한 시점이다. 본 논문에서는 대표적인 감정노동자인 고객 상담사를 위한 딥러닝 기반 스트레스 감지 시스템을 제안한다. 시스템은 실시간 얼굴검출 모듈, 한국인 감정 이미지 중심의 이미지 빅데이터를 딥러닝한 감정분류 FER 모듈, 마지막으로 스트레스 수치만을 시각화하는 모니터링 모듈로 구성된다. 이 시스템을 통하여 감정노동자의 스트레스 모니터링과 정신질환 예방을 목표로 설계하였다.

  • PDF

소셜 로봇의 표정 커스터마이징 구현 및 분석 (The Implementation and Analysis of Facial Expression Customization for a Social Robot)

  • 이지연;박하은;;김병헌;이희승
    • 로봇학회논문지
    • /
    • 제18권2호
    • /
    • pp.203-215
    • /
    • 2023
  • Social robots, which are mainly used by individuals, emphasize the importance of human-robot relationships (HRR) more compared to other types of robots. Emotional expression in robots is one of the key factors that imbue HRR with value; emotions are mainly expressed through the face. However, because of cultural and preference differences, the desired robot facial expressions differ subtly depending on the user. It was expected that a robot facial expression customization tool may mitigate such difficulties and consequently improve HRR. To prove this, we created a robot facial expression customization tool and a prototype robot. We implemented a suitable emotion engine for generating robot facial expressions in a dynamic human-robot interaction setting. We conducted experiments and the users agreed that the availability of a customized version of the robot has a more positive effect on HRR than a predefined version of the robot. Moreover, we suggest recommendations for future improvements of the customization process of robot facial expression.

얼굴 표정인식을 이용한 위험상황 인지 (Facial Expression Algorithm For Risk Situation Recognition)

  • 곽내정;송특섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2014년도 추계학술대회
    • /
    • pp.197-200
    • /
    • 2014
  • 본 논문은 얼굴의 표정 인식을 이용한 위험상황 인지 알고리즘을 제안한다. 제안방법은 인간의 다양한 감정 표정 중 위험상황을 인지하기 위한 표정인 놀람과 공포의 표정을 인식한다. 제안방법은 먼저 얼굴 영역을 추출하고 검출된 얼굴 영역으로부터 눈 영역과 입술 영역을 추출한다. 각 영역에 Uniform LBP 방법을 적용하여 표정을 판별하고 위험 상황을 인식한다. 제안방법은 Cohn-Kanade 데이터베이스 영상을 대상으로 성능을 평가하였다. 그 결과 표정 인식에 좋은 결과를 보였으며 이를 이용하여 위험상황을 잘 판별하였다.

  • PDF