• Title/Summary/Keyword: Emotional Facial Expression

검색결과 125건 처리시간 0.03초

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

얼굴표정의 긍정적 정서에 의한 시각작업기억 향상 효과 (Accurate Visual Working Memory under a Positive Emotional Expression in Face)

  • 한지은;현주석
    • 감성과학
    • /
    • 제14권4호
    • /
    • pp.605-616
    • /
    • 2011
  • 본 연구는 시각작업기억에 저장이 요구되는 얼굴 자극이 보유한 긍정적, 부정적 그리고 중립적 정서가 기억 정확성에 미치는 영향을 조사하였다. 참가자들은 유쾌, 불쾌 및 무표정의 세 가지 표정 유형 중 하나가 무선적으로 부여된 얼굴들의 표정을 기억한 후 잠시 후 제시된 검사 얼굴들에 대한 대조를 통해 기억항목과 검사항목 간 얼굴 표정의 변화 유무를 보고하였다. 얼굴 표정의 변화에 대한 탐지정확도를 측정한 결과 기억항목의 노출시간이 500ms이었을 경우, 긍정적 표정을 보유한 기억항목에 대한 변화탐지는 부정 및 중립 표정에 비해 상대적으로 정확했다. 반면에 노출시간이 1000ms로 연장되자 이러한 차이는 관찰되지 않았다. 이러한 결과는 긍정적 정서가 시각작업기억의 정확성을 향상시킬 수 있음을 의미하며, 특히 긍정적 정서에 의한 기억 촉진 효과는 기억 표상 형성에 있어서 요구되는 시간이 상대적으로 촉박한 경우에 나타남을 의미한다. 따라서 본 연구는 작업기억과 정서간의 관계를 규명하기 위하여 비교적 단순한 과제인 변화탐지과제를 사용하여 긍정적 정서가 시각작업기억 표상 형성의 효율성을 향상시킨다는 것을 발견했다는 점에서 중요한 시사점을 제공한다.

  • PDF

지적 아바타 통신에서 볼과 턱 움직임을 사용한 코믹한 얼굴 표정 (A Comic Facial Expression Using Cheeks and Jaws Movements for Intelligent Avatar Communications)

  • 이용후;김상운
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(3)
    • /
    • pp.121-124
    • /
    • 2001
  • In this paper, a method of generating the facial gesture CG animation on different avatar models is provided. At first, to edit emotional expressions efficiently, regeneration of the comic expression on different polygonal mesh models is carried out, where the movements of the cheeks and numerical methods. Experimental results show a possibility that the method could be used for intelligent avatar communications between Korea and Japan.

  • PDF

MobileNet과 TensorFlow.js를 활용한 전이 학습 기반 실시간 얼굴 표정 인식 모델 개발 (Development of a Ream-time Facial Expression Recognition Model using Transfer Learning with MobileNet and TensorFlow.js)

  • 차주호
    • 디지털산업정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.245-251
    • /
    • 2023
  • Facial expression recognition plays a significant role in understanding human emotional states. With the advancement of AI and computer vision technologies, extensive research has been conducted in various fields, including improving customer service, medical diagnosis, and assessing learners' understanding in education. In this study, we develop a model that can infer emotions in real-time from a webcam using transfer learning with TensorFlow.js and MobileNet. While existing studies focus on achieving high accuracy using deep learning models, these models often require substantial resources due to their complex structure and computational demands. Consequently, there is a growing interest in developing lightweight deep learning models and transfer learning methods for restricted environments such as web browsers and edge devices. By employing MobileNet as the base model and performing transfer learning, our study develops a deep learning transfer model utilizing JavaScript-based TensorFlow.js, which can predict emotions in real-time using facial input from a webcam. This transfer model provides a foundation for implementing facial expression recognition in resource-constrained environments such as web and mobile applications, enabling its application in various industries.

감정표현 표정의 영상분석에 의한 인지동작치료가 정서·행동장애아 감성재활에 미치는 영향 (The Effect of Cognitive Movement Therapy on Emotional Rehabilitation for Children with Affective and Behavioral Disorder Using Emotional Expression and Facial Image Analysis)

  • 변인경;이재호
    • 한국콘텐츠학회논문지
    • /
    • 제16권12호
    • /
    • pp.327-345
    • /
    • 2016
  • 본 연구는 인간발달 과정을 신경과학, 심리학, 운동학습, 근육 생리학 등의 행동과학 자료와 생체역학, 인체운동 분석, 운동조절 기반의 인지 동작치료 프로그램을 정서 행동장애 아동들에게 실시하여 표정에 따른 얼굴 움직임이 감정과 정서변화에 따라 어떤 특성을 갖는지를 표정 움직임의 변화로 정량화 하고자 하였다. 본 연구에서는 영상측정 및 키네마틱 분석의 정서 행동장애 아동의 표정변화를 중재 프로그램 피드백 자료로 활용하였고, 표정 변화를 통해 인지동작 치료프로그램 효과를 알 수 있었다. 또한 정서 및 행동치료의 영상분석과 키네마틱 분석의 정량적 데이터를 통하여 인간발달에 대한 융 복합적 측정 및 분석법을 적용하여 발달장애의 조기발견과 치료과정에 따른 데이터를 축적하는 것도 기대할 수 있었다. 따라서 본 연구의 결과는 아동뿐만이 아니라 자기표현이 부족한 장애와 노인, 환자에게도 확대 적용할 수 있을 것이다.

주의력결핍 과잉행동장애의 이환 여부에 따른 얼굴표정 정서 인식의 차이 (Difficulty in Facial Emotion Recognition in Children with ADHD)

  • 안나영;이주영;조선미;정영기;신윤미
    • Journal of the Korean Academy of Child and Adolescent Psychiatry
    • /
    • 제24권2호
    • /
    • pp.83-89
    • /
    • 2013
  • Objectives : It is known that children with attention-deficit hyperactivity disorder (ADHD) experience significant difficulty in recognizing facial emotion, which involves processing of emotional facial expressions rather than speech, compared to children without ADHD. This objective of this study is to investigate the differences in facial emotion recognition between children with ADHD and normal children used as control. Methods : The children for our study were recruited from the Suwon Project, a cohort comprising a non-random convenience sample of 117 nine-year-old ethnic Koreans. The parents of the study participants completed study questionnaires such as the Korean version of Child Behavior Checklist, ADHD Rating Scale, Kiddie-Schedule for Affective Disorders and Schizophrenia-Present and Lifetime Version. Facial Expression Recognition Test of the Emotion Recognition Test was used for the evaluation of facial emotion recognition and ADHD Rating Scale was used for the assessment of ADHD. Results : ADHD children (N=10) were found to have impaired recognition when it comes to Emotional Differentiation and Contextual Understanding compared with normal controls (N=24). We found no statistically significant difference in the recognition of positive facial emotions (happy and surprise) and negative facial emotions (anger, sadness, disgust and fear) between the children with ADHD and normal children. Conclusion : The results of our study suggested that facial emotion recognition may be closely associated with ADHD, after controlling for covariates, although more research is needed.

내적 정서 상태 차원에 근거한 캐릭터 표정생성 프로그램 구현 (Character's facial expression realization program with emotional state dimensions)

  • 고혜영;이재식;김재호
    • 한국정보통신학회논문지
    • /
    • 제12권3호
    • /
    • pp.438-444
    • /
    • 2008
  • 본 논문에서는 애니메이션 캐릭터의 표정 연출의 효율성을 높이기 위해 정서 상태의 변화에 따라 다양하고 주어진 상황에 부합하는 표정을 쉽게 구현할 수 있는 표정생성 프로그램을 제안하고자 한다. 이를 위해 우선, Russell의 내적 정서 상태의 차원 모형을 근거로 쾌-불쾌, 각성-비각성의 내적 정서 상태 정보를 포함한 9가지 표정을 정의하였다. 그리고 각각의 표정에 대해 본 연구에서 제안한 표정생성 프로그램을 이용하여 두 차원의 중앙에 위치하는 무표정 자극을 8가지의 가능한 표정 변화 방향으로 이동시킴으로써 정서 차원에서의 미묘한 위치 변화에 따라서도 다양한 표정 생성이 구현될 수 있음을 확인하였다. 향후 이러한 프로그램은 복잡한 정서를 가진 표정을 쉽고 다양하게 구현할 수 있는 표정 자동생성 시스템 설계의 기초적 프로그램으로 활용될 수 있을 것이다.

감성캐릭터의 감정표현 기술의 사례분석 (A Case Study of Emotion Expression Technologies for Emotional Characters)

  • 안성혜;백선욱;성민영;이준하
    • 한국콘텐츠학회논문지
    • /
    • 제9권9호
    • /
    • pp.125-133
    • /
    • 2009
  • 오늘날 디지털 기반 커뮤니케이션 환경 속의 사용자들은 상호작용이 가능한 커뮤니케이션을 원하게 되면서, 사용자 중심의 감정표현 도구를 개발할 필요성이 대두되고 있다. 본 연구는 실시간으로 변화하는 개인화된 감정표현이 가능한 감성캐릭터를 개발하기 위한 목적을 가진 기초연구이다. 이를 위해 현재 얼굴표정을 중심으로 감정을 표현하는 기술이 어떻게 구현되고 있는지 국내외 연구동향 및 감성캐릭터를 사용한 다양한 서비스 사례분석을 통해 향후 감성캐릭터의 개발 방향을 제시해보고자 한다.

The Effects of Chatbot Anthropomorphism and Self-disclosure on Mobile Fashion Consumers' Intention to Use Chatbot Services

  • Kim, Minji;Park, Jiyeon;Lee, MiYoung
    • 패션비즈니스
    • /
    • 제25권6호
    • /
    • pp.119-130
    • /
    • 2021
  • This study investigated the effects of the chatbot's level of anthropomorphism - closeness to the human form - and its self-disclosure - delivery of emotional exchange with the chatbot through its facial expressions and chatting message on the user's intention to accept the service. A 2 (anthropomorphism: High vs. Low) × 2 (self-disclosure through facial expressions: High vs. Low) × 2 (self-disclosure through conversation: High vs. Low) between-subject factorial design was employed for this study. An online survey was conducted and a total of 234 questionnaires were used in the analysis. The results showed that consumers used chatbot service more when emotions were disclosed through facial expressions, than when it disclosed fewer facial expressions. There was statistically significant interaction effect, indicating the relationship between chatbot's self-disclosure through facial expression and the consumers' intention to use chatbot service differs depending on the extent of anthropomorphism. In the case of "robot chatbots" with low anthropomorphism levels, there was no difference in intention to use chatbot service depending on the level of self-disclosure through facial expression. When the "human-like chatbot" with high anthropomorphism levels discloses itself more through facial expressions, consumer's intention to use the chatbot service increased much more than when the human-like chatbot disclosed fewer facial expressions. The findings suggest that chatbots' self-disclosure plays an important role in the formation of consumer perception.

감성 커뮤니케이션을 위한 디지털 눈 콘텐츠 표현 연구 (A Study on The Expression of Digital Eye Contents for Emotional Communication)

  • 임윤아;이은아;권지은
    • 디지털융복합연구
    • /
    • 제15권12호
    • /
    • pp.563-571
    • /
    • 2017
  • 본 연구는 디지털 환경에 적용될 수 있는 디지털 눈 콘텐츠의 감성 표현 요소를 정립하는데 목적이 있다. 특히, 스마트 인형의 적용 가능한 감성을 도출하고, 각 감성에 대한 표현 요소의 가이드라인을 제안하고자 한다. 본 연구를 위하여 첫째, 문헌 정보, 애니메이션, 실제 사람의 영상을 바탕으로 눈으로 표현되는 감성 표현에 대한 개념 및 특징을 연구한다. 둘째, FGI를 통해 스마트 인형의 디지털 눈에 필요한 6가지 감정 -Happy, Angry, Sad, Relaxed, Sexy, Pure-을 정의하고, 각 감성에 따른 표현 요소를 추출하였다. 셋째, 추출된 요소를 분석하여 디지털 눈의 감성 표현에 대한 가이드라인을 정립하였다. 연구 결과 각 감성을 구분하고 표현하기 위한 요소는 눈매, 시선, 홍채 크기, 특수 효과의 총 4가지로 나타났고 각 감성 별로 구분되는 요소별 정의와 특징을 도출하였다. 얼굴 표정에 있어서 가장 중요한 요소인 눈에 대한 감성 표현 연구는 애니메이션을 포함한 디지털 콘텐츠와 로봇, 스마트 인형 등의 감성 커뮤니케이션 효과를 높일 수 있는 방법으로 활용될 수 있을 것이다.