• 제목/요약/키워드: Facial expressions

검색결과 324건 처리시간 0.024초

e-Learning에서 나타날 수 있는 학습자의 얼굴 표정 분석 (Analyzing facial expression of a learner in e-Learning system)

  • 박정현;정상목;이완복;송기상
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 춘계 종합학술대회 논문집
    • /
    • pp.160-163
    • /
    • 2006
  • e-Learning에서 교수 시스템이 학습자의 학습에 대한 흥미도, 관심도 또는 각성상태를 실시간으로 측정하여 학습자의 정서 상태를 정확히 알아낼 수 있다면 학습자가 지루해 할 때 학습에 대한 흥미를 느낄 수 있는 요소를 피드백 해줄 수 있으며, 학습자가 학습내용을 이해하지 못하고 있거나 어려움을 느끼고 있는 경우 학습내용을 이해할 수 있는 도움내용을 처치하는 등의 적응적 교수 시스템(adaptive tutoring system)의 역할을 수행할 수 있다. 현재의 표정 인식 분야는 대부분 성인의 얼굴표정을 대상으로 하여 일상적인 감정인 분노, 혐오, 공포, 슬픔, 놀라움, 기쁨 등을 대상으로 하고 있다. 하지만 이러한 일상적인 표정들은 e-Learning 에서 나타나는 학습자의 감정이라고 보기 어렵다. 따라서 표정을 통하여 학습자의 감정 상태를 인식하도록 해주기 위해서는 e-Learning에서 학습자가 어떤 표정을 짓는지를 먼저 연구하여 다양한 표정사진을 충분히 취득한 후에 각 표정사진의 감정상태가 무엇인지를 밝혀주는 작업이 필요하다. 이에 본 연구는 표정 데이터베이스의 구축을 위한 선행 연구로 e-Learning에서 학습자가 나타내는 감정과 그 감정에 따른 표정이 어떻게 이루어져 있는지를 찾아내고 그 특징을 분석해보았다.

  • PDF

지적화상부호화에 있어서 표정분석과 합성 (Analysis and synthesis of facial expressions in knowledge-based image coding)

  • 최창석
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1989년도 한국자동제어학술회의논문집; Seoul, Korea; 27-28 Oct. 1989
    • /
    • pp.451-456
    • /
    • 1989
  • New image coding system for facial images called 'Knowledge-based image coding' is described, in which input image is analyzed and output image is synthesized using analysis results. Analysis and synthesis method of facial expressions are presented. Synthesis rules are determined on the basis of facial muscles and are also used in analysis process to produce a faithful reconstruction of the original image. A number of examples are shown.

  • PDF

Sammon 매핑을 사용한 모션 데이터의 대화식 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using Sammon's Mapping)

  • 김성호
    • 정보처리학회논문지A
    • /
    • 제11A권2호
    • /
    • pp.189-194
    • /
    • 2004
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이틀 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 Sammon 매핑을 이용하여 2차원 평면에 투영시켰다. 얼굴 애니메이션은 사용자 인터페이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

표정 인식을 이용한 3D 감정 아바타 생성 및 애니메이션 (3D Emotional Avatar Creation and Animation using Facial Expression Recognition)

  • 조태훈;정중필;최수미
    • 한국멀티미디어학회논문지
    • /
    • 제17권9호
    • /
    • pp.1076-1083
    • /
    • 2014
  • We propose an emotional facial avatar that portrays the user's facial expressions with an emotional emphasis, while achieving visual and behavioral realism. This is achieved by unifying automatic analysis of facial expressions and animation of realistic 3D faces with details such as facial hair and hairstyles. To augment facial appearance according to the user's emotions, we use emotional templates representing typical emotions in an artistic way, which can be easily combined with the skin texture of the 3D face at runtime. Hence, our interface gives the user vision-based control over facial animation of the emotional avatar, easily changing its moods.

Emotional Expression of the Virtual Influencer "Luo Tianyi(洛天依)" in Digital'

  • Guangtao Song;Albert Young Choi
    • International Journal of Advanced Culture Technology
    • /
    • 제12권2호
    • /
    • pp.375-385
    • /
    • 2024
  • In the context of contemporary digital media, virtual influencers have become an increasingly important form of socialization and entertainment, in which emotional expression is a key factor in attracting viewers. In this study, we take Luo Tianyi, a Chinese virtual influencer, as an example to explore how emotions are expressed and perceived through facial expressions in different types of videos. Using Paul Ekman's Facial Action Coding System (FACS) and six basic emotion classifications, the study systematically analyzes Luo Tianyi's emotional expressions in three types of videos, namely Music show, Festivals and Brand Cooperation. During the study, Luo Tianyi's facial expressions and emotional expressions were analyzed through rigorous coding and categorization, as well as matching the context of the video content. The results show that Enjoyment is the most frequently expressed emotion by Luo Tianyi, reflecting the centrality of positive emotions in content creation. Meanwhile, the presence of other emotion types reveals the virtual influencer's efforts to create emotionally rich and authentic experiences. The frequency and variety of emotions expressed in different video genres indicate Luo Tianyi's diverse strategies for communicating and connecting with viewers in different contexts. The study provides an empirical basis for understanding and utilizing virtual influencers' emotional expressions, and offers valuable insights for digital media content creators to design emotional expression strategies. Overall, this study is valuable for understanding the complexity of virtual influencer emotional expression and its importance in digital media strategy.

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

딥 러닝 기술 이용한 얼굴 표정 인식에 따른 이모티콘 추출 연구 (A Study on the Emoticon Extraction based on Facial Expression Recognition using Deep Learning Technique)

  • 정봉재;장범
    • 한국인공지능학회지
    • /
    • 제5권2호
    • /
    • pp.43-53
    • /
    • 2017
  • In this paper, the pattern of extracting the same expression is proposed by using the Android intelligent device to identify the facial expression. The understanding and expression of expression are very important to human computer interaction, and the technology to identify human expressions is very popular. Instead of searching for the emoticons that users often use, you can identify facial expressions with acamera, which is a useful technique that can be used now. This thesis puts forward the technology of the third data is available on the website of the set, use the content to improve the infrastructure of the facial expression recognition accuracy, in order to improve the synthesis of neural network algorithm, making the facial expression recognition model, the user's facial expressions and similar e xpressions, reached 66%.It doesn't need to search for emoticons. If you use the camera to recognize the expression, itwill appear emoticons immediately. So this service is the emoticons used when people send messages to others, and it can feel a lot of convenience. In countless emoticons, there is no need to find emoticons, which is an increasing trend in deep learning. So we need to use more suitable algorithm for expression recognition, and then improve accuracy.

모션 데이터를 사용한 대화식 실시간 얼굴 애니메이션 (Interactive Realtime Facial Animation with Motion Data)

  • 김성호
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권4호
    • /
    • pp.569-578
    • /
    • 2003
  • 본 논문은 광학식 얼굴 모션 캡쳐 데이터를 재사용하여 원하는 얼굴 표정 애니메이션을 실시간에 생성하는 방법을 기술한다. 이 방법의 핵심요소는 얼굴 표정들 간의 거리를 정의하고 이를 이용하여 표정들을 적당한 공간에 분포시키는 방법과 이 공간을 사용하여 실시간 표정 애니메이션을 생성하기 위한 사용자 인터페이스 기법이다. 우리는 약 2400여개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하였다. 그리고 사용자가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되도록 하였다. 약 2400여개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 데이터와 데이터 사이의 거리를 계산해야할 필요가 있고, 각 데이터와 데이터 사이의 최단거리를 구하는데 있어서는 Floyd 알고리즘을 사용하며, 이를 이용하여 Manifold distance를 구한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정 프레임 데이터들의 Manifold distance를 이용하여 Multidimensional Scaling을 적용하고, 이로부터 2D 평면에 균일하게 분포하였다. 우리는 이와 같은 방법으로 기존의 얼굴 표정 프fp임 데이터들 사이의 거리를 원형 그대로 살리면서 의미 있게 직관적인 공간에 분포한다. 그러므로 본 논문에서 제시한 기법은 사용자가 항해하고자 하는 얼굴 표정 프레임 데이터들이 항상 주변에 존재할 수 있기 때문에, 얼굴 표정 애니메이션을 생성하기 위해서 직관적인 공간을 제한 없고 자유로운 항해를 할 수 있다는 큰 장점을 가지고 있다. 또한 사용자가 원하는 얼굴 표정 애니메이션을 사용하기 쉬운 사용자 인터페이스를 이용하여 실시간으로 생성하여 확인 하고 재생성할 수 있다는 것도 매우 효율적이다.

  • PDF

Facial Expression Classification through Covariance Matrix Correlations

  • Odoyo, Wilfred O.;Cho, Beom-Joon
    • Journal of information and communication convergence engineering
    • /
    • 제9권5호
    • /
    • pp.505-509
    • /
    • 2011
  • This paper attempts to classify known facial expressions and to establish the correlations between two regions (eye + eyebrows and mouth) in identifying the six prototypic expressions. Covariance is used to describe region texture that captures facial features for classification. The texture captured exhibit the pattern observed during the execution of particular expressions. Feature matching is done by simple distance measure between the probe and the modeled representations of eye and mouth components. We target JAFFE database in this experiment to validate our claim. A high classification rate is observed from the mouth component and the correlation between the two (eye and mouth) components. Eye component exhibits a lower classification rate if used independently.

소셜 로봇의 표정 커스터마이징 구현 및 분석 (The Implementation and Analysis of Facial Expression Customization for a Social Robot)

  • 이지연;박하은;;김병헌;이희승
    • 로봇학회논문지
    • /
    • 제18권2호
    • /
    • pp.203-215
    • /
    • 2023
  • Social robots, which are mainly used by individuals, emphasize the importance of human-robot relationships (HRR) more compared to other types of robots. Emotional expression in robots is one of the key factors that imbue HRR with value; emotions are mainly expressed through the face. However, because of cultural and preference differences, the desired robot facial expressions differ subtly depending on the user. It was expected that a robot facial expression customization tool may mitigate such difficulties and consequently improve HRR. To prove this, we created a robot facial expression customization tool and a prototype robot. We implemented a suitable emotion engine for generating robot facial expressions in a dynamic human-robot interaction setting. We conducted experiments and the users agreed that the availability of a customized version of the robot has a more positive effect on HRR than a predefined version of the robot. Moreover, we suggest recommendations for future improvements of the customization process of robot facial expression.