• Title/Summary/Keyword: 얼굴감정 표현

Search Result 92, Processing Time 0.036 seconds

A Study on Interactive Avatar in Mobile device using facial expression of Animation Character (모바일 기기에서 애니메이션 캐릭터의 얼굴표현을 이용한 인터랙티브 아바타에 관한 연구)

  • Oh Jeong-Seok;Youn Ho-Chang;Jeon Hong-Jun
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2005.05a
    • /
    • pp.229-236
    • /
    • 2005
  • This paper is study about emotional Interactive avatar in cellular phone. When user ask what he want to the avatar, it answer with facial expression based on animation Charac- ter. So the user can approach more friendly to the avatar.

  • PDF

Learning/Training System Supporting Real Time Video Chatting on Web-based 3D Virtual Space (웹 기반 3차원 가상 공간에서 실시간 화상 대화 지원 학습/훈련 시스템)

  • 정헌만;탁진현;이세훈;왕창종
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.571-573
    • /
    • 2000
  • 기존 분산 가상환경 시스템에서는 참여자들 사이의 언어 외적인 의사교환을 지원하기 위해 참여자의 아바타에 몸짓이나 얼굴 표정 등을 표현할 수 있도록 애니메이션 가능한 아바타를 사용한다. 하지만 아바타 애니메이션으로 참여자의 의사 및 감정 표현을 표현하는데는 한계가 있다. 따라서, 이 논문에서는 가상 환경 내의 다중 사용자들의 의사 교환 및 감정 표현을 극대화할 수 있는 방법으로 실시간 화상 대화 가상 환경 학습.훈련 시스템을 설계하였다. 설계한 시스템은 학습 참여자의 화상 및 음성 스트림을 전달함으로써 기존 응용들에 비해 풍부한 의사 교환을 지원하고, 가상 공간에서 학습에 필요한 다양한 모듈들을 포함하고 있다.

  • PDF

Emotion Based Gesture Animation Generation Mobile System (감정 기반 모바일 손제스쳐 애니메이션 제작 시스템)

  • Lee, Jung-Suk;Byun, Hae-Won
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.129-134
    • /
    • 2009
  • Recently, percentage of people who use SMS service is increasing. However, it is difficult to express own complicated emotion with text and emoticon of exited SMS service. This paper focuses on that point and practical uses character animation to express emotion and nuance correctly, funny. Also this paper suggests emotion based gesture animation generation system that use character's facial expression and gesture to delivery emotion excitably and clearly than only speaking. Michel[1] investigated interview movies of a person whose gesturing style they wish to animate and suggested gesture generation graph for stylized gesture animation. In this paper, we make focus to analyze and abstracted emotional gestures of Disney animation characters and did 3D modeling of these emotional gestures expanding Michel[1]'s research. To express emotion of person, suggests a emotion gesture generation graph that reflects emotion flow graph express emotion flow for probability. We investigated user reaction for research the propriety of suggested system and alternation propriety.

  • PDF

Design and Implementation of a Real-Time Emotional Avatar (실시간 감정 표현 아바타의 설계 및 구현)

  • Jung, Il-Hong;Cho, Sae-Hong
    • Journal of Digital Contents Society
    • /
    • v.7 no.4
    • /
    • pp.235-243
    • /
    • 2006
  • This paper presents the development of certain efficient method for expressing the emotion of an avatar based on the facial expression recognition. This new method is not changing a facial expression of the avatar manually. It can be changing a real time facial expression of the avatar based on recognition of a facial pattern which can be captured by a web cam. It provides a tool for recognizing some part of images captured by the web cam. Because of using the model-based approach, this tool recognizes the images faster than other approaches such as the template-based or the network-based. It is extracting the shape of user's lip after detecting the information of eyes by using the model-based approach. By using changes of lip's patterns, we define 6 patterns of avatar's facial expression by using 13 standard lip's patterns. Avatar changes a facial expression fast by using the pre-defined avatar with corresponding expression.

  • PDF

Face Recognition and Preprocessing Technique for Speaker Identification in hard of hearing broadcasting (청각장애인용 방송에서 화자 식별을 위한 얼굴 인식 알고리즘 및 전처리 연구)

  • Kim, Nayeon;Cho, Sukhee;Bae, Byungjun;Ahn, ChungHyun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.450-452
    • /
    • 2020
  • 본 논문에서는 딥러닝 기반 얼굴 인식 알고리즘에 대해 살펴보고, 이를 청각장애인용 방송에서 화자를 식별하고 감정 표현 자막을 표출하기 위한 배우 얼굴 인식 기술에 적용하고자 한다. 우선, 배우 얼굴 인식을 위한 방안으로 원샷 학습 기반의 딥러닝 얼굴 인식 알고리즘인 ResNet-50 기반 VGGFace2 모델의 구성에 대해 이해하고, 이러한 모델을 기반으로 다양한 전처리 방식을 적용하여 정확도를 측정함으로써 실제 청각장애인용 방송에서 배우 얼굴을 인식하기 위한 방안에 대해 모색한다.

  • PDF

Facial Expression Research according to Arbitrary Changes in Emotions through Visual Analytic Method (영상분석법에 의한 자의적 정서변화에 따른 표정연구)

  • Byun, In-Kyung;Lee, Jae-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.13 no.10
    • /
    • pp.71-81
    • /
    • 2013
  • Facial expressions decide an image for the individual, and the ability to interpret emotion from facial expressions is the core of human relations, hence recognizing emotion through facial expression is important enough to change attitude and decisions between individuals within social relations. Children with unstable attachment development, seniors, autistic group, ADHD children and depression group showed low performance results in facial expression recognizing ability tasks, and active interventions with such groups anticipates possibilities of prevention and therapeutic effects for psychological disabilities. The quantified figures that show detailed change in position of lips, eyes and cheeks anticipates for possible applications in diverse fields such as human sensibility ergonomics, korean culture and art contents, therapeutical and educational applications to overcome psychological disabilities and as methods of non-verbal communication in the globalizing multicultural society to overcome cultural differences.

Thermal Display-Based Emotional Communication System for Blindness (시각장애인을 위한 온각 기반 감정 전달 시스템)

  • Noh, Hyoju;Kim, Kangtae;Lee, Sungkil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1659-1660
    • /
    • 2013
  • 사람 간 의사소통에서 표정, 몸짓과 같은 비언어적 시각 요소들은 감정 표현의 중요한 요소이나, 시각장애인들은 이러한 감정 정보들을 받아들이는데 제한적이다. 본 논문은 시각장애인에게 이러한 비언어적 시각 요소 기반의 감정 정보를 인식하여 온각으로 전달하기 위한 방법론을 제안한다. 상대방의 표정은 안경 착용형 카메라로 인식되어 감정으로 분류된다. 인식된 표정이 웃는 얼굴과 같이 호감인 경우, 이 상태는 온각으로 변환되어 안경에 착용된 온도전달 장치에서 시각장애인에게 호감을 전달한다. 이러한 온각기반 감정전달 장치는 시각장애인의 의사소통 향상을 위한 장치의 개발에 응용될 수 있다.

Analysis and Synthesis of Facial Expression using Base Faces (기준얼굴을 이용한 얼굴표정 분석 및 합성)

  • Park, Moon-Ho;Ko, Hee-Dong;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.8
    • /
    • pp.827-833
    • /
    • 2000
  • Facial expression is an effective tool to express human emotion. In this paper, a facial expression analysis method based on the base faces and their blending ratio is proposed. The seven base faces were chosen as axes describing and analyzing arbitrary facial expression. We set up seven facial expressions such as, surprise, fear, anger, disgust, happiness, sadness, and expressionless as base faces. Facial expression was built by fitting generic 3D facial model to facial image. Two comparable methods, Genetic Algorithms and Simulated Annealing were used to search the blending ratio of base faces. The usefulness of the proposed method for facial expression analysis was proved by the facial expression synthesis results.

  • PDF

Emotion Recognition Method of Facial Image using PCA (PCA을 이용한 얼굴표정의 감정인식 방법)

  • Kim, Ho-Deok;Yang, Hyeon-Chang;Park, Chang-Hyeon;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.11a
    • /
    • pp.11-14
    • /
    • 2006
  • 얼굴 표정인식에 관한 연구에서 인식 대상은 대부분 얼굴의 정면 정지 화상을 가지고 연구를 한다. 얼굴 표정인식에 큰 영향을 미치는 대표적인 부위는 눈과 입이다. 그래서 표정 인식 연구자들은 얼굴 표정인식 연구에 있어서 눈, 눈썹, 입을 중심으로 표정 인식이나 표현 연구를 해왔다. 그러나 일상생활에서 카메라 앞에 서는 대부분의 사람들은 눈동자의 빠른 변화의 인지가 어렵고, 많은 사람들이 안경을 쓰고 있다. 그래서 본 연구에서는 눈이 가려진 경우의 표정 인식을 Principal Component Analysis (PCA)를 이용하여 시도하였다.

  • PDF

A Design and Implementation of 3D Facial Expressions Production System based on Muscle Model (근육 모델 기반 3D 얼굴 표정 생성 시스템 설계 및 구현)

  • Lee, Hyae-Jung;Joung, Suck-Tae
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.5
    • /
    • pp.932-938
    • /
    • 2012
  • Facial expression has its significance in mutual communication. It is the only means to express human's countless inner feelings better than the diverse languages human use. This paper suggests muscle model-based 3D facial expression generation system to produce easy and natural facial expressions. Based on Waters' muscle model, it adds and used necessary muscles to produce natural facial expressions. Also, among the complex elements to produce expressions, it focuses on core, feature elements of a face such as eyebrows, eyes, nose, mouth, and cheeks and uses facial muscles and muscle vectors to do the grouping of facial muscles connected anatomically. By simplifying and reconstructing AU, the basic nuit of facial expression changes, it generates easy and natural facial expressions.