• Title/Summary/Keyword: Facial Expression Animation

Search Result 76, Processing Time 0.03 seconds

Interactive Animation by Action Recognition (동작 인식을 통한 인터랙티브 애니메이션)

  • Hwang, Ji-Yeon;Lim, Yang-Mi;Park, Jin-Wan;Jahng, Surng-Gahb
    • The Journal of the Korea Contents Association
    • /
    • v.6 no.12
    • /
    • pp.269-277
    • /
    • 2006
  • In this paper, we propose an interactive system that generates emotional expressions from arm gestures. By extracting relevant features from key frames, we can infer emotions from arm gestures. The necessary factor for real-time animation is tremendous frame rates. Thus, we propose processing facial emotion expression with 3D application for minimizing animation time. And we propose a method for matching frames and actions. By matching image sequences of exagerrated arm gestures from participants, they feel that they are communicating directly with the portraits.

  • PDF

Emotion Based Gesture Animation Generation Mobile System (감정 기반 모바일 손제스쳐 애니메이션 제작 시스템)

  • Lee, Jung-Suk;Byun, Hae-Won
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.129-134
    • /
    • 2009
  • Recently, percentage of people who use SMS service is increasing. However, it is difficult to express own complicated emotion with text and emoticon of exited SMS service. This paper focuses on that point and practical uses character animation to express emotion and nuance correctly, funny. Also this paper suggests emotion based gesture animation generation system that use character's facial expression and gesture to delivery emotion excitably and clearly than only speaking. Michel[1] investigated interview movies of a person whose gesturing style they wish to animate and suggested gesture generation graph for stylized gesture animation. In this paper, we make focus to analyze and abstracted emotional gestures of Disney animation characters and did 3D modeling of these emotional gestures expanding Michel[1]'s research. To express emotion of person, suggests a emotion gesture generation graph that reflects emotion flow graph express emotion flow for probability. We investigated user reaction for research the propriety of suggested system and alternation propriety.

  • PDF

A Study on the Fabrication of Facial Blend Shape of 3D Character - Focusing on the Facial Capture of the Unreal Engine (3D 캐릭터의 얼굴 블렌드쉐입(blendshape)의 제작연구 -언리얼 엔진의 페이셜 캡처를 중심으로)

  • Lou, Yi-Si;Choi, Dong-Hyuk
    • The Journal of the Korea Contents Association
    • /
    • v.22 no.8
    • /
    • pp.73-80
    • /
    • 2022
  • Facial expression is an important means of representing characteristics in movies and animations, and facial capture technology can support the production of facial animation for 3D characters more quickly and effectively. Blendshape techniques are the most widely used methods for producing high-quality 3D face animations, but traditional blendshape often takes a long time to produce. Therefore, the purpose of this study is to achieve results that are not far behind the effectiveness of traditional production to reduce the production period of blend shape. In this paper, in order to make a blend shape, the method of using the cross-model to convey the blend shape is compared with the traditional method of making the blend shape, and the validity of the new method is verified. This study used kit boy developed by Unreal Engine as an experiment target conducted a facial capture test using two blend shape production techniques, and compared and analyzed the facial effects linked to blend shape.

On Parameterizing of Human Expression Using ICA (독립 요소 분석을 이용한 얼굴 표정의 매개변수화)

  • Song, Ji-Hey;Shin, Hyun-Joon
    • Journal of the Korea Computer Graphics Society
    • /
    • v.15 no.1
    • /
    • pp.7-15
    • /
    • 2009
  • In this paper, a novel framework that synthesizes and clones facial expression in parameter spaces is presented. To overcome the difficulties in manipulating face geometry models with high degrees of freedom, many parameterization methods have been introduced. In this paper, a data-driven parameterization method is proposed that represents a variety of expressions with a small set of fundamental independent movements based on the ICA technique. The face deformation due to the parameters is also learned from the data to capture the nonlinearity of facial movements. With this parameterization, one can control the expression of an animated character's face by the parameters. By separating the parameterization and the deformation learning process, we believe that we can adopt this framework for a variety applications including expression synthesis and cloning. The experimental result demonstrates the efficient production of realistic expressions using the proposed method.

  • PDF

Intuitive Quasi-Eigenfaces for Facial Animation (얼굴 애니메이션을 위한 직관적인 유사 고유 얼굴 모델)

  • Kim, Ig-Jae;Ko, Hyeong-Seok
    • Journal of the Korea Computer Graphics Society
    • /
    • v.12 no.2
    • /
    • pp.1-7
    • /
    • 2006
  • 블렌드 쉐입 기반 얼굴 애니메이션을 위해 기저 모델(Expression basis)을 생성하는 방법을 크게 두 가지로 구분하면, 애니메이터가 직접 모델링을 하여 생성하는 방법과 통계적 방법에 기초하여 모델링하는 방법이 있다. 그 중 애니메이터에 의한 수동 모델링 방법으로 생성된 기저 모델은 직관적으로 표정을 인식할 수 있다는 장점으로 인해 전통적인 키프레임 제어가 가능하다. 하지만, 표정 공간(Expression Space)의 일부분만을 커버하기 때문에 모션데이터로부터의 재복원 과정에서 많은 오차를 가지게 된다. 반면, 통계적 방법을 기반으로 한 기저모델 생성 방법은 거의 모든 표정공간을 커버하는 고유 얼굴 모델(Eigen Faces)을 생성하므로 재복원 과정에서 최소의 오차를 가지지만, 시각적으로 직관적이지 않은 표정 모델을 만들어 낸다. 따라서 본 논문에서는 수동으로 생성한 기저모델을 유사 고유 얼굴 모델(Quasi-Eigen Faces)로 변형하는 방법을 제시하고자 한다. 결과로 생성되는 기저 모델은 시각적으로 직관적인 얼굴 표정을 유지하면서도 통계적 방법에 의한 얼굴표정 공간의 커버 영역과 유사하도록 확장할 수 있다.

  • PDF

Development of Basic Education Models of Stop-Motion Techniques (스톱모션 기법의 기초 교육모형 개발)

  • Yang, Se-Hyeok
    • The Journal of the Korea Contents Association
    • /
    • v.7 no.11
    • /
    • pp.258-269
    • /
    • 2007
  • Stop-motion is a technique that should be in the basic stage of the animation education, as it gives a chance for students to learn a three-dimensional sense about the movement, just to name a few, as this technique can give movements to actual objects in real life. As the old animation education is consist of forms to make a short animation. most students got a situation that they should be reeducated about 'movement' at their work after graduation from the school. It is necessary to have a systematic education about basic movement for 16 weeks to solve the problem under these circumstances. Therefore this researcher came to seek a more effective way for students who aim to major in stop-motion as well as students who try to nurture their basic capability of animation. This study aimed to present the optimized education model for the basic stage of the stop-motion technique specifically around expressions such as 'walking/ free-movement/ facial expression'.

A Comic Facial Expression Method for Intelligent Avatar Communications in the Internet Cyberspace (인터넷 가상공간에서 지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법)

  • 이용후;김상운;청목유직
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.40 no.1
    • /
    • pp.59-73
    • /
    • 2003
  • As a means of overcoming the linguistic barrier between different languages in the Internet, a new sign-language communication system with CG animation techniques has been developed and proposed. In the system, the joint angles of the arms and the hands corresponding to the gesture as a non-verbal communication tool have been considered. The emotional expression, however, could as play also an important role in communicating each other. Especially, a comic expression is more efficient than real facial expression, and the movements of the cheeks and the jaws are more important AU's than those of the eyebrow, eye, mouth etc. Therefore, in this paper, we designed a 3D emotion editor using 2D model, and we extract AU's (called as PAU, here) which play a principal function in expressing emotions. We also proposed a method of generating the universal emotional expression with Avatar models which have different vertex structures. Here, we employed a method of dynamically adjusting the AU movements according to emotional intensities. The proposed system is implemented with Visual C++ and Open Inventor on windows platforms. Experimental results show a possibility that the system could be used as a non-verbal communication means to overcome the linguistic barrier.

A Study on Expression Analysis of Animation Character Using Action Units(AU) (Action Units(AU)를 사용한 애니메이션 캐릭터 표정 분석)

  • Shin, Hyun-Min;Weon, Sun-Hee;Kim, Gye-Young
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2009.01a
    • /
    • pp.163-167
    • /
    • 2009
  • 본 논문에서는 크게 2단계에 걸쳐 다양한 형태의 얼굴을 가진 2차원 애니메이션 상의 캐릭터 얼굴구성요소를 추출하고 표정을 분석한다. 첫 번째 단계에서는, 기존의 얼굴인식 및 표정인식 분야에서 이용되었던 동적메쉬모델을 간소화하여 캐릭터 얼굴에 적용하기 위한 최적의 표준 메쉬모델을 제작하고, 이 모델을 사용하여 얼굴구성요소의 위치 및 형태정보를 추출한다. 두 번째 단계에서는, 앞 단계에서 추출된 3가지 얼굴구성요소(눈썹, 눈, 입)를 사용하여 FACS(Facial Action Coding System)에 정의된 AU(Action Units) 44개 중 12개의 AU를 사용하여 캐릭터의 5까지 기본적인 얼굴 표정에 대해 분석 및 정의한다. 본 논문에서 정의한 AU로 기본적인 5가지 얼굴표정에 대해 표정분석 정확도를 측정하였고, 서로 다른 캐릭터에 실험함으로써 제안된 AU정의의 타당성을 제시한다.

  • PDF

Realistic 3D Facial Expression Animation Based on Muscle Model (근육 모델 기반의 자연스러운 3차원 얼굴 표정 애니메이션)

  • Lee, Hye-Jin;Chung, Hyun-Sook;Lee, Yill-Byung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04a
    • /
    • pp.265-268
    • /
    • 2002
  • 얼굴은 성별, 나이, 인종에 따라 다양한 특징을 가지고 있어서 개개인을 구별하기가 쉽고 내적인 상태를 쉽게 볼 수 있는 중요한 도구로 여겨지고 있다. 본 논문은 얼굴표정 애니메이션을 위한 효과적인 방법으로 실제얼굴의 피부조직 얼굴 근육 등 해부학적 구조에 기반한 근육기반모델링을 이용하는 방법을 소개하고자 한다. 제안하는 시스템의 구성은 얼굴 와이어프레임 구성과 폴리곤 메쉬분할 단계, 얼굴에 필요한 근육을 적용시키는 단계, 근육의 움직임에 따른 얼굴 표정생성단계로 이루어진다. 와이어프레임 구성과 폴리곤 메쉬 분할 단계에서는 얼굴모델을 Water[1]가 제안한 얼굴을 기반으로 하였고, 하나의 폴리곤 메쉬를 4등분으로 분할하여 부드러운 3D 얼굴모델을 보여준다. 다음 단계는 얼굴 표정생성에 필요한 근육을 30 개로 만들어 실제로 표정을 지을 때 많이 쓰는 부위에 적용시킨다. 그 다음으로 표정생성단계는 FACS 에서 제안한 Action Unit 을 조합하고 얼굴표정에 따라 필요한 근육의 강도를 조절하여 더 자연스럽고 실제감 있는 얼굴표정 애니메이션을 보여준다.

  • PDF

The Facial Expression Controller for 3D Avatar Animation working on a Smartphone (스마트폰기반 3D 아바타 애니메이션을 위한 다양한 얼굴표정 제어기 응용)

  • Choi, In-Ho;Lee, Sang-Hoon;Park, Sang-Il;Kim, Yong-Guk
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.323-325
    • /
    • 2012
  • 스마트폰 기반 3D 아바타를 이용하여 임의의 표정을 합성 및 제어하여 애니메이션 할 수 있는 방법과 응용을 제안한다. 사용될 아바타에 표현되는 임의의 표정 Data Set을 PCA로 처리 후, 인간의 가장 기본적인 6 표정으로 컨트롤러 축을 생성한다. 만들어진 제어기에, 임의의 연속 표정을 유저에 의해 정해진 시간에 생성하여 애니메이션 할 수 있는 방법을 시스템을 제안하다. 빠른 계산을 장점으로 하는 본 제어기는 스마트폰 환경에 맞게 탑재 되었으며, 이 제어기를 활용하여 모델워킹 모션에 다양한 표정을 적용할 수 있는 시스템을 구현하였다.