• Title/Summary/Keyword: 3차원 얼굴 애니메이션

Search Result 47, Processing Time 0.022 seconds

Realistic 3D Facial Expression Animation Based on Muscle Model (근육 모델 기반의 자연스러운 3차원 얼굴 표정 애니메이션)

  • Lee, Hye-Jin;Chung, Hyun-Sook;Lee, Yill-Byung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04a
    • /
    • pp.265-268
    • /
    • 2002
  • 얼굴은 성별, 나이, 인종에 따라 다양한 특징을 가지고 있어서 개개인을 구별하기가 쉽고 내적인 상태를 쉽게 볼 수 있는 중요한 도구로 여겨지고 있다. 본 논문은 얼굴표정 애니메이션을 위한 효과적인 방법으로 실제얼굴의 피부조직 얼굴 근육 등 해부학적 구조에 기반한 근육기반모델링을 이용하는 방법을 소개하고자 한다. 제안하는 시스템의 구성은 얼굴 와이어프레임 구성과 폴리곤 메쉬분할 단계, 얼굴에 필요한 근육을 적용시키는 단계, 근육의 움직임에 따른 얼굴 표정생성단계로 이루어진다. 와이어프레임 구성과 폴리곤 메쉬 분할 단계에서는 얼굴모델을 Water[1]가 제안한 얼굴을 기반으로 하였고, 하나의 폴리곤 메쉬를 4등분으로 분할하여 부드러운 3D 얼굴모델을 보여준다. 다음 단계는 얼굴 표정생성에 필요한 근육을 30 개로 만들어 실제로 표정을 지을 때 많이 쓰는 부위에 적용시킨다. 그 다음으로 표정생성단계는 FACS 에서 제안한 Action Unit 을 조합하고 얼굴표정에 따라 필요한 근육의 강도를 조절하여 더 자연스럽고 실제감 있는 얼굴표정 애니메이션을 보여준다.

  • PDF

facial Expression Animation Using 3D Face Modelling of Anatomy Base (해부학 기반의 3차원 얼굴 모델링을 이용한 얼굴 표정 애니메이션)

  • 김형균;오무송
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.7 no.2
    • /
    • pp.328-333
    • /
    • 2003
  • This paper did to do with 18 muscle pairs that do fetters in anatomy that influence in facial expression change and mix motion of muscle for face facial animation. After set and change mash and make standard model in individual's image, did mapping to mash using individual facial front side and side image to raise truth stuff. Muscle model who become motive power that can do animation used facial expression creation correcting Waters' muscle model. Created deformed face that texture is dressed using these method. Also, 6 facial expression that Ekman proposes did animation.

The Design of Realtime Character Animation System (실시간 캐릭터 애니메이션 시스템의 설계)

  • 이지형;김상원;박찬종
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.189-192
    • /
    • 1999
  • 최근 많은 영화나 컴퓨터 애니메이션에는 인간형 3차원 캐릭터의 애니메이션이 등장하고 있다. 이러한 인체 애니메이션에는 인체의 움직임, 손가락이나 얼굴표정이 포함된다. 대부분의 경우에 자연스러운 인체의 움직임을 추적하기 위해 모션캡쳐를 이용하고 있지만, 이 경우 손가락이나 얼굴표정은 제외되므로 이에 대한 추가 작업이 필요하게 된다. 본 논문에서는 모션캡쳐 장비, 사이버글러브와 Face Tracker를 통합한 시스템을 소개하며, 이 시스템을 이용하여 실시간으로 캐릭터 애니메이션이 가능하게 한다.

  • PDF

The Study of Skeleton System for Facial Expression Animation (Skeleton System으로 운용되는 얼굴표정 애니메이션에 관한 연구)

  • Oh, Seong-Suk
    • Journal of Korea Game Society
    • /
    • v.8 no.2
    • /
    • pp.47-55
    • /
    • 2008
  • This paper introduces that SSFE(Skeleton System for Facial Expression) to deform facial expressions by rigging of skeletons does same functions with 14 facial muscles based on anatomy. A three dimensional animation tool (MAYA 8.5) is utilized for making the SSFE that presents deformation of mesh models implementing facial expressions around eyes, nose and mouse. The SSFE has a good reusability within diverse human mesh models. The reusability of SSFE can be understood as OSMU(One Source Multi Use) of three dimensional animation production method. It can be a good alternative technique for reducing production budget of animations. It can also be used for three dimensional animation industries such as virtual reality and game.

  • PDF

Retrieval-Based Hair Model Augmentation for Face Modeling (얼굴 모델링을 위한 검색 기반 헤어 모델 증강 기법)

  • Lee, Jung-Woo;Yuan, Xiaowei;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.11a
    • /
    • pp.53-54
    • /
    • 2018
  • 주어진 영상으로부터의 3 차원 얼굴 모델링은 얼굴 분석, 애니메이션, 생체 인식 등의 많은 컴퓨터비전 및 그래픽스 응용분야에서 중요한 역할을 하고 있다. 그 중에서도 헤어 영역은 얼굴에 비해 모양의 다양성과 모델의 복잡도가 현저히 높다. 기존의 연구는 주로 얼굴 영역에 한정한 3 차원 얼굴 모델링을 중심으로 이루어졌지만 헤어 모델링은 중요하게 다루지 않고 있는 경우가 많다. 본 논문에서는 심층인공신경망의 일종인 FCN (fully connected network)을 이용하여 인물 영상에서 헤어 부분을 영역화하고 그와 가장 유사한 3D 헤어 모델을 데이터베이스에서 검색하여 3 차원 얼굴 모델에 증강함으로써 완전한 얼굴 모델링을 수행하는 방법을 제안한다. 이는 FCN 을 이용하여 다양한 인물 영상에 대하여 네트워크 학습을 수행하는 과정과 3D 헤어 데이터베이스의 구축 과정을 포함한다. 실험 결과 적절한 수준의 헤어 모델이 3 차원 얼굴 모델링 결과물에 증강됨을 확인하였다.

  • PDF

3D Facial Synthesis and Animation for Facial Motion Estimation (얼굴의 움직임 추적에 따른 3차원 얼굴 합성 및 애니메이션)

  • Park, Do-Young;Shim, Youn-Sook;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.6
    • /
    • pp.618-631
    • /
    • 2000
  • In this paper, we suggest the method of 3D facial synthesis using the motion of 2D facial images. We use the optical flow-based method for estimation of motion. We extract parameterized motion vectors using optical flow between two adjacent image sequences in order to estimate the facial features and the facial motion in 2D image sequences. Then, we combine parameters of the parameterized motion vectors and estimate facial motion information. We use the parameterized vector model according to the facial features. Our motion vector models are eye area, lip-eyebrow area, and face area. Combining 2D facial motion information with 3D facial model action unit, we synthesize the 3D facial model.

  • PDF

A Study on Facial Modeling using Implicit Primitive (음함수 프리미티브를 이용한 얼굴모델링에 대한 연구)

  • Lee Hyun-Cheol;Song Yong-Kyu;Kim Eun-Seok;Hur Gi-Taek
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2005.11a
    • /
    • pp.466-469
    • /
    • 2005
  • Recently, in computer graphics, researches on 3D animations have been very active. One of the important research areas in 3D animation is animation of human being. Implicit surface model is convient for modeling objects composed of complicated surface such as 3D characters and liquids. Moreover, it can represent various forms of surfaces using a relatively small amount of data. In this paper, we propose a method of facial model generation using Implicit Primitive.

  • PDF

Realtime Facial Expression Data Tracking System using Color Information (컬러 정보를 이용한 실시간 표정 데이터 추적 시스템)

  • Lee, Yun-Jung;Kim, Young-Bong
    • The Journal of the Korea Contents Association
    • /
    • v.9 no.7
    • /
    • pp.159-170
    • /
    • 2009
  • It is very important to extract the expression data and capture a face image from a video for online-based 3D face animation. In recently, there are many researches on vision-based approach that captures the expression of an actor in a video and applies them to 3D face model. In this paper, we propose an automatic data extraction system, which extracts and traces a face and expression data from realtime video inputs. The procedures of our system consist of three steps: face detection, face feature extraction, and face tracing. In face detection, we detect skin pixels using YCbCr skin color model and verifies the face area using Haar-based classifier. We use the brightness and color information for extracting the eyes and lips data related facial expression. We extract 10 feature points from eyes and lips area considering FAP defined in MPEG-4. Then, we trace the displacement of the extracted features from continuous frames using color probabilistic distribution model. The experiments showed that our system could trace the expression data to about 8fps.

3-D Facial Animation on the PDA via Automatic Facial Expression Recognition (얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션)

  • Lee Don-Soo;Choi Soo-Mi;Kim Hae-Hwang;Kim Yong-Guk
    • The KIPS Transactions:PartB
    • /
    • v.12B no.7 s.103
    • /
    • pp.795-802
    • /
    • 2005
  • In this paper, we present a facial expression recognition-synthesis system that recognizes 7 basic emotion information automatically and renders face with non-photorelistic style in PDA For the recognition of the facial expressions, first we need to detect the face area within the image acquired from the camera. Then, a normalization procedure is applied to it for geometrical and illumination corrections. To classify a facial expression, we have found that when Gabor wavelets is combined with enhanced Fisher model the best result comes out. In our case, the out put is the 7 emotional weighting. Such weighting information transmitted to the PDA via a mobile network, is used for non-photorealistic facial expression animation. To render a 3-D avatar which has unique facial character, we adopted the cartoon-like shading method. We found that facial expression animation using emotional curves is more effective in expressing the timing of an expression comparing to the linear interpolation method.

A Study on Expression Analysis of Animation Character Using Action Units(AU) (Action Units(AU)를 사용한 애니메이션 캐릭터 표정 분석)

  • Shin, Hyun-Min;Weon, Sun-Hee;Kim, Gye-Young
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2009.01a
    • /
    • pp.163-167
    • /
    • 2009
  • 본 논문에서는 크게 2단계에 걸쳐 다양한 형태의 얼굴을 가진 2차원 애니메이션 상의 캐릭터 얼굴구성요소를 추출하고 표정을 분석한다. 첫 번째 단계에서는, 기존의 얼굴인식 및 표정인식 분야에서 이용되었던 동적메쉬모델을 간소화하여 캐릭터 얼굴에 적용하기 위한 최적의 표준 메쉬모델을 제작하고, 이 모델을 사용하여 얼굴구성요소의 위치 및 형태정보를 추출한다. 두 번째 단계에서는, 앞 단계에서 추출된 3가지 얼굴구성요소(눈썹, 눈, 입)를 사용하여 FACS(Facial Action Coding System)에 정의된 AU(Action Units) 44개 중 12개의 AU를 사용하여 캐릭터의 5까지 기본적인 얼굴 표정에 대해 분석 및 정의한다. 본 논문에서 정의한 AU로 기본적인 5가지 얼굴표정에 대해 표정분석 정확도를 측정하였고, 서로 다른 캐릭터에 실험함으로써 제안된 AU정의의 타당성을 제시한다.

  • PDF