• Title/Summary/Keyword: 연기자 기반 애니메이션

Search Result 4, Processing Time 0.02 seconds

Real-time Facial Modeling and Animation based on High Resolution Capture (고해상도 캡쳐 기반 실시간 얼굴 모델링과 표정 애니메이션)

  • Byun, Hae-Won
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.8
    • /
    • pp.1138-1145
    • /
    • 2008
  • Recently, performance-driven facial animation has been popular in various area. In television or game, it is important to guarantee real-time animation for various characters with different appearances between a performer and a character. In this paper, we present a new facial animation approach based on motion capture. For this purpose, we address three issues: facial expression capture, expression mapping and facial animation. Finally, we show the results of various examination for different types of face models.

  • PDF

The Development of Reenactment System (사건 재연 시스템 개발)

  • 윤여천;변혜원;전성규
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2001.11b
    • /
    • pp.45-49
    • /
    • 2001
  • 본 논문에서는 실제 카메라 영상으로 획득하기 어려운 화재, 살인 등의 뉴스 사건을 시청자들에게 효과적으로 전달하기 위해서 다수의 가상캐릭터가 등장하는 애니메이션을 신속, 편리하게 제작할 수 있는 사건 재연 시스템의 개발 기법을 소개한다. 본 시스템은 미리 구축된 동작 및 모델 라이브러리를 이용하여 다수의 가상캐릭터 움직임을 제어함으로써 고가의 동작 포착 장비와 연기자가 없어도 신속한 가상캐릭터 애니메이션 제작이 가능하다. 사건 재연 시스템의 가상 캐릭터 동작 제어는 동작 지정, 동작 생성, 동작 편집의 세 단계로 구성된다. 동작 지정 단계에서는 사건 시나리오에 따라 모델 라이브러리부터 가상캐릭터와배경 모델을 선택하고, 동작 라이브러리부터 가상캐릭터의 동작을 선택한다. 동작 생성 단계에서는 지정된 특정 사건을 기술하는 동작에 이동 동작을 연결함으로써 가상캐릭터의 부드러운 동작을 생성한다. 동작편집 단계에서는 가상캐릭터 사이의 상호 작용 또는 가상캐릭터와 가상환경의 상호작용을 보다 정확하게 제어하기 위해서 특정한 시간에서의 가상캐릭터 위치와 자세 등을 조정한다. 본 시스템은 편리한 사용을 위해 대화형과 스크립트 기반의 인터페이스를 적용하였으며, 3차원 그래픽 소프트웨어인 Maya의 플러그인(Plug-in) 소프트웨어 형태로 개발하여 Maya의 고성능 그래픽 기능을 활용하였다.

  • PDF

Realtime Facial Expression Data Tracking System using Color Information (컬러 정보를 이용한 실시간 표정 데이터 추적 시스템)

  • Lee, Yun-Jung;Kim, Young-Bong
    • The Journal of the Korea Contents Association
    • /
    • v.9 no.7
    • /
    • pp.159-170
    • /
    • 2009
  • It is very important to extract the expression data and capture a face image from a video for online-based 3D face animation. In recently, there are many researches on vision-based approach that captures the expression of an actor in a video and applies them to 3D face model. In this paper, we propose an automatic data extraction system, which extracts and traces a face and expression data from realtime video inputs. The procedures of our system consist of three steps: face detection, face feature extraction, and face tracing. In face detection, we detect skin pixels using YCbCr skin color model and verifies the face area using Haar-based classifier. We use the brightness and color information for extracting the eyes and lips data related facial expression. We extract 10 feature points from eyes and lips area considering FAP defined in MPEG-4. Then, we trace the displacement of the extracted features from continuous frames using color probabilistic distribution model. The experiments showed that our system could trace the expression data to about 8fps.

Development of A News Event Reenactment System (사건재연 시스템 개발)

  • 윤여천;변혜원;전성규;박창섭
    • Journal of Broadcast Engineering
    • /
    • v.7 no.1
    • /
    • pp.21-27
    • /
    • 2002
  • This paper presents a mews event reenactment system (NERS), which generates virtual character animations in a quick and convenient manner. Thus, NERS can be used to produce computer graphics(CG) scenes of news events that are hard to photograph, such as fire, traffic accident, cases of murder, and so on. By using plenty of captured motion data and CG model data this system produces an appropriate animation of virtual characters straightforwardly without any motion capturing device and actors in the authoring stage. NERS is designed to be capable of making virtual characters move along user-defined paths, stitching motions smoothly and modifyingthe positions and of the articulations of a virtual character in a specific frame. Therefore a virtual character can be controlled precisely so as to interact with the virtual environments and other characters. NERS provides both an interactive and script-based (MEL: Maya Embedded Language) interface so that user can this system in a convenient way. This system has been implemented as a plug-in of commercial CG tool, Maya (Alias/wavefront), in order to make use of its advanced functions