Automatic Anticipation Generation for 3D Facial Animation

3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성

  • Published : 2005.02.01

Abstract

According to traditional 2D animation techniques, anticipation makes an animation much convincing and expressive. We present an automatic method for inserting anticipation effects to an existing facial animation. Our approach assumes that an anticipatory facial expression can be found within an existing facial animation if it is long enough. Vertices of the face model are classified into a set of components using principal components analysis directly from a given hey-framed and/or motion -captured facial animation data. The vortices in a single component will have similar directions of motion in the animation. For each component, the animation is examined to find an anticipation effect for the given facial expression. One of those anticipation effects is selected as the best anticipation effect, which preserves the topology of the face model. The best anticipation effect is automatically blended with the original facial animation while preserving the continuity and the entire duration of the animation. We show experimental results for given motion-captured and key-framed facial animations. This paper deals with a part of broad subject an application of the principles of traditional 2D animation techniques to 3D animation. We show how to incorporate anticipation into 3D facial animation. Animators can produce 3D facial animation with anticipation simply by selecting the facial expression in the animation.

전통적인 2차원 애니메이션 제작기법에 의하면, 애니메이션의 기대효과(Anticipation)는 동작에 대한 준비단계로서 사실적이고 풍부한 표현을 하는데 중요한 역할을 한다고 알려져 있다. 얼굴 표정 애니메이션 데이타가 충분히 길다고 가정하면, 특정한 얼굴 표정에 대한 기대효과가 주어진 애니메이션 데이타에 존재할 가능성이 높다. 본 논문에서는 주어진 얼굴 표정 애니메이션 데이타로부터 얼굴 표정의 기대효과를 자동으로 추출하여 추가하는 방법을 제시한다. 먼저 애니메이션 데이타에 대해 중요요소분석법(Principal Component Analysis)을 적용하여 얼굴 모델의 모든 정점을 비슷한 움직임의 방향을 갖는 요소(Component)의 집합으로 분류한다. 각각의 요소에 대하여, 반대 방향의 움직임을 갖는 보정 애니메이션 데이타를 파 요소에 대한 기대효과로서 추출하고, 이 중에서 얼굴 모델의 위상정보를 보존하는 최적의 기대효과를 주어진 보정의 기대효과로 선택한다. 선택된 기대효과는 애니메이션 데이타의 연속성과 재생 시간을 유지하도록 주어진 표정과 적절히 합성(Blend)한다. 모션캡쳐 및 키프레임 작업에 의한 3차원 얼굴 보정 애니메이션 데이타를 입력으로 하여 기대효과론 자동으로 생성하는 실험격과를 제시한다. 본 논문은 전통적인 2차원 애니메이션 제자방법 중 하나인 기대효과를 3차원 얼굴 표정 애니메이션에 적용하는 새로운 방법을 제시하여, 애니메이션 제작자가 얼굴 표정을 선택하는 간단한 상호작용만으로도 기대효과가 추가된 3차원 얼굴 보정 애니메이션을 손쉽게 얻을 수 있다.

Keywords

References

  1. Parke, F. I. and Waters, K., Computer Facial Animation, A. K. Peters, 1996.
  2. Agarwala, A., 'Snaketoonz : a semiautomatic approach to creating cel animation from video,' Proceedings of Non-Photorealistic Animation and Rendering, pp. 139-148, 2002 https://doi.org/10.1145/508530.508554
  3. Chenny, S., Pingel, M., Iverson, R., and Szymanski, M., 'Simulating cartoon style animation,' Proceedings of Non-Photorealistic Animation and Rendering, pp. 133-138, 2002 https://doi.org/10.1145/508530.508553
  4. Korf, A., 'Computer aided inbetween,' Proceedings of Non-Photorealistic Animation and Rendering, pp. 125-132, 2002 https://doi.org/10.1145/508530.508552
  5. Lasseter, J., 'Principles of traditional animation applied to 3D computer graphics,' Proceedings of SIGGRAPH '87, pp. 35-44, 1987 https://doi.org/10.1145/37401.37407
  6. Williams, R., The Animator's Survival Kit, Faber and Faber, 2001
  7. Parke, F. I., 'Computer generated animation of faces,' Proceedings of ACM annual conference, pp. 451-457, 1972 https://doi.org/10.1145/800193.569955
  8. Parke, F. I., A Parametric Model for Human Faces, Ph.D. Thesis, University of Utah, 1974
  9. Noh, J. Y., and Neumann, U., 'A survey of facial modeling and animation techniques,' Technial Report 99-705, University of Southern California, 1999
  10. Opalach, A., and Maddoc, S., 'Disney effects using implicit surfaces,' Proceedings of 5th Eurographics Workshop on Animation and Simulation, 1994
  11. Rademacher, P., 'View-dependent geometry,' Proceedings of SIGGRAPH '99, pp. 439-446, 1999 https://doi.org/10.1145/311535.311612
  12. Bregler, C., Loeb, L., Chuang, E., and Deshpande, H., 'Turning to the masters: Motion capturing cartoons,' ACM Transactions on Graphics(Proceedings of SIGGRAPH 2002), Vol. 22, No. 3, pp. 399-407, 2002 https://doi.org/10.1145/566654.566595
  13. Bruderlin, A., and Williams, L., 'Motion signal processing,' Proceedings of SIGGRAPH '97, pp. 97-104, 1997 https://doi.org/10.1145/218380.218421
  14. Lee, Y. C., Terzopoulos, D., and Waters, K., 'Constructing physics-based facial models of individuals,' Proceedings of Graphics Interface, pp. 1-8, 1993
  15. Lee, Y. C., Terzopoulos, D., and Waters, K., 'Realistic modeling for facial animation,' Proceedings of SIGGRAPH '95, pp. 55-62, 1995 https://doi.org/10.1145/218380.218407
  16. Kuo, C. J., Huang, R. S., and Lin, T. G., 'Synthesizing lateral face from frontal facial image using anthropometric estimation,' Proceedings of International Conference on Image Processing, Vol. 1, pp. 133-136, 1997 https://doi.org/10.1109/ICIP.1997.647402
  17. Jollife, I. T., Principal Component Analysis, Springer, 1986