DOI QR코드

DOI QR Code

3D Facial Animation with Head Motion Estimation and Facial Expression Cloning

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션

  • Published : 2007.08.31

Abstract

This paper presents vision-based 3D facial expression animation technique and system which provide the robust 3D head pose estimation and real-time facial expression control. Many researches of 3D face animation have been done for the facial expression control itself rather than focusing on 3D head motion tracking. However, the head motion tracking is one of critical issues to be solved for developing realistic facial animation. In this research, we developed an integrated animation system that includes 3D head motion tracking and facial expression control at the same time. The proposed system consists of three major phases: face detection, 3D head motion tracking, and facial expression control. For face detection, with the non-parametric HT skin color model and template matching, we can detect the facial region efficiently from video frame. For 3D head motion tracking, we exploit the cylindrical head model that is projected to the initial head motion template. Given an initial reference template of the face image and the corresponding head motion, the cylindrical head model is created and the foil head motion is traced based on the optical flow method. For the facial expression cloning we utilize the feature-based method, The major facial feature points are detected by the geometry of information of the face with template matching and traced by optical flow. Since the locations of varying feature points are composed of head motion and facial expression information, the animation parameters which describe the variation of the facial features are acquired from geometrically transformed frontal head pose image. Finally, the facial expression cloning is done by two fitting process. The control points of the 3D model are varied applying the animation parameters to the face model, and the non-feature points around the control points are changed by use of Radial Basis Function(RBF). From the experiment, we can prove that the developed vision-based animation system can create realistic facial animation with robust head pose estimation and facial variation from input video image.

본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

Keywords

References

  1. J. Chai, J. Xiao, and J. Hodgins, 'Vision-based Control of 3D Facial Animation', In Proc. ACM/Eurographics Symposium on Computer Animation, pp. 193-206, 2003
  2. X. Wei, Z. Zhu, L. Yin, and Q. Ji, 'A Real Time Face Tracking and Animation System', IEEE Conference on CVPR 2004, Vol. 5, pp. 71-78, 2004 https://doi.org/10.1109/CVPR.2004.14
  3. J.Y. Noh and U. Neumann, 'Expression Cloning', Computer Graphics, Proceedings of ACM SIGGRAPH, pp. 277-288, 2001 https://doi.org/10.1145/1185657.1185862
  4. Z. Liu and Z. Ahang, 'Robust Head Motion Computation by Taking Advantage of Physical Properties', Proc. HUMO2000, 2000 https://doi.org/10.1109/HUMO.2000.897374
  5. D. DeCarlo and D. Metaxas, 'The Integration of Optical Flow and Deformable Models with Applications to Human Face Shape and Motion Estimation', CVPR96, pp. 231-238, 1996
  6. G.D. Hager and P.N. Belhumeur, 'Efficient Region Tracking with Parametric Models of Geometry and Illumination', PAMI, vol. 20, no. 10, pp. 1025-1039, 1998 https://doi.org/10.1109/34.722606
  7. M.L. Cascia and S. Sclaroff, 'Fast, Reliable Head Tracking under Varying Illumination', CVPR99, pp. 604-610, 1999
  8. J. Ostermann, 'Animation of Synthetic Faces in MPEG-4', Computer Animation, pp. 49-51, 1998 https://doi.org/10.1109/CA.1998.681907
  9. C. Chien, Y. Chang, and Y. Chen, 'Facial Expression Analysis under Various Head Poses', In Proc. the Third IEEE Pacific Rim Conference on Multimedia, Vol. 2532, pp. 1193-1200, 2002 https://doi.org/10.1007/3-540-36228-2_148
  10. A. Wojdel, L. J. M. Rothkrantx, 'Parametric Generation of Facial Expressions Based on FACS', Computer Graphic Forum, Vol. 24, pp. 743-757, 2005 https://doi.org/10.1111/j.1467-8659.2005.00899.x
  11. F. Pighin, J. heccker, D. Lischinski, R. Szeliski, and D. Salesin, 'Synthesizing Realistic Facial Expression from Photographs', Proc. Computer Graphics SIGGRAPH, pp. 231-242, 1998 https://doi.org/10.1145/280814.280825
  12. D. Terzopoulos and K. Waters, 'Physically-based Facial Modeling, Analysis, and Animation', J. Visualization and Computer Animation, pp. 73-80, 1990
  13. J. Chun, K Min, 'A Realistic Human Face Modeling from Photographs by Use of Skin Color and Model Deformation,'LNCS 3480, pp 1135-1143, 2005 https://doi.org/10.1007/11424758_119
  14. J.L, Barron and N.A. Thacker, 'Tutorial: Computing 2D and 3D Optical Flow', Tina Memo No. 2004-012, 2005