• 제목/요약/키워드: real-time facial animation

검색결과 21건 처리시간 0.022초

Real-time Markerless Facial Motion Capture of Personalized 3D Real Human Research

  • Hou, Zheng-Dong;Kim, Ki-Hong;Lee, David-Junesok;Zhang, Gao-He
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권1호
    • /
    • pp.129-135
    • /
    • 2022
  • Real human digital models appear more and more frequently in VR/AR application scenarios, in which real-time markerless face capture animation of personalized virtual human faces is an important research topic. The traditional way to achieve personalized real human facial animation requires multiple mature animation staff, and in practice, the complex process and difficult technology may bring obstacles to inexperienced users. This paper proposes a new process to solve this kind of work, which has the advantages of low cost and less time than the traditional production method. For the personalized real human face model obtained by 3D reconstruction technology, first, use R3ds Wrap to topology the model, then use Avatary to make 52 Blend-Shape model files suitable for AR-Kit, and finally realize real-time markerless face capture 3D real human on the UE4 platform facial motion capture, this study makes rational use of the advantages of software and proposes a more efficient workflow for real-time markerless facial motion capture of personalized 3D real human models, The process ideas proposed in this paper can be helpful for other scholars who study this kind of work.

고해상도 캡쳐 기반 실시간 얼굴 모델링과 표정 애니메이션 (Real-time Facial Modeling and Animation based on High Resolution Capture)

  • 변혜원
    • 한국멀티미디어학회논문지
    • /
    • 제11권8호
    • /
    • pp.1138-1145
    • /
    • 2008
  • 최근에 다양한 분야에서 캐릭터 표정을 생성하는데 연기자 기반 표정 캡쳐 방법을 널리 사용하고 있다. 특히, 방송이나 게임 등의 분야에서는 실시간 요소와 연기자와 외형상의 차이가 큰 캐릭터의 경우에도 표정 표현이 가능한 다양성이 중요한 문제가 된다. 본 논문에서는 연기자 얼굴에서 캡쳐한 표정을 다양한 얼굴 모델에 적용하는 새로운 표정 애니메이션 방법을 제안한다. 이 방법을 사용하면 최소의 실시간 비용으로 캐릭터 표정을 생성하고 제어하는 것이 가능하다. 본 논문에서는 세 가지 핵심 이슈로서 얼굴 표정 캡쳐, 표정 대입, 표정 애니메이션을 다룬다. 그리고 연기자와 얼굴 모델 간의 특성이 매우 상이한 다양한 경우에 대하여 실험결과를 보여줌으로써 접근방식의 유효성을 증명한다.

  • PDF

Text-driven Speech Animation with Emotion Control

  • Chae, Wonseok;Kim, Yejin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권8호
    • /
    • pp.3473-3487
    • /
    • 2020
  • In this paper, we present a new approach to creating speech animation with emotional expressions using a small set of example models. To generate realistic facial animation, two example models called key visemes and expressions are used for lip-synchronization and facial expressions, respectively. The key visemes represent lip shapes of phonemes such as vowels and consonants while the key expressions represent basic emotions of a face. Our approach utilizes a text-to-speech (TTS) system to create a phonetic transcript for the speech animation. Based on a phonetic transcript, a sequence of speech animation is synthesized by interpolating the corresponding sequence of key visemes. Using an input parameter vector, the key expressions are blended by a method of scattered data interpolation. During the synthesizing process, an importance-based scheme is introduced to combine both lip-synchronization and facial expressions into one animation sequence in real time (over 120Hz). The proposed approach can be applied to diverse types of digital content and applications that use facial animation with high accuracy (over 90%) in speech recognition.

지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법 (A Generation Method of Comic Facial Expressions for Intelligent Avatar Communications)

  • 이윤후;김상운
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(4)
    • /
    • pp.227-230
    • /
    • 2000
  • The sign-language can be used as an auxiliary communication means between avatars of different languages in cyberspace. At that time, an intelligent communication method can also be utilized to achieve real-time communication, where intelligently coded data (joint angles for arm gestures and action units for facial emotions) are transmitted instead of real pictures. In this paper, a method of generating the facial gesture CG animation on different avatar models is provided. At first, to edit emotional expressions efficiently, a comic-style facial model having only eyebrows, eyes, nose, and mouth is employed. Then generation of facial emotion animation with the parameters is also investigated. Experimental results show a possibility that the method could be used for the intelligent avatar communications between Korean and Japanese.

  • PDF

지적 아바타 통신을 위한 얼굴 표정의 실시간 생성에 관한 검토 (An Empirical Study on Real-time Generation of Facial Expressions in Avatar Communications)

  • 이용후;김상운;일본명
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅲ
    • /
    • pp.1673-1676
    • /
    • 2003
  • As a means of overcoming the linguistic barrier in the Internet cyberspace, recently a couple of studies on intelligent avatar communications between avatars of different languages such as Japanese-Korean have been performed. In this paper we measure the generation time of facial expressions on different avatar models in order to consider avatar models to be available in real-time system. We also provide a short overview about DTD (Document Type Definition) to deliver the facial and gesture animation parameters between avatars as an XML data.

  • PDF

A Study on Real-time Graphic Workflow For Achieving The Photorealistic Virtual Influencer

  • Haitao Jiang
    • International journal of advanced smart convergence
    • /
    • 제12권1호
    • /
    • pp.130-139
    • /
    • 2023
  • With the increasing popularity of computer-generated virtual influencers, the trend is rising especially on social media. Famous virtual influencer characters Lil Miquela and Imma were all created by CGI graphics workflows. The process is typically a linear affair. Iteration is challenging and costly. Development efforts are frequently siloed off from one another. Moreover, it does not provide a real-time interactive experience. In the previous study, a real-time graphic workflow was proposed for the Digital Actor Hologram project while the output graphic quality is less than the results obtained from the CGI graphic workflow. Therefore, a real-time engine graphic workflow for Virtual Influencers is proposed in this paper to facilitate the creation of real-time interactive functions and realistic graphic quality. The real-time graphic workflow is obtained from four processes: Facial Modeling, Facial Texture, Material Shader, and Look-Development. The analysis of performance with real-time graphical workflow for Digital Actor Hologram demonstrates the usefulness of this research result. Our research will be efficient in producing virtual influencers.

3D 캐릭터의 얼굴 표정 애니메이션 마커리스 표정 인식 기술 비교 분석 -페이스웨어와 페이스쉬프트 방식 중심으로- (Comparative Analysis of Markerless Facial Recognition Technology for 3D Character's Facial Expression Animation -Focusing on the method of Faceware and Faceshift-)

  • 김해윤;박동주;이태구
    • 만화애니메이션 연구
    • /
    • 통권37호
    • /
    • pp.221-245
    • /
    • 2014
  • 1995년 세계 최초의 극장용 3D 컴퓨터 애니메이션 영화 "토이 스토리"의 흥행성공은 3D 컴퓨터 애니메이션의 산업적 발전에 큰 도약을 할 수 있는 계기를 만들었다. 이에 영향을 받아 TV용 3D 애니메이션 작품들이 다양하게 제작되었으며 게임 분야에서도 고화질의 3D 컴퓨터 애니메이션 게임들이 보편화되었다. 이와 같이 산업적 수요가 확대됨에 따라 막대한 제작 시간 및 비용 절감을 위한 기술적 발달이 활발하게 진행되어왔다. 이에 따라 전통적인 그림 애니메이션 제작 방식에 비하여 3D 컴퓨터 애니메이션의 제작 효율성은 비교를 할 수 없을 정도로 발전되어왔다. 본 논문에서는 3D 컴퓨터 애니메이션 제작의 효율성 제고를 위하여 얼굴 표정 애니메이션 마커리스(Markless 이하: 마커리스) 모션캡처 시스템들을 실험 및 비교분석하였다. 이미지 메트릭스(Image Metrics)사 제품인 페이스웨어(Faceware) 시스템은 모션캡처 인식 및 적용 과정의 복잡성은 있지만 정교함 측면에서 장점이 있으며, 페이스쉬프트(Faceshift)사 제품인 페이스쉬프트(Faceshift) 시스템은 실시간 모션 인식 및 적용의 신속성이 장점인 반면 정교함이 상대적으로 떨어진다는 결과를 도출하였다. 본 논문의 비교 분석 결과가 애니메이션 제작을 제작 할 때, 제작 시간 및 비용, 결과물의 정교함 정도 및 활용 매체에 따라 가장 효율적인 얼굴 표정 애니메이션 제작을 위한 모션캡처 및 키 프레임 애니메이션 제작 방식의 선택에 기초 자료가 되기를 기대한다.

CCA 투영기법을 사용한 모션 데이터의 대화식 얼굴 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using CCA)

  • 김성호
    • 인터넷정보학회논문지
    • /
    • 제6권1호
    • /
    • pp.85-93
    • /
    • 2005
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이들 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 CCA 투영기법을 이용하여 2차원 평면에 투영시켰다 얼굴 애니메이션은 사용자 인터베이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

  • PDF

다중 제어 레벨을 갖는 입모양 중심의 표정 생성 (Speech Animation with Multilevel Control)

  • 문보희;이선우;원광연
    • 인지과학
    • /
    • 제6권2호
    • /
    • pp.47-79
    • /
    • 1995
  • 오래 전부터 컴퓨터 그래픽을 이용한 얼굴의 표정 생성은 여러 분야에서 응용되어 왔고,요즘에는 가상현실감 분야나 원격 회의 분야 등에서 가상 에이전트의 표정을 생성하는데 사용되고 있다.그러나 네트워크를 통해 다중 참여자가 상호 작용을 하는 상황에서 표정을 생성하는 경우에는 상호작용을 위해 전송되어야 할 정보의 양으로 인해,실시간에 원하는 표정을 생성하기 어려운 경우가 생긴다.본 연구에서는 이러한 문지를 해결하기 위해 표정 생성에 Level-of-Detail을 적용하였다.Level-of-Detail은 그래픽스 분야에서 복잡한 물체의 외형을 좀 더 효율적으로 나타내기 위해 오랜 전부터 연구되어져 온 기법이지만 아직까지 표정 생성에 적용된 예는 없다.본 연구에서는 상황을 고려하여 적절하게 상세도를 변경하여 표정을 생성하도록 Level-of-Detail기법을 적용하는 방법에 대해 연구하였다.구현된 시스템은 텍스트,음성,Gui, 사용자의 머리의 움직임 등과 같은 다양한 입력에 대해 입모양과 동기화 되는 표정을 생성한다.

  • PDF

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.