• Title/Summary/Keyword: 표정 애니메이션

Search Result 117, Processing Time 0.029 seconds

Intuitive Quasi-Eigenfaces for Facial Animation (얼굴 애니메이션을 위한 직관적인 유사 고유 얼굴 모델)

  • Kim, Ig-Jae;Ko, Hyeong-Seok
    • Journal of the Korea Computer Graphics Society
    • /
    • v.12 no.2
    • /
    • pp.1-7
    • /
    • 2006
  • 블렌드 쉐입 기반 얼굴 애니메이션을 위해 기저 모델(Expression basis)을 생성하는 방법을 크게 두 가지로 구분하면, 애니메이터가 직접 모델링을 하여 생성하는 방법과 통계적 방법에 기초하여 모델링하는 방법이 있다. 그 중 애니메이터에 의한 수동 모델링 방법으로 생성된 기저 모델은 직관적으로 표정을 인식할 수 있다는 장점으로 인해 전통적인 키프레임 제어가 가능하다. 하지만, 표정 공간(Expression Space)의 일부분만을 커버하기 때문에 모션데이터로부터의 재복원 과정에서 많은 오차를 가지게 된다. 반면, 통계적 방법을 기반으로 한 기저모델 생성 방법은 거의 모든 표정공간을 커버하는 고유 얼굴 모델(Eigen Faces)을 생성하므로 재복원 과정에서 최소의 오차를 가지지만, 시각적으로 직관적이지 않은 표정 모델을 만들어 낸다. 따라서 본 논문에서는 수동으로 생성한 기저모델을 유사 고유 얼굴 모델(Quasi-Eigen Faces)로 변형하는 방법을 제시하고자 한다. 결과로 생성되는 기저 모델은 시각적으로 직관적인 얼굴 표정을 유지하면서도 통계적 방법에 의한 얼굴표정 공간의 커버 영역과 유사하도록 확장할 수 있다.

  • PDF

A Study on Lip Sync and Facial Expression Development in Low Polygon Character Animation (로우폴리곤 캐릭터 애니메이션에서 립싱크 및 표정 개발 연구)

  • Ji-Won Seo;Hyun-Soo Lee;Min-Ha Kim;Jung-Yi Kim
    • The Journal of the Convergence on Culture Technology
    • /
    • v.9 no.4
    • /
    • pp.409-414
    • /
    • 2023
  • We described how to implement character expressions and animations that play an important role in expressing emotions and personalities in low-polygon character animation. With the development of the video industry, character expressions and mouth-shaped lip-syncing in animation can realize natural movements at a level close to real life. However, for non-experts, it is difficult to use expert-level advanced technology. Therefore, We aimed to present a guide for low-budget low-polygon character animators or non-experts to create mouth-shaped lip-syncing more naturally using accessible and highly usable features. A total of 8 mouth shapes were developed for mouth shape lip-sync animation: 'ㅏ', 'ㅔ', 'ㅣ', 'ㅗ', 'ㅜ', 'ㅡ', 'ㅓ' and a mouth shape that expresses a labial consonant. In the case of facial expression animation, a total of nine animations were produced by adding highly utilized interest, boredom, and pain to the six basic human emotions classified by Paul Ekman: surprise, fear, disgust, anger, happiness, and sadness. This study is meaningful in that it makes it easy to produce natural animation using the features built into the modeling program without using complex technologies or programs.

A Study on Korean Speech Animation Generation Employing Deep Learning (딥러닝을 활용한 한국어 스피치 애니메이션 생성에 관한 고찰)

  • Suk Chan Kang;Dong Ju Kim
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.12 no.10
    • /
    • pp.461-470
    • /
    • 2023
  • While speech animation generation employing deep learning has been actively researched for English, there has been no prior work for Korean. Given the fact, this paper for the very first time employs supervised deep learning to generate Korean speech animation. By doing so, we find out the significant effect of deep learning being able to make speech animation research come down to speech recognition research which is the predominating technique. Also, we study the way to make best use of the effect for Korean speech animation generation. The effect can contribute to efficiently and efficaciously revitalizing the recently inactive Korean speech animation research, by clarifying the top priority research target. This paper performs this process: (i) it chooses blendshape animation technique, (ii) implements the deep-learning model in the master-servant pipeline of the automatic speech recognition (ASR) module and the facial action coding (FAC) module, (iii) makes Korean speech facial motion capture dataset, (iv) prepares two comparison deep learning models (one model adopts the English ASR module, the other model adopts the Korean ASR module, however both models adopt the same basic structure for their FAC modules), and (v) train the FAC modules of both models dependently on their ASR modules. The user study demonstrates that the model which adopts the Korean ASR module and dependently trains its FAC module (getting 4.2/5.0 points) generates decisively much more natural Korean speech animations than the model which adopts the English ASR module and dependently trains its FAC module (getting 2.7/5.0 points). The result confirms the aforementioned effect showing that the quality of the Korean speech animation comes down to the accuracy of Korean ASR.

Humanoid Avatar Chatting System using XML (XML을 이용한 휴머노이드 아바타 채팅 시스템)

  • 김계숙;이만형;황대훈;박규석
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.05b
    • /
    • pp.811-816
    • /
    • 2003
  • VRML은 애니메이션을 구현하기 위한 구문을 기본적으로 제공하고 있으나, 몇 가지 문제점을 가지고 있다. 우선 아바타 데이터와 애니메이션 데이터의 완벽한 분리가 불가능하고 데이터가 종속적이어서, 어느 한 쪽의 수정이 가해질 경우 다른 데이터도 그에 맞춰 수정해 주어야 한다. 이러한 기존 VRML의 단점을 극복하기 위해, 아바타 데이터와 애니메이션 데이터를 XML 기반의 행위기술 언어를 정의하고. 이 언어로 작성된 데이터를 처리하기 위한 애니메이션 시스템의 연구가 필요하다. 이러한 행위기술 언어는 아바타 데이터와 애니메이션 데이터를 서로 독립적으로 분리시킬 수 있어야 하며, 또한 아바타 데이터의 수정이 전제되어도 재활용이 가긍한 애니메이션 데이터를 작성하는 것이 가능해야 한다. 이에 본 연구에서는 아바타 관련 표준화 동향과 VRML로 정의된 휴머노이드 아바타의 문제점을 정의하고. 이를 극복하기 위한 방안으로 휴머노이드 아바타의 외형을 H-Anim 표준에 따르는 계층적 구조로 정의하였다 또한 휴머노이드 아바타의 행위 및 표정을 XML DTD와 DI로 정의하고, XML로 정의된 휴머노이드의 외형/행위/표정을 기존의 VRML 브라우저에서 표현하기 위한 처리 방법 덴 시스템을 설계하고 구현하였다. 끝으로 위와 같이 설계된 결과를 아바타 채팅 시스템의 구현에 적용하여 연구결과의 타당성을 검증하였다.

  • PDF

가상 인물의 얼굴 표정 애니메이션

  • 변혜원;김희정;박성춘
    • Broadcasting and Media Magazine
    • /
    • v.3 no.2
    • /
    • pp.23-30
    • /
    • 1998
  • 컴퓨터 그래픽스의 발전과 함께 등장한 가상인물은 최근 영화, TV, 게임 등의 다양한 매체에서 자주 접할수 있게 되었다. 가상인물은 사람을 닮은 등장인물로서, 그 생김새나 사실적인 동작, 자연스러운 얼굴 표정등이 관심의 대상이 된다. 특히, 얼굴 생김새나 표정은 가상인물을 개성 있는 인물로 재창조하는데 중요한 역할을 한다. 사람들은 타인의 얼굴 표정에 대해 매우 민감하게 반응하기 때문에 가상인물의 얼굴 표정을 제어하기가 더욱 어렵다. 가상인물의 얼굴 모델을 제작하고, 모델에게 표정을 부여하기 위해서 오래 전부터 다양한 방법들이 연구되어 왔다. 본 고에서는 가상인물의 얼굴 모델을 제작하고, 표정을 생성하는 방법에 관해 조명해 본다.

  • PDF

Hierarchical Visualization of the Space of Facial Expressions (얼굴 표정공간의 계층적 가시화)

  • Kim Sung-Ho;Jung Moon-Ryul
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.31 no.12
    • /
    • pp.726-734
    • /
    • 2004
  • This paper presents a facial animation method that enables the user to select a sequence of facial frames from the facial expression space, whose level of details the user can select hierarchically Our system creates the facial expression space from about 2400 captured facial frames. To represent the state of each expression, we use the distance matrix that represents the distance between pairs of feature points on the face. The shortest trajectories are found by dynamic programming. The space of facial expressions is multidimensional. To navigate this space, we visualize the space of expressions in 2D space by using the multidimensional scaling(MDS). But because there are too many facial expressions to select from, the user faces difficulty in navigating the space. So, we visualize the space hierarchically. To partition the space into a hierarchy of subspaces, we use fuzzy clustering. In the beginning, the system creates about 10 clusters from the space of 2400 facial expressions. Every tine the level increases, the system doubles the number of clusters. The cluster centers are displayed on 2D screen and are used as candidate key frames for key frame animation. The user selects new key frames along the navigation path of the previous level. At the maximum level, the user completes key frame specification. We let animators use the system to create example animations, and evaluate the system based on the results.

The Multi-marker Tracking for Facial Animation (Facial Animation을 위한 다중 마커의 추적)

  • 이문희;김철기;김경석
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.06a
    • /
    • pp.553-557
    • /
    • 2001
  • 얼굴 표정을 애니메이션하는 것은 얼굴 구조의 복잡성과 얼굴 표면의 섬세한 움직임으로 인해 컴퓨터 애니메이션 분야에서 가장 어려운 분야로 인식되고 있다. 최근 3D 애니메이션, 영화 특수효과 그리고 게임 제작시 모션 캡처 시스템(Motion Capture System)을 통하여 실제 인간의 동작 및 얼굴 표정을 수치적으로 측정해내어 이를 실제 애니메이션에 직접 사용함으로써 막대한 작업시간 및 인력 그리고 자본을 획기적으로 줄이고 있다. 그러나 기존의 모션 캡처 시스템은 고속 카메라를 이용함으로써 가격이 고가이고 움직임 추적에서도 여러 가지 문제점을 가지고 있다. 본 논문에서는 일반 저가의 카메라와 신경회로망 및 영상처리기법을 이용하여 얼굴 애니메이션용 모션 캡처 시스템에 적응할 수 있는 경제적이고 효율적인 얼굴 움직임 추적기법을 제안한다.

  • PDF

Facial animation production method based on depth images (깊이 이미지 이용한 페이셜 애니메이션 제작 방법)

  • Fu, Linwei;Jiang, Haitao;Ji, Yun;Qu, Lin;Yun, Taesoo
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2018.05a
    • /
    • pp.49-50
    • /
    • 2018
  • 본 논문은 깊이 이미지 이용한 페이셜 애니메이션 제작 방법을 소개한다. iPhone X의 true depth카메라를 사용하여 사람 얼굴의 심도를 정확하게 파악하고, 균등하게 분산된 도트를 통해 얼굴의 모든 표정변화를 모바일 데이터로 기록하여, 페이셜 애니메이션을 제작하는 제작한다. 본문에서의 방식은, 기존 페이셜 애니메이션 제작 과정에서의 rigging 부분을 생략하여, 기록된 얼굴 표정 데이터를 3D 모델링에 바로 전달할 수 있다. 이런 방식을 통해 전체 페이셜 애니메이션 제작 과정을 단축시켜, 제작 방법을 더욱 간단하고 효율적이게 하였다.

  • PDF

(<한국어 립씽크를 위한 3D 디자인 시스템 연구>)

  • Shin, Dong-Sun;Chung, Jin-Oh
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02b
    • /
    • pp.362-369
    • /
    • 2006
  • 3 차원 그래픽스에 적용하는 한국어 립씽크 합성 체계를 연구하여, 말소리에 대응하는 자연스러운 립씽크를 자동적으로 생성하도록 하는 디자인 시스템을 연구 개발하였다. 페이셜애니메이션은 크게 나누어 감정 표현, 즉 표정의 애니메이션과 대화 시 입술 모양의 변화를 중심으로 하는 대화 애니메이션 부분으로 구분할 수 있다. 표정 애니메이션의 경우 약간의 문화적 차이를 제외한다면 거의 세계 공통의 보편적인 요소들로 이루어지는 반면 대화 애니메이션의 경우는 언어에 따른 차이를 고려해야 한다. 이와 같은 문제로 인해 영어권 및 일본어 권에서 제안되는 음성에 따른 립싱크 합성방법을 한국어에 그대로 적용하면 청각 정보와 시각 정보의 부조화로 인해 지각의 왜곡을 일으킬 수 있다. 본 연구에서는 이와 같은 문제점을 해결하기 위해 표기된 텍스트를 한국어 발음열로 변환, HMM 알고리듬을 이용한 입력 음성의 시분할, 한국어 음소에 따른 얼굴특징점의 3 차원 움직임을 정의하는 과정을 거쳐 텍스트와 음성를 통해 3 차원 대화 애니메이션을 생성하는 한국어 립싱크합성 시스템을 개발 실제 캐릭터 디자인과정에 적용하도록 하였다. 또한 본 연구는 즉시 적용이 가능한 3 차원 캐릭터 애니메이션뿐만 아니라 아바타를 활용한 동적 인터페이스의 요소기술로서 사용될 수 있는 선행연구이기도 하다. 즉 3 차원 그래픽스 기술을 활용하는 영상디자인 분야와 HCI 에 적용할 수 있는 양면적 특성을 지니고 있다. 휴먼 커뮤니케이션은 언어적 대화 커뮤니케이션과 시각적 표정 커뮤니케이션으로 이루어진다. 즉 페이셜애니메이션의 적용은 보다 인간적인 휴먼 커뮤니케이션의 양상을 지니고 있다. 결국 인간적인 상호작용성이 강조되고, 보다 편한 인간적 대화 방식의 휴먼 인터페이스로 그 미래적 양상이 변화할 것으로 예측되는 아바타를 활용한 인터페이스 디자인과 가상현실 분야에 보다 폭넓게 활용될 수 있다.

  • PDF

A Study on Pattern of Facial Expression Presentation in Character Animation (애니메이선 캐릭터의 표정연출 유형 연구)

  • Hong Soon-Koo
    • The Journal of the Korea Contents Association
    • /
    • v.6 no.8
    • /
    • pp.165-174
    • /
    • 2006
  • Birdwhistell explains in the whole communication, language conveys only 35% of the meaning and the rest 65% is conveyed by non-linguistic media. Humans do not entirely depend on linguistic communication, but are sensitive being, using every sense of theirs. Human communication, by using facial expression, gesture as well as language, is able to convey more concrete meaning. Especially, facial expression is a many-sided message system, which delivers Individual Personality, interest, information about response and emotional status, and can be said as powerful communication tool. Though being able to be changed according to various expressive techniques and degree and quality of expression, the symbolic sign of facial expression is characterized by generalized qualify. Animation characters, as roles in story, have vitality by emotional expression of which mental world and psychological status can reveal and read naturally on their actions or facial expressions.

  • PDF