• 제목/요약/키워드: Facial Expression Animation

검색결과 76건 처리시간 0.026초

고해상도 캡쳐 기반 실시간 얼굴 모델링과 표정 애니메이션 (Real-time Facial Modeling and Animation based on High Resolution Capture)

  • 변혜원
    • 한국멀티미디어학회논문지
    • /
    • 제11권8호
    • /
    • pp.1138-1145
    • /
    • 2008
  • 최근에 다양한 분야에서 캐릭터 표정을 생성하는데 연기자 기반 표정 캡쳐 방법을 널리 사용하고 있다. 특히, 방송이나 게임 등의 분야에서는 실시간 요소와 연기자와 외형상의 차이가 큰 캐릭터의 경우에도 표정 표현이 가능한 다양성이 중요한 문제가 된다. 본 논문에서는 연기자 얼굴에서 캡쳐한 표정을 다양한 얼굴 모델에 적용하는 새로운 표정 애니메이션 방법을 제안한다. 이 방법을 사용하면 최소의 실시간 비용으로 캐릭터 표정을 생성하고 제어하는 것이 가능하다. 본 논문에서는 세 가지 핵심 이슈로서 얼굴 표정 캡쳐, 표정 대입, 표정 애니메이션을 다룬다. 그리고 연기자와 얼굴 모델 간의 특성이 매우 상이한 다양한 경우에 대하여 실험결과를 보여줌으로써 접근방식의 유효성을 증명한다.

  • PDF

해부학 기반의 3차원 얼굴 모델링을 이용한 얼굴 표정 애니메이션 (facial Expression Animation Using 3D Face Modelling of Anatomy Base)

  • 김형균;오무송
    • 한국정보통신학회논문지
    • /
    • 제7권2호
    • /
    • pp.328-333
    • /
    • 2003
  • 본 논문에서는 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육모델을 수정하여 사용하였다. 이러한 방법을 사용하여 텍스처가 입혀진 변형된 얼굴을 생성하였다. 또한, Ekman이 제안한 6가지 얼굴 표정을 애니메이션 하였다.

게임 캐릭터의 표면처리와 표현요소가 Uncanny Valley 현상에 미치는 영향에 관한 연구 (A study on the Effect of Surface Processing and Expression Elements of Game Characters on the Uncanny Valley Phenomenon)

  • 은석함;권만우;황미경
    • 한국멀티미디어학회논문지
    • /
    • 제25권7호
    • /
    • pp.964-972
    • /
    • 2022
  • The Uncanny Valley phenomenon has already been deemed as theoretical, and the characteristics of game character expression elements for the Uncanny Valley phenomenon were recognized through case analysis as well. By theoretical consideration and case studies, it was found out that the influential elements of the Uncanny Valley phenomenon can be classified as two primary factors: character surface treatment and facial expression animation. The prepared experimental materials and adjectives were measured to be Five-Point Likert Scale. The measured results were evaluated for both influence and comparative analysis through essential statistical analysis and Repeated Measuring ANOVA in SPSS. The conclusions which were drawn from this research are as follows: The surface treatment of characters did not substantially affect the Uncanny Valley phenomenon. Instead, character's expression animation had a significant impact on the Uncanny Valley phenomenon, which also led to another conclusion that the facial expression animation had an overall deeper impact on Uncanny Valley phenomenon compared with character's surface treatment. It was the unnatural facial expression animation that controlled all of the independent variables and also caused the Uncanny Valley phenomenon. In order for game characters to evade the Uncanny Valley phenomenon and enhance game immersion, the facial expression animation of the character must be done spontaneously.

Image-based Realistic Facial Expression Animation

  • Yang, Hyun-S.;Han, Tae-Woo;Lee, Ju-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.133-140
    • /
    • 1999
  • In this paper, we propose a method of image-based three-dimensional modeling for realistic facial expression. In the proposed method, real human facial images are used to deform a generic three-dimensional mesh model and the deformed model is animated to generate facial expression animation. First, we take several pictures of the same person from several view angles. Then we project a three-dimensional face model onto the plane of each facial image and match the projected model with each image. The results are combined to generate a deformed three-dimensional model. We use the feature-based image metamorphosis to match the projected models with images. We then create a synthetic image from the two-dimensional images of a specific person's face. This synthetic image is texture-mapped to the cylindrical projection of the three-dimensional model. We also propose a muscle-based animation technique to generate realistic facial expression animations. This method facilitates the control of the animation. lastly, we show the animation results of the six represenative facial expressions.

Sammon 매핑을 사용한 모션 데이터의 대화식 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using Sammon's Mapping)

  • 김성호
    • 정보처리학회논문지A
    • /
    • 제11A권2호
    • /
    • pp.189-194
    • /
    • 2004
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이틀 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 Sammon 매핑을 이용하여 2차원 평면에 투영시켰다. 얼굴 애니메이션은 사용자 인터페이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

표정 인식을 이용한 3D 감정 아바타 생성 및 애니메이션 (3D Emotional Avatar Creation and Animation using Facial Expression Recognition)

  • 조태훈;정중필;최수미
    • 한국멀티미디어학회논문지
    • /
    • 제17권9호
    • /
    • pp.1076-1083
    • /
    • 2014
  • We propose an emotional facial avatar that portrays the user's facial expressions with an emotional emphasis, while achieving visual and behavioral realism. This is achieved by unifying automatic analysis of facial expressions and animation of realistic 3D faces with details such as facial hair and hairstyles. To augment facial appearance according to the user's emotions, we use emotional templates representing typical emotions in an artistic way, which can be easily combined with the skin texture of the 3D face at runtime. Hence, our interface gives the user vision-based control over facial animation of the emotional avatar, easily changing its moods.

3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성 (Automatic Anticipation Generation for 3D Facial Animation)

  • 최정주;김동선;이인권
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권1호
    • /
    • pp.39-48
    • /
    • 2005
  • 전통적인 2차원 애니메이션 제작기법에 의하면, 애니메이션의 기대효과(Anticipation)는 동작에 대한 준비단계로서 사실적이고 풍부한 표현을 하는데 중요한 역할을 한다고 알려져 있다. 얼굴 표정 애니메이션 데이타가 충분히 길다고 가정하면, 특정한 얼굴 표정에 대한 기대효과가 주어진 애니메이션 데이타에 존재할 가능성이 높다. 본 논문에서는 주어진 얼굴 표정 애니메이션 데이타로부터 얼굴 표정의 기대효과를 자동으로 추출하여 추가하는 방법을 제시한다. 먼저 애니메이션 데이타에 대해 중요요소분석법(Principal Component Analysis)을 적용하여 얼굴 모델의 모든 정점을 비슷한 움직임의 방향을 갖는 요소(Component)의 집합으로 분류한다. 각각의 요소에 대하여, 반대 방향의 움직임을 갖는 보정 애니메이션 데이타를 파 요소에 대한 기대효과로서 추출하고, 이 중에서 얼굴 모델의 위상정보를 보존하는 최적의 기대효과를 주어진 보정의 기대효과로 선택한다. 선택된 기대효과는 애니메이션 데이타의 연속성과 재생 시간을 유지하도록 주어진 표정과 적절히 합성(Blend)한다. 모션캡쳐 및 키프레임 작업에 의한 3차원 얼굴 보정 애니메이션 데이타를 입력으로 하여 기대효과론 자동으로 생성하는 실험격과를 제시한다. 본 논문은 전통적인 2차원 애니메이션 제자방법 중 하나인 기대효과를 3차원 얼굴 표정 애니메이션에 적용하는 새로운 방법을 제시하여, 애니메이션 제작자가 얼굴 표정을 선택하는 간단한 상호작용만으로도 기대효과가 추가된 3차원 얼굴 보정 애니메이션을 손쉽게 얻을 수 있다.

Skeleton System으로 운용되는 얼굴표정 애니메이션에 관한 연구 (The Study of Skeleton System for Facial Expression Animation)

  • 오성석
    • 한국게임학회 논문지
    • /
    • 제8권2호
    • /
    • pp.47-55
    • /
    • 2008
  • 본 논문에서는 스켈레톤(skeleton)의 리깅(rigging)방식을 사용하여 해부학을 기초로 한 14개의 표정근과 동일한 기능을 수행하게 얼굴의 표정을 표현하는 SSFE(Skeleton System for Facial Expression)를 제안한다. SSFE는 3차원애니메이션저작도구(MAYA 8.5)에서 제공하는 스켈레톤을 Deformer로 이용하여 메시모델(mesh model)의 눈, 코, 입 주변의 얼굴표정을 단위 동작별로 구분하여 조합하여 얼굴표정을 만들어 내는 방식이다. 이 결과, SSFE식 스켈레톤은 다른 모델에 무한대로 변형하여 재활용 할 수 있게 해준다. 이러한 재활용성은 애니메이션의 제작방식의 OSMU(One Source Multi Use)로 이해 될 수 있으며 애니메이션의 제작비용을 줄일 수 있는 대체방식이다. 또한 3차원 애니메이션 관련업체 즉 가상현실이나 게임, 제작에 활용될 수 있다.

  • PDF

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

애니메이선 캐릭터의 표정연출 유형 연구 (A Study on Pattern of Facial Expression Presentation in Character Animation)

  • 홍순구
    • 한국콘텐츠학회논문지
    • /
    • 제6권8호
    • /
    • pp.165-174
    • /
    • 2006
  • 버드휘스텔(Birdwhistell)은 말이 전하는 의미는 전체커뮤니케이션의 35%이하에 불과하고 나머지 65% 이상은 비언어적 형태로 전달되며 인간은 전적으로 언어에 의해 의사소통을 하는 존재가 아니라 모든 감각을 사용하는 감각적 존재라고 설명하고 있다. 인간의 커뮤니케이션은 언어 외에 표정, 몸 동작 등을 통해 보다 더 구체적인 의미 전달이 가능하며, 특히 얼굴표정은 개인의 성격, 관심, 반응에 대한 정보 및 감정의 상태를 전달해주는 다면적 메시지체계로 강력한 커뮤니케이션 도구라고 할 수 있다. 다양한 표현기법과 표현의 정도, 특성에 따라 달라질 수 있지만 표정이 갖는 상징적 기호는 일반화 된 특성을 가지고 있다. 스토리상의 등장인물로서 내면세계와 심리적 상태가 행동이나 표정으로 자연스럽게 노출되고 읽어낼 수 있는 감정표현에서 애니메이션 캐릭터는 생명력을 갖는다.

  • PDF