• 제목/요약/키워드: Facial animation

검색결과 142건 처리시간 0.019초

CGS 시스템의 페이셜 애니메이션 발상단계 개발 (Development of Facial Animation Generator on CGS System)

  • 조동민
    • 한국멀티미디어학회논문지
    • /
    • 제14권6호
    • /
    • pp.813-823
    • /
    • 2011
  • 본 연구는 한국멀티미디어학회 2010년 7월 멀티미디어학회 논문지 제 13권 7호에 발표된 기존 3차원 캐릭터 모델기반 CGS System 의 Digital 개발 프로세스 중 얼굴 애니메이션 발상단계로써 3D 캐릭터 디자이너가 애니메이션 제작단계에서 아이디어를 창출하고 이를 활용하는 과정에서 반복되어지는 과정을 보다 효과적으로 활용할 수 있는 프로세스를 제안한다. 본 연구를 위해서 캐릭터의 해부학적인 구조로써 감정변화에 따른 3D 캐릭터의 표정연출에 관한 선행 연구 및 극장용 애니메이션 캐릭터 표정 사례연구 통하여 최종 CGS System의 Facial Animation 에 유용한 시스템을 제안하였다.

웹 응용을 위한 MPEC-4 얼굴 애니메이션 파라미터 추출 및 구현 (Extraction and Implementation of MPEG-4 Facial Animation Parameter for Web Application)

  • 박경숙;허영남;김응곤
    • 한국정보통신학회논문지
    • /
    • 제6권8호
    • /
    • pp.1310-1318
    • /
    • 2002
  • 본 연구에서는 기존의 방법에 비하여 값비싼 3차원 스캐너나 카메라를 이용하지 않고 정면과 측면 영상을 이용하여 3차원 모델을 생성하는 3차원 얼굴 모델러와 애니메이터를 개발하였다. 이 시스템은 특정한 플랫폼과 소프트웨어에 독립적으로 웹상에서 애니메이션 서버에 접속함으로써 3차원 얼굴 모델을 애니메이션 할 수 있으며 자바 3D API를 이용하여 구현하였다. 얼굴모델러는 입력 영상으로부터 MPEG-4 FDP(Facial Definition Parameter) 특징점을 추출하여 일반 얼굴모델을 특징점에 따라 변형시켜 3차원 얼굴 모델을 생성한다 애니메이터는 FAP(Facial Animation Parameter)에 따라 얼굴모델을 애니메이션하고 렌더링한다. 본 시스템은 웹 상에서 아바타를 제작하는 데 사용될 수 있다.

SVG 기반 캐릭터 표정 애니메이션 리타게팅 (Character Facial Animation Retargeting based on SVG)

  • 강기태;홍수현;김재호
    • 한국멀티미디어학회논문지
    • /
    • 제14권6호
    • /
    • pp.824-834
    • /
    • 2011
  • 본 연구에서는 SVG 포맷에 기반한 온라인 캐릭터의 표정 애니메이션을 자동으로 생성할 수 있는 방법을 제안한다. 기존의 극장용 애니메이션에 등장하는 캐릭터의 풍부한 표정 움직임을 수학적 계산에 의해 모델링하고 이를 SVG 포맷의 다른 캐릭터에 '라타게팅' 하면, 리타게팅된 캐릭터는 고유의 형태적 특정을 잃지 않으면서도 모델링된 표정의 움직임을 그대로 재현할 수 있다. 이러한 표정움직임을 리타게팅하는 방법은 하나의 표정 데이터를 여러 가지 캐릭터에 적용할 수 있기 때문에, 비록 애니메이터가 아닌 비전문가일지라도 캐릭터의 표정 애니메이션을 쉽고 빠르게 만들 수 있도록 한다. 본 연구에 의해서 제안되는 표정의 움직임은 비선형적이며 과장된 모션을 취하고 있어 보는 이에게 친근하며, 생동감이 있다. 뿐만 아니라 SVG 포맷에 기반 하므로 기존의 GIF 애니메이션 보다 적은 용량으로 부드러운 표정 움직임을 구현할 수 있다.

주색상과 특징점을 이용한 애니메이션 캐릭터의 표정인식 (Recognition of Facial Expressions of Animation Characters Using Dominant Colors and Feature Points)

  • 장석우;김계영;나현숙
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.375-384
    • /
    • 2011
  • 본 논문에서는 사람의 표정이 아닌 애니메이션 캐릭터의 표정을 주색상과 특징점을 효과적으로 분석하여 인식하는 방법을 제안한다. 제안된 방법에서는 먼저 캐릭터의 특성에 맞게 간략화한 메쉬모델을 정의하고 캐릭터 얼굴과 얼굴의 구성요소를 주색상을 이용하여 검출한 후 각 구성요소의 에지를 활용하여 표정인식을 위한 특징점을 추출한다. 그런 다음, 각 특징점의 위치와 모양 정보를 신경망 학습을 통해 해당 AU로 분류하고, 제안된 표정 AU 명세서를 이용해 최종적으로 표정을 인식한다. 실험에서는 제안된 애니메이션 캐릭터의 표정인식 방법이 무표정을 포함하여 기쁨, 슬픔, 놀람, 화남, 공포의 6가지 표정을 비교적 신뢰성 있게 인식함을 애니메이션 영상을 이용한 실험을 통해 보여준다.

Skeleton System으로 운용되는 얼굴표정 애니메이션에 관한 연구 (The Study of Skeleton System for Facial Expression Animation)

  • 오성석
    • 한국게임학회 논문지
    • /
    • 제8권2호
    • /
    • pp.47-55
    • /
    • 2008
  • 본 논문에서는 스켈레톤(skeleton)의 리깅(rigging)방식을 사용하여 해부학을 기초로 한 14개의 표정근과 동일한 기능을 수행하게 얼굴의 표정을 표현하는 SSFE(Skeleton System for Facial Expression)를 제안한다. SSFE는 3차원애니메이션저작도구(MAYA 8.5)에서 제공하는 스켈레톤을 Deformer로 이용하여 메시모델(mesh model)의 눈, 코, 입 주변의 얼굴표정을 단위 동작별로 구분하여 조합하여 얼굴표정을 만들어 내는 방식이다. 이 결과, SSFE식 스켈레톤은 다른 모델에 무한대로 변형하여 재활용 할 수 있게 해준다. 이러한 재활용성은 애니메이션의 제작방식의 OSMU(One Source Multi Use)로 이해 될 수 있으며 애니메이션의 제작비용을 줄일 수 있는 대체방식이다. 또한 3차원 애니메이션 관련업체 즉 가상현실이나 게임, 제작에 활용될 수 있다.

  • PDF

Image-based Realistic Facial Expression Animation

  • Yang, Hyun-S.;Han, Tae-Woo;Lee, Ju-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.133-140
    • /
    • 1999
  • In this paper, we propose a method of image-based three-dimensional modeling for realistic facial expression. In the proposed method, real human facial images are used to deform a generic three-dimensional mesh model and the deformed model is animated to generate facial expression animation. First, we take several pictures of the same person from several view angles. Then we project a three-dimensional face model onto the plane of each facial image and match the projected model with each image. The results are combined to generate a deformed three-dimensional model. We use the feature-based image metamorphosis to match the projected models with images. We then create a synthetic image from the two-dimensional images of a specific person's face. This synthetic image is texture-mapped to the cylindrical projection of the three-dimensional model. We also propose a muscle-based animation technique to generate realistic facial expression animations. This method facilitates the control of the animation. lastly, we show the animation results of the six represenative facial expressions.

기대 효과를 자동 적용한 얼굴 표정 애니메이션 (Facial Animation of Automatic Added Anticipation)

  • 김동성;이인권
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.163-165
    • /
    • 2003
  • 최근 컴퓨터 그래픽스에서 비사실적인 표현에 관한 연구가 되고 있다. 그 중 애니메이션 분야는 기존의 2D 애니메이션 기법을 적용하여 비사실적인 애니메이션(Non Photorealistic Animation) 을 표현할 수 있다. 여러 기법 중 기대(Anticipation) 효과를 얼굴 표정 애니메이션(Facial Animation)에 적용한다면 조금 더 역동적인 표정을 표현할 수 있게 된다. 얼굴 표정 애니메이션(Facial Animation)을 제작하기 위해서는 실제 사람의 얼굴 표정을 캡쳐하거나 애니메이터가 많은 노력과 시간을 투자하여 작업을 해야 한다. 본 논문에서는 이런 방법으로 생성된 얼굴 표정 애니메이션에 사용자가 원하는 표정에 기대 효과를 자동으로 추가하여 더 좋은 표정을 생성하는 방법을 소개한다.

  • PDF

주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출 (Face and Its Components Extraction of Animation Characters Based on Dominant Colors)

  • 장석우;신현민;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.93-100
    • /
    • 2011
  • 애니메이션 캐릭터의 감정과 성격을 가장 잘 표출해 낼 수 있는 부분이 캐릭터의 얼굴이므로 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 분석하여 필요한 정보를 추출하는 연구의 필요성이 증가하고 있는 추세이다. 본 논문에서는 애니메이션 캐릭터 얼굴의 특성에 맞게 수정한 메쉬모델을 정의하고, 주색상 정보를 이용하여 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 검출하는 방법을 제안한다. 제안된 시스템은 먼저 애니메이션 캐릭터 얼굴에 맞는 메쉬모델을 생성하고, 이 메쉬모델을 처음 입력되는 애니메이션 캐릭터의 얼굴에 정합시켜 얼굴과 얼굴의구성요소에 대한 주색상 값을 추출한다. 그리고 추출된 주색상 값을 이용하여 새롭게 입력되는 영상으로부터 캐릭터의 얼굴과 얼굴 구성요소의 후보 영역을 선정한 후, 모델로부터 추출한 주색상 정보와 후보 영역들의 주색상 사이의 유사도를 측정하여 최종적인 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 검출한다. 본 논문의 실험에서는 제안된 애니메이션 캐릭터 얼굴과 구성요소 검출 방법의 성능을 평가하기 위한 실험결과를 보인다.

게임 캐릭터의 표면처리와 표현요소가 Uncanny Valley 현상에 미치는 영향에 관한 연구 (A study on the Effect of Surface Processing and Expression Elements of Game Characters on the Uncanny Valley Phenomenon)

  • 은석함;권만우;황미경
    • 한국멀티미디어학회논문지
    • /
    • 제25권7호
    • /
    • pp.964-972
    • /
    • 2022
  • The Uncanny Valley phenomenon has already been deemed as theoretical, and the characteristics of game character expression elements for the Uncanny Valley phenomenon were recognized through case analysis as well. By theoretical consideration and case studies, it was found out that the influential elements of the Uncanny Valley phenomenon can be classified as two primary factors: character surface treatment and facial expression animation. The prepared experimental materials and adjectives were measured to be Five-Point Likert Scale. The measured results were evaluated for both influence and comparative analysis through essential statistical analysis and Repeated Measuring ANOVA in SPSS. The conclusions which were drawn from this research are as follows: The surface treatment of characters did not substantially affect the Uncanny Valley phenomenon. Instead, character's expression animation had a significant impact on the Uncanny Valley phenomenon, which also led to another conclusion that the facial expression animation had an overall deeper impact on Uncanny Valley phenomenon compared with character's surface treatment. It was the unnatural facial expression animation that controlled all of the independent variables and also caused the Uncanny Valley phenomenon. In order for game characters to evade the Uncanny Valley phenomenon and enhance game immersion, the facial expression animation of the character must be done spontaneously.

Real-time Markerless Facial Motion Capture of Personalized 3D Real Human Research

  • Hou, Zheng-Dong;Kim, Ki-Hong;Lee, David-Junesok;Zhang, Gao-He
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권1호
    • /
    • pp.129-135
    • /
    • 2022
  • Real human digital models appear more and more frequently in VR/AR application scenarios, in which real-time markerless face capture animation of personalized virtual human faces is an important research topic. The traditional way to achieve personalized real human facial animation requires multiple mature animation staff, and in practice, the complex process and difficult technology may bring obstacles to inexperienced users. This paper proposes a new process to solve this kind of work, which has the advantages of low cost and less time than the traditional production method. For the personalized real human face model obtained by 3D reconstruction technology, first, use R3ds Wrap to topology the model, then use Avatary to make 52 Blend-Shape model files suitable for AR-Kit, and finally realize real-time markerless face capture 3D real human on the UE4 platform facial motion capture, this study makes rational use of the advantages of software and proposes a more efficient workflow for real-time markerless facial motion capture of personalized 3D real human models, The process ideas proposed in this paper can be helpful for other scholars who study this kind of work.