• 제목/요약/키워드: 연기자 기반 애니메이션

검색결과 4건 처리시간 0.022초

고해상도 캡쳐 기반 실시간 얼굴 모델링과 표정 애니메이션 (Real-time Facial Modeling and Animation based on High Resolution Capture)

  • 변혜원
    • 한국멀티미디어학회논문지
    • /
    • 제11권8호
    • /
    • pp.1138-1145
    • /
    • 2008
  • 최근에 다양한 분야에서 캐릭터 표정을 생성하는데 연기자 기반 표정 캡쳐 방법을 널리 사용하고 있다. 특히, 방송이나 게임 등의 분야에서는 실시간 요소와 연기자와 외형상의 차이가 큰 캐릭터의 경우에도 표정 표현이 가능한 다양성이 중요한 문제가 된다. 본 논문에서는 연기자 얼굴에서 캡쳐한 표정을 다양한 얼굴 모델에 적용하는 새로운 표정 애니메이션 방법을 제안한다. 이 방법을 사용하면 최소의 실시간 비용으로 캐릭터 표정을 생성하고 제어하는 것이 가능하다. 본 논문에서는 세 가지 핵심 이슈로서 얼굴 표정 캡쳐, 표정 대입, 표정 애니메이션을 다룬다. 그리고 연기자와 얼굴 모델 간의 특성이 매우 상이한 다양한 경우에 대하여 실험결과를 보여줌으로써 접근방식의 유효성을 증명한다.

  • PDF

사건 재연 시스템 개발 (The Development of Reenactment System)

  • 윤여천;변혜원;전성규
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2001년도 정기총회 및 학술대회
    • /
    • pp.45-49
    • /
    • 2001
  • 본 논문에서는 실제 카메라 영상으로 획득하기 어려운 화재, 살인 등의 뉴스 사건을 시청자들에게 효과적으로 전달하기 위해서 다수의 가상캐릭터가 등장하는 애니메이션을 신속, 편리하게 제작할 수 있는 사건 재연 시스템의 개발 기법을 소개한다. 본 시스템은 미리 구축된 동작 및 모델 라이브러리를 이용하여 다수의 가상캐릭터 움직임을 제어함으로써 고가의 동작 포착 장비와 연기자가 없어도 신속한 가상캐릭터 애니메이션 제작이 가능하다. 사건 재연 시스템의 가상 캐릭터 동작 제어는 동작 지정, 동작 생성, 동작 편집의 세 단계로 구성된다. 동작 지정 단계에서는 사건 시나리오에 따라 모델 라이브러리부터 가상캐릭터와배경 모델을 선택하고, 동작 라이브러리부터 가상캐릭터의 동작을 선택한다. 동작 생성 단계에서는 지정된 특정 사건을 기술하는 동작에 이동 동작을 연결함으로써 가상캐릭터의 부드러운 동작을 생성한다. 동작편집 단계에서는 가상캐릭터 사이의 상호 작용 또는 가상캐릭터와 가상환경의 상호작용을 보다 정확하게 제어하기 위해서 특정한 시간에서의 가상캐릭터 위치와 자세 등을 조정한다. 본 시스템은 편리한 사용을 위해 대화형과 스크립트 기반의 인터페이스를 적용하였으며, 3차원 그래픽 소프트웨어인 Maya의 플러그인(Plug-in) 소프트웨어 형태로 개발하여 Maya의 고성능 그래픽 기능을 활용하였다.

  • PDF

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

사건재연 시스템 개발 (Development of A News Event Reenactment System)

  • 윤여천;변혜원;전성규;박창섭
    • 방송공학회논문지
    • /
    • 제7권1호
    • /
    • pp.21-27
    • /
    • 2002
  • 본 논문에서는 카메라 영상으로 획득학기 어려운 화재나 살인 등의 뉴스 사건을 시청자들에게 효과적으로 전달하기 위해서 다수의 가상캐릭터가 등장하는 애니메이션을 신속하고 편리하게 제작할 수 있는 사건재연 시스템의 개발 기법을 소개한다. 본 시스템은 미리 구축된 다양한 동작 및 모델 라이브러리를 이용함으로써, 고가의 동작포착 장비와 연기자가 없어도 다수의 가상캐릭터 애니메이션을 신속하게 제어할 수 있다. 가상캐릭터의 움직임은 사용자가 정의한 경로에 따라 이동되며, 동작 사이의 자연스런 연결 기능이 제공되어진다. 또한 가상캐릭터와 가상환경의 상호작용을 보다 정확하게 제어하기 위해서 특정한 프레임에서의 가상캐릭터의 자세를 쉽게 조절할 수 있도록 설계되었다. 본 시스템은 사용자 편의를 위해서 대화형 또는 스크립트 기반(MEL: Maya Embedded Language)의 인터페이스 모두가 지원되어지며, 3차원 그래픽 소프트웨어인 Maya의 플러그인(Plug-in) 소프트웨어 형태로 개발디어졌으므로 Maya의 고성능 그래픽 기능의 활용이 가능하다.