• 제목/요약/키워드: face animation

검색결과 119건 처리시간 0.023초

3D 모바일 게임용 저용량 3D캐릭터 애니메이션 제작에 관한 연구 (A Study on Production of Low Storage Capacity of Character Animation for 3D Mobile Games)

  • 이지원;김태열;경병표
    • 한국콘텐츠학회논문지
    • /
    • 제5권5호
    • /
    • pp.107-114
    • /
    • 2005
  • 모바일 게임 환경은 하드웨어 폰(Phone)CPU처리 속도 향상, 3D 엔진 탑재, 가용량 메모리 확대 등으로 인하여 차세대 3D 모바일 게임 시장이 활발하게 떠오르고 있다. 최근 이러한 동향에 발맞추어 PS2(PlayStation2)나 온라인(Online)에서 인기를 얻은 3D 게임이 모바일 게임용으로 출시하고 있다. 그러나 모바일 환경은 PC, 콘솔(Console)등의 다른 플랫폼에 비해 하드웨어적 특성이 다르기 때문에 PC기반의 3D 게임을 작은 휴대폰으로 옮기는 것은 단말기의 배터리 용량, 디스플레이 크기의 한계, 게임 콘텐츠 용량, 다른UI(User Interface)등과 같이 휴대 단말기 차원에서의 제약을 받는다. 이러한 많은 제약 중에서 특히 게임 컨텐츠를 축소하여 저용량화 하기 위한 연구의 필요성이 대두되고 있으며, 3D 모바일 게임은 3D 캐릭터가 작은 모바일 화면에서 사실적이며 자유로운 애니메이션이 무엇보다 중요하다. 본 연구는 3D 모바일 게임에 적합하도록 저용량 3D 캐릭터 애니메이션의 제작에 관한 연구를 하였다.

  • PDF

가상현실을 위한 해부학에 기반한 얼굴 애니메이션 (Anatomy-Based Face Animation for Virtual Reality)

  • 김형균;오무송;고석만;김장형
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.280-282
    • /
    • 2003
  • 본 논문에서는 가상현실 환경에서 인체 모델의 애니메이션을 위하여 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2 장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육 모델을 수정하여 사용하였다.

  • PDF

실감 있는 얼굴 표정 애니메이션 및 3차원 얼굴 합성 (Realistics Facial Expression Animation and 3D Face Synthesis)

  • 한태우;이주호;양현승
    • 감성과학
    • /
    • 제1권1호
    • /
    • pp.25-31
    • /
    • 1998
  • 컴퓨터 하드웨어 기술과 멀티미디어 기술의 발달로 멀티미디어 입출력 장치를 이용한 고급 인터메이스의 필요성이 대두되었다. 친근감 있는 사용자 인터페이스를 제공하기 위해 실감 있는 얼굴 애니메이션에 대한 요구가 증대되고 있다. 본 논문에서는 사람의 내적 상태를 잘 표현하는 얼굴의 표정을 3차원 모델을 이용하여 애니메이션을 수행한다. 애니메이션에 실재감을 더하기 위해 실제 얼굴 영상을 사용하여 3차원의 얼굴 모델을 변형하고, 여러 방향에서 얻은 얼굴 영상을 이용하여 텍스터 매핑을 한다. 변형된 3차원 모델을 이용하여 얼굴 표정을 애니메이션 하기 위해서 해부학에 기반한 Waters의 근육 모델을 수정하여 사용한다. 그리고, Ekman이 제안한 대표적인 6가지 표정들을 합성한다.

  • PDF

실시간 캐릭터 애니메이션 시스템의 설계 (The Design of Realtime Character Animation System)

  • 이지형;김상원;박찬종
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1999년도 추계학술대회 논문집
    • /
    • pp.189-192
    • /
    • 1999
  • 최근 많은 영화나 컴퓨터 애니메이션에는 인간형 3차원 캐릭터의 애니메이션이 등장하고 있다. 이러한 인체 애니메이션에는 인체의 움직임, 손가락이나 얼굴표정이 포함된다. 대부분의 경우에 자연스러운 인체의 움직임을 추적하기 위해 모션캡쳐를 이용하고 있지만, 이 경우 손가락이나 얼굴표정은 제외되므로 이에 대한 추가 작업이 필요하게 된다. 본 논문에서는 모션캡쳐 장비, 사이버글러브와 Face Tracker를 통합한 시스템을 소개하며, 이 시스템을 이용하여 실시간으로 캐릭터 애니메이션이 가능하게 한다.

  • PDF

한글 입술 움직임과 얼굴 표정 동기화를 위한 얼굴 애니메이션 편집기 (Face Animation Editor for the Korean Lip_Sync and Face Expression)

  • 송미영;조형제
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2000년도 추계학술발표논문집
    • /
    • pp.451-454
    • /
    • 2000
  • 본 논문은 한글 단어에 따른 한글 발음에 적합한 입술의 움직임을 자동 생성하며 또한 단어에 적절한 얼굴 보정을 생성할 수 있는 입순 움직임과 얼굴 표정을 동기화하는 3차인 일관애니메이션 편집기를 구축하였다. 얼굴 애니메이션 편집기에서 얼굴 표정은 근육 기반 모델 방법으로 정의된 각 얼굴 부위별 근육에 따라 가중치를 조절하여 생성하여 입술 움직임은 텍스트 구동 방법으로 음소에 따른 정의된 입모양 연속적으로 표현하여 동작한다. 또한 이렇게 생성된 얼굴 표정을 저장관리한다. 따라서 3차원 얼굴 애니메이션 편집기는 6가지의 기본 얼굴 표정을 자동적으로 생성할 수 있으며 또한 입력 단어에 적합하도록 각 얼굴 부위별 근육 움직임을 편집한 수 있다. 이렇게 생성된 얼굴 표정들은 데이터베이스에 저장관리할 수 있으며 컴퓨터 대화시 자동적으로 입력 단어에 적합한 입술의 움직임과 얼굴 표정을 동기화하여 자연스러운 3차원 얼굴 애니메이션을 표현할 수 있다.

  • PDF

대화형 가상 현실에서 아바타의 립싱크 (Avatar's Lip Synchronization in Talking Involved Virtual Reality)

  • 이재현;박경주
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제26권4호
    • /
    • pp.9-15
    • /
    • 2020
  • 가상 현실(VR)에서 사용자와 동일한 아바타를 시각화하는 것은 몰입도를 증가시킨다. 가상 현실 기술이 발달함에 따라 여러 사용자들의 가상 소셜 네트워킹과 말하는 아바타를 포함하는 다양한 어플리케이션이 늘어난다. 보급형 가상현실 기기에서 사용자의 얼굴 전체와 몸 동작 캡처를 위한 디바이스 정보가 부족하기 때문에 대부분의 가상현실 애플리케이션은 대화하는 얼굴과 몸을 나타내지 않는다. 우리는 오디오와 동기화되어 대화하는 가상 얼굴을 위해, 가상현실 어플리케이션을 대상으로 하는, 새로운 방법을 제안한다. 우리의 시스템은 단일 사용자 애플리케이션에서 사용자 자신과 동기화된 아바타를 실험한다. 단일 사용자 환경에서는 자신의 아바타를 미러링 하고 다중 사용자 환경에서 동기화된 대화 파트너를 시각화 하여 동기화된 대화 아바타의 구현한다. 우리는 사실적으로 대화하는 아바타가 동기화되지 않은 말하는 아바타나 보이지 않는 아바타보다 더 영향력이 있다는 것을 사용자 스터디로 검증한다.

동작 및 효정 동시 포착을 위한 데이터 기반 표정 복원에 관한 연구 (Data-driven Facial Expression Reconstruction for Simultaneous Motion Capture of Body and Face)

  • 박상일
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권3호
    • /
    • pp.9-16
    • /
    • 2012
  • 본 논문은 광학식 동작 포착 장비를 사용해 얼굴과 동작을 동시에 포착할 경우 발생하는 불완전한 표정 데이터의 복원에 관한 연구를 다룬다. 일반적으로 동작 포착과 표정 포착은 필요 해상도에서 차이가 나며, 이로 인해 동작과 표정을 동시에 포착하기 힘들었다. 본 연구에서는 표정과 동작의 동시 포착을 위해, 기존의 작은 마커를 촘촘히 얼굴에 부착하는 표정 포착 방식에서 탈피하여 적은 수의 마커만을 이용하여 표정을 포착하고, 이로부터 세밀한 얼굴 표정을 복원하는 방법을 제안한다. 본 방법의 핵심 아이디어는 얼굴 표정의 움직임을 미리 데이터베이스화하여, 적은 수의 마커로 표현된 얼굴 표정을 복원하는 것이다. 이를 위해 주성분분석을 사용하였으며, 제안된 기술을 실제 동적인 장면에 활용하여 표정의 복원이 잘 됨을 검증하였다.

딥러닝 스타일 전이 기반의 무대 탐방 콘텐츠 생성 기법 (Generation of Stage Tour Contents with Deep Learning Style Transfer)

  • 김동민;김현식;봉대현;최종윤;정진우
    • 한국정보통신학회논문지
    • /
    • 제24권11호
    • /
    • pp.1403-1410
    • /
    • 2020
  • 최근, 비대면 경험 및 서비스에 관한 관심이 증가하면서 스마트폰이나 태블릿과 같은 모바일 기기를 이용하여 손쉽게 이용할 수 있는 웹 동영상 콘텐츠에 대한 수요가 급격히 증가하고 있다. 이와 같은 요구사항에 대응하기 위하여, 본 논문에서는 애니메이션이나 영화에 등장하는 명소를 방문하는 무대 탐방 경험을 제공할 수 있는 영상 콘텐츠를 보다 효율적으로 제작하기 위한 기법을 제안한다. 이를 위하여, Google Maps와 Google Street View API를 이용하여 무대탐방 지역에 해당하는 이미지를 수집하여 이미지 데이터셋을 구축하였다. 그 후, 딥러닝 기반의 style transfer 기술을 접목시켜 애니메이션의 독특한 화풍을 실사 이미지에 적용한 후 동영상화하기 위한 방법을 제시하였다. 마지막으로, 다양한 실험을 통해 제안하는 기법을 이용하여 보다 재미있고 흥미로운 형태의 무대탐방 영상 콘텐츠를 생성할 수 있음을 보였다.

현실감 있는 3차원 얼굴 애니메이션을 위한 실시간 표정 제어 (A Realtime Expression Control for Realistic 3D Facial Animation)

  • 김정기;민경필;전준철;최용길
    • 인터넷정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.23-35
    • /
    • 2006
  • 본 논문에서는 실시간으로 입력되는 동영상으로부터 영상 내에 존재하는 사람의 얼굴 및 얼굴 특징점들을 자동으로 추출한 후, 추출된 정보를 이용하여 3차원 얼굴 모델의 표정을 실시간으로 제어함으로써 현실감 있는 얼굴 애니메이션 처리가 가능한 새로운 방법을 제시한다. 입력 영상의 각 프레임으로부터 얼굴을 효과적으로 추출하기 위해 기존에 일반적으로 사용되는 색상 공간을 이용한 파라미터 검출 방법에 대변되는 새로운 비파라미터 검출 방법을 제시하였다. 기존의 파라미터 검출 방법은 일반적으로 얼굴의 피부 색상분포를 가우지언 형태로 표현하며 특히 주변조명의 변화 및 배경 영상 등에 민감하게 반응하므로 정화한 영역의 검출을 위한 부가적 작업을 필요로 한다. 이러한 문제점을 효과적으로 해결하기 위하여 본 논문에서는 Hue와 Tint 색상 성분에 기반을 둔 새로운 스킨 색상 공간을 제시하고 모델의 분포특성을 직선 형식으로 표현하여 얼굴검출 시 발생되는 오류를 축소시킬 수 있었다. 또한, 검출된 얼굴 영역으로부터 정확한 얼굴특성 정보를 추출하기 위하여 각 특징영역에 대한 에지검색 결과와 얼굴의 비율 비를 적용하여 효과적으로 얼굴의 특징 영역을 검출하였다. 추출된 얼굴 특징점 변화 정보는 3차원 얼굴 모델의 실시간 표정 변화에 적용되며, 보다 실감 있는 얼굴 표정을 생성하기위하여 사람의 근육 정보와 근육의 움직이는 방법을 나타내는 Waters의 선형 근육 모델에 새로운 근육 정보들을 새롭게 추가함으로써 화장 적용하였다. 실험결과 제안된 방법을 이용하여 실시간으로 입력되는 대상의 얼굴표정을 3차원 얼굴 모델에 자연스럽게 표현할 수 있다.

  • PDF

오행사상을 적용한 애니메이션 캐릭터 성격 표현 연구 (A study on the expression of animation character's personality according the five elements thoughts)

  • 이사상;이동훈
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2009년도 춘계 종합학술대회 논문집
    • /
    • pp.1020-1025
    • /
    • 2009
  • 오행이론은 사람들이 객관세계에 대해 장기간 관찰하여 얻어낸 이론이다. 그 핵심적인 내용은 세상만물을 목' 화' 토' 금' 수 등 다섯 가지 물질형태로 귀납하여 상생상극(相生相克)인 상호작용을 부여한 것이다. 오행이론에는 인물의 외모 특징을 귀납한 면상학내용이 있다. 그리고 인물의 외모특징과 인물의 성격특징이 상호 대응되어 추상적인 성격을 구상화한 방법을 형성하였다. 본문은 세계적으로 유명한 애니메이션 몇 부에 대한 분석을 통하여 이러한 캐릭터의 성격특징과 조형특점을 정리한 뒤 오행이론중의 인물성격' 인물 외모와 비교하여 캐릭터디자인과 오행이론사이의 대응성을 연구하였다.

  • PDF