• 제목/요약/키워드: face animation

검색결과 119건 처리시간 0.023초

A Case Study of Short Animation Production Using Third Party Program in University Animation Curriculum

  • Choi, Chul Young
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권4호
    • /
    • pp.97-102
    • /
    • 2021
  • The development of CG technology throughout the 2000s brought about a significant growth in the animation market. This phenomenon led to an increase in the number of people required by related industries, which led to an increase in the number of related majors in universities. CG application technologies are becoming more common with the advent of YouTube and virtual YouTubers, but high technology is still required for students to get a job. This situation is not easy to include both technological and creative skills in the college animation curriculum. In order to increase students' creativity, we need a lot of production experience, which requires a lot of knowledge and time if we only use tools like Maya and 3D Max. In this paper, We tried to devote more time to storytelling by minimizing the technical process required for production and proceeding with repetitive or difficult processes for content creation using third-party programs. And through the 12-week class, the experimental production process was applied to the process from planning to completion of animation works that students would submit to the advertisement contest.

표정분석을 위한 얼굴 구성 요소 검출 (Detection of Face-element for Facial Analysis)

  • 이철희;문성룡
    • 전자공학회논문지CI
    • /
    • 제41권2호
    • /
    • pp.131-136
    • /
    • 2004
  • 미디어의 발달에 따라 다양한 정보가 미디어에 실리게 되는데 이중에서 표정은 흥미있는 정보중에 하나이다. 표정에는 인간 내면의 의중이 포함되어 있기 때문이다. 내면의 상태는 표정 뿐만 아니라 제스처로 나타나기도 하지만 중요도는 표정이 높다고 할 수 있다. 이 표정은 임의로 조작할 수도 있지만 대체로 내면의 의중을 포함한다. 또한 표정은 사람마다 독특한 개성을 가지고 있지만 대체로 일정 구분 가능한 공통점 또한 가지고 있다. 본 논문에서는 USB CCD 카메라 환경의 동영상에서 표정을 분석하기 위해서 얼굴의 구성 요소를 검출 하고자 한다. 얼굴 구성요소에는 사람마다의 공통적인 표정 변화에 따른 특징점이 분포하기 때문이다. 구성 요소 검출을 위해서 먼저 동영상에서 한 프레임을 캡처하여 얼굴의 위치를 파악하고 얼굴영역을 분리한 다음 특징 점을 검출하게 된다.

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성 (Automatic Anticipation Generation for 3D Facial Animation)

  • 최정주;김동선;이인권
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권1호
    • /
    • pp.39-48
    • /
    • 2005
  • 전통적인 2차원 애니메이션 제작기법에 의하면, 애니메이션의 기대효과(Anticipation)는 동작에 대한 준비단계로서 사실적이고 풍부한 표현을 하는데 중요한 역할을 한다고 알려져 있다. 얼굴 표정 애니메이션 데이타가 충분히 길다고 가정하면, 특정한 얼굴 표정에 대한 기대효과가 주어진 애니메이션 데이타에 존재할 가능성이 높다. 본 논문에서는 주어진 얼굴 표정 애니메이션 데이타로부터 얼굴 표정의 기대효과를 자동으로 추출하여 추가하는 방법을 제시한다. 먼저 애니메이션 데이타에 대해 중요요소분석법(Principal Component Analysis)을 적용하여 얼굴 모델의 모든 정점을 비슷한 움직임의 방향을 갖는 요소(Component)의 집합으로 분류한다. 각각의 요소에 대하여, 반대 방향의 움직임을 갖는 보정 애니메이션 데이타를 파 요소에 대한 기대효과로서 추출하고, 이 중에서 얼굴 모델의 위상정보를 보존하는 최적의 기대효과를 주어진 보정의 기대효과로 선택한다. 선택된 기대효과는 애니메이션 데이타의 연속성과 재생 시간을 유지하도록 주어진 표정과 적절히 합성(Blend)한다. 모션캡쳐 및 키프레임 작업에 의한 3차원 얼굴 보정 애니메이션 데이타를 입력으로 하여 기대효과론 자동으로 생성하는 실험격과를 제시한다. 본 논문은 전통적인 2차원 애니메이션 제자방법 중 하나인 기대효과를 3차원 얼굴 표정 애니메이션에 적용하는 새로운 방법을 제시하여, 애니메이션 제작자가 얼굴 표정을 선택하는 간단한 상호작용만으로도 기대효과가 추가된 3차원 얼굴 보정 애니메이션을 손쉽게 얻을 수 있다.

고속 텍스처 매핑 알고리즘을 이용한 실시간 얼굴 애니메이션 (Realtime Face Animation using High-Speed Texture Mapping Algorithm)

  • 최창석;김지성;최운영;전준현
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 추계종합학술대회 논문집
    • /
    • pp.544-547
    • /
    • 1999
  • This paper proposes a high-speed texture mapping algorithm and apply it for the realtime face animation. The mapping process devide into pixel correspondences, Z-buffering, and pixel value interpolation. Pixel correspondences and Z-buffering are calculated exactly through the algorithm. However, pixel values interpolation is approximated without additional calculations. The algorithm dramatically reduces the operations needed for texture mapping. Only three additions are needed in calculation of a pixel value. We simulate the 256$\times$240 pixel facial image with about 100 pixel face width. Simulation results shows that frame generation speed are about 60, 44, 21 frames/second in pentium PC 550MHz, 400MHz, 200MHz, respectively,

  • PDF

메쉬 변형 전달 기법을 통한 블렌드쉐입 페이셜 리그 복제에 대한 연구 (A Study on Facial Blendshape Rig Cloning Method Based on Deformation Transfer Algorithm)

  • 송재원;임재호;이동하
    • 한국멀티미디어학회논문지
    • /
    • 제24권9호
    • /
    • pp.1279-1284
    • /
    • 2021
  • This paper addresses the task of transferring facial blendshape models to an arbitrary target face. Blendshape is a common method for the facial rig; however, production of blendshape rig is a time-consuming process in the current facial animation pipeline. We propose automatic blendshape facial rigging based on our blendshape transfer method. Our method computes the difference between source and target facial model and then transfers the source blendshape to the target face based on a deformation transfer algorithm. Our automatic method provides efficient production of a controllable digital human face; the results can be applied to various applications such as games, VR chating, and AI agent services.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

청각장애우의 언어교육을 위한 캐릭터 구화 애니메이션 시스템 (A Character Speech Animation System for Language Education for Each Hearing Impaired Person)

  • 원용태;김하동;이말례;장봉석;곽훈성
    • 디지털콘텐츠학회 논문지
    • /
    • 제9권3호
    • /
    • pp.389-398
    • /
    • 2008
  • 청각장애우들과 일반인과의 커뮤니케이션을 위한 구화체계가 연구되고 있지만 사회적인 무관심과 시장성의 결여로 기존 교사가 일일이 지도하는 비효율적 교육 방식으로 진행되고 있다. 이러한 단점을 극복하기위하여 3차원 애니메이션 및 디지털 테크놀로지 기술을 활용한 콘텐츠를 개발이 필요하다. 캐릭터 제작을 위한 표준얼굴 및 표준구형 조사를 위해 국내 서울 및 경기지역 초등학교 $3{\sim}6$학년 학생의 얼굴관련 데이터를 충분히 수집하여 해당 연령층 학생들의 얼굴과 구형에 대한 표준을 도출하였다. 이러한 자료는 청각장애우를 위한 콘텐츠개발의 기초자료 뿐 아니라 실질적으로 적용할 수 있는 표준치수 및 표준 형태를 제공할 수 있다. 캐릭터 구화 애니메이션 시스템은 3D캐릭터 애니메이션을 응용하여 대화를 이해하고 자신의 의사표현을 교육하는 시스템으로 3D 기술과 모션캡쳐를 접목시켜 가정 및 특수교육 기관에서 언어교육이 필요한 청각장애아동들의 언어교육에 효과적인 학습을 지원한다.

  • PDF

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.

거울 투영 이미지를 이용한 3D 얼굴 표정 변화 자동 검출 및 모델링 (Automatic 3D Facial Movement Detection from Mirror-reflected Multi-Image for Facial Expression Modeling)

  • 경규민;박민용;현창호
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.113-115
    • /
    • 2005
  • This thesis presents a method for 3D modeling of facial expression from frontal and mirror-reflected multi-image. Since the proposed system uses only one camera, two mirrors, and simple mirror's property, it is robust, accurate and inexpensive. In addition, we can avoid the problem of synchronization between data among different cameras. Mirrors located near one's cheeks can reflect the side views of markers on one's face. To optimize our system, we must select feature points of face intimately associated with human's emotions. Therefore we refer to the FDP (Facial Definition Parameters) and FAP (Facial Animation Parameters) defined by MPEG-4 SNHC (Synlhetic/Natural Hybrid Coding). We put colorful dot markers on selected feature points of face to detect movement of facial deformation when subject makes variety expressions. Before computing the 3D coordinates of extracted facial feature points, we properly grouped these points according to relative part. This makes our matching process automatically. We experiment on about twenty koreans the subject of our experiment in their late twenties and early thirties. Finally, we verify the performance of the proposed method tv simulating an animation of 3D facial expression.

  • PDF