• Title/Summary/Keyword: 얼굴모델

Search Result 601, Processing Time 0.032 seconds

가상 인물의 얼굴 표정 애니메이션

  • 변혜원;김희정;박성춘
    • Broadcasting and Media Magazine
    • /
    • v.3 no.2
    • /
    • pp.23-30
    • /
    • 1998
  • 컴퓨터 그래픽스의 발전과 함께 등장한 가상인물은 최근 영화, TV, 게임 등의 다양한 매체에서 자주 접할수 있게 되었다. 가상인물은 사람을 닮은 등장인물로서, 그 생김새나 사실적인 동작, 자연스러운 얼굴 표정등이 관심의 대상이 된다. 특히, 얼굴 생김새나 표정은 가상인물을 개성 있는 인물로 재창조하는데 중요한 역할을 한다. 사람들은 타인의 얼굴 표정에 대해 매우 민감하게 반응하기 때문에 가상인물의 얼굴 표정을 제어하기가 더욱 어렵다. 가상인물의 얼굴 모델을 제작하고, 모델에게 표정을 부여하기 위해서 오래 전부터 다양한 방법들이 연구되어 왔다. 본 고에서는 가상인물의 얼굴 모델을 제작하고, 표정을 생성하는 방법에 관해 조명해 본다.

  • PDF

Construction of the Facial 3D Textures for Generating Virtual Characters (가상 캐릭터 제작을 위한 얼굴 3D 텍스처의 구성)

  • 최창석;박상운
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2001.06a
    • /
    • pp.197-200
    • /
    • 2001
  • 본 논문에서는 가상 캐릭터 제작을 위해 표정변화가 가능한 얼굴의 3D텍스처를 구성하는 방법을 2가지로 제안한다. 하나는 3D 스캐너에서 입력한 얼굴 3D 텍스처에 얼굴의 3D 표준 모델을 정합하여 표정변화가 가능하게 하는 방법이다. 이 경우는 얼굴의 3D 텍스처와 함께 정확한 3D 형상 모델을 얻을수는 있으나, 스캐닝 비용이 고가이고, 장비의 이동이 불편하다. 또 하나의 방법은 전후좌우 4매의 2D영상을 통합하여 얼굴의 3D 텍스처를 구성하는 방법이다. 이 방법은 4매의 2D 영상에 3D 형상모델을 정합한 후, 4개의 모델의 높이, 넓이, 깊이를 통합하여, 대체적인 3D 형상모델을 얻고, 4매의 영상을 통합하여 개인 얼굴의 3D 텍스처를 얻게 된다. 이 경우는 2D 얼굴영상을 이용하기 때문에 저가로 널리 이용할 수 있는 방법이다.

  • PDF

3D Facial Modeling and Synthesis System for Realistic Facial Expression (자연스러운 표정 합성을 위한 3차원 얼굴 모델링 및 합성 시스템)

  • 심연숙;김선욱;한재현;변혜란;정창섭
    • Korean Journal of Cognitive Science
    • /
    • v.11 no.2
    • /
    • pp.1-10
    • /
    • 2000
  • Realistic facial animation research field which communicates with human and computer using face has increased recently. The human face is the part of the body we use to recognize individuals and the important communication channel that understand the inner states like emotion. To provide the intelligent interface. computer facial animation looks like human in talking and expressing himself. Facial modeling and animation research is focused on realistic facial animation recently. In this article, we suggest the method of facial modeling and animation for realistic facial synthesis. We can make a 3D facial model for arbitrary face by using generic facial model. For more correct and real face, we make the Korean Generic Facial Model. We can also manipulate facial synthesis based on the physical characteristics of real facial muscle and skin. Many application will be developed such as teleconferencing, education, movies etc.

  • PDF

Pose Estimation of Face Using 3D Model and Optical Flow in Real Time (3D 모델과 Optical flow를 이용한 실시간 얼굴 모션 추정)

  • Kwon, Oh-Ryun;Chun, Jun-Chul
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.780-785
    • /
    • 2006
  • HCI, 비전 기반 사용자 인터페이스 또는 제스쳐 인식과 같은 많은 분야에서 3 차원 얼굴 모션을 추정하는 것은 중요한 작업이다. 연속된 2 차원 이미지로부터 3 차원 모션을 추정하기 위한 방법으로는 크게 외형 기반 방법이나 모델을 이용하는 방법이 있다. 본 연구에서는 동영상으로부터 3 차원 실린더 모델과 Optical flow를 이용하여 실시간으로 얼굴 모션을 추정하는 방법을 제안하고자 한다. 초기 프레임으로부터 얼굴의 피부색과 템플릿 매칭을 이용하여 얼굴 영역을 검출하고 검출된 얼굴 영역에 3 차원 실린더 모델을 투영하게 된다. 연속된 프레임으로 부터 Lucas-Kanade 의 Optical flow 를 이용하여 얼굴 모션을 추정한다. 정확한 얼굴 모션 추정을 하기 위해 IRLS 방법을 이용하여 각 픽셀에 대한 가중치를 설정하게 된다. 또한, 동적 템플릿을 이용해 오랫동안 정확한 얼굴 모션 추정하는 방법을 제안한다.

  • PDF

An Automatic Matching between Video Frames and 3D Facial Model (동영상과 3차원 얼굴 모델이 자동 정합)

  • Lee, Jung;Kim, Chang-Hun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.613-615
    • /
    • 2001
  • 본 논문은 동영상 내의 얼굴을 특정인 얼굴로 자동 변환 및 정합하는 기술을 제안한다. 얼굴에 나타난 동작이나 표정은 높은 자유도로 인하여 기존에 사용되어온 2차원적이고 고정된 물체 위주의 동영상 정합 기술로는 자연스러운 결과물을 얻기가 어렵다. 본 논문에서는 입력 받은 정면 유사방향의 사진으로부터 3차원 얼굴 모델을 복원한다. 각 프레임에 등장한 얼굴의 3차원 방향을 추출하여 복원한 3차원 얼굴 모델에 적용한 후 대체할 얼굴 영역에 저합시킨다. 정합 과정 시 비디오 프레임 내의 조명효과와 얼굴색 등을 분석하고 3차원 얼굴 모델에 블렌딩하여 비디오 프레임과 자연스럽게 정합할 수 있도록 한다.

  • PDF

Texture Mapping and 3D Face Modeling using Two Views of 2D Face Images (2장의 2차원 얼굴영상을 이용한 텍스쳐 생성과 자동적인 3차원 얼굴모델링)

  • Weon, Sun-Hee;Kim, Gye-Young
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.15 no.9
    • /
    • pp.705-709
    • /
    • 2009
  • In this paper, we propose 3d face modeling using two orthogonal views of 2D face images and automatically facial feature extraction. Th proposed technique consists of 2 parts, personalization of 3d face model and texture mapping.

Face and Its Components Extraction of Animation Characters Based on Dominant Colors (주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출)

  • Jang, Seok-Woo;Shin, Hyun-Min;Kim, Gye-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.10
    • /
    • pp.93-100
    • /
    • 2011
  • The necessity of research on extracting information of face and facial components in animation characters have been increasing since they can effectively express the emotion and personality of characters. In this paper, we introduce a method to extract face and facial components of animation characters by defining a mesh model adequate for characters and by using dominant colors. The suggested algorithm first generates a mesh model for animation characters, and extracts dominant colors for face and facial components by adapting the mesh model to the face of a model character. Then, using the dominant colors, we extract candidate areas of the face and facial components from input images and verify if the extracted areas are real face or facial components by means of color similarity measure. The experimental results show that our method can reliably detect face and facial components of animation characters.

Extraction and Implementation of MPEG-4 Facial Animation Parameter for Web Application (웹 응용을 위한 MPEC-4 얼굴 애니메이션 파라미터 추출 및 구현)

  • 박경숙;허영남;김응곤
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.6 no.8
    • /
    • pp.1310-1318
    • /
    • 2002
  • In this study, we developed a 3D facial modeler and animator that will not use the existing method by 3D scanner or camera. Without expensive image-input equipments, we can easily create 3D models only using front and side images. The system is available to animate 3D facial models as we connect to animation server on the WWW which is independent from specific platforms and softwares. It was implemented using Java 3D API. The facial modeler detects MPEG-4 FDP(Facial Definition Parameter) feature points from 2D input images, creates 3D facial model modifying generic facial model with the points. The animator animates and renders the 3D facial model according to MPEG-4 FAP(Facial Animation Parameter). This system can be used for generating an avatar on WWW.

A Three-Dimensional Facial Modeling and Prediction System (3차원 얼굴 모델링과 예측 시스템)

  • Gu, Bon-Gwan;Jeong, Cheol-Hui;Cho, Sun-Young;Lee, Myeong-Won
    • Journal of the Korea Computer Graphics Society
    • /
    • v.17 no.1
    • /
    • pp.9-16
    • /
    • 2011
  • In this paper, we describe the development of a system for generating a 3-dimensional human face and predicting it's appearance as it ages over subsequent years using 3D scanned facial data and photo images. It is composed of 3-dimensional texture mapping functions, a facial definition parameter input tool, and 3-dimensional facial prediction algorithms. With the texture mapping functions, we can generate a new model of a given face at a specified age using a scanned facial model and photo images. The texture mapping is done using three photo images - a front and two side images of a face. The facial definition parameter input tool is a user interface necessary for texture mapping and used for matching facial feature points between photo images and a 3D scanned facial model in order to obtain material values in high resolution. We have calculated material values for future facial models and predicted future facial models in high resolution with a statistical analysis using 100 scanned facial models.

Anatomy-Based Face Animation for Virtual Reality (가상현실을 위한 해부학에 기반한 얼굴 애니메이션)

  • 김형균;오무송;고석만;김장형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.280-282
    • /
    • 2003
  • 본 논문에서는 가상현실 환경에서 인체 모델의 애니메이션을 위하여 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2 장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육 모델을 수정하여 사용하였다.

  • PDF