• Title/Summary/Keyword: 가상얼굴모델

Search Result 49, Processing Time 0.021 seconds

가상 인물의 얼굴 표정 애니메이션

  • 변혜원;김희정;박성춘
    • Broadcasting and Media Magazine
    • /
    • v.3 no.2
    • /
    • pp.23-30
    • /
    • 1998
  • 컴퓨터 그래픽스의 발전과 함께 등장한 가상인물은 최근 영화, TV, 게임 등의 다양한 매체에서 자주 접할수 있게 되었다. 가상인물은 사람을 닮은 등장인물로서, 그 생김새나 사실적인 동작, 자연스러운 얼굴 표정등이 관심의 대상이 된다. 특히, 얼굴 생김새나 표정은 가상인물을 개성 있는 인물로 재창조하는데 중요한 역할을 한다. 사람들은 타인의 얼굴 표정에 대해 매우 민감하게 반응하기 때문에 가상인물의 얼굴 표정을 제어하기가 더욱 어렵다. 가상인물의 얼굴 모델을 제작하고, 모델에게 표정을 부여하기 위해서 오래 전부터 다양한 방법들이 연구되어 왔다. 본 고에서는 가상인물의 얼굴 모델을 제작하고, 표정을 생성하는 방법에 관해 조명해 본다.

  • PDF

Designing and Implementing 3D Virtual Face Aesthetic Surgery System Based on Korean Standard Facial Data (한국 표준 얼굴 데이터를 적용한 3D 가상 얼굴 성형 제작 시스템 설계 및 구현)

  • Lee, Cheol-Woong;Kim, II-Min;Cho, Sae-Hong
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.5
    • /
    • pp.737-744
    • /
    • 2009
  • This paper is to study and implement 3D Virtual Face Aesthetic Surgery System which provides more satisfaction by comparing the before-and-after plastic face surgery using 3D face model. For this study, we implemented 3D Face Model Generating System which resembles 2D image of the user based on 3D Korean standard face model and user's 2D pictures. The proposed 3D Virtual Face Aesthetic Surgery System in this paper consists of 3D Face Model Generating System, 3D Skin Texture Mapping System, and Detailed Adjustment System for reflecting the detailed description of face. The proposed system provides more satisfaction to the medical uses and stability in the surgery in compare with other existing systems.

  • PDF

Anatomy-Based Face Animation for Virtual Reality (가상현실을 위한 해부학에 기반한 얼굴 애니메이션)

  • 김형균;오무송;고석만;김장형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.280-282
    • /
    • 2003
  • 본 논문에서는 가상현실 환경에서 인체 모델의 애니메이션을 위하여 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2 장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육 모델을 수정하여 사용하였다.

  • PDF

Construction of the Facial 3D Textures for Generating Virtual Characters (가상 캐릭터 제작을 위한 얼굴 3D 텍스처의 구성)

  • 최창석;박상운
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2001.06a
    • /
    • pp.197-200
    • /
    • 2001
  • 본 논문에서는 가상 캐릭터 제작을 위해 표정변화가 가능한 얼굴의 3D텍스처를 구성하는 방법을 2가지로 제안한다. 하나는 3D 스캐너에서 입력한 얼굴 3D 텍스처에 얼굴의 3D 표준 모델을 정합하여 표정변화가 가능하게 하는 방법이다. 이 경우는 얼굴의 3D 텍스처와 함께 정확한 3D 형상 모델을 얻을수는 있으나, 스캐닝 비용이 고가이고, 장비의 이동이 불편하다. 또 하나의 방법은 전후좌우 4매의 2D영상을 통합하여 얼굴의 3D 텍스처를 구성하는 방법이다. 이 방법은 4매의 2D 영상에 3D 형상모델을 정합한 후, 4개의 모델의 높이, 넓이, 깊이를 통합하여, 대체적인 3D 형상모델을 얻고, 4매의 영상을 통합하여 개인 얼굴의 3D 텍스처를 얻게 된다. 이 경우는 2D 얼굴영상을 이용하기 때문에 저가로 널리 이용할 수 있는 방법이다.

  • PDF

A Implementation of 3D Virtual Face using two 2D photographs (두 장의 2D 사진을 이용한 3D 가상 얼굴 구현)

  • 임낙현;서경호;김태효
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.12a
    • /
    • pp.117-120
    • /
    • 2000
  • 본 논문에서는 2매의 2차원 얼굴영상으로부터 이들을 합성하여 3차원 얼굴의 가상형상을 복원한다. 여기서 2매의 2차원 얼굴영상은 정면과 측면 영상을 사용한다. 우선 임의의 일반 얼굴에 대한 기준모델을 설정하고, 이 모델에서, 얼굴형상의 특징을 표현하는 귀, 2개의 눈, 코 및 입 부분에 집중적으로 특징점을 규정하고, 그 외에 이마 및 턱 부분에도 특징 점을 규정하여 그 위치좌표를 저장해 둔다. 그 후 정면영상의 좌 우측에 측면영상을 대칭적으로 접속하고 영상의 기하변환 방법을 적용하여 점차적으로 합성한다. 이때 나타나는 합성부분에 색상 및 명도의 차를 제거하기 위해 선형보간법을 적용하여 자연스런 3차원 가상얼굴을 구현하게 된다. 그 결과 불특정 얼굴형상도 3차원으로 구현할 수 있음을 확인하였다.

  • PDF

Designing and Implementing 3D Virtual Face Aesthetic Surgery System (3D 가상 얼굴 성형 제작 시스템 설계 및 구현)

  • Lee, Cheol-Woong;Kim, Il-Min;Cho, Sae-Hong
    • Journal of Digital Contents Society
    • /
    • v.9 no.4
    • /
    • pp.751-758
    • /
    • 2008
  • The purpose of this study is to implement 3D Face Model, which resembles a user, using 3D Graphic techniques. The implemented 3D Face model is used to further study and implement 3D Facial Aesthetic Surgery System, that can be used to increase the satisfaction rate of patient by comparing before and after facial aesthetic surgery. For designing and implementing 3D Facial Aesthetic Surgery System, 3D Modeling, Texture Mapping for skin, Database system for facial data are studied and implemented independently. The Detailed Adjustment System is, also, implemented for reflecting the minute description of face. The implemented 3D Facial Aesthetic Surgery System for this paper shows more accuacy, convenience, and satisfaction in compare with the existing system.

  • PDF

Component Based Face Detection for PC Camera (PC카메라 환경을 위한 컴포넌트 기반 얼굴 검출)

  • Cho, Chi-Young;Kim, Soo-Hwan
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.988-992
    • /
    • 2006
  • 본 논문은 PC카메라 환경에서 명암왜곡에 강인한 얼굴검출을 위한 컴포넌트 기반 얼굴검출 기법을 제시한다. 영상 내의 얼굴검출을 위해 에지(edge) 분석, 색상 분석, 형판정합(template matching), 신경망(Neural Network), PCA(Principal Component Analysis), LDA(Linear Discriminant Analysis) 등의 기법들이 사용되고 있고, 영상의 왜곡을 보정하기 위해 히스토그램 분석(평활화, 명세화), gamma correction, log transform 등의 영상 보정 방법이 사용되고 있다. 그러나 기존의 얼굴검출 방법과 영상보정 방법은 검출대상 객체의 부분적인 잡음 및 조명의 왜곡에 대처하기가 어려운 단점이 있다. 특히 PC카메라 환경에서 획득된 이미지와 같이 전면과 후면, 상하좌우에서 비추어지는 조명에 의해 검출 대상 객체의 일부분이 왜곡되는 상황이 발생될 경우 기존의 방법으로는 높은 얼굴 검출 성능을 기대할 수 없는 상황이 발생된다. 본 논문에서는 기울어진 얼굴 및 부분적으로 명암 왜곡된 얼굴을 효율적으로 검출할 수 있도록 얼굴의 좌우 대칭성을 고려한 가로방향의 대칭평균화로 얼굴검출을 위한 모델을 생성하여 얼굴검출에 사용한다. 이 방법은 부분적으로 명암왜곡된 얼굴이미지를 기존의 영상 보정기법을 적용한 것 보다 잘 표현하며, 얼굴이 아닌 후보는 비얼굴 이미지의 형상을 가지게 하는 특성이 있다.

  • PDF

Development of Virtual Makeup Tool based on Mobile Augmented Reality

  • Song, Mi-Young;Kim, Young-Sun
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.1
    • /
    • pp.127-133
    • /
    • 2021
  • In this study, an augmented reality-based make-up tool was built to analyze the user's face shape based on face-type reference model data and to provide virtual makeup by providing face-type makeup. To analyze the face shape, first recognize the face from the image captured by the camera, then extract the features of the face contour area and use them as analysis properties. Next, the feature points of the extracted face contour area are normalized to compare with the contour area characteristics of each face reference model data. Face shape is predicted and analyzed using the distance difference between the feature points of the normalized contour area and the feature points of the each face-type reference model data. In augmented reality-based virtual makeup, in the image input from the camera, the face is recognized in real time to extract the features of each area of the face. Through the face-type analysis process, you can check the results of virtual makeup by providing makeup that matches the analyzed face shape. Through the proposed system, We expect cosmetics consumers to check the makeup design that suits them and have a convenient and impact on their decision to purchase cosmetics. It will also help you create an attractive self-image by applying facial makeup to your virtual self.

Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model (다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원)

  • Kim, Sang-Hoon
    • The KIPS Transactions:PartB
    • /
    • v.9B no.5
    • /
    • pp.563-570
    • /
    • 2002
  • Robust extraction of 3D facial features and global motion information from 2D image sequence for the MPEG-4 SNHC face model encoding is described. The facial regions are detected from image sequence using multi-modal fusion technique that combines range, color and motion information. 23 facial features among the MPEG-4 FDP (Face Definition Parameters) are extracted automatically inside the facial region using color transform (GSCD, BWCD) and morphological processing. The extracted facial features are used to recover the 3D shape and global motion of the object using paraperspective camera model and SVD (Singular Value Decomposition) factorization method. A 3D synthetic object is designed and tested to show the performance of proposed algorithm. The recovered 3D motion information is transformed into global motion parameters of FAP (Face Animation Parameters) of the MPEG-4 to synchronize a generic face model with a real face.

Face Deformation Technique for Efficient Virtual Aesthetic Surgery Models (효과적인 얼굴 가상성형 모델을 위한 얼굴 변형 기법)

  • Park Hyun;Moon Young Shik
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.42 no.3 s.303
    • /
    • pp.63-72
    • /
    • 2005
  • In this paper, we propose a deformation technique based on Radial Basis Function (RBF) and a blending technique combining the deformed facial component with the original face for a Virtual Aesthetic Surgery (VAS) system. The deformation technique needs the smoothness and the accuracy to deform the fluid facial components and also needs the locality not to affect or distort the rest of the facial components besides the deformation region. To satisfy these deformation characteristics, The VAS System computes the degree of deformation of lattice cells using RBF based on a Free-Form Deformation (FFD) model. The deformation error is compensated by the coefficients of mapping function, which is recursively solved by the Singular Value Decomposition (SVD) technique using SSE (Sum of Squared Error) between the deformed control points and target control points on base curves. The deformed facial component is blended with an original face using a blending ratio that is computed by the Euclidean distance transform. An experimental result shows that the proposed deformation and blending techniques are very efficient in terms of accuracy and distortion.