• Title/Summary/Keyword: 3D 얼굴모델

Search Result 144, Processing Time 0.032 seconds

Feature-Based Deformation of 3D Facial Model Using Radial Basis Function (Radial Basis Function 을 이용한 특징점 기반 3 차원 얼굴 모델의 변형)

  • Kwon Oh-Ryun;Min Kyong-Pil;Chun Jun-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.715-718
    • /
    • 2006
  • 아바타를 이용한 얼굴 애니메이션은 가상 현실이나 엔터테인먼트와 같은 분야에서 많이 적용된다. 얼굴 애니메이션을 생성하는 방법에는 크게 3 차원 모델을 직접 변형시키는 기하학적인 변형 방법과 2 차원 이미지의 워핑이나 모핑방법을 이용한 이미지 변형 방법이 있다. 기하학적인 변형 방법 중 3 차원 모델을 변형시키기 위한 방법으로 RBF(Radial Basis Function)을 이용하는 방법이 있다. RBF 함수를 이용하여 모델의 부드러운 변형을 만들 수 있다. 이 방법은 모델의 임의의 한 점을 이동하게 되면 영향을 받는 정점들을 좀 더 자연스럽게 이동시킴으로써 자연스러운 애니메이션을 생성할 수 있다. 본 연구에서는 RBF 를 이용하여 3 차원 얼굴 메쉬 모델의 기하학적 변형을 통해 모델의 얼굴 표정을 생성하는 방법에 대해 제안하고자 한다. 얼굴 모델 변형을 위해 얼굴의 특징인 눈, 입, 턱 부분에 특징점을 정하고 각 특징점에 따라 영향을 받는 영역을 정하기 위해 얼굴 모델을 지역적으로 클러스터링한다. 각 특징점에 따라 영향을 받는 영역에 대해 클러스터링을 적용하고 RBF 를 이용하여 자연스러운 얼굴 표정을 생성하는 방법을 제안한다.

  • PDF

A Realtime Expression Control for Realistic 3D Facial Animation (현실감 있는 3차원 얼굴 애니메이션을 위한 실시간 표정 제어)

  • Kim Jung-Gi;Min Kyong-Pil;Chun Jun-Chul;Choi Yong-Gil
    • Journal of Internet Computing and Services
    • /
    • v.7 no.2
    • /
    • pp.23-35
    • /
    • 2006
  • This work presents o novel method which extract facial region und features from motion picture automatically and controls the 3D facial expression in real time. To txtract facial region and facial feature points from each color frame of motion pictures a new nonparametric skin color model is proposed rather than using parametric skin color model. Conventionally used parametric skin color models, which presents facial distribution as gaussian-type, have lack of robustness for varying lighting conditions. Thus it needs additional work to extract exact facial region from face images. To resolve the limitation of current skin color model, we exploit the Hue-Tint chrominance components and represent the skin chrominance distribution as a linear function, which can reduce error for detecting facial region. Moreover, the minimal facial feature positions detected by the proposed skin model are adjusted by using edge information of the detected facial region along with the proportions of the face. To produce the realistic facial expression, we adopt Water's linear muscle model and apply the extended version of Water's muscles to variation of the facial features of the 3D face. The experiments show that the proposed approach efficiently detects facial feature points and naturally controls the facial expression of the 3D face model.

  • PDF

Web-based 3D Face Shape Modeling System (웹기반 3차원 얼굴 형상모델링 시스템)

  • Kim, Eung-Kon;Kim, Jong-Chan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.04b
    • /
    • pp.1213-1216
    • /
    • 2001
  • 본 연구에서는 기존의 방법에 비하여 3차원 스캐너나 카메라를 이용하지 않고 비용과 노력을 크게 절감하면서 실감나는 얼굴 모델링을 효율적으로 수행하는 웹 기반 3차원 얼굴 모델러를 제안한다. 클라이언트측의 사용자가 본 시스템에 접속하면 자바 애플릿의 얼굴모델러가 실행되며, 사용자는 두 장의 사진을 입력으로 하여 웹브라우저만으로 3차원 얼굴 모델을 생성하게 된다.

  • PDF

A Study On Three-dimensional Face Recognition Model Using PCA : Comparative Studies and Analysis of Model Architectures (PCA를 이용한 3차원 얼굴인식 모델에 관한 연구 : 모델 구조 비교연구 및 해석)

  • Park, Chan-Jun;Oh, Sung-Kwun
    • Proceedings of the KIEE Conference
    • /
    • 2015.07a
    • /
    • pp.1373-1374
    • /
    • 2015
  • 본 논문은 복잡한 비선형 모델링 방법인 다항식 기반 RBF 뉴럴 네트워크(Radial Basis Function Neural Network)와 벡터공간에서 임의의 비선형 경계를 찾아 두 개의 집합을 분류하는 방법으로 주어진 조건하에서 수학적으로 최적의 해를 찾는 SVM(Support Vector Machine)를 사용하여 3차원 얼굴인식 모델을 설계하고 두 모델의 3차원 얼굴 인식률을 비교한다. 3D스캐너를 통해 3차원 얼굴형상을 획득하고 획득한 영상을 전처리 과정에서 포인트 클라우드 정합과 포즈보상을 수행한다. 포즈보상 통해 정면으로 재배치한 영상을 Multiple Point Signature기법을 이용하여 얼굴의 깊이 데이터를 추출한다. 추출된 깊이 데이터를 RBFNN과 SVM의 입력패턴과 출력으로 선정하여 모델을 설계한다. 각 모델의 효율적인 학습을 위해 PCA 알고리즘을 이용하여 고차원의 패턴을 축소하여 모델을 설계하고 인식 성능을 비교 및 확인한다.

  • PDF

Face Texture Generation using an Image Alignment Algorithm based on Variable-Sized Blocks of Cylindrical Prototype Model (실린더형 원형모델의 가변적 블록크기를 기반으로 하는 영상정렬 알고리즘을 이용한 얼굴 텍스쳐 생성)

  • Lee, Joong-Jae;Choi, Hyung-Il
    • Journal of KIISE:Software and Applications
    • /
    • v.28 no.11
    • /
    • pp.855-863
    • /
    • 2001
  • We propose an image alignment algorithm based on variable-sized blocks of cylindrical prototype model to generate a face texture for a realistic 3D face model. This is a block matching algorithm which aligns 2D images of a 3D cylindrical model using th correlation between them. While matching blocks, it does not use same sized blocks with considering a curvature of 3D model. And we make a texture of aligned images using a technique of image mosaic. For this purpose, we stitch them with assigning linear weights according to the overlapped region and using the cross-dissolve technique.

  • PDF

A Study on Improvement of Face Recognition Rate with Transformation of Various Facial Poses and Expressions (얼굴의 다양한 포즈 및 표정의 변환에 따른 얼굴 인식률 향상에 관한 연구)

  • Choi Jae-Young;Whangbo Taeg-Keun;Kim Nak-Bin
    • Journal of Internet Computing and Services
    • /
    • v.5 no.6
    • /
    • pp.79-91
    • /
    • 2004
  • Various facial pose detection and recognition has been a difficult problem. The problem is due to the fact that the distribution of various poses in a feature space is mere dispersed and more complicated than that of frontal faces, This thesis proposes a robust pose-expression-invariant face recognition method in order to overcome insufficiency of the existing face recognition system. First, we apply the TSL color model for detecting facial region and estimate the direction of face using facial features. The estimated pose vector is decomposed into X-V-Z axes, Second, the input face is mapped by deformable template using this vectors and 3D CANDIDE face model. Final. the mapped face is transformed to frontal face which appropriates for face recognition by the estimated pose vector. Through the experiments, we come to validate the application of face detection model and the method for estimating facial poses, Moreover, the tests show that recognition rate is greatly boosted through the normalization of the poses and expressions.

  • PDF

Face Muscle Modeling and Application Method using Bitmap Form (비트맵 형식을 이용한 얼굴 근육 모델링 및 적용방법)

  • Lee, Dong-Gyo;Jeong, Mun-Yeol;Baek, Du-Won
    • Journal of the Korea Computer Graphics Society
    • /
    • v.8 no.4
    • /
    • pp.17-25
    • /
    • 2002
  • In this paper we propose a new efficient muscle modeling for creating 3d facial models. It improves the existing muscle-based facial modeling method. We present the facial muscle action prediction map as a new method of muscle modeling. We also suggest a new face deformation method that improves the existing method which controls each muscle's condition separately.

  • PDF

A System for 3D Face Manipulation in Video (비디오 상의 얼굴에 대한 3차원 변형 시스템)

  • Park, Jungsik;Seo, Byung-Kuk;Park, Jong-Il
    • Journal of Broadcast Engineering
    • /
    • v.24 no.3
    • /
    • pp.440-451
    • /
    • 2019
  • We propose a system that allows three dimensional manipulation of face in video. The 3D face manipulation of the proposed system overlays the 3D face model with the user 's manipulation on the face region of the video frame, and it allows 3D manipulation of the video in real time unlike existing applications or methods. To achieve this feature, first, the 3D morphable face model is registered with the image. At the same time, user's manipulation is applied to the registered model. Finally, the frame image mapped to the model as texture, and the texture-mapped and deformed model is rendered. Since this process requires lots of operations, parallel processing is adopted for real-time processing; the system is divided into modules according to functionalities, and each module runs in parallel on each thread. Experimental results show that specific parts of the face in video can be manipulated in real time.

An Affective 3D Facial Makeup Simulation Using a Multi-sensory Interaction (다중 감각 인터랙션을 이용한 감성적 3차원 얼굴 메이크업 시뮬레이션)

  • Kim, Jeong-Sik;Kim, Hyeon-Joong;Choi, Soo-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.500-506
    • /
    • 2007
  • 얼굴에 대한 시각적 인지는 오랫동안 인간에게 중요한 문제로 인식되어 왔다. 수 세기 동안 이루어져 왔던 미용 화장과 성형, 치아 교정 등의 다양한 연구는 사람의 얼굴을 감성적 측면에서 어떻게 하면 아름답게 만들 수 있는 가에 초점을 두었다. 본 논문에서는 휴먼 입출력 인터페이스로서 햅틱 장치와 스테레오 디스플레이를 혼합한 다중 감각 인터랙션 기반의 감성적인 3차원 얼굴 메이크업 시뮬레이션 프레임워크를 개발한다. 본 연구는 3차원 스캐너 장비로부터 사용자의 얼굴 모델을 추출하고, 그 데이터를 이용하여 자연스럽고 직관적인 얼굴 메이크업 시뮬레이션을 수행하는 것을 목표로 하고 있다. 이를 위하여 본 연구에서는 surface elements 표현 기반의 3차원 얼굴 필터링 방법과 얼굴 메이크업을 지원하는 페인팅 방법을 개발한다. 우선 사용자의 얼굴 모델을 3차원 스캐너로 획득한 후, 전처리 얼굴 필터링을 수행하여 조명, 그리고 사용자 얼굴 피부 상태에 기인하는 에러 및 속성들을 보정하고 피부 톤을 사용자가 선호하는 색으로 변경한다. 최종적으로 사용자는 햅틱 및 스테레오 디스플레이 장치를 이용하여 두 개의 레이어로 구성된 페인팅 표면 모델에 메이크업을 수행한다. 본 연구에서 적용한 surface elements 표현 기반의 그래픽 렌더링은 일반적인 메쉬 기반 페인팅의 문제점인 텍스쳐 왜곡 현상을 완화하고, 3차원 스캐너 장치에 기인하는 표면 에러를 보정한다. 그리고 전처리 얼굴 필터링과 메이크업 페인팅 방법은 사용자 중심의 감성적인 3차원 얼굴을 재구성하도록 한다. 결과적으로 본 연구에서 개발한 이러한 기술들이 다중 감각 인터페이스 기반의 메이크업 시뮬레이터의 기본 프레임워크가 되어, 차후 메이크업이나 코디네이션 분야 등의 디지털 콘텐츠 산업에서 활용될 수 있음을 확인하였다.

  • PDF

A 3D Face Reconstruction Method Robust to Errors of Automatic Facial Feature Point Extraction (얼굴 특징점 자동 추출 오류에 강인한 3차원 얼굴 복원 방법)

  • Lee, Youn-Joo;Lee, Sung-Joo;Park, Kang-Ryoung;Kim, Jai-Hie
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.48 no.1
    • /
    • pp.122-131
    • /
    • 2011
  • A widely used single image-based 3D face reconstruction method, 3D morphable shape model, reconstructs an accurate 3D facial shape when 2D facial feature points are correctly extracted from an input face image. However, in the case that a user's cooperation is not available such as a real-time 3D face reconstruction system, this method can be vulnerable to the errors of automatic facial feature point extraction. In order to solve this problem, we automatically classify extracted facial feature points into two groups, erroneous and correct ones, and then reconstruct a 3D facial shape by using only the correctly extracted facial feature points. The experimental results showed that the 3D reconstruction performance of the proposed method was remarkably improved compared to that of the previous method which does not consider the errors of automatic facial feature point extraction.