• Title/Summary/Keyword: 3차원 얼굴

Search Result 283, Processing Time 0.029 seconds

3D Face Recognition using Local Depth Information

  • 이영학;심재창;이태홍
    • Journal of KIISE:Software and Applications
    • /
    • v.29 no.11
    • /
    • pp.818-825
    • /
    • 2002
  • Depth information is one of the most important factor for the recognition of a digital face image. Range images are very useful, when comparing one face with other faces, because of implicating depth information. As the processing for the whole fare produces a lot of calculations and data, face images ran be represented in terms of a vector of feature descriptors for a local area. In this paper, depth areas of a 3 dimensional(3D) face image were extracted by the contour line from some depth value. These were resampled and stored in consecutive location in feature vector using multiple feature method. A comparison between two faces was made based on their distance in the feature space, using Euclidian distance. This paper reduced the number of index data in the database and used fewer feature vectors than other methods. Proposed algorithm can be highly recognized for using local depth information and less feature vectors or the face.

A Mapping Algorithm for Real Time Animation Based on Facial Features (얼굴 구성 정보 기반의 실시간 애니메이션을 위한 매핑 알고리즘)

  • Yi, Jung-Hoon;Lee, Chan;Rhee, Phill-Kyu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10b
    • /
    • pp.919-922
    • /
    • 2000
  • 본 논문에서는 가상 인터페이스로서 범용적으로 사용할 수 있는 실시간 비전 기반 얼굴 애니메이션을 제안한다. 이를 위해서 실시간으로 얼굴 구성요소를 추출하고, 이를 정량화 하였다. 정량화된 값과 자연스럽게 매핑하기 위해서 정합함수를 통해 3차원 모델에 맵핑하기 위한 방안을 제안한다. 일반적으로 3차원 애니메이션을 수행할 경우, 기본 모델을 중심으로 특정한 사용자만을 위주로 수행되나, 본 논문에서는 임의의 일반 사용자를 위한 3차원 애니메이션을 수행하였다. 여러 사용자에 대하여 얼굴 구성요소 추출을 이용한 3차원 얼굴 애니메이션 동작에 대하여 실험하였으며 실험결과 여러 사용자 얼굴 애니메이션 동작에 대하여 만족할 만한 성능을 보였다.

  • PDF

3D Facial Animation with Head Motion Estimation and Facial Expression Cloning (얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션)

  • Kwon, Oh-Ryun;Chun, Jun-Chul
    • The KIPS Transactions:PartB
    • /
    • v.14B no.4
    • /
    • pp.311-320
    • /
    • 2007
  • This paper presents vision-based 3D facial expression animation technique and system which provide the robust 3D head pose estimation and real-time facial expression control. Many researches of 3D face animation have been done for the facial expression control itself rather than focusing on 3D head motion tracking. However, the head motion tracking is one of critical issues to be solved for developing realistic facial animation. In this research, we developed an integrated animation system that includes 3D head motion tracking and facial expression control at the same time. The proposed system consists of three major phases: face detection, 3D head motion tracking, and facial expression control. For face detection, with the non-parametric HT skin color model and template matching, we can detect the facial region efficiently from video frame. For 3D head motion tracking, we exploit the cylindrical head model that is projected to the initial head motion template. Given an initial reference template of the face image and the corresponding head motion, the cylindrical head model is created and the foil head motion is traced based on the optical flow method. For the facial expression cloning we utilize the feature-based method, The major facial feature points are detected by the geometry of information of the face with template matching and traced by optical flow. Since the locations of varying feature points are composed of head motion and facial expression information, the animation parameters which describe the variation of the facial features are acquired from geometrically transformed frontal head pose image. Finally, the facial expression cloning is done by two fitting process. The control points of the 3D model are varied applying the animation parameters to the face model, and the non-feature points around the control points are changed by use of Radial Basis Function(RBF). From the experiment, we can prove that the developed vision-based animation system can create realistic facial animation with robust head pose estimation and facial variation from input video image.

3D Face Recognition using Projection Vectors and Surface Curvatures (투영 벡터와 표면 곡률을 이용한 3차원 얼굴 인식)

  • Park, Rocky;Lee, Yeung-Hak;Yi, Tai-Hong
    • Journal of KIISE:Software and Applications
    • /
    • v.33 no.1
    • /
    • pp.130-137
    • /
    • 2006
  • The depth information in the face represents personal features in detail. In particular, the surface curvatures extracted from the face contain the most important personal facial information. This surface curvature and together with grouped projection vector which reduces the dimensions resulting less computations are collaborated into the proposed 3D face recognition algorithm. The maximum and minimum curvature are calculated from the surface curvature image, which are grouped into projected vectors for recognition. The minimum curvature showed the best recognition rate among the surface parameters.

Face Animation Editor for the Korean Lip_Sync and Face Expression (한글 입술 움직임과 얼굴 표정 동기화를 위한 얼굴 애니메이션 편집기)

  • 송미영;조형제
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.451-454
    • /
    • 2000
  • 본 논문은 한글 단어에 따른 한글 발음에 적합한 입술의 움직임을 자동 생성하며 또한 단어에 적절한 얼굴 보정을 생성할 수 있는 입순 움직임과 얼굴 표정을 동기화하는 3차인 일관애니메이션 편집기를 구축하였다. 얼굴 애니메이션 편집기에서 얼굴 표정은 근육 기반 모델 방법으로 정의된 각 얼굴 부위별 근육에 따라 가중치를 조절하여 생성하여 입술 움직임은 텍스트 구동 방법으로 음소에 따른 정의된 입모양 연속적으로 표현하여 동작한다. 또한 이렇게 생성된 얼굴 표정을 저장관리한다. 따라서 3차원 얼굴 애니메이션 편집기는 6가지의 기본 얼굴 표정을 자동적으로 생성할 수 있으며 또한 입력 단어에 적합하도록 각 얼굴 부위별 근육 움직임을 편집한 수 있다. 이렇게 생성된 얼굴 표정들은 데이터베이스에 저장관리할 수 있으며 컴퓨터 대화시 자동적으로 입력 단어에 적합한 입술의 움직임과 얼굴 표정을 동기화하여 자연스러운 3차원 얼굴 애니메이션을 표현할 수 있다.

  • PDF

A Study On Three-dimensional Face Recognition Model Using PCA : Comparative Studies and Analysis of Model Architectures (PCA를 이용한 3차원 얼굴인식 모델에 관한 연구 : 모델 구조 비교연구 및 해석)

  • Park, Chan-Jun;Oh, Sung-Kwun
    • Proceedings of the KIEE Conference
    • /
    • 2015.07a
    • /
    • pp.1373-1374
    • /
    • 2015
  • 본 논문은 복잡한 비선형 모델링 방법인 다항식 기반 RBF 뉴럴 네트워크(Radial Basis Function Neural Network)와 벡터공간에서 임의의 비선형 경계를 찾아 두 개의 집합을 분류하는 방법으로 주어진 조건하에서 수학적으로 최적의 해를 찾는 SVM(Support Vector Machine)를 사용하여 3차원 얼굴인식 모델을 설계하고 두 모델의 3차원 얼굴 인식률을 비교한다. 3D스캐너를 통해 3차원 얼굴형상을 획득하고 획득한 영상을 전처리 과정에서 포인트 클라우드 정합과 포즈보상을 수행한다. 포즈보상 통해 정면으로 재배치한 영상을 Multiple Point Signature기법을 이용하여 얼굴의 깊이 데이터를 추출한다. 추출된 깊이 데이터를 RBFNN과 SVM의 입력패턴과 출력으로 선정하여 모델을 설계한다. 각 모델의 효율적인 학습을 위해 PCA 알고리즘을 이용하여 고차원의 패턴을 축소하여 모델을 설계하고 인식 성능을 비교 및 확인한다.

  • PDF

3D Human Face Segmentation using Curvature Estimation (Curvature Estimation을 이용한 3차원 사람얼굴 세그멘테이션)

  • Seongdong Kim;Seonga Chin;Moonwon Choo
    • Journal of Korea Multimedia Society
    • /
    • v.6 no.6
    • /
    • pp.985-990
    • /
    • 2003
  • This paper presents the representation and its shape analysis of face by features based on surface curvature estimation and proposed rotation vector of the human face. Curvature-based surface features are well suited to use for experimenting the 3D human face segmentation. Human surfaces are exactly extracted and computed with parameters and rotated by using active surface mesh model. The estimated features were tested and segmented by reconstructing surfaces from the face surface and analytically computing Gaussian (K) and mean (H) curvatures without threshold.

  • PDF

Estimation of Head Angle and Position from 2D images (2 차원 영상의 얼굴 각도와 위치 판정)

  • Kim, Woowon;Hwang, Jinkyu;Lee, Sangyoun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.1-3
    • /
    • 2011
  • 얼굴의 각도와 위치는 많은 정보를 포함하고 있어 다양한 분야에서 응용이 가능하다. 본 논문에서는 하나의 2 차원 영상만으로 사람 얼굴의 3 차원 각도와 위치를 파악하는 시스템을 제안한다. 얼굴 특징 점 검출 기술, 포즈 판정 기술, 오류 안정화 기술 등을 단계별로 설명하며, 비디오 데이터베이스를 통한 실험으로 시스템의 성능을 분석하였다. 오류는 5 도 안팎의 적은 수치이며 개인용 컴퓨터에서 실시간 수행이 가능하다.

  • PDF

A System for 3D Face Manipulation in Video (비디오 상의 얼굴에 대한 3차원 변형 시스템)

  • Park, Jungsik;Seo, Byung-Kuk;Park, Jong-Il
    • Journal of Broadcast Engineering
    • /
    • v.24 no.3
    • /
    • pp.440-451
    • /
    • 2019
  • We propose a system that allows three dimensional manipulation of face in video. The 3D face manipulation of the proposed system overlays the 3D face model with the user 's manipulation on the face region of the video frame, and it allows 3D manipulation of the video in real time unlike existing applications or methods. To achieve this feature, first, the 3D morphable face model is registered with the image. At the same time, user's manipulation is applied to the registered model. Finally, the frame image mapped to the model as texture, and the texture-mapped and deformed model is rendered. Since this process requires lots of operations, parallel processing is adopted for real-time processing; the system is divided into modules according to functionalities, and each module runs in parallel on each thread. Experimental results show that specific parts of the face in video can be manipulated in real time.

3D Makeup Simulation using Realistic Facial Data (사실적인 얼굴 데이터를 이용한 3차원 메이크업 시뮬레이션)

  • Lee, Sang-Hoon;Kim, Hyeon-Joong;Choi, Soo-Mi
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.410-412
    • /
    • 2012
  • 메이크업 시뮬레이션은 입력 장치와 디스플레이를 사용하여 가상의 얼굴에 다양한 화장법을 시험해 볼 수 있는 도구이다. 최근 다양한 환경을 고려한 여러 메이크업 시뮬레이션이 개발되었지만, 대부분의 시스템은 2차원 영상에서 이루어지며 제한된 조건에서의 시뮬레이션 결과만 확인할 수 있다. 본 연구에서는 측정된 피부의 거칠기와 반사도를 적용하고 적용된 반사도를 조절할 수 있는 사실적인 메이크업 시스템을 개발하였다. 개발된 시뮬레이션 방법을 사용시 3차원 스캐너로 획득한 고해상도의 얼굴 데이터 상에서 측정된 반사도를 사용하여 빛을 고려한 메이크업을 시뮬레이션 할 수 있다. 정점 기반 형상표현을 사용하여 3차원 모델의 렌더링 과정을 간단하고 유연하게 표현하였으며, 반사도를 얼굴 부위에 따라 달리 적용하여 보다 사실적인 메이크업 시뮬레이션을 가능하게 하였다. 또한 사용자에게 반사도를 직접 조절 가능하게 함으로서 보다 사실적인 3차원 메이크업을 가능하게 하였다.