• Title/Summary/Keyword: 얼굴 변형

Search Result 139, Processing Time 0.024 seconds

Individual 3D facial avatar synthesis using elastic matching of facial mesh and image (얼굴 메쉬와 이미지의 동적 매칭을 이용한 개인 아바타의 3차원 얼굴 합성)

  • 강명진;김창헌
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.600-602
    • /
    • 1998
  • 본 논문은 정면과 측면 얼굴 이미지의 특성을 살린 3차원 개인 아바타 합성에 관한 연구이다. 표준 얼굴 메쉬를 얼굴 이미지의 특징점에 맞추려는 힘을 특징점 이외의 점들까지의 거리에 대한 가우스 분포를 따라 부드럽게 전달시켜 매쉬를 탄성있게 변형하는 힘으로 작용시켜 메쉬를 얼굴 이미지의 윤곽선을 중심으로 매칭시키고, 매칭된 메쉬가 매칭 이전의 메쉬의 기하학적 특성을 유지할 수 있도록 메쉬에 동적 피부 모델을 적용한다. 이렇게 생성한 3차원 메쉬에 이미지를 텍스춰 매핑하여 개인 특성을 살린 3차원 개인 아바타를 생성한다.

  • PDF

Face Reconstruction Using a Small Set of Feature Points (적은 수의 특징점을 이용한 얼굴 영상 복원)

  • 황본우;이성환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.583-585
    • /
    • 2000
  • 본 논문에서는 적은 수의 특징점을 이용한 얼굴 복원 방법을 제안한다. 먼저 얼굴을 형태와 질갑 프로토타입들의 선형 중첩으로 모형화한 다음, 특징점에서의 형태와 질감정보만을 가지고 각각의 얼굴이 요구하는 변형의 근사값을 찾는다. 본 논문에서는 이러한 under-determined 조건에서 최소 제곱법(least square minimization method)을 사용하여 최적값을 얻는다. 실험을 통하여 적은 수의 특징점을 이용하여 2차원 얼굴 영상을 효율적으로 복원할 수 있음을 검증하였다. 우리는 제안된 얼굴 영상을 압축하거나 겹침이나 잡영에 의해 손상된 영상으로부터 원래의 전체 정보를 복원하는데 중요한 역할을 할 수 있을 것으로 기대한다.

  • PDF

Image-based 3D Face Modeling (영상기반 3차원 얼굴 모델링)

  • 민경필;전준철;박구락
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.169-171
    • /
    • 2003
  • 현실감 있는 얼굴 모델을 생성하기 위한 방법은 70년대부터 계속되었지만, 얼굴 구조의 복잡성, 색상과 텍스처의 다양한 분포, 잔주름과 같은 미세한 부분을 표현하기 어렵다는 정들로 인해 아직까지도 계속 연구되어지고 있다. 본 논문은 기존의 하드웨어 의존적인 3차원 얼굴 모델을 생성 방법이 아닌 2차원 얼굴 영상만으로 얼굴 모델을 생성하는 방법을 제시한다. 연구 수행 단계는 크게 얼굴 영역 검출 과정과 얼굴 모델링 과정으로 나뉘어지며, 얼굴 영역 검출을 위해 정규화된 TS 색상값과 얼굴의 피부색에 대한 평균과 공분산을 이용한 마할라노비스 거리 측정법을 이용한다. 얼굴 모델링 과정에서는 2차원 영상으로부터 3차원 정보를 추출한 뒤 일반 얼굴 모델에 변형을 주어 모델을 생성한다. 보다 현실감 있는 모델을 생성하기 위해 텍스쳐 매핑 기법을 추가한다. 본 연구를 통해 생성되는 얼굴 모델은 아바타 생성, 화상회의, 인증 시스템과 같은 분야에 적용 가능하며, 입력 영상에 대한 제약점을 줄이고 또한 사람의 손이 거치지 않고 전체적으로 자동화되어 처리할 수 있는 시스템을 제안한다.

  • PDF

Anatomy-Based Face Animation for Virtual Reality (가상현실을 위한 해부학에 기반한 얼굴 애니메이션)

  • 김형균;오무송;고석만;김장형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.280-282
    • /
    • 2003
  • 본 논문에서는 가상현실 환경에서 인체 모델의 애니메이션을 위하여 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2 장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육 모델을 수정하여 사용하였다.

  • PDF

Lip Shape Synthesis of the Korean Syllable for Human Interface (휴먼인터페이스를 위한 한글음절의 입모양합성)

  • 이용동;최창석;최갑석
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.19 no.4
    • /
    • pp.614-623
    • /
    • 1994
  • Synthesizing speech and facial images is necessary for human interface that man and machine converse naturally as human do. The target of this paper is synthesizing the facial images. In synthesis of the facial images a three-dimensional (3-D) shape model of the face is used for realizating the facial expression variations and the lip shape variations. The various facial expressions and lip shapes harmonized with the syllables are synthesized by deforming the three-dimensional model on the basis of the facial muscular actions. Combications with the consonants and the vowels make 14.364 syllables. The vowels dominate most lip shapes but the consonants do a part of them. For determining the lip shapes, this paper investigates all the syllables and classifies the lip shapes pattern according to the vowels and the consonants. As the results, the lip shapes are classified into 8 patterns for the vowels and 2patterns for the consonants. In advance, the paper determines the synthesis rules for the classified lip shape patterns. This method permits us to obtain the natural facial image with the various facial expressions and lip shape patterns.

  • PDF

A Study on the Feature Point Extraction and Image Synthesis in the 3-D Model Based Image Transmission System (3차원 모델 기반 영상전송 시스템에서의 특징점 추출과 영상합성 연구)

  • 배문관;김동호;정성환;김남철;배건성
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.17 no.7
    • /
    • pp.767-778
    • /
    • 1992
  • Is discussed. A method to extract feature points and to synthesize human facial images In 3-Dmodel-based ceding system, faciai feature points are extracted automatically using some image processing techniques and the known knowledge for human face. A wire frame model matched to human face Is transformed according to the motion of point using the extracted feature points. The synthesized Image Is produced by mapping the texture of initial front view Image onto the trarnsformed wire frame. Experinent results show that the synthesitzed image appears with little unnaturalness.

  • PDF

Face Recognition Using Modified Two-Dimensional PCA (변형된 이차원 PCA를 이용한 얼굴 인식)

  • Kim Young-Gil;Song Young-Jun;Chang Un-Dong;Kim Dong-Woo;Ahn Jae-Hyeong
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.6 no.4
    • /
    • pp.291-295
    • /
    • 2005
  • In this paper, we propose a face recognition method using modified 2-D PCA. While the previous PCA method computes the covariance matrix by using one dimensional vectors, the 2-D PCA method computes the covariance matrix by directly using direct two dimensional image, and extracts the feature vectors by solving eigenvalue problem. The proposed method recognizes the faces by applying the modified 2-D PCA to face images and it gets linear transformation matrix using two covariance matrices. The experimental results indicates that the proposed method improved about $1\%$ and achieved more stability in recognition rate than conventional 2-D PCA.

  • PDF

A Facial Morphing Method Based on MPEG-4 FDP (MPEG-4 FDP 기반의 얼굴 모핑 방법)

  • Lee, Jae-Yun;Gu, Bon-Kwan;Jo, Sun-Young;Lee, Myeong-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10b
    • /
    • pp.217-220
    • /
    • 2007
  • 본 논문에서는 MPEG-4에서 정의하는 FDP(Facial Definition Parameter)를 이용하여 사람의 3차원 얼굴모델들을 모핑(Morphing)시키는 알고리즘을 기술한다. 3 차원 스캐너로 생성한 얼굴 모델에 MPEG-4 의 FDP 를 기반으로 얼굴의 특징을 구분하는 영역들을 정의한다. 얼굴 모핑 알고리즘은 서로 다른 얼굴 모델 사이에서 이러한 얼굴 특징 영역들간의 변형을 생성하기 위한 일련의 과정을 설명한다. 특징 영역간의 얼굴 모핑을 위해서는 서로 다른 얼굴 모델의 기하 데이터와 속성들을 매핑시켜야 하는 문제가 생긴다. 이를 위해 본 연구에서는 구를 이용하여 각 얼굴 모델의 기하와 속성 정보를 정의하여 매핑한 후에 이들간을 모핑하는 방법을 정의하였다.

  • PDF

A system for facial expression synthesis based on a dimensional model of internal states (내적상태 차원모형에 근거한 얼굴표정 합성 시스템)

  • 한재현;정찬섭
    • Korean Journal of Cognitive Science
    • /
    • v.13 no.3
    • /
    • pp.11-21
    • /
    • 2002
  • Parke and Waters' model[1] of muscle-based face deformation was used to develop a system that can synthesize facial expressions when the pleasure-displeasure and arousal-sleep coordinate values of internal states are specified. Facial expressions sampled from a database developed by Chung, Oh, Lee and Byun [2] and its underlying model of internal states were used to find rules for face deformation. The internal - state model included dimensional and categorical values of the sampled facial expressions. To find out deformation rules for each of the expressions, changes in the lengths of 21 facial muscles were measured. Then, a set of multiple regression analyses was performed to find out the relationship between the muscle lengths and internal states. The deformation rules obtained from the process turned out to produce natural-looking expressions when the internal states were specified by the pleasure-displeasure and arousal-sleep coordinate values. Such a result implies that the rules derived from a large scale database and regression analyses capturing the variations of individual muscles can be served as a useful and powerful tool for synthesizing facial expressions.

  • PDF

2D Image-based Virtual Plastic Surgery System Using Variable Warping Mask and Smudge Filter (가변 워핑 마스크와 스머지 필터를 이용한 2D 실사 기반 가상 성형 시스템)

  • Kwak, No-Yoon;Ahn, Eun-Young
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2008.02a
    • /
    • pp.191-195
    • /
    • 2008
  • 가상 성형 시스템은 실제 성형 수술을 시행하지 않은 상태에서도 성형 후의 형상을 가상적으로 시뮬레이션해 봄으로써 고객의 의사 결정과 성형의의 수술 계획 및 상담을 효과적으로 지원할 수 있는 그래픽 시스템이다. 본 논문은 가변 워핑 마스크와 스머지 필터를 이용한 2D 가상 성형 시스템의 반자동 필드 워핑을 제안함으로써 가상 성형의 편의성과 실용성을 제고함에 그 목적이 있다. 제안된 2D 가상 성형 시스템은 마우스로 스머지 필터를 조작하여 얼굴 구성 요소의 윤곽 형상을 원하는 형태로 변형할 수 있는 직관적인 사용자 인터페이스를 제공한다. 얼굴 구성 요소의 스머징 전후의 윤곽선을 대상으로 다각형 근사화에 기반한 계층적 제어선 매핑을 통해 획득한 제어선 쌍들을 이용하여 반자동 필드 워핑을 수행함으로써 소스 제어선으로부터 목표 제어선까지 점진적으로 변해가는 다수의 중간 프레임들을 생성한다. 또한 이 반자동 필드 워핑을 수행할 시, 성형부위의 변형을 따라 단계적으로 모양이 변하는 가변 워핑 마스크를 사용함으로써 변형 부위 이외의 얼굴 구성 요소들에 대해서는 왜곡을 최소화하는 지역적 변형 특성을 제고한 것이 특징이다. 제안된 2D 가상 성형 시스템은 직관적이고 편리한 사용자 인터페이스를 제공할 수 있기 때문에 시간이 적게 소요되고 작업 피로도가 낮아 실용성이 높다. 따라서 비숙련자도 간단한 사용자 입력만으로 만족스러운 가상 성형 결과를 얻을 수 있다. 특히 짧은 시간 내에 성형의와 고객이 만족하는 직관적인 상담을 가능케 하는 것이 장점이다.

  • PDF