• Title/Summary/Keyword: 3차원 얼굴

Search Result 283, Processing Time 0.029 seconds

Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks (적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구)

  • Choi, Hee Jo;Park, Goo Man
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.11
    • /
    • pp.465-472
    • /
    • 2022
  • In this paper, the style synthesis network is trained to generate style-synthesized video through the style synthesis through training Stylegan and the video synthesis network for video synthesis. In order to improve the point that the gaze or expression does not transfer stably, 3D face restoration technology is applied to control important features such as the pose, gaze, and expression of the head using 3D face information. In addition, by training the discriminators for the dynamics, mouth shape, image, and gaze of the Head2head network, it is possible to create a stable style synthesis video that maintains more probabilities and consistency. Using the FaceForensic dataset and the MetFace dataset, it was confirmed that the performance was increased by converting one video into another video while maintaining the consistent movement of the target face, and generating natural data through video synthesis using 3D face information from the source video's face.

3D Feature Point Based Face Segmentation in Depth Camera Images (깊이 카메라 영상에서의 3D 특징점 기반 얼굴영역 추출)

  • Hong, Ju-Yeon;Park, Ji-Young;Kim, Myoung-Hee
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.454-455
    • /
    • 2012
  • 깊이 카메라에서 입력 받은 사용자의 얼굴 데이터에 morphable 모델을 fitting하여 실제 얼굴과 가까운 3D 얼굴 모델을 생성하기 위해서는 먼저 깊이 영상으로부터의 정확한 얼굴 영역 추출이 필요하다. 이를 위해 얼굴의 특징점을 기반으로 얼굴 영역 추출을 시도한다. 먼저 원본 깊이 영상을 보정하고, 컬러 영상으로부터 얼굴과 눈, 코의 영역을 탐색한 후 이를 깊이 영상에 대응시켜 눈, 코, 턱의 3차원 위치를 계산한다. 이렇게 결정된 얼굴의 주요 특징점들을 시작으로 영역을 확장함으로써 영상의 배경으로부터 얼굴 영역을 분리한다.

Better Foreground Segmentation for 3D Face Reconstruction using Graph Cuts (3차원 얼굴 복원을 위한 그래프 컷 기반의 전경 물체 추출 방법)

  • Park, An-Jin;Hong, Kwang-Jin;Jung, Kee-Chul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10c
    • /
    • pp.459-464
    • /
    • 2007
  • 영상기반의 3자원 복원(reconstruction)에 대한 연구가 컴퓨터 성능의 발전과 다양한 영상기반의 복원 알고리즘의 연구로 인해 최근 좋은 결과를 보이고 있으나, 이는 얼굴영역과 같은 목적이 되는 영역이 각 입력영상으로부터 미리 정확하게 추출되어 있다고 가정하기 때문이다. 일반적으로 목적이 되는 영역을 추출하기 위해 차영상이 많이 이용되고 있지만 차영상은 잡음과 구멍(hole)과 같은 오 추출된 영역이 발생하기 때문에 목적이 되는 영역을 3차원으로 복원을 할 때 심각한 오류를 초래할 수 있다. 전경물체(목적이 되는 영역)을 정확하게 추출하기 위해 최근 그래프 컷(graph cut)을 이용한 방법이 다양하게 시도되고 있다. 그래프 컷은 데이터 항(data term)과 스무드 항(smooth term)으로 구성된 에너지 함수를 전역적으로 최소화하는 방법으로 여러 공학적 문제에서 좋은 결과를 보이고 있지만, 에너지 함수의 데이터 항을 설정할 때 필요한 사전정보를 자동으로 얻기가 어렵다. 스테레오 비전의 깊이 정보가 최근 전경 물체 추출을 위한 사전정보로 많이 이용되고 있고 그들의 실험환경에서는 좋은 결과를 보이지만, 3차원 얼굴 복원에서 얼굴의 대부분이 동질의 영역을 가지고 있기 때문에 깊이 정보를 구하기 어려워 정확한 사전정보를 구하기가 어렵다. 본 논문에서는 3차원 얼굴 복원을 효과적으로 하기 위한 그래프 컷 기반의 전경 물체 추출 방법을 제안한다. 에너지 함수의 데이터 항을 설정하기 위해 전경 물체에 대한 사전정보를 추출해야 하며, 이를 위해 차영상을 이용하여 대략적인 전경 물체 추출하고, 사전정보에 대한 오류를 줄이기 위해 잡음과 그림자 영역을 제거한다. 잡음과 그림자 영역을 제거하면 구멍이 발생하거나 실루엣이 손상되는 문제가 발생한다. 손상된 정보는 근접한 픽셀이 유사하지 않을 때 낮은 비용을 할당하는 에너지 함수의 스무드(smooth) 항에 의해 에지 정보를 기반으로 채워진다. 결론적으로 제안된 방법은 스무드 항과 대략적으로 설정된 데이터 항으로 구성된 에너지 함수를 그래프 컷으로 전역적으로 최소화함으로써 더욱 정확하게 목적이 되는 영역을 추출할 수 있다.

  • PDF

Representation of Facial Expressions of Different Ages: A Multidimensional Scaling Study (다양한 연령의 얼굴 정서 표상: 다차원척도법 연구)

  • Kim, Jongwan
    • Science of Emotion and Sensibility
    • /
    • v.24 no.3
    • /
    • pp.71-80
    • /
    • 2021
  • Previous studies using facial expressions have revealed valence and arousal as two core dimensions of affective space. However, it remains unknown if the two dimensional structure is consistent across ages. This study investigated affective dimensions using six facial expressions (angry, disgusted, fearful, happy, neutral, and sad) at three ages (young, middle-aged, and old). Several studies previously required participants to directly rate subjective similarity between facial expression pairs. In this study, we collected indirect measures by asking participants to decide if a pair of two stimuli conveyed the same emotions. Multidimensional scaling showed that "angry-disgusted" and "sad-disgusted" pairs are similar at all three ages. In addition, "angry-sad," "angry-neutral," "neutral-sad," and "disgusted-fearful" pairs were similar at old age. When two faces in a pair reflect the same emotion, "sad" was the most inaccurate in old age, suggesting that the ability to recognize "sad" decreases with old age. This study suggested that the general two-core dimension structure is robust across all age groups with the exception of specific emotions.

Gaze Detection by Computing Facial and Eye Movement (얼굴 및 눈동자 움직임에 의한 시선 위치 추적)

  • 박강령
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.41 no.2
    • /
    • pp.79-88
    • /
    • 2004
  • Gaze detection is to locate the position on a monitor screen where a user is looking by computer vision. Gaze detection systems have numerous fields of application. They are applicable to the man-machine interface for helping the handicapped to use computers and the view control in three dimensional simulation programs. In our work, we implement it with a computer vision system setting a IR-LED based single camera. To detect the gaze position, we locate facial features, which is effectively performed with IR-LED based camera and SVM(Support Vector Machine). When a user gazes at a position of monitor, we can compute the 3D positions of those features based on 3D rotation and translation estimation and affine transform. Finally, the gaze position by the facial movements is computed from the normal vector of the plane determined by those computed 3D positions of features. In addition, we use a trained neural network to detect the gaze position by eye's movement. As experimental results, we can obtain the facial and eye gaze position on a monitor and the gaze position accuracy between the computed positions and the real ones is about 4.8 cm of RMS error.

Model ins based on Muscle Model for Three-Dimensional Facial Expression Animalion (3차원 얼굴 표정 애니메이션을 위한 근육모델 기반의 모델링)

  • 이혜진;정현숙;이일병
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.742-744
    • /
    • 2002
  • 얼굴 애니메이션은 개인을 쉽게 구분하고 의사소통을 효율적으로 할 수 있는 보조도구로써 최근 연구가 활발하다. 본 논문에서는 얼굴 표정생성을 위해서 실제얼굴의 피부조직 얼굴 근육 등 해부학적 구조에 기반한 근육 기반 모델 방법을 사용하여 현실감 있고 자연스러운 얼굴 애니메이션이 이루어지도록 한다. 또한 부드러운 얼굴모델을 구현하기 위하여 폴리곤 메쉬를 분할하고 얼굴 표정에 중요한 영향을 미치는 얼굴근육을 추가하여 다양하고 자연스러운 표정을 연출하는 방법을 제시하고자 한다. 제안된 방법을 water〔3〕의 모델에 적용해 봄으로서 더 실감 있는 얼굴 애니메이션에 접근할 수 있는 결과를 얻을 수 있었다. 이 결과는 화상회의나 가상현실, 원격교육, 영화 등 많은 분야에서 활용될 수 있다.

  • PDF

A system for facial expression synthesis based on a dimensional model of internal states (내적상태 차원모형에 근거한 얼굴표정 합성 시스템)

  • 한재현;정찬섭
    • Korean Journal of Cognitive Science
    • /
    • v.13 no.3
    • /
    • pp.11-21
    • /
    • 2002
  • Parke and Waters' model[1] of muscle-based face deformation was used to develop a system that can synthesize facial expressions when the pleasure-displeasure and arousal-sleep coordinate values of internal states are specified. Facial expressions sampled from a database developed by Chung, Oh, Lee and Byun [2] and its underlying model of internal states were used to find rules for face deformation. The internal - state model included dimensional and categorical values of the sampled facial expressions. To find out deformation rules for each of the expressions, changes in the lengths of 21 facial muscles were measured. Then, a set of multiple regression analyses was performed to find out the relationship between the muscle lengths and internal states. The deformation rules obtained from the process turned out to produce natural-looking expressions when the internal states were specified by the pleasure-displeasure and arousal-sleep coordinate values. Such a result implies that the rules derived from a large scale database and regression analyses capturing the variations of individual muscles can be served as a useful and powerful tool for synthesizing facial expressions.

  • PDF

Face Detection Using Adaboost and Template Matching of Depth Map based Block Rank Patterns (Adaboost와 깊이 맵 기반의 블록 순위 패턴의 템플릿 매칭을 이용한 얼굴검출)

  • Kim, Young-Gon;Park, Rae-Hong;Mun, Seong-Su
    • Journal of Broadcast Engineering
    • /
    • v.17 no.3
    • /
    • pp.437-446
    • /
    • 2012
  • A face detection algorithms using two-dimensional (2-D) intensity or color images have been studied for decades. Recently, with the development of low-cost range sensor, three-dimensional (3-D) information (i.e., depth image that represents the distance between a camera and objects) can be easily used to reliably extract facial features. Most people have a similar pattern of 3-D facial structure. This paper proposes a face detection method using intensity and depth images. At first, adaboost algorithm using intensity image classifies face and nonface candidate regions. Each candidate region is divided into $5{\times}5$ blocks and depth values are averaged in each block. Then, $5{\times}5$ block rank pattern is constructed by sorting block averages of depth values. Finally, candidate regions are classified as face and nonface regions by matching the constructed depth map based block rank patterns and a template pattern that is generated from training data set. For template matching, the $5{\times}5$ template block rank pattern is prior constructed by averaging block ranks using training data set. The proposed algorithm is tested on real images obtained by Kinect range sensor. Experimental results show that the proposed algorithm effectively eliminates most false positives with true positives well preserved.

Face Detection and Recognition in MPEG Compressed Video (MPEG 압축 비디오 상에서의 얼굴 영역 추출 및 인식)

  • 여창욱;황본우;이성환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.452-454
    • /
    • 1998
  • 본 논문에서는 MPEG 압축 비디오 상에서 얼굴 영역을 추출하고 이를 인식하는 방법에 대하여 제안한다. 제안된 방법은 크게 MPEG 압축 비디오의 처리를 위한 축소된 DC 영상의 구성 단계, 축소된 DC 영상에서의 얼굴 영역 추출 단계, 그리고 얼굴 영역이 추출된 프레임에 대한 압축 복원 및 얼굴 인식의 3단계로 구성되어있다. DC 영상의 구성 단계에서는 압축 복원 없이 DCT 계수의 DC 값과 2개의 AC 값만을 사용하여 부분적인 2차원 역 DCT 변환을 이용한 방법을 사용하였으며, 얼굴 영역 추출 단계에서는 DC 영상에 대해 얼굴의 색상 및 형태 정보를 이용한 얼굴 후보 영역 추출 방법과 K-L 변환 및 역 변환의 오차에 의한 얼굴 영역 추출 방법을 사용하였다. 얼굴 인식 단계에서는 얼굴 영역이 추출된 프레임에 대하여 GOP 단위의 압축 복원을 수행한 후 고유 얼굴 영상을 이용한 방법으로 얼굴 인식을 수행하였다. 제안된 방법의 성능을 검증하기 위하여 뉴스와 드라마 MPEG 비디오를 대상으로 실험을 수행하였으며, 실험 결과 제안된 방법이 효율적임을 알 수 있었다.

  • PDF

A 3D Morphing Algorithm Using Straight Line Paths (직선형 경로를 이용한 3D 얼굴 모핑 알고리즘)

  • Lee, Jae-Yun;Jung, Chul-Hee;Lee, Myeong-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06b
    • /
    • pp.281-285
    • /
    • 2008
  • 본 논문에서는 임의의 두 얼굴간의 얼굴 변형을 시뮬레이션하는 방법으로서 직선형 경로를 이용한 얼굴 모핑 알고리즘을 소개한다. 이 때 두 얼굴 모델은 서로 독립적으로 3D 스캔되어 텍스처매핑을 거쳐서 생성된 별도의 3D 모델로서, 본 알고리즘은 이러한 얼굴 모델들간의 버텍스와 폴리곤의 개수와는 상관없이 자연스러운 모핑을 구현하는 특징을 갖는다. 알고리즘의 주요 기능으로는 절단면의 생성, 3 차원 메쉬의 2D 메쉬화, 대응 영역의 설정, 대응 폴리곤 탐색 및 보간 데이터 추출등이 포함된다.

  • PDF