• Title/Summary/Keyword: 얼굴 합성

Search Result 140, Processing Time 0.029 seconds

Implementation of Text-to-Audio Visual Speech Synthesis Using Key Frames of Face Images (키프레임 얼굴영상을 이용한 시청각음성합성 시스템 구현)

  • Kim MyoungGon;Kim JinYoung;Baek SeongJoon
    • MALSORI
    • /
    • no.43
    • /
    • pp.73-88
    • /
    • 2002
  • In this paper, for natural facial synthesis, lip-synch algorithm based on key-frame method using RBF(radial bases function) is presented. For lips synthesizing, we make viseme range parameters from phoneme and its duration information that come out from the text-to-speech(TTS) system. And we extract viseme information from Av DB that coincides in each phoneme. We apply dominance function to reflect coarticulation phenomenon, and apply bilinear interpolation to reduce calculation time. At the next time lip-synch is performed by playing the synthesized images obtained by interpolation between each phonemes and the speech sound of TTS.

  • PDF

Emotional System Applied to Android Robot for Human-friendly Interaction (인간 친화적 상호작용을 위한 안드로이드 로봇의 감성 시스템)

  • Lee, Tae-Geun;Lee, Dong-Uk;So, Byeong-Rok;Lee, Ho-Gil
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.04a
    • /
    • pp.95-98
    • /
    • 2007
  • 본 논문은 한국생산기술연구원에서 개발된 안드로이드 로봇(EveR Series) 플랫폼에 적용된 감성 시스템에 관한 내용을 제시한다. EveR 플랫폼은 얼굴 표정, 제스처, 음성합성을 수행 할 수 있는 플랫폼으로써 감성 시스템을 적용하여 인간 친화적인 상호작용을 원활하게 한다. 감성 시스템은 로봇에 동기를 부여하는 동기 모듈(Motivation Module), 다양한 감정들을 가지고 있는 감정 모듈(Emotion Module), 감정들, 제스처, 음성에 영향을 미치는 성격 모듈(Personality Module), 입력 받은 자극들과 상황들에 가중치를 결정하는 기억 모듈(Memory Module)로 구성되어 있다. 감성 시스템은 입력으로 음성, 텍스트, 비전, 촉각 및 상황 정보가 들어오고 감정의 선택과 가중치, 행동, 제스처를 출력하여 인간과의 대화에 있어서 자연스러움을 유도한다.

  • PDF

Face Verification Using Optimum Nonlinear Composite Filter (Optimum 비선형 합성필터를 이용한 얼굴인증)

  • Lee, Ju-Min;Yeom, Seok-Won;Hong, Seung-Hyun
    • Proceedings of the IEEK Conference
    • /
    • 2008.06a
    • /
    • pp.867-868
    • /
    • 2008
  • In this paper, we discuss face verification using the optimum nonlinear composite filter. The optimum nonlinear composite filter is derived by minimizing the output energy due to the additive noise and the input scene. We construct the nonlinear composite filter with 3 training images. The performance is analyzed in terms of the detection probability and the false alarm probability showing the robustness to distortion and noise.

  • PDF

The Facial Expression Controller for 3D Avatar Animation working on a Smartphone (스마트폰기반 3D 아바타 애니메이션을 위한 다양한 얼굴표정 제어기 응용)

  • Choi, In-Ho;Lee, Sang-Hoon;Park, Sang-Il;Kim, Yong-Guk
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.323-325
    • /
    • 2012
  • 스마트폰 기반 3D 아바타를 이용하여 임의의 표정을 합성 및 제어하여 애니메이션 할 수 있는 방법과 응용을 제안한다. 사용될 아바타에 표현되는 임의의 표정 Data Set을 PCA로 처리 후, 인간의 가장 기본적인 6 표정으로 컨트롤러 축을 생성한다. 만들어진 제어기에, 임의의 연속 표정을 유저에 의해 정해진 시간에 생성하여 애니메이션 할 수 있는 방법을 시스템을 제안하다. 빠른 계산을 장점으로 하는 본 제어기는 스마트폰 환경에 맞게 탑재 되었으며, 이 제어기를 활용하여 모델워킹 모션에 다양한 표정을 적용할 수 있는 시스템을 구현하였다.

GAN-based avatar generation and animation for video conferencing service (화상회의 서비스를 위한 GAN 기반 아바타 생성 및 애니메이션 구현 기술)

  • Moon, Ji-Eun;Kim, Ji-Yun;Park, Ji-Hye;Ahn, Hyo-Won;Lee, Kyoung-Mi
    • Annual Conference of KIPS
    • /
    • 2022.11a
    • /
    • pp.761-763
    • /
    • 2022
  • 코로나19 이후 화상회의 빈도가 높아지면서 줌 피로라는 신조어가 등장할 만큼 상대방을 가까이 마주하며 회의를 진행하는 것이 사람들의 피로도를 상승시키고 있다. 본 논문에서는 얼굴 합성과 이미지 애니메이션을 이용한 아바타를 통해 사용자가 화상회의에 참가할 수 있는 시스템을 제안한다. 사용자와 닮은 개성 있는 캐릭터는 실시간으로 사용자의 표정 및 움직임을 반영하여 화상회의에 적용될 수 있고 채팅과 커뮤니티에서 캐릭터의 이모티콘으로 감정을 표현할 수 있다.

Exploring the Aged Face Synthesize Model Based on Gender Preservation (젠더보존에 기반한 얼굴 합성 모델 탐구)

  • Li, Suli;Lee, Hyo Jong
    • Annual Conference of KIPS
    • /
    • 2022.11a
    • /
    • pp.653-655
    • /
    • 2022
  • Face aging aims to synthesize future face images by reflecting the age factor on given faces. In recent years, deep learning-based approaches have made outstanding progress in simulating the aging process of the human face. However, generating accurate and high-quality aging faces is still intrinsically difficult. We propose a new method that incorporates gender information into the model, which achieves comparable and stable performance. Experimental results demonstrate that our method can preserve the identity well and generate diverse aged faces.

A Study of Facial Organs Classification System Based on Fusion of CNN Features and Haar-CNN Features

  • Hao, Biao;Lim, Hye-Youn;Kang, Dae-Seong
    • The Journal of Korean Institute of Information Technology
    • /
    • v.16 no.11
    • /
    • pp.105-113
    • /
    • 2018
  • In this paper, we proposed a method for effective classification of eye, nose, and mouth of human face. Most recent image classification uses Convolutional Neural Network(CNN). However, the features extracted by CNN are not sufficient and the classification effect is not too high. We proposed a new algorithm to improve the classification effect. The proposed method can be roughly divided into three parts. First, the Haar feature extraction algorithm is used to construct the eye, nose, and mouth dataset of face. The second, the model extracts CNN features of image using AlexNet. Finally, Haar-CNN features are extracted by performing convolution after Haar feature extraction. After that, CNN features and Haar-CNN features are fused and classify images using softmax. Recognition rate using mixed features could be increased about 4% than CNN feature. Experiments have demonstrated the performance of the proposed algorithm.

Deep Learning based Color Restoration of Corrupted Black and White Facial Photos (딥러닝 기반 손상된 흑백 얼굴 사진 컬러 복원)

  • Woo, Shin Jae;Kim, Jong-Hyun;Lee, Jung;Song, Chang-Germ;Kim, Sun-Jeong
    • Journal of the Korea Computer Graphics Society
    • /
    • v.24 no.2
    • /
    • pp.1-9
    • /
    • 2018
  • In this paper, we propose a method to restore corrupted black and white facial images to color. Previous studies have shown that when coloring damaged black and white photographs, such as old ID photographs, the area around the damaged area is often incorrectly colored. To solve this problem, this paper proposes a method of restoring the damaged area of input photo first and then performing colorization based on the result. The proposed method consists of two steps: BEGAN (Boundary Equivalent Generative Adversarial Networks) model based restoration and CNN (Convolutional Neural Network) based coloring. Our method uses the BEGAN model, which enables a clearer and higher resolution image restoration than the existing methods using the DCGAN (Deep Convolutional Generative Adversarial Networks) model for image restoration, and performs colorization based on the restored black and white image. Finally, we confirmed that the experimental results of various types of facial images and masks can show realistic color restoration results in many cases compared with the previous studies.

Dimensional Structure of Emotion in Schizophrenic Patients (정신분열병 환자의 정서구조 분석: 2차원 모형을 중심으로)

  • 오경자;문혜신;김영아;박수경;김진관
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.362-367
    • /
    • 1999
  • 본 연구에서는 정신분열증 환자들이 정서상태를 개념화하고 얼굴표정을 통하여 타인의 정서 상태를 판단하는 과정을 정상인과 비교하였다. 연구1에서는 만 19세-46세의 정신분열병 환자 19명에게 정서 관련 형용사 15개로 구성된 105개의 형용사 쌍에 대하여 유사성을 평정하도록 하여 MDS로 분석한 결과, 쾌/불쾌와 각성의 두 차원이 일관되게 보고되고 있는 정상집단과는 달리 정신분열병 집단의 자료에서는 쾌/불쾌 차원만이 뚜렷하게 나타나고 각성 차원은 얻어지지 않았다. 연구 2에서는 다양한 정서를 표현한 얼굴 사진 28개를 정신분열병 환자 30명과 대학생 31명에게 제시하고 각 사진의 인물이 경험하고 있는 내적 상태를 쾌/불쾌와 각성의 두 차원에 대하여 각각 7점 척도로 평정하도록 한 결과 정신분열병 집단은 대학생 집단에 비하여 쾌/불쾌 차원에서는 보다 긍정적으로 평정하는 경향이, 각성 차원에서는 상대적으로 낮게 평가하는 경향을 나타냈다. 특히 부정적이고 각성 수준이 높은 내적 상태를 표현하는 사진 자극에 대하여 정신분열병 환자 집단이 각성수준을 과소평가하는 경향이 두드러지게 나타났다. 이와 같은 결과를 종합하여 볼 때, 정신분열병 환자들은 정서상태의 개념화 과정에서 각성 차원에 대하여 상대적으로 낮은 민감도를 보이고 있으며, 특히 부정적인 정서상태를 표현하는 얼굴들에 대란 판단에서는 각성 차원을 과소평가하여 높은 각성수준을 나타내는 표정과 낮은 각성수준을 변별하는데 어려움을 보이는 것으로 해석될 수 있다. 본 연구의 결과는 정신분열병 환자들은 자율신경계의 높은 각성 수준으로 인하여 각성 수준을 더 높일 가능성이 있는 자극을 회피하는 경향이 있다는 Mednick의 가설과 일관되는 결과로 이들의 각성 수준에 대한 낮은 민감도는 방어적인 회피성향의 지속에 따른 둔감화의 결과로 해석될 수 있다. 효과는 GSR를 비롯한 자율신경계지표에서 잘 반영되었다.^2$=.792가 되었다. 설명되는 누적분산값은 67.18%였다.주관적 평가의 결과와 객관적 평가 결과를 이용해 마직물의 태를 평가하는 산출식을 제시하였다. 태 평가치의 경우 16가지 특성치를 모두 넣는 방법과 stepwise 방법, 또 Kawabatark 사용한 순차적 군 회귀법의 세가지 방법의 회귀식 중 16가지 특성치를 모두 넣는 방법의 결정계수가 가장 높았다.tosterone농도는 107.7$\pm$12.0 pmol/l이었고, 남성의 타액내 농도는 274.2$\pm$22.1 pmol/l이었다. 이상의 결과로 보아 본 연구에서 정립된 EIA 방법은 RIA를 대신하여 소규모의 실험실에서도 활용할 수 있을 것으로 사려된다.또한 상실기 이후 배아에서 합성되며, 발생시기에 따라 그 영향이 다르고 팽창과 부화에 관여하는 것으로 사료된다. 더욱이, 조선의 ${\ulcorner}$구성교육${\lrcorner}$이 조선총독부의 관리하에서 실행되었다는 것을, 당시의 사범학교를 중심으로 한 교육조직을 기술한 문헌에 의해 규명시켰다.nd of letter design which represents -natural objects and was popular at the time of Yukjo Dynasty, and there are some documents of that period left both in Japan and Korea. "Hyojedo" in Korea is supposed to have been influenced by the letter design. Asite- is also considered to have been "Japanese Lett

  • PDF

Smart Mirror to support Hair Styling (헤어 스타일링 지원 스마트 미러)

  • Noh, Hye-Min;Joo, Hye-Won;Moon, Young-Suk;Kong, Ki-Sok
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.20 no.1
    • /
    • pp.127-133
    • /
    • 2020
  • This paper deals with the development of a smart mirror to support changing hair styles. A key function of the service is the ability to synthesize the image into the user's face when the user chooses a desired hair image and virtually styling the hair. To check the effectiveness of the hair image synthesis function, the success rate measurement experiment of Haar-cascade algorithm's facial recognition was conducted. Experiments have confirmed that the facial recognition succeeds with a 95 percent probability, with both eyes and eyebrows visible to the subjects. It is the highest success rate. It confirmed that if either of the eyebrows of the subjects are not visible or one eyeball is covered, the success rate of facial recognition is 50% and 0% respectively.