• Title/Summary/Keyword: 가상얼굴모델

Search Result 49, Processing Time 0.03 seconds

Model ins based on Muscle Model for Three-Dimensional Facial Expression Animalion (3차원 얼굴 표정 애니메이션을 위한 근육모델 기반의 모델링)

  • 이혜진;정현숙;이일병
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.742-744
    • /
    • 2002
  • 얼굴 애니메이션은 개인을 쉽게 구분하고 의사소통을 효율적으로 할 수 있는 보조도구로써 최근 연구가 활발하다. 본 논문에서는 얼굴 표정생성을 위해서 실제얼굴의 피부조직 얼굴 근육 등 해부학적 구조에 기반한 근육 기반 모델 방법을 사용하여 현실감 있고 자연스러운 얼굴 애니메이션이 이루어지도록 한다. 또한 부드러운 얼굴모델을 구현하기 위하여 폴리곤 메쉬를 분할하고 얼굴 표정에 중요한 영향을 미치는 얼굴근육을 추가하여 다양하고 자연스러운 표정을 연출하는 방법을 제시하고자 한다. 제안된 방법을 water〔3〕의 모델에 적용해 봄으로서 더 실감 있는 얼굴 애니메이션에 접근할 수 있는 결과를 얻을 수 있었다. 이 결과는 화상회의나 가상현실, 원격교육, 영화 등 많은 분야에서 활용될 수 있다.

  • PDF

Automatic Mask Generation for 3D Makeup Simulation (3차원 메이크업 시뮬레이션을 위한 자동화된 마스크 생성)

  • Kim, Hyeon-Joong;Kim, Jeong-Sik;Choi, Soo-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.397-402
    • /
    • 2008
  • 본 논문에서는 햅틱 인터랙션 기반의 3차원 가상 얼굴 메이크업 시뮬레이션에서 메이크업 대상에 대한 정교한 페인팅을 적용하기 위한 자동화된 마스크 생성 방법을 개발한다. 본 연구에서는 메이크업 시뮬레이션 이전의 전처리 과정에서 마스크를 생성한다. 우선, 3차원 스캐너 장치로부터 사용자의 얼굴 텍스쳐 이미지와 3차원 기하 표면 모델을 획득한다. 획득된 얼굴 텍스쳐 이미지로부터 AdaBoost 알고리즘, Canny 경계선 검출 방법과 색 모델 변환 방법 등의 영상처리 알고리즘들을 적용하여 마스크 대상이 되는 주요 특정 영역(눈, 입술)들을 결정하고 얼굴 이미지로부터 2차원 마스크 영역을 결정한다. 이렇게 생성된 마스크 영역 이미지는 3차원 표면 기하 모델에 투영되어 최종적인 3차원 특징 영역의 마스크를 레이블링하는데 사용된다. 이러한 전처리 과정을 통하여 결정된 마스크는 햅틱 장치와 스테레오 디스플레이기반의 가상 인터페이스를 통해서 자연스러운 메이크업 시뮬레이션을 수행하는데 사용된다. 본 연구에서 개발한 방법은 사용자에게 전처리 과정에서의 어떠한 개입 없이 자동적으로 메이크업 대상이 되는 마스크 영역을 결정하여 정교하고 손쉬운 메이크업 페인팅 인터페이스를 제공한다.

  • PDF

Realtime Synthesis of Virtual Faces with Facial Expressions and Speech (표정짓고 말하는 가상 얼굴의 실시간 합성)

  • 송경준;이기영;최창석;민병의
    • The Journal of the Acoustical Society of Korea
    • /
    • v.17 no.8
    • /
    • pp.3-11
    • /
    • 1998
  • 본 논문에서는 고품질의 얼굴 동영상과 운율이 첨가된 음성을 통합하여 자연스런 가상얼굴을 실시간으로 합성하는 방법을 제안한다. 이 방법에서는 한글 텍스트를 입력하여, 텍스트에 따라 입모양과 음성을 합성하고, 얼굴 동영상과 음성의 동기를 맞추고 있다. 먼저, 텍스트를 음운 변화한 후, 문장을 분석하고 자모음사이의 지속시간을 부여한다. 자모음과 지 속시간에 따라 입모양을 변화시켜 얼굴 동영상을 생성하고 있다. 이때, 텍스트에 부합한 입 모양 변화뿐만 아니라, 두부의 3차원 동작과 다양한 표정변화를 통하여 자연스런 가상얼굴 을 실시간으로 합성하고 있다. 한편, 음성합성에서는 문장분석 결과에 따라 강세구와 억양구 를 정하고 있다. 강세구와 억양구를 이용하여 생성된 운율모델이 고품질의 음성합성에 필요 한 지속시간, 억양 및 휴지기를 제어한다. 합성단위는 무제한 어휘가 가능한 반음절과 triphone(VCV)의 조합이며, 합성방식은 TD-PSOLA를 사용한다.

  • PDF

Feature-Based Deformation of 3D Facial Model Using Radial Basis Function (Radial Basis Function 을 이용한 특징점 기반 3 차원 얼굴 모델의 변형)

  • Kwon Oh-Ryun;Min Kyong-Pil;Chun Jun-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.715-718
    • /
    • 2006
  • 아바타를 이용한 얼굴 애니메이션은 가상 현실이나 엔터테인먼트와 같은 분야에서 많이 적용된다. 얼굴 애니메이션을 생성하는 방법에는 크게 3 차원 모델을 직접 변형시키는 기하학적인 변형 방법과 2 차원 이미지의 워핑이나 모핑방법을 이용한 이미지 변형 방법이 있다. 기하학적인 변형 방법 중 3 차원 모델을 변형시키기 위한 방법으로 RBF(Radial Basis Function)을 이용하는 방법이 있다. RBF 함수를 이용하여 모델의 부드러운 변형을 만들 수 있다. 이 방법은 모델의 임의의 한 점을 이동하게 되면 영향을 받는 정점들을 좀 더 자연스럽게 이동시킴으로써 자연스러운 애니메이션을 생성할 수 있다. 본 연구에서는 RBF 를 이용하여 3 차원 얼굴 메쉬 모델의 기하학적 변형을 통해 모델의 얼굴 표정을 생성하는 방법에 대해 제안하고자 한다. 얼굴 모델 변형을 위해 얼굴의 특징인 눈, 입, 턱 부분에 특징점을 정하고 각 특징점에 따라 영향을 받는 영역을 정하기 위해 얼굴 모델을 지역적으로 클러스터링한다. 각 특징점에 따라 영향을 받는 영역에 대해 클러스터링을 적용하고 RBF 를 이용하여 자연스러운 얼굴 표정을 생성하는 방법을 제안한다.

  • PDF

Realization of 3D Virtual Face Using two Sheets of 2D photographs (두 장의 2D 사진을 이용한 3D 가상 얼굴의 구현)

  • 임낙현;서경호;김태효
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.2 no.4
    • /
    • pp.16-21
    • /
    • 2001
  • In this paper a virtual form of 3 dimensional face is synthesized from the two sheets of 2 dimensional photographs In this case two sheets of 2D face photographs, the front and the side photographs are used First of all a standard model for a general face is created and from this model the feature points which represents a construction of face are densely defined on part of ears. eyes, a nose and a lip but the other parts. for example, forehead, chin and hair are roughly determined because of flat region or the less individual points. Thereafter the side photograph is connected symmetrically on the left and right sides of the front image and it is gradually synthesized by use of affine transformation method. In order to remove the difference of color and brightness from the junction part, a linear interpolation method is used. As a result it is confirmed that the proposed model which general model of a face can be obtain the 3D virtual image of the individual face.

  • PDF

Real-Time Face Extraction using Color Information based Region Segment and Symmetry Technique (실시간 얼굴 특징 점 추출을 위한 색 정보 기반의 영역분할 및 영역 대칭 기법)

  • 최승혁;김재경;박준;최윤철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.721-723
    • /
    • 2004
  • 최근 가상환경에서 아바타의 활용이 빠르게 증가하면서 아바타 애니메이션에 대한 연구가 활발히 진행되고 있다. 특히 아바타의 사람과 같은 자연스러운 얼굴 애니메이션(Facial Animation)은 사용자에게 아바타가 살아 있는 듯한 느낌(Life-likeness)과 사실감(Believability)을 심어주어 보다 친숙한 인터페이스로 활용될 수 있다. 이러한 얼굴 애니메이션 생성을 위해 얼굴의 특징 점을 추출하는 기법이 끊임없이 이루어져 왔다. 그러나 지금까지의 연구는 실시간으로 사람 얼굴로부터 모션을 생성하고 이를 바로 3D 얼굴 모델에 적용 및 모션 라이브러리를 구축하기 위한 최적화된 알고리즘 개발에 대한 연구가 미흡하였다. 본 논문은 실제 사랑 얼굴 모델로부터 실시간으로 특징 점 인식을 통한 애니메이션 적용 및 라이브러리 생성 기법에 대친 제안한다. 제안 기법에서는 빠르고 정확한 특징 점 추출을 위하여 색 정보를 가공하여 얼굴 영역을 추출해내고 이를 영역 분할하여 필요한 특징 점을 추출하였으며, 자연스러운 모션 생성을 위하여 에러 발생 시 대칭점을 이용한 복구 알고리즘을 개발하였다. 본 논문에서는 이와 같은 색 정보 기반의 영역분할 및 영역 대칭 기법을 제시하여 실시간으로 끊김이 없고 자연스러운 얼굴 모션 라이브러리를 생성 및 적용하였다.

  • PDF

3D Facial Modeling and Synthesis System for Realistic Facial Expression (자연스러운 표정 합성을 위한 3차원 얼굴 모델링 및 합성 시스템)

  • 심연숙;김선욱;한재현;변혜란;정창섭
    • Korean Journal of Cognitive Science
    • /
    • v.11 no.2
    • /
    • pp.1-10
    • /
    • 2000
  • Realistic facial animation research field which communicates with human and computer using face has increased recently. The human face is the part of the body we use to recognize individuals and the important communication channel that understand the inner states like emotion. To provide the intelligent interface. computer facial animation looks like human in talking and expressing himself. Facial modeling and animation research is focused on realistic facial animation recently. In this article, we suggest the method of facial modeling and animation for realistic facial synthesis. We can make a 3D facial model for arbitrary face by using generic facial model. For more correct and real face, we make the Korean Generic Facial Model. We can also manipulate facial synthesis based on the physical characteristics of real facial muscle and skin. Many application will be developed such as teleconferencing, education, movies etc.

  • PDF

Impact Analysis of nonverbal multimodals for recognition of emotion expressed virtual humans (가상 인간의 감정 표현 인식을 위한 비언어적 다중모달 영향 분석)

  • Kim, Jin Ok
    • Journal of Internet Computing and Services
    • /
    • v.13 no.5
    • /
    • pp.9-19
    • /
    • 2012
  • Virtual human used as HCI in digital contents expresses his various emotions across modalities like facial expression and body posture. However, few studies considered combinations of such nonverbal multimodal in emotion perception. Computational engine models have to consider how a combination of nonverbal modal like facial expression and body posture will be perceived by users to implement emotional virtual human, This paper proposes the impacts of nonverbal multimodal in design of emotion expressed virtual human. First, the relative impacts are analysed between different modals by exploring emotion recognition of modalities for virtual human. Then, experiment evaluates the contribution of the facial and postural congruent expressions to recognize basic emotion categories, as well as the valence and activation dimensions. Measurements are carried out to the impact of incongruent expressions of multimodal on the recognition of superposed emotions which are known to be frequent in everyday life. Experimental results show that the congruence of facial and postural expression of virtual human facilitates perception of emotion categories and categorical recognition is influenced by the facial expression modality, furthermore, postural modality are preferred to establish a judgement about level of activation dimension. These results will be used to implementation of animation engine system and behavior syncronization for emotion expressed virtual human.

A Study on Creation of 3D Facial Model Using Facial Image (임의의 얼굴 이미지를 이용한 3D 얼굴모델 생성에 관한 연구)

  • Lee, Hea-Jung;Joung, Suck-Tae
    • Journal of the Korea Society of Computer and Information
    • /
    • v.12 no.2 s.46
    • /
    • pp.21-28
    • /
    • 2007
  • The facial modeling and animation technology had been studied in computer graphics field. The facial modeling technology is utilized much in virtual reality research purpose of MPEG-4 and so on and movie, advertisement, industry field of game and so on. Therefore, the development of 3D facial model that can do interaction with human is essential to little more realistic interface. We developed realistic and convenient 3D facial modeling system that using a optional facial image only. This system allows easily fitting to optional facial image by using the Korean standard facial model (generic model). So it generates intuitively 3D facial model as controling control points elastically after fitting control points on the generic model wire to the optional facial image. We can confirm and modify the 3D facial model by movement, magnify, reduce and turning. We experimented with 30 facial images of $630{\times}630$ sizes to verify usefulness of system that developed.

  • PDF

3D Facial Modeling and Expression Synthesis using muscle-based model for MPEG-4 SNHC (MPEG-4 SNHC을 위한 3차원 얼굴 모델링 및 근육 모델을 이용한 표정합성)

  • 김선욱;심연숙;변혜란;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.368-372
    • /
    • 1999
  • 새롭게 표준화된 멀티미디어 동영상 파일 포맷인 MPEG-4에는 자연영상과 소리뿐만 아니라 합성된 그래픽과 소리를 포함하고 있다. 특히 화상회의나 가상환경의 아바타를 구성하기 위한 모델링과 에니메이션을 위한 FDP, FAP에 대한 표준안을 포함하고 있다. 본 논문은 MPEG-4에서 정의한 FDP와 FAP를 이용하여 화상회의나 가상환경의 아바타로 자연스럽고 현실감 있게 사용할 수 있는 얼굴 모델 생성을 위해서 보다 정교한 일반모델을 사용하고, 이에 근육 모델을 사용하여 보다 정밀한 표정 생성을 위해서 임의의 위치에 근육을 생성 할 수 있도록 근육 편집기를 작성하여, 표정 에니메이션을 수행할 수 있도록 에니메이션 편집 프로그램을 구현하였다.

  • PDF