• Title/Summary/Keyword: 3D 얼굴모델

Search Result 144, Processing Time 0.021 seconds

Realization of 3D Virtual Face Using two Sheets of 2D photographs (두 장의 2D 사진을 이용한 3D 가상 얼굴의 구현)

  • 임낙현;서경호;김태효
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.2 no.4
    • /
    • pp.16-21
    • /
    • 2001
  • In this paper a virtual form of 3 dimensional face is synthesized from the two sheets of 2 dimensional photographs In this case two sheets of 2D face photographs, the front and the side photographs are used First of all a standard model for a general face is created and from this model the feature points which represents a construction of face are densely defined on part of ears. eyes, a nose and a lip but the other parts. for example, forehead, chin and hair are roughly determined because of flat region or the less individual points. Thereafter the side photograph is connected symmetrically on the left and right sides of the front image and it is gradually synthesized by use of affine transformation method. In order to remove the difference of color and brightness from the junction part, a linear interpolation method is used. As a result it is confirmed that the proposed model which general model of a face can be obtain the 3D virtual image of the individual face.

  • PDF

3D Face Modeling Using Feature Line Fitting (특징선 정합을 이용한 3차원 얼굴 모델링)

  • 김항기;김황수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.505-507
    • /
    • 2000
  • 본 논문에서는 3차원 머리 모델에 몇 장의 사진으로부터 얻은 텍스쳐를 입혀 실물처럼 보이는 3차원 인물 모델을 얻는 방법을 제시한다. 모델에 사진들을 맞추는 방법으로는 특징선을 정합하는 방법을 사용한다. 모델에는 얼굴의 특징을 나타낼 수 있는 눈/코/입/눈썹 등의 특징선을 지정하였으며 이들을 사진에 정합시킴으로써 모델의 각 부위에 필요한 텍스쳐 영상을 얻는다. 여러 방향에서 본 사진들을 사용함으로써 더욱 정확한 얼굴 모델을 얻을 수 있는데, 이때 모델의 한 면은 여러 장의 사진에서 합성되어야 하는 경우가 생긴다. 이는 각 사진에서 얼굴이 보는 방향과 모델면이 이루는 각을 이용하여 그 사진이 그 면의 텍스쳐에 기여하는 정도를 계산할 수 있다. 이렇게 함으로써 사진을 이용한 저가의 3차원 캡쳐 시스템을 구현할 수 있다.

  • PDF

facial Expression Animation Using 3D Face Modelling of Anatomy Base (해부학 기반의 3차원 얼굴 모델링을 이용한 얼굴 표정 애니메이션)

  • 김형균;오무송
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.7 no.2
    • /
    • pp.328-333
    • /
    • 2003
  • This paper did to do with 18 muscle pairs that do fetters in anatomy that influence in facial expression change and mix motion of muscle for face facial animation. After set and change mash and make standard model in individual's image, did mapping to mash using individual facial front side and side image to raise truth stuff. Muscle model who become motive power that can do animation used facial expression creation correcting Waters' muscle model. Created deformed face that texture is dressed using these method. Also, 6 facial expression that Ekman proposes did animation.

3D Avatar Messenger Using Lip Shape Change for Face model (얼굴 입모양 변화를 이용한 3D Avatar Messenger)

  • Kim, Myoung-Su;Lee, Hyun-Cheol;Kim, Eun-Serk;Hur, Gi-Taek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.225-228
    • /
    • 2005
  • 얼굴표정은 상대방에게 자신의 감정과 생각을 간접적으로 나타내는 중요한 의사소통의 표현이 되며 상대방에게 직접적인 표현방법의 수단이 되기도 한다. 이러한 표현 방법은 컴퓨터를 매개체로 하는 메신저간의 의사 전달에 있어서 얼굴표정을 사용함으로써 상대방의 감정을 문자로만 인식하는 것이 아니라 현재 상대방이 느끼는 내적인 감정까지 인식하여 대화할 수 있다. 본 논문은 3D 메시로 구성된 얼굴 모델을 이용하여 사용자가 입력한 한글 메시지의 한글 음절을 분석 추출 하고, 3D 얼굴 메시에 서 8개의 입술 제어점을 사용하여 입 모양의 변화를 보여주는 3D Avatar 아바타 메신저 시스템을 설계 및 구현 하였다.

  • PDF

A GAN-based face rotation technique using 3D face model for game characters (3D 얼굴 모델 기반의 GAN을 이용한 게임 캐릭터 회전 기법)

  • Kim, Handong;Han, Jongdae;Yang, Heekyung;Min, Kyungha
    • Journal of Korea Game Society
    • /
    • v.21 no.3
    • /
    • pp.13-24
    • /
    • 2021
  • This paper shows the face rotation applicable to game character facial illustration. Existing studies limited data to human face data, required a large amount of data, and the synthesized results were not good. In this paper, the following method was introduced to solve the existing problems of existing studies. First, a 3D model with features of the input image was rotated and then rendered as a 2D image to construct a data set. Second, by designing GAN that can learn features of various poses from the data built through the 3D model, the input image can be synthesized at a desired pose. This paper presents the results of synthesizing the game character face illustration. From the synthesized result, it can be confirmed that the proposed method works well.

Skin Reflectance Adjustment Dataset Generation using 3D Modeler (3D 모델러를 이용한 피부 반사 요소 조절 데이터셋 구축)

  • Kim, Yujin;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.352-354
    • /
    • 2021
  • 본 논문에서는 2D 이미지를 입력으로 받는 3D 모델러 결과를 이용한 피부 반사 및 투과 요소를 조절한 데이터 셋 생성 방법을 제안한다. 고화질 얼굴 이미지로 된 Flickr-Faces-HQ 데이터셋을 이용해 3D 모델러의 결과인 3 차원 얼굴 모델과 텍스처를 추출해 이를 이용해 피부 반사 및 투과 요소를 조절한 2D 영상 생성 방법을 제시한다. 따라서 피부 반사 요소를 조절하기 위해 여러 조명과 카메라로 이루어진 라이트 스테이지 (light stage)와 같은 환경 없이 비용을 절약할 수 있다. 동시에 피부 투과 요소 측정 장비에 대한 한계를 극복하고 원하는 조건을 설정해 이미지를 생성할 수 있는 방법과 데이터셋을 제안한다.

  • PDF

Face Picture the 3D Modeling System Using a Small Set of Feature Points (적은 수의 특징점을 이용한 얼굴 사진의 3차원 모델링 시스템)

  • 김종찬;박경숙;정선인;허영남;김응곤
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.628-630
    • /
    • 2001
  • 사용자에게 친근감 있는 인터페이스를 제공하는 얼굴 모델링에 대한 연구가 활발히 진행 중이다. 본 논문에서는 기존 방법인 3차원 스캐너가 카메라를 이용하지 않고 얼굴의 정면상과 측면상의 사진을 이용하여 크기와 배경의 복잡성에 상관없이 일반적인 특징점을 추출하여 삼각형 메쉬로 구성된 표준 모델을 생성하고 이를 이용해서 3차원 얼굴의 형태를 생성하는 시스템을 제안한다. 추출된 특징점은 각개인의 얼굴 형태에 맞게 변형함으로서 좀더 현실적인 3차원 얼굴 모델링을 제공한다.

  • PDF

Individual 3D facial avatar synthesis using elastic matching of facial mesh and image (얼굴 메쉬와 이미지의 동적 매칭을 이용한 개인 아바타의 3차원 얼굴 합성)

  • 강명진;김창헌
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.600-602
    • /
    • 1998
  • 본 논문은 정면과 측면 얼굴 이미지의 특성을 살린 3차원 개인 아바타 합성에 관한 연구이다. 표준 얼굴 메쉬를 얼굴 이미지의 특징점에 맞추려는 힘을 특징점 이외의 점들까지의 거리에 대한 가우스 분포를 따라 부드럽게 전달시켜 매쉬를 탄성있게 변형하는 힘으로 작용시켜 메쉬를 얼굴 이미지의 윤곽선을 중심으로 매칭시키고, 매칭된 메쉬가 매칭 이전의 메쉬의 기하학적 특성을 유지할 수 있도록 메쉬에 동적 피부 모델을 적용한다. 이렇게 생성한 3차원 메쉬에 이미지를 텍스춰 매핑하여 개인 특성을 살린 3차원 개인 아바타를 생성한다.

  • PDF

3D Human Face Segmentation using Curvature Estimation (Curvature Estimation을 이용한 3차원 사람얼굴 세그멘테이션)

  • Seongdong Kim;Seonga Chin;Moonwon Choo
    • Journal of Korea Multimedia Society
    • /
    • v.6 no.6
    • /
    • pp.985-990
    • /
    • 2003
  • This paper presents the representation and its shape analysis of face by features based on surface curvature estimation and proposed rotation vector of the human face. Curvature-based surface features are well suited to use for experimenting the 3D human face segmentation. Human surfaces are exactly extracted and computed with parameters and rotated by using active surface mesh model. The estimated features were tested and segmented by reconstructing surfaces from the face surface and analytically computing Gaussian (K) and mean (H) curvatures without threshold.

  • PDF

Performance Analysis for Accuracy of Personality Recognition Models based on Setting of Margin Values at Face Region Extraction (얼굴 영역 추출 시 여유값의 설정에 따른 개성 인식 모델 정확도 성능 분석)

  • Qiu Xu;Gyuwon Han;Bongjae Kim
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.24 no.1
    • /
    • pp.141-147
    • /
    • 2024
  • Recently, there has been growing interest in personalized services tailored to an individual's preferences. This has led to ongoing research aimed at recognizing and leveraging an individual's personality traits. Among various methods for personality assessment, the OCEAN model stands out as a prominent approach. In utilizing OCEAN for personality recognition, a multi modal artificial intelligence model that incorporates linguistic, paralinguistic, and non-linguistic information is often employed. This paper examines the impact of the margin value set for extracting facial areas from video data on the accuracy of a personality recognition model that uses facial expressions to determine OCEAN traits. The study employed personality recognition models based on 2D Patch Partition, R2plus1D, 3D Patch Partition, and Video Swin Transformer technologies. It was observed that setting the facial area extraction margin to 60 resulted in the highest 1-MAE performance, scoring at 0.9118. These findings indicate the importance of selecting an optimal margin value to maximize the efficiency of personality recognition models.