• 제목/요약/키워드: 3D facial expression

검색결과 88건 처리시간 0.029초

FACS 기반을 둔 3D 얼굴 모델링 (3D Face Modeling based on FACS (Facial Action Coding System))

  • 오두식;김유성;김재민;조성원;정선태
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.1015-1016
    • /
    • 2008
  • In this paper, the method which searchs a character of face and transforms it by FACS(Facial Action Coding System) for face modeling is suggested. FACS has a function to build an expression of face to AUs(Action Units) and make various face expressions. The system performs to find accurate Action Units of sample face and use setted AUs. Consequently it carries out the coefficient for transforming face model by 2D AUs matching.

  • PDF

Analogical Face Generation based on Feature Points

  • Yoon, Andy Kyung-yong;Park, Ki-cheul;Oh, Duck-kyo;Cho, Hye-young;Jang, Jung-hyuk
    • Journal of Multimedia Information System
    • /
    • 제6권1호
    • /
    • pp.15-22
    • /
    • 2019
  • There are many ways to perform face recognition. The first step of face recognition is the face detection step. If the face is not found in the first step, the face recognition fails. Face detection research has many difficulties because it can be varied according to face size change, left and right rotation and up and down rotation, side face and front face, facial expression, and light condition. In this study, facial features are extracted and the extracted features are geometrically reconstructed in order to improve face recognition rate in extracted face region. Also, it is aimed to adjust face angle using reconstructed facial feature vector, and to improve recognition rate for each face angle. In the recognition attempt using the result after the geometric reconstruction, both the up and down and the left and right facial angles have improved recognition performance.

인터넷 가상공간에서 지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법 (A Comic Facial Expression Method for Intelligent Avatar Communications in the Internet Cyberspace)

  • 이용후;김상운;청목유직
    • 전자공학회논문지CI
    • /
    • 제40권1호
    • /
    • pp.59-73
    • /
    • 2003
  • 인터넷 가상공간에서 서로 다른 언어 사이의 언어 장벽을 극복하기 위한 한 방법으로 CG 애니메이션 기술을 이용한 수화 통신 시스템이 연구되고 있다. 지금까지 연구에서는 비언어 통신 수단으로서 팔과 손의 제스춰만을 고려하였으나, 얼굴 표정이 의사전달에 중요한 요소가 된다. 특히 사실적인 감정표현보다는 얼굴 요소가 과장된 코믹한 표현이 보다 효과적이고, 또 눈썹, 눈, 입 등의 AU(Action Units)만이 아니라 뺨과 턱의 움직임도 중요한 역할을 하게 됨을 알게 되었다. 따라서 3D 표정 생성 에디터에서 AU를 추출하고, 보다 효율적을 표정 생성을 위해 FACS(Facial Action Unit)으로 분류한다. 또 기존에 표정 에디터에 비해서 제안된 표정 에디터는 PAU에 대한 강도를 강하게 줌으로써, 6가지 표정을 분리할 수 있음을 보인다. 또한 얼굴 표정 생성에서 “뺨을 올림”과 “턱을 내림”에 대한 움직임을 자동화하기 위해서 포물형 편미분식(Parabolic Partial Differential Equations)과 Runge-Kutta법을 이용하여 보다 자연스러운 표정을 생성하였다. 또한 이를 이용하여 구조가 서로 다른 아바타 모델에 감정을 재생하는 방법을 제안하였다. 본 방법을 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

휴먼인터페이스를 위한 한글음절의 입모양합성 (Lip Shape Synthesis of the Korean Syllable for Human Interface)

  • 이용동;최창석;최갑석
    • 한국통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.614-623
    • /
    • 1994
  • 얼굴을 마주보며 인간끼리 대화하는 것처럼 인간과 자연스럽게 대화할 수 있는 휴먼인터페이스를 실현하기 위해서는 임성의 합성과 얼굴영상의 합성이 필요하다. 본 논문은 얼굴영상의 합성을 대상으로 한다. 얼굴영상의 합성에서는 표정변화와 입모양의 변화를 3차원적으로 실현하기 위하여 얼굴의 3차원 형상모델을 이용한다. 얼굴의 3차원 모델을 얼굴 근육의 움직임에 따라 변형하므로서 다양한 얼굴표정과 음절에 어울리는 입모양을 합성한다. 우리말에서 자모의 결합으로 조합가능한 음절은 14,364자에 이른다. 이 음절에 대한 입모양의 대부분은 모음에 따라 형성되고, 일부가 자음에 따라 달라진다. 그러므로, 음절에 어울리는 입모양의 변형규칙을 정하기 위해, 이들을 모두 조사하여 모든 음절을 대표할 수 있는 입모양패턴을 모음과 자음에 따란 분류한다. 그 결과, 자음에 영향을 받는 2개의 패턴과 모음에 의한 8개의 패턴, 총 10개의 패턴으로 입모양을 분류할 수 있었다. 나아가서, 분류된 입모양패턴의 합성규칙을 얼굴근육의 움직임을 고려하여 정한다. 이와같이 분류된 10개의 입모양패턴으로 모든 음절에 대한 입모양을 합성할 수 있고, 얼굴근육의 움직임을 이용하므로써 다양한 표정을 지으면서 말하는 자연스런 얼굴영상을 합성할 수 있었다.

  • PDF

Accuracy and reliability of 2-dimensional photography versus 3-dimensional soft tissue imaging

  • Ayaz, Irem;Shaheen, Eman;Aly, Medhat;Shujaat, Sohaib;Gallo, Giulia;Coucke, Wim;Politis, Constantinus;Jacobs, Reinhilde
    • Imaging Science in Dentistry
    • /
    • 제50권1호
    • /
    • pp.15-22
    • /
    • 2020
  • Purpose: This study was conducted to objectively and subjectively compare the accuracy and reliability of 2-dimensional(2D) photography and 3-dimensional(3D) soft tissue imaging. Materials and Methods: Facial images of 50 volunteers(25 males, 25 females) were captured with a Nikon D800 2D camera (Nikon Corporation, Tokyo, Japan), 3D stereophotogrammetry (SPG), and laser scanning (LS). All subjects were imaged in a relaxed, closed-mouth position with a normal smile. The 2D images were then exported to Mirror® Software (Canfield Scientific, Inc, NJ, USA) and the 3D images into Proplan CMF® software (version 2.1, Materialise HQ, Leuven, Belgium) for further evaluation. For an objective evaluation, 2 observers identified soft tissue landmarks and performed linear measurements on subjects' faces (direct measurements) and both linear and angular measurements on all images(indirect measurements). For a qualitative analysis, 10 dental observers and an expert in facial imaging (subjective gold standard) completed a questionnaire regarding facial characteristics. The reliability of the quantitative data was evaluated using intraclass correlation coefficients, whereas the Fleiss kappa was calculated for qualitative data. Results: Linear and angular measurements carried out on 2D and 3D images showed excellent inter-observer and intra-observer reliability. The 2D photographs displayed the highest combined total error for linear measurements. SPG performed better than LS, with borderline significance (P=0.052). The qualitative assessment showed no significant differences among the 2D and 3D imaging modalities. Conclusion: SPG was found to a reliable and accurate tool for the morphological evaluation of soft tissue in comparison to 2D imaging and laser scanning.

실감 있는 얼굴 표정 애니메이션 및 3차원 얼굴 합성 (Realistics Facial Expression Animation and 3D Face Synthesis)

  • 한태우;이주호;양현승
    • 감성과학
    • /
    • 제1권1호
    • /
    • pp.25-31
    • /
    • 1998
  • 컴퓨터 하드웨어 기술과 멀티미디어 기술의 발달로 멀티미디어 입출력 장치를 이용한 고급 인터메이스의 필요성이 대두되었다. 친근감 있는 사용자 인터페이스를 제공하기 위해 실감 있는 얼굴 애니메이션에 대한 요구가 증대되고 있다. 본 논문에서는 사람의 내적 상태를 잘 표현하는 얼굴의 표정을 3차원 모델을 이용하여 애니메이션을 수행한다. 애니메이션에 실재감을 더하기 위해 실제 얼굴 영상을 사용하여 3차원의 얼굴 모델을 변형하고, 여러 방향에서 얻은 얼굴 영상을 이용하여 텍스터 매핑을 한다. 변형된 3차원 모델을 이용하여 얼굴 표정을 애니메이션 하기 위해서 해부학에 기반한 Waters의 근육 모델을 수정하여 사용한다. 그리고, Ekman이 제안한 대표적인 6가지 표정들을 합성한다.

  • PDF

3차원 얼굴 표정 추적을 위한 스테레오 시각 모듈 설계 및 구현 (Design and Realization of Stereo Vision Module For 3D Facial Expression Tracking)

  • 이문희;김경석
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.533-540
    • /
    • 2006
  • 본 연구에서는 2개의 CMOS 영상 센서가 탑재된 스테레오 시각 모듈을 사용하여 얼굴 움직임 및 표정을 효과적으로 추적할 수 있는 얼굴용 모션 캡쳐 기술을 제안한다. 제안한 추적 알고리즘에는 신경회로망 기반의 중심점추적기법 및 상관추적기법을 사용한다. 실험 결과, 일반 얼굴 표정에 대해 스테레오 시각 모션 캡쳐를 사용한 두 추적기법 모두 15, 30프레임율에 대해 각각 95.6%, 99.6%의 추적성공률을 가진다는 것을 보여준다. 그러나 '입술 떨림'의 경우, 입술부위는 중심점추적기법(82.7%/15frame, 99.1%/30frame)의 추적성공률이 상관추적기법(78.7%/15frame, 92.7%/30frame)보다 높다는 것을 보여준다.

3차원 얼굴 모델 링 을 이 용한 표정 합성 (Facial Expression Synthesis Using 3D Facial Modeling)

  • 심연숙;변혜란;정찬섭
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1998년도 추계학술발표 논문집
    • /
    • pp.40-44
    • /
    • 1998
  • 사용자에 게 친근감 있는 인터페이스를 제공하기 위해 자연스러운 얼굴 애니메이션에 대한 연구가 활발히 진행 중이다.[5][6] 본 논문에서는 자연스러운 얼굴의 표정 합성을 위한 애니메이션 방법 을 제안하였다. 특정한 사람을 모델로 한 얼굴 애니메이션을 위하여 우선 3차원 메쉬로 구성된 일반 모델(generic model)을 특정 사람에게 정합 하여 특정인의 3차원 얼굴 모델을 얻을 수 있다 본 논문에서는 한국인의 자연스러운 얼굴 표정합성을 위하여, 한국인의 표준얼굴에 관한 연구결과를 토대로 한국인 얼굴의 특징을 반영한 일반모델을 만들고 이를 이용하여 특정인의 3차원 얼굴 모델을 얻을 수 있도록 하였다. 실제 얼굴의 근육 및 피부 조직 등 해부학적 구조에 기반 한 표정 합성방법을 사용하여 현실감 있고 자연스러운 얼굴 애니메이션이 이루어질 수 있도록 하였다.

  • PDF

cGANs 기반 3D 포인트 클라우드 데이터의 실시간 전송 기법 (Real-time transmission of 3G point cloud data based on cGANs)

  • Shin, Kwang-Seong;Shin, Seong-Yoon
    • 한국정보통신학회논문지
    • /
    • 제23권11호
    • /
    • pp.1482-1484
    • /
    • 2019
  • We present a method for transmitting 3D object information in real time in a telepresence system. Three-dimensional object information consists of a large amount of point cloud data, which requires high performance computing power and ultra-wideband network transmission environment to process and transmit such a large amount of data in real time. In this paper, multiple users can transmit object motion and facial expression information in real time even in small network bands by using GANs (Generative Adversarial Networks), a non-supervised learning machine learning algorithm, for real-time transmission of 3D point cloud data. In particular, we propose the creation of an object similar to the original using only the feature information of 3D objects using conditional GANs.

근육모델 기반의 3차원 얼굴표정 생성시스템 (3D Facial Expression Creation System Based on Muscle Model)

  • 이현철;윤재홍;허기택
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2002년도 춘계학술발표논문집(상)
    • /
    • pp.465-468
    • /
    • 2002
  • 최근 컴퓨터를 이용한 시각 분야가 발전하면서 인간과 관계된 연구가 중요시 되어, 사람과 컴퓨터의 인터페이스에 대한 새로운 시도들이 다양하게 이루어지고 있다. 특히 얼굴 형상 모델링과 얼굴 표정변화를 애니메이션 화하는 방법에 대한 연구가 활발히 수행되고 있으며, 그 용도가 매우 다양하고, 적용 범위도 증가하고 있다. 본 논문에서는 한국인의 얼굴특성에 맞는 표준적인 일반모델을 생성하고, 실제 사진과 같이 개개인의 특성에 따라 정확한 형상을 유지할 수 있는 3차원 형상 모델을 제작한다. 그리고 자연스러운 얼굴 표정 생성을 위하여, 근육모델 기반의 얼굴표정 생성 시스템을 개발하여, 자연스럽고 실제감 있는 얼굴애니메이션이 이루어질 수 있도록 하였다.

  • PDF