• 제목/요약/키워드: facial synthesis

검색결과 76건 처리시간 0.023초

지적화상부호화에 있어서 표정분석과 합성 (Analysis and synthesis of facial expressions in knowledge-based image coding)

  • 최창석
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1989년도 한국자동제어학술회의논문집; Seoul, Korea; 27-28 Oct. 1989
    • /
    • pp.451-456
    • /
    • 1989
  • New image coding system for facial images called 'Knowledge-based image coding' is described, in which input image is analyzed and output image is synthesized using analysis results. Analysis and synthesis method of facial expressions are presented. Synthesis rules are determined on the basis of facial muscles and are also used in analysis process to produce a faithful reconstruction of the original image. A number of examples are shown.

  • PDF

자연스러운 표정 합성을 위한 3차원 얼굴 모델링 및 합성 시스템 (3D Facial Modeling and Synthesis System for Realistic Facial Expression)

  • 심연숙;김선욱;한재현;변혜란;정창섭
    • 인지과학
    • /
    • 제11권2호
    • /
    • pp.1-10
    • /
    • 2000
  • 최근 사용자에게 친근감있는 인터페이스를 제공하기 위해 자연스러운 얼굴 애니메이션에 대한 연구가 활발히 진행 중이다. 얼굴은 인간의 신체부위 중 가장 쉽게 개개인을 구분할 수 있고, 감정과 정서 등의 내적 상태를 명백하게 이해할 수 있도록 해주는 중요한 의사소통의 수단으로 여겨지고 있다. 이러한 얼굴은 이용하여 인간과 컴퓨터간의 의사 전달에 있어서 효율적으로 인간의 감정을 인식하고 전달하여 대화할 수 있도록 하기 위해서 컴퓨터상의 얼굴은 인간과 유사하게 대화할 수 있고, 감정을 표현할 수 있도록 친숙하고 현실감이 있어야 한다. 본 논문에서는 자연스러운 얼굴의 합성을 위한 얼굴 모델링 및 애니메이션 방법을 제안하였다. 특정한 사람을 모델로 한 얼굴 애니메이션을 위하여 우선 3차원 메쉬로 구성된 일반 모델(generic model)을 특성 사람에게 정합하여 특정인의 3차원 얼굴 모델을 얻을 수 있다. 본 논문에서는 기존 연구들과 다르게 표준 한국인 얼굴을 이용한 일반 모델을 생성하여, 임의의 얼굴에 대하여 좀 더 정확하고 자연스러운 3차원 모델이 이루어질 수 있도록 하였다. 그리고 얼굴 표정합성을 위하여, 실제 얼굴의 근육 및 피부 조직 등 해부학적 구조에 기반한 근육 기반 모델 방법을 사용하여 현실감 있고 자연스러운 얼굴 애니메이션이 이루어질 수 있도록 하였다. 이러한 얼굴 모델링 및 합성 기술은 화상회의, 가상현실, 교육, 영화 등 여러 분야에서 활용될 수 있다.

  • PDF

가상현실을 위한 합성얼굴 동영상과 합성음성의 동기구현 (Synchronizationof Synthetic Facial Image Sequences and Synthetic Speech for Virtual Reality)

  • 최장석;이기영
    • 전자공학회논문지S
    • /
    • 제35S권7호
    • /
    • pp.95-102
    • /
    • 1998
  • This paper proposes a synchronization method of synthetic facial iamge sequences and synthetic speech. The LP-PSOLA synthesizes the speech for each demi-syllable. We provide the 3,040 demi-syllables for unlimited synthesis of the Korean speech. For synthesis of the Facial image sequences, the paper defines the total 11 fundermental patterns for the lip shapes of the Korean consonants and vowels. The fundermental lip shapes allow us to pronounce all Korean sentences. Image synthesis method assigns the fundermental lip shapes to the key frames according to the initial, the middle and the final sound of each syllable in korean input text. The method interpolates the naturally changing lip shapes in inbetween frames. The number of the inbetween frames is estimated from the duration time of each syllable of the synthetic speech. The estimation accomplishes synchronization of the facial image sequences and speech. In speech synthesis, disk memory is required to store 3,040 demi-syllable. In synthesis of the facial image sequences, however, the disk memory is required to store only one image, because all frames are synthesized from the neutral face. Above method realizes synchronization of system which can real the Korean sentences with the synthetic speech and the synthetic facial iage sequences.

  • PDF

모바일 기기에서 조명 변화를 고려한 얼굴 영상 합성 (Facial Image Synthesis Considering Illumination Variations on Mobile Devices)

  • 권지인;이상훈;최수미
    • 한국HCI학회논문지
    • /
    • 제6권1호
    • /
    • pp.21-26
    • /
    • 2011
  • 본 논문은 얼굴 영상을 합성할 때 조명 변화에 강인하도록 조명 보정 기법과 푸아송 영상 처리 기법을 결합한 얼굴 합성 방법을 제시한다. 제시된 방법은 얼굴 영상으로부터 자동적으로 피부 영역을 검출하고, 합성할 부위에서 합성 결과에 영향을 주는 세츄레이션된 부분을 보정한 후 최종적으로 대상 얼굴 영상에 합성하게 된다. 개발된 방법은 카메라가 부착된 모바일 기기에서 촬영된 영상 등에서 자주 발생할 수 있는 조명변화를 보완하여 다양한 얼굴합성 응용 분야에 활용될 수 있다.

  • PDF

얼굴의 움직임 추적에 따른 3차원 얼굴 합성 및 애니메이션 (3D Facial Synthesis and Animation for Facial Motion Estimation)

  • 박도영;심연숙;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권6호
    • /
    • pp.618-631
    • /
    • 2000
  • 본 논문에서는 2차원 얼굴 영상의 움직임을 추출하여 3차원 얼굴 모델에 합성하는 방법을 연구하였다. 본 논문은 동영상에서의 움직임을 추정하기 위하여 광류를 기반으로 한 추정방법을 이용하였다. 2차원 동영상에서 얼굴요소 및 얼굴의 움직임을 추정하기 위해 인접한 두 영상으로부터 계산된 광류를 가장 잘 고려하는 매개변수화된 움직임 벡터들을 추출한다. 그리고 나서, 이를 소수의 매개변수들의 조합으로 만들어 얼굴의 움직임에 대한 정보를 묘사할 수 있게 하였다. 매개변수화 된 움직임 벡터는 눈 영역, 입술과 눈썹 영역, 그리고 얼굴영역을 위한 서로 다른 세 종류의 움직임을 위하여 사용하였다. 이를 얼굴 모델의 움직임을 합성할 수 있는 단위행위(Action Unit)와 결합하여 2차원 동영상에서의 얼굴 움직임을 3 차원으로 합성한 결과를 얻을 수 있다.

  • PDF

기준얼굴을 이용한 얼굴표정 분석 및 합성 (Analysis and Synthesis of Facial Expression using Base Faces)

  • 박문호;고희동;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권8호
    • /
    • pp.827-833
    • /
    • 2000
  • 본 논문에서는 인간의 중요한 감정표현 수단인 얼굴표정을 분석하는 방법을 제시하였다. 제안된 방법에서는 기준얼굴과 그의 혼합 비율의 관점에서 얼굴표정을 분석한다. 기준얼굴은 인간의 대표적인 얼굴표정인 놀람, 두려움, 분노, 혐오, 행복, 슬픔, 그리고 무표정으로 설정하였다. 얼굴 모델의 생성을 위해 일반 얼굴 모델이 얼굴영상으로 정합하는 방법을 사용하였다. 기준얼굴의 혼합 비율을 구하기 위해 유전자 알고리즘과 Simulated Annealing 방법을 사용하였고 탐색된 얼굴표정 정보를 이용한 얼굴표정 생성 실험을 통해 제안된 방법의 유용성을 입증하였다.

  • PDF

가상대학에서 교수자와 학습자간 상호작용을 위한 지식기반형 문자-얼굴동영상 변환 시스템 (Knowledge based Text to Facial Sequence Image System for Interaction of Lecturer and Learner in Cyber Universities)

  • 김형근;박철하
    • 정보처리학회논문지B
    • /
    • 제15B권3호
    • /
    • pp.179-188
    • /
    • 2008
  • 본 논문에서는 가상대학에서 교수자와 학습자간 상호작용을 위한 지식기반형 문자-얼굴동영상 변환(TTFSI : Text to Facial Sequence Image) 시스템에 관해 연구하였다. TTFSI 시스템의 구현을 위해, 한글의 문법적 특징을 기반으로 가상강의에 사용된 자막정보에 립싱크된 얼굴 동영상 합성하기 위하여 자막정보를 음소코드로 변환하는 방법, 음소코드별 입모양의 변형규칙 작성법, 입모양 변형규칙에 의한 얼굴 동영상 합성법을 제안한다. 제안된 방법에서는 한글의 구조분석을 통해 기본 자모의 발음을 나타내는 10개의 대표 입모양과 조음결합에서 나타나는 78개의 혼합 입모양으로 모든 음절의 입모양을 표현하였다. 특히 PC환경에서의 실시간 영상을 합성하기 위해서 매 프레임마다 입모양을 합성하지 않고, DB에서 88개의 해당 입모양을 불러오는 방법을 사용하였다. 제안된 방법의 유용성을 확인하기 위하여 텍스트 정보에 따른 다양한 얼굴 동영상을 합성하였으며, PC환경에서 구현 가능한 TTFSI 시스템을 구축하였다.

휴먼인터페이스를 위한 한글음절의 입모양합성 (Lip Shape Synthesis of the Korean Syllable for Human Interface)

  • 이용동;최창석;최갑석
    • 한국통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.614-623
    • /
    • 1994
  • 얼굴을 마주보며 인간끼리 대화하는 것처럼 인간과 자연스럽게 대화할 수 있는 휴먼인터페이스를 실현하기 위해서는 임성의 합성과 얼굴영상의 합성이 필요하다. 본 논문은 얼굴영상의 합성을 대상으로 한다. 얼굴영상의 합성에서는 표정변화와 입모양의 변화를 3차원적으로 실현하기 위하여 얼굴의 3차원 형상모델을 이용한다. 얼굴의 3차원 모델을 얼굴 근육의 움직임에 따라 변형하므로서 다양한 얼굴표정과 음절에 어울리는 입모양을 합성한다. 우리말에서 자모의 결합으로 조합가능한 음절은 14,364자에 이른다. 이 음절에 대한 입모양의 대부분은 모음에 따라 형성되고, 일부가 자음에 따라 달라진다. 그러므로, 음절에 어울리는 입모양의 변형규칙을 정하기 위해, 이들을 모두 조사하여 모든 음절을 대표할 수 있는 입모양패턴을 모음과 자음에 따란 분류한다. 그 결과, 자음에 영향을 받는 2개의 패턴과 모음에 의한 8개의 패턴, 총 10개의 패턴으로 입모양을 분류할 수 있었다. 나아가서, 분류된 입모양패턴의 합성규칙을 얼굴근육의 움직임을 고려하여 정한다. 이와같이 분류된 10개의 입모양패턴으로 모든 음절에 대한 입모양을 합성할 수 있고, 얼굴근육의 움직임을 이용하므로써 다양한 표정을 지으면서 말하는 자연스런 얼굴영상을 합성할 수 있었다.

  • PDF

한 장의 포토기반 실사 수준 얼굴 애니메이션 (A photo-based realistic facial animation)

  • 김재환;정일권
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2011년도 춘계 종합학술대회 논문집
    • /
    • pp.51-52
    • /
    • 2011
  • We introduce a novel complete framework for contructing realistic facial animations given just one facial photo as an input in this paper. Our approach is carried on in 2D photo spacem not 3D space. Moreover, we utilize computer vision-based technique (digital matting) as well as conventional image processing methods (image warping and texture synthesis) for expressing more realistic facial animations. Simulated results show that our scheme produces high quality facial animations very efficiently.

  • PDF

쾌 및 각성 차원 기반 표정 합성 시스템의 성능 검증 및 인터페이스의 효율성 비교 (Performance tests for the expression synthesis system based on pleasure and arousal dimensions and efficiency comparisons for its interfaces)

  • 한재현;정찬섭
    • 인지과학
    • /
    • 제14권1호
    • /
    • pp.41-50
    • /
    • 2003
  • 내적상태 쾌 및 각성 차원에 근거한 표정 합성 시스템의 성능을 검증하고 이 시스템을 효과적으로 사용할 수 있는 인터페이스를 제안하였다. 우선 내적상태의 기저 구조에 대하여 차원모형을 가정한 것이 적절한가를 확인하고자 하였다. 이를 위해 평정자들로 하여금 차원 축 상의 17가지 표정들을 비교하도록 하였다. 참가자들의 비교 판단 결과로부터 시스템의 기본 가정에 대한 타당성이 확보되었다. 다음으로 시스템의 성능을 검증하기 위해 대표 표정 21가지를 선정하고 평정자들로 하여금 이들의 유사성을 판단하도록 하였다. 평균 유사성 평정값을 대상으로 다차원분석을 실시한 결과, 시스템의 성능이 신뢰로운 수준임을 확인하였다. 마지막으로 시스템 사용을 위한 최적의 조건을 찾기 위해 좌표평면 및 슬라이드바의 두 가지 방법으로 설계된 인터페이스들의 효율성을 비교하였다. 사용자들로 하여금 각각의 방식으로 25가지 특정 내적상태의 표정들을 직접 구현해보도록 하였다. 이들의 구현 결과들을 비교, 분석한 결과 내적상태 차원에 기반하여 표정을 합성하는 경우 좌표평면에서의 위치를 제시하는 입력 방법이 더 안정적인 것으로 확인되었다.

  • PDF