• 제목/요약/키워드: Facial Expression Animation

검색결과 76건 처리시간 0.025초

다중 제어 레벨을 갖는 입모양 중심의 표정 생성 (Speech Animation with Multilevel Control)

  • 문보희;이선우;원광연
    • 인지과학
    • /
    • 제6권2호
    • /
    • pp.47-79
    • /
    • 1995
  • 오래 전부터 컴퓨터 그래픽을 이용한 얼굴의 표정 생성은 여러 분야에서 응용되어 왔고,요즘에는 가상현실감 분야나 원격 회의 분야 등에서 가상 에이전트의 표정을 생성하는데 사용되고 있다.그러나 네트워크를 통해 다중 참여자가 상호 작용을 하는 상황에서 표정을 생성하는 경우에는 상호작용을 위해 전송되어야 할 정보의 양으로 인해,실시간에 원하는 표정을 생성하기 어려운 경우가 생긴다.본 연구에서는 이러한 문지를 해결하기 위해 표정 생성에 Level-of-Detail을 적용하였다.Level-of-Detail은 그래픽스 분야에서 복잡한 물체의 외형을 좀 더 효율적으로 나타내기 위해 오랜 전부터 연구되어져 온 기법이지만 아직까지 표정 생성에 적용된 예는 없다.본 연구에서는 상황을 고려하여 적절하게 상세도를 변경하여 표정을 생성하도록 Level-of-Detail기법을 적용하는 방법에 대해 연구하였다.구현된 시스템은 텍스트,음성,Gui, 사용자의 머리의 움직임 등과 같은 다양한 입력에 대해 입모양과 동기화 되는 표정을 생성한다.

  • PDF

얼굴 표정공간의 계층적 가시화 (Hierarchical Visualization of the Space of Facial Expressions)

  • 김성호;정문렬
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권12호
    • /
    • pp.726-734
    • /
    • 2004
  • 본 논문은 애니메이터로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 얼굴 표정 애니메이션을 생성하는 기법을 기술한다 본 시스템에서는 약 2400여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 이를 위해서는 한 표정을 표시하는 상태표현으로 얼굴 특징 점들 간의 상호거리를 표시하는 거리 행렬을 사용한다. 또한 두 표정 간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 사용한다. 그리고 다차원 공간인 표정공간을 항해하기 위해서 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화한다. 그러나 표정의 수가 너무 많아 애니메이터가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 약 10개의 클러스터 센터(후보 키 프레임)를, 단계가 증가될 때마다 후보 키 프레임의 수를 두 배로 하여 클러스터링하고 2차원 평면에 표시한다. 애니메이터는 초기 단계의 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 항해경로를 생성한다. 특정 단계에서는 그전 단계의 항해경로를 따라 새로운 키 프레임들을 선택하여 항해경로를 갱신하고, 마지막 단계에서 항해경로를 갱신하면 애니메이션 설정이 끝난다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 애니메이터들로 하여금 본 시스템을 사용하여 얼굴 애니메이션을 생성하게 하였으며, 그 결과를 평가한다.

3D 애니메이션 "인사이드 아웃" 분석을 통한 감성별 캐릭터 외형특징 연구 (A Study on Character's Emotional Appearance in Distinction Focused on 3D Animation "Inside Out")

  • 안덕기;정진헌
    • 디지털융복합연구
    • /
    • 제15권2호
    • /
    • pp.361-368
    • /
    • 2017
  • 본 연구는, 발전하는 3D 애니메이션 영상산업의 캐릭터 개발과 관련하여, 심리변화를 중심으로 감정의 표현방법을 위한 캐릭터의 외형별 특징 분석에 대한 연구로, 2015년 픽사의 인사이드 아웃을 중심으로 심리의 시각적 형태를 위한 5명 캐릭터의 감성별 외형 특징을 대상으로 분석논문을 진행하였다. 이를 위해 선행연구로 인간의 심리적 범주의 변화를 심리학자 Paul Ekman과 Robert Plutchik의 기본감정을 연구배경으로 선택, 이를 바탕으로 애니메이션 인사이드아웃 속 사춘기 소녀의 심리요소를 대표하는 다섯 캐릭터의 외형적 특징 요소를 감성별 표정변화와 감성별 색상변화를 심리적 관점에서 접근, 시각적인 표현의 방식에 대하여 분석하였다. 본 연구는 3D 애니메이션 제작과 관련하여 감성 표현을 통한 캐릭터 설정에 필수적인 외형 특징 연구가 필요하다고 판단, 향후 애니메이션 제작을 위한 차별화된 캐릭터 설정 및 개발에 필요한 가이드라인을 제시하는 것에 본 연구의 목적과 의의를 두었다.

RNN을 이용한 Expressive Talking Head from Speech의 합성 (Synthesis of Expressive Talking Heads from Speech with Recurrent Neural Network)

  • 사쿠라이 류헤이;심바 타이키;야마조에 히로타케;이주호
    • 로봇학회논문지
    • /
    • 제13권1호
    • /
    • pp.16-25
    • /
    • 2018
  • The talking head (TH) indicates an utterance face animation generated based on text and voice input. In this paper, we propose the generation method of TH with facial expression and intonation by speech input only. The problem of generating TH from speech can be regarded as a regression problem from the acoustic feature sequence to the facial code sequence which is a low dimensional vector representation that can efficiently encode and decode a face image. This regression was modeled by bidirectional RNN and trained by using SAVEE database of the front utterance face animation database as training data. The proposed method is able to generate TH with facial expression and intonation TH by using acoustic features such as MFCC, dynamic elements of MFCC, energy, and F0. According to the experiments, the configuration of the BLSTM layer of the first and second layers of bidirectional RNN was able to predict the face code best. For the evaluation, a questionnaire survey was conducted for 62 persons who watched TH animations, generated by the proposed method and the previous method. As a result, 77% of the respondents answered that the proposed method generated TH, which matches well with the speech.

지적 아바타 통신에서 볼과 턱 움직임을 사용한 코믹한 얼굴 표정 (A Comic Facial Expression Using Cheeks and Jaws Movements for Intelligent Avatar Communications)

  • 이용후;김상운
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(3)
    • /
    • pp.121-124
    • /
    • 2001
  • In this paper, a method of generating the facial gesture CG animation on different avatar models is provided. At first, to edit emotional expressions efficiently, regeneration of the comic expression on different polygonal mesh models is carried out, where the movements of the cheeks and numerical methods. Experimental results show a possibility that the method could be used for intelligent avatar communications between Korea and Japan.

  • PDF

간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 얼굴표정 생성 (The facial expression generation of vector graphic character using the simplified principle component vector)

  • 박태희
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1547-1553
    • /
    • 2008
  • 본 논문은 간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 다양한 얼굴 표정 생성 방법을 제안한다. 먼저 Russell의 내적 정서 상태에 기반하여 재정의된 벡터 그래픽 캐릭터들의 9가지 표정에 대해 주성분 분석을 수행한다. 이를 통해 캐릭터의 얼굴 특성과 표정에 주된 영향을 미치는 주성분 벡터를 찾아내고, 간소화된 주성분 벡터로부터 얼굴 표정을 생성한다. 또한 캐릭터의 특성과 표정의 가중치 값을 보간함으로써 자연스러운 중간 캐릭터 및 표정을 생성한다. 이는 얼굴 애니메이션에서 종래의 키프레임 저장 공간을 상당히 줄일 수 있으며, 적은 계산량으로 중간 표정을 생성할 수 있다. 이에 실시간 제어를 요구하는 웹/모바일 서비스, 게임 등에서 캐릭터 생성 시스템의 성능을 상당히 개선할 수 있다.

LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어 (Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.117-124
    • /
    • 2007
  • 본 논문은 얼굴 모션 캡쳐 데이터를 재사용하여 실시간 표정 제어 및 표정 애니메이션을 생성하기 위한 방법론을 기술한다. 이 방법의 핵심요소는 얼굴 표정들을 정의할 수 있는 표정상태 표현법을 정하고, 이를 LLE 알고리즘에 적용하여 표정들을 적당한 공간에 분포시키는 방법론과, 이 공간을 사용하여 실시간 표정 애니메이션 생성 및 표정제어를 수행하기 위한 사용자 인터페이스 기법이다. 본 논문에서는 약 2400개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하고, 애니메이터가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되거나 표정제어가 가능하도록 하였다. 약 2400개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 얼굴 표정 프레임 데이터로부터 얼굴 표정상태를 표현할 필요가 있고, 이를 위해서는 임의의 두 마커 사이의 거리들로 구성된 거리행렬 벡터를 이용한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정상태벡터들의 집합을 LLE 알고리즘에 적용하고, 이로부터 2차원 평면에 균일하게 분포하였다. 본 논문에서는 애니메이터로 하여금 사용자 인터페이스를 사용하여 실시간으로 표정 애니메이션을 생성하거나 표정제어를 수행하도록 하였으며, 그 결과를 평가한다.

FAES : 감성 표현 기법을 이용한 얼굴 애니메이션 구현 (On the Implementation of a Facial Animation Using the Emotional Expression Techniques)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.147-155
    • /
    • 2005
  • 본 논문은 여러 가지 감정들 중에서 4가지 감정의 범주 즉, 중성, 두려움, 싫증 및 놀람을 포함한 음성과 감성이 결합되어진 얼굴의 표정을 좀 더 정확하고 자연스러운 3차원 모델로 만들 수 있는 FAES(a Facial Animation with Emotion and Speech) 시스템을 구축하는데 그 주된 목적이 있다. 이를 위해서 먼저 사용할 훈련자료를 추출하고 난후에 감성을 처리한 얼굴 애니메이션에서는 SVM(Support vector machine)[11]을 사용하여 4개의 감정을 수반한 얼굴 표정을 데이터베이스로 구축한다. 마지막으로 얼굴 표정에 감정과 음성이 표현되는 시스템을 개발하는 것이다. 얼굴 표정을 위해서 본 논문에서는 한국인 청년을 대상으로 이루어졌다. 이런 시스템을 통한 결과가 기존에 제시된 방법에 비해서 감정의 영역을 확대시킴은 물론이고 감정인지의 정확도가 약 7%, 어휘의 연속 음성인지가 약 5%의 향상을 시켰다.

  • PDF

로우폴리곤 캐릭터 애니메이션에서 립싱크 및 표정 개발 연구 (A Study on Lip Sync and Facial Expression Development in Low Polygon Character Animation)

  • 서지원;이현수;김민하;김정이
    • 문화기술의 융합
    • /
    • 제9권4호
    • /
    • pp.409-414
    • /
    • 2023
  • 본 연구는 로우폴리곤 캐릭터 애니메이션에서 감정과 성격을 표현하는 데 중요한 역할을 차지하는 캐릭터 표정과 애니메이션을 구현하는 방법을 기술하였다. 영상 산업의 발달로 애니메이션에서의 캐릭터 표정과 입 모양 립싱크는 실사와 가까운 수준으로 자연스러운 모션을 구현할 수 있게 되었다. 그러나 비전문가의 경우 전문가 수준의 고급 기술을 사용하기에 어려움이 있다. 따라서 우리는 저예산의 로우폴리곤 캐릭터 애니메이션 제작자나 비전문가를 위해 접근이 쉽고 사용성이 높은 기능을 사용하여 입 모양 립싱크를 조금 더 자연스럽게 연출할 수 있도록 가이드를 제시하는 것을 목적으로 하였다. 입 모양 립싱크 애니메이션은 'ㅏ', 'ㅔ', 'ㅣ', 'ㅗ', 'ㅜ', 'ㅡ', 'ㅓ'와 구순음을 표현하는 입 모양 총 8가지를 개발하였다. 표정 애니메이션의 경우 폴 에크먼이 분류한 인간의 기본감정인 놀람, 두려움, 혐오, 분노, 행복, 슬픔의 여섯 가지에 선행 연구를 참고로 활용도가 높은 흥미, 지루함, 통증을 더하여 총 아홉 가지 애니메이션을 제작하였다. 본 연구는 복잡한 기술이나 프로그램을 사용하지 않고 모델링 프로그램에 내장된 기능을 사용하여 자연스러운 애니메이션을 손쉽게 제작할 수 있도록 함에 의의가 있다.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.