• 제목/요약/키워드: 얼굴 표정 애니메이션

검색결과 91건 처리시간 0.024초

FAES : 감성 표현 기법을 이용한 얼굴 애니메이션 구현 (On the Implementation of a Facial Animation Using the Emotional Expression Techniques)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.147-155
    • /
    • 2005
  • 본 논문은 여러 가지 감정들 중에서 4가지 감정의 범주 즉, 중성, 두려움, 싫증 및 놀람을 포함한 음성과 감성이 결합되어진 얼굴의 표정을 좀 더 정확하고 자연스러운 3차원 모델로 만들 수 있는 FAES(a Facial Animation with Emotion and Speech) 시스템을 구축하는데 그 주된 목적이 있다. 이를 위해서 먼저 사용할 훈련자료를 추출하고 난후에 감성을 처리한 얼굴 애니메이션에서는 SVM(Support vector machine)[11]을 사용하여 4개의 감정을 수반한 얼굴 표정을 데이터베이스로 구축한다. 마지막으로 얼굴 표정에 감정과 음성이 표현되는 시스템을 개발하는 것이다. 얼굴 표정을 위해서 본 논문에서는 한국인 청년을 대상으로 이루어졌다. 이런 시스템을 통한 결과가 기존에 제시된 방법에 비해서 감정의 영역을 확대시킴은 물론이고 감정인지의 정확도가 약 7%, 어휘의 연속 음성인지가 약 5%의 향상을 시켰다.

  • PDF

감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구 (Study of expression in virtual character of facial smile by emotion recognition)

  • 이동엽
    • 만화애니메이션 연구
    • /
    • 통권33호
    • /
    • pp.383-402
    • /
    • 2013
  • 본 연구에서는 감성 변화에 따라 나타나는 얼굴 표정에 대한 해부학적 접근방식으로 근육 체계에 의해서 부호화하는 얼굴 움직임 부호화 시스템(FACS, Facial Action Coding System)을 얼굴표정에 적용하고 이를 바탕으로 듀센스마일(Duchenne smile)을 가상 캐릭터에 적용하여 검증해 보고자 한다. 인간의 표정을 인식하는 방식이 동일하게 가상의 캐릭터에도 적용된다는 선행연구를 바탕으로 애니메이션, 게임 등의 캐릭터에 보다 사실적인 표정을 담을 수 있는 연구 방식을 제안하고자 한다. 실험을 위해 훈련된 연극전공 학생들에게 정서 유발 실험을 통해 듀센 스마일과 일반 스마일을 추출하였다. 추출된 표정을 바탕으로 얼굴 근육 데이터를 표집하여 입과 입술주변의 근육과 다른 부위의 얼굴 표정 빈도를 산출하여 얻어진 데이터를 가상 캐릭터에 적용해 보았다. 그 결과 미소 표정에서 근육의 움직임은 협골 대근육의 수축으로 인한 입술 끝이 상향운동을 하며 안륜근이 수축하며 뺨이 올라가고 눈의 아래쪽 외측 눈꺼풀이 올라가는 표정이 나타났다. 개방성과 관련된 입주변 근육(AU25, AU26, AU27)과 코주위 근육(AU9)이 함께 협골근과 광대근 주변 근육의 움직임이 표현되었다. 그중 듀센 미소는 협골 대근육과 안륜근이 동시에 움직이는 형태로 발생되었다. 이를 바탕으로 본인의 의지에 의해 수행 가능한 광대근육과 감성적 정서에 공감하여 웃음의 형태로 나타나는 안륜근을 구분하고 이를 가상의 캐릭터의 근육에 적용하여 인간의 표정과 가상의 캐릭터 표정이 서로 구분 가능한지를 설문을 통해 알아보고자 하였다.

간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 얼굴표정 생성 (The facial expression generation of vector graphic character using the simplified principle component vector)

  • 박태희
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1547-1553
    • /
    • 2008
  • 본 논문은 간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 다양한 얼굴 표정 생성 방법을 제안한다. 먼저 Russell의 내적 정서 상태에 기반하여 재정의된 벡터 그래픽 캐릭터들의 9가지 표정에 대해 주성분 분석을 수행한다. 이를 통해 캐릭터의 얼굴 특성과 표정에 주된 영향을 미치는 주성분 벡터를 찾아내고, 간소화된 주성분 벡터로부터 얼굴 표정을 생성한다. 또한 캐릭터의 특성과 표정의 가중치 값을 보간함으로써 자연스러운 중간 캐릭터 및 표정을 생성한다. 이는 얼굴 애니메이션에서 종래의 키프레임 저장 공간을 상당히 줄일 수 있으며, 적은 계산량으로 중간 표정을 생성할 수 있다. 이에 실시간 제어를 요구하는 웹/모바일 서비스, 게임 등에서 캐릭터 생성 시스템의 성능을 상당히 개선할 수 있다.

스마트폰기반 3D 아바타 애니메이션을 위한 다양한 얼굴표정 제어기 응용 (The Facial Expression Controller for 3D Avatar Animation working on a Smartphone)

  • 최인호;이상훈;박상일;김용국
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(C)
    • /
    • pp.323-325
    • /
    • 2012
  • 스마트폰 기반 3D 아바타를 이용하여 임의의 표정을 합성 및 제어하여 애니메이션 할 수 있는 방법과 응용을 제안한다. 사용될 아바타에 표현되는 임의의 표정 Data Set을 PCA로 처리 후, 인간의 가장 기본적인 6 표정으로 컨트롤러 축을 생성한다. 만들어진 제어기에, 임의의 연속 표정을 유저에 의해 정해진 시간에 생성하여 애니메이션 할 수 있는 방법을 시스템을 제안하다. 빠른 계산을 장점으로 하는 본 제어기는 스마트폰 환경에 맞게 탑재 되었으며, 이 제어기를 활용하여 모델워킹 모션에 다양한 표정을 적용할 수 있는 시스템을 구현하였다.

얼굴 표정 표현을 위한 얼굴 특징점 추출 (Facial Characteristic Point Extraction for Representation of Facial Expression)

  • 오정수;김진태
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.117-122
    • /
    • 2005
  • 본 논문은 얼굴 특징점 추출을 위한 알고리즘을 제안한다. 얼굴 특징점은 얼굴 애니메이션과 아바타 모방을 위한 표정 표현이나, 얼굴 표정 인식 등에서 중요한 자료이다. 얼굴 특징점 추출을 위한 기존 방법은 고가의 모션 캡쳐 장비나 표식을 사용하는 것으로 대상 인물에게 심리적 부담감이나 부자연스러움을 준다. 이에 반해 제안된 알고리즘은 카메라로 취득된 영상에서 영상 처리만으로 얼굴 특징점을 추출함으로써 기존 방법의 문제점을 해결한다. 또한 효율적인 특징점 추출을 위해 특징점 추출의 근원이 되는 기존 얼굴 구성요소 검출 알고리즘의 문제점을 분석하고 개선한다.

3D모델링에서 살펴본 눈 주변의 표정에 대한 연구 (Study of facial movement around eyes in 3D modeling)

  • 문희정
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.597-600
    • /
    • 2003
  • 이 연구에서는, 움직임이 커서 확실하게 움직임의 변화를 확인할 수 있는 입 주변의 움직임보다 움직임이 세밀하고 다양해 표현하기가 까다로울 수 있는 눈 주변의 움직임에 있어서 눈 주변의 세밀한 움직임의 근육을 잡는 것과 움직임의 기준정, 또 타겟들의 적절한 조합이 중요한 요소가 된다고 보고 절기에 근거를 두어 블렌드쉐이프를 적용하여 표정 타겟을 만들어 눈 주변의 표정에 대한 연구를 하여 3D얼굴 애니메이션에 적용시키는 방법으로 페이셜 애니메이션 중에서도 눈 주변의 움직임을 중심으로 제안한다.

  • PDF

애니메이선 캐릭터의 표정연출 유형 연구 (A Study on Pattern of Facial Expression Presentation in Character Animation)

  • 홍순구
    • 한국콘텐츠학회논문지
    • /
    • 제6권8호
    • /
    • pp.165-174
    • /
    • 2006
  • 버드휘스텔(Birdwhistell)은 말이 전하는 의미는 전체커뮤니케이션의 35%이하에 불과하고 나머지 65% 이상은 비언어적 형태로 전달되며 인간은 전적으로 언어에 의해 의사소통을 하는 존재가 아니라 모든 감각을 사용하는 감각적 존재라고 설명하고 있다. 인간의 커뮤니케이션은 언어 외에 표정, 몸 동작 등을 통해 보다 더 구체적인 의미 전달이 가능하며, 특히 얼굴표정은 개인의 성격, 관심, 반응에 대한 정보 및 감정의 상태를 전달해주는 다면적 메시지체계로 강력한 커뮤니케이션 도구라고 할 수 있다. 다양한 표현기법과 표현의 정도, 특성에 따라 달라질 수 있지만 표정이 갖는 상징적 기호는 일반화 된 특성을 가지고 있다. 스토리상의 등장인물로서 내면세계와 심리적 상태가 행동이나 표정으로 자연스럽게 노출되고 읽어낼 수 있는 감정표현에서 애니메이션 캐릭터는 생명력을 갖는다.

  • PDF

Facial Optical Motion Capture System을 위한 다중 마커의 추적 (The Multi-marker Tracking for Facial Optical Motion Capture System)

  • 이문희;김경석
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2000년도 춘계학술발표논문집
    • /
    • pp.474-477
    • /
    • 2000
  • 최근 3D 애니메이션 , 영화 특수효과 그리고 게임제작시 모션 캡처 시스템(Motion Capture System)을 통하여 실제 인간의 동작 및 표정을 수치적으로 측정해내어 이를 실제 애니메이션에 직접 사용함으로써 막대한 작업시간 및 인력 드리고 자본을 획기적으로 줄이고 있다. 그러나 기존의 모션 캡처 시스템은 고속 카메라를 이용함으로써 가격이 고가이고 움직임 추적에서도 여러 가지 문제점을 가지고 있다. 본 논문에서는 일반 저가의 카메라와 신경회로망 및 영상처리를 이용하여 얼굴 애니메이션용 모션 캡처 시스템에 적용할 수 있는 경제적이고 효율적인 얼굴 움직임 추적 기법을 제안한다.

  • PDF

동작 및 효정 동시 포착을 위한 데이터 기반 표정 복원에 관한 연구 (Data-driven Facial Expression Reconstruction for Simultaneous Motion Capture of Body and Face)

  • 박상일
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권3호
    • /
    • pp.9-16
    • /
    • 2012
  • 본 논문은 광학식 동작 포착 장비를 사용해 얼굴과 동작을 동시에 포착할 경우 발생하는 불완전한 표정 데이터의 복원에 관한 연구를 다룬다. 일반적으로 동작 포착과 표정 포착은 필요 해상도에서 차이가 나며, 이로 인해 동작과 표정을 동시에 포착하기 힘들었다. 본 연구에서는 표정과 동작의 동시 포착을 위해, 기존의 작은 마커를 촘촘히 얼굴에 부착하는 표정 포착 방식에서 탈피하여 적은 수의 마커만을 이용하여 표정을 포착하고, 이로부터 세밀한 얼굴 표정을 복원하는 방법을 제안한다. 본 방법의 핵심 아이디어는 얼굴 표정의 움직임을 미리 데이터베이스화하여, 적은 수의 마커로 표현된 얼굴 표정을 복원하는 것이다. 이를 위해 주성분분석을 사용하였으며, 제안된 기술을 실제 동적인 장면에 활용하여 표정의 복원이 잘 됨을 검증하였다.

현실감 있는 3차원 얼굴 애니메이션을 위한 실시간 표정 제어 (A Realtime Expression Control for Realistic 3D Facial Animation)

  • 김정기;민경필;전준철;최용길
    • 인터넷정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.23-35
    • /
    • 2006
  • 본 논문에서는 실시간으로 입력되는 동영상으로부터 영상 내에 존재하는 사람의 얼굴 및 얼굴 특징점들을 자동으로 추출한 후, 추출된 정보를 이용하여 3차원 얼굴 모델의 표정을 실시간으로 제어함으로써 현실감 있는 얼굴 애니메이션 처리가 가능한 새로운 방법을 제시한다. 입력 영상의 각 프레임으로부터 얼굴을 효과적으로 추출하기 위해 기존에 일반적으로 사용되는 색상 공간을 이용한 파라미터 검출 방법에 대변되는 새로운 비파라미터 검출 방법을 제시하였다. 기존의 파라미터 검출 방법은 일반적으로 얼굴의 피부 색상분포를 가우지언 형태로 표현하며 특히 주변조명의 변화 및 배경 영상 등에 민감하게 반응하므로 정화한 영역의 검출을 위한 부가적 작업을 필요로 한다. 이러한 문제점을 효과적으로 해결하기 위하여 본 논문에서는 Hue와 Tint 색상 성분에 기반을 둔 새로운 스킨 색상 공간을 제시하고 모델의 분포특성을 직선 형식으로 표현하여 얼굴검출 시 발생되는 오류를 축소시킬 수 있었다. 또한, 검출된 얼굴 영역으로부터 정확한 얼굴특성 정보를 추출하기 위하여 각 특징영역에 대한 에지검색 결과와 얼굴의 비율 비를 적용하여 효과적으로 얼굴의 특징 영역을 검출하였다. 추출된 얼굴 특징점 변화 정보는 3차원 얼굴 모델의 실시간 표정 변화에 적용되며, 보다 실감 있는 얼굴 표정을 생성하기위하여 사람의 근육 정보와 근육의 움직이는 방법을 나타내는 Waters의 선형 근육 모델에 새로운 근육 정보들을 새롭게 추가함으로써 화장 적용하였다. 실험결과 제안된 방법을 이용하여 실시간으로 입력되는 대상의 얼굴표정을 3차원 얼굴 모델에 자연스럽게 표현할 수 있다.

  • PDF