• 제목/요약/키워드: Facial Expression Animation

검색결과 76건 처리시간 0.032초

내적 정서 상태 차원에 근거한 캐릭터 표정생성 프로그램 구현 (Character's facial expression realization program with emotional state dimensions)

  • 고혜영;이재식;김재호
    • 한국정보통신학회논문지
    • /
    • 제12권3호
    • /
    • pp.438-444
    • /
    • 2008
  • 본 논문에서는 애니메이션 캐릭터의 표정 연출의 효율성을 높이기 위해 정서 상태의 변화에 따라 다양하고 주어진 상황에 부합하는 표정을 쉽게 구현할 수 있는 표정생성 프로그램을 제안하고자 한다. 이를 위해 우선, Russell의 내적 정서 상태의 차원 모형을 근거로 쾌-불쾌, 각성-비각성의 내적 정서 상태 정보를 포함한 9가지 표정을 정의하였다. 그리고 각각의 표정에 대해 본 연구에서 제안한 표정생성 프로그램을 이용하여 두 차원의 중앙에 위치하는 무표정 자극을 8가지의 가능한 표정 변화 방향으로 이동시킴으로써 정서 차원에서의 미묘한 위치 변화에 따라서도 다양한 표정 생성이 구현될 수 있음을 확인하였다. 향후 이러한 프로그램은 복잡한 정서를 가진 표정을 쉽고 다양하게 구현할 수 있는 표정 자동생성 시스템 설계의 기초적 프로그램으로 활용될 수 있을 것이다.

감정변화에 따른 3D캐릭터의 표정연출에 관한 연구 (해부학적 구조 중심으로) (A Study on Effective Facial Expression of 3D Character through Variation of Emotions (Model using Facial Anatomy))

  • 김지애
    • 한국멀티미디어학회논문지
    • /
    • 제9권7호
    • /
    • pp.894-903
    • /
    • 2006
  • 하드웨어의 급속한 기술발전은 3차원 영상정보를 포함한 다양한 디지털 영상정보의 급속한 발전과 확대를 가져왔다. 애니메이션, 가상현실, 영화, 광고, 게임 분야에서도 3차원 디지털 영상처리는 매우 다양하고 광범위하게 사용되고 있다. 이러한 3차원 디지털 영상 속에 등장하는 3D캐릭터는 의인화된 동작이나 음성, 표정등을 통해 관객에게 감동과 정보를 전달하는 중요한 역할을 담당한다. 3D캐릭터의 활용도와 사용범위가 확대되어감에 따라 효과적인 3D캐릭터의 동작연구나 표정연출에 대한 관심도 또한 높아지고 있다. 본 연구에서는 내적감정상태의 효과적 수단으로 사용되는 표정에 대해 연구해본다. 해부학적 구조에 기반한 얼굴근육의 운동방향과 변화에 따른 3D 캐릭터의 표정구현에 대해 살펴보고 효과적인 표현방법을 모색해보고자 한다. 또한 선행연구로 진행된 2D캐릭터 표정연구와의 비교를 통하여 그 차이점과 특징에 대해 살펴보고자 한다.

  • PDF

얼굴 표정 표현을 위한 얼굴 특징점 추출 (Facial Characteristic Point Extraction for Representation of Facial Expression)

  • 오정수;김진태
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.117-122
    • /
    • 2005
  • 본 논문은 얼굴 특징점 추출을 위한 알고리즘을 제안한다. 얼굴 특징점은 얼굴 애니메이션과 아바타 모방을 위한 표정 표현이나, 얼굴 표정 인식 등에서 중요한 자료이다. 얼굴 특징점 추출을 위한 기존 방법은 고가의 모션 캡쳐 장비나 표식을 사용하는 것으로 대상 인물에게 심리적 부담감이나 부자연스러움을 준다. 이에 반해 제안된 알고리즘은 카메라로 취득된 영상에서 영상 처리만으로 얼굴 특징점을 추출함으로써 기존 방법의 문제점을 해결한다. 또한 효율적인 특징점 추출을 위해 특징점 추출의 근원이 되는 기존 얼굴 구성요소 검출 알고리즘의 문제점을 분석하고 개선한다.

감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구 (Study of expression in virtual character of facial smile by emotion recognition)

  • 이동엽
    • 만화애니메이션 연구
    • /
    • 통권33호
    • /
    • pp.383-402
    • /
    • 2013
  • 본 연구에서는 감성 변화에 따라 나타나는 얼굴 표정에 대한 해부학적 접근방식으로 근육 체계에 의해서 부호화하는 얼굴 움직임 부호화 시스템(FACS, Facial Action Coding System)을 얼굴표정에 적용하고 이를 바탕으로 듀센스마일(Duchenne smile)을 가상 캐릭터에 적용하여 검증해 보고자 한다. 인간의 표정을 인식하는 방식이 동일하게 가상의 캐릭터에도 적용된다는 선행연구를 바탕으로 애니메이션, 게임 등의 캐릭터에 보다 사실적인 표정을 담을 수 있는 연구 방식을 제안하고자 한다. 실험을 위해 훈련된 연극전공 학생들에게 정서 유발 실험을 통해 듀센 스마일과 일반 스마일을 추출하였다. 추출된 표정을 바탕으로 얼굴 근육 데이터를 표집하여 입과 입술주변의 근육과 다른 부위의 얼굴 표정 빈도를 산출하여 얻어진 데이터를 가상 캐릭터에 적용해 보았다. 그 결과 미소 표정에서 근육의 움직임은 협골 대근육의 수축으로 인한 입술 끝이 상향운동을 하며 안륜근이 수축하며 뺨이 올라가고 눈의 아래쪽 외측 눈꺼풀이 올라가는 표정이 나타났다. 개방성과 관련된 입주변 근육(AU25, AU26, AU27)과 코주위 근육(AU9)이 함께 협골근과 광대근 주변 근육의 움직임이 표현되었다. 그중 듀센 미소는 협골 대근육과 안륜근이 동시에 움직이는 형태로 발생되었다. 이를 바탕으로 본인의 의지에 의해 수행 가능한 광대근육과 감성적 정서에 공감하여 웃음의 형태로 나타나는 안륜근을 구분하고 이를 가상의 캐릭터의 근육에 적용하여 인간의 표정과 가상의 캐릭터 표정이 서로 구분 가능한지를 설문을 통해 알아보고자 하였다.

모션 데이터의 계층적 가시화에 의한 3차원 아바타의 표정 제어 (Facial Expression Control of 3D Avatar by Hierarchical Visualization of Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권4호
    • /
    • pp.277-284
    • /
    • 2004
  • 본 논문은 사용자로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정 제어기법을 기술한다. 본 시스템에서는 2,40P0여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해하면서 수행한다. 그러나 표정의 수가 너무 많아 사용자가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 2,400여개의 표정들을 이용하여 약 11개의 클러스터센터를 가지도록 클러스터링한다. 클러스터 센터들은 2차원 평면에 표시되며 후보 키 프레임으로 사용된다 사용자는 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 초기 항해경로를 생성한다. 사용자가 줌 인(이산적인 단계를 가지고 있음)을 하면 상세한 단계를 보기를 원한다는 의미이므로 줌 인된 단계에 적합한 표정 클러스터들을 생성한다. 단계가 증가될 때 마다 클러스터의 수를 두 배로 하고, 클러스터의 수만큼 표정들을 클러스터링한다. 사용자는 현재 단계에서 그전 단계의 항해경로를 따라 새로운 키 프레임(클러스터 센터)들을 선택하여 항해경로를 갱신한다. 줌 인을 최대로 한 마지막 단계에서 항해경로를 갱신하면 표정 제어 설정이 끝난다. 사용자는 언제든지 줌 아웃을 통해 그 전단계로 돌아가서 항해경로를 수정할 수 있다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

인간의 감성기호 체계화를 위한 감정영역범주화에 관한 연구 (Research about the Abstraction of Area Typicality of Emotions for Systematization of Human's Sensitivity Symbol)

  • 윤봉식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.137-145
    • /
    • 2005
  • 본 연구는 3D캐릭터 개발에 효율성을 높이고, 보다 인간의 표정에 가까운 캐릭터표정을 제작하기 위하여 실시되었다. 각 연령층별, 성별, 직위 등의 계층으로 각 감정영역을 데이터화하여 하나의 시스템으로 연동되어진다면 애니메이션, 만화, 연기 및 다양한 영상 엔터테인먼트산업과 이에 필요한 인력양성에 고무적인 반향을 일으킬 수 있을 것으로 사료된다. 이에 그 기반연구로 실시된 선행 연구를 바탕으로 이번 연구에서는 연구영역 중 1개 계층 8대 감정영역에 대한 표본연구로 진행하였다. 이로써 인간의 감정과 표현 간에는 일련의 연계성이 존재하며, 특히 표정에서 나타나는 비언어적 감성기호들을 범주화할 수 있다는 가정을 증명할 수 있었다. 그러나 인간의 풍부한 감정은 하나의 자극에 대한 단일감정보다는 다수 또는 지속자극에 대한 복합기호로서 표출되므로 이에 대한 통제는 많은 어려움이 있고, 본 연구에서 제시한 연구 모델은 각 영역별, 척도별 단일 감정에 대한 내용만을 다루기 위해 실험환경을 일부 조작하였다. 본 연구의 결과는 다양한 미디어제작에 필요한 가상캐릭터의 표정, 의인화 등을 위한 주요한 데이터로 활용가능하며, 향후 연구에서는 더 많은 표본에 대한 폭넓은 데이터베이스 구축과 상대적 비교검증이 이루어져야한다.

  • PDF

3D캐릭터콘텐츠제작을 위한 표정에 관한 연구 (A Study on Facial expressions for the developing 3D-Character Contents)

  • 윤봉식;김영순
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 춘계 종합학술대회 논문집
    • /
    • pp.478-484
    • /
    • 2004
  • 이 연구는 비언어적 감성기호인 인간의 표정에 관한 것으로 3D캐릭터콘텐츠제작을 위한 기반 연구로 진행되었다. 인간의 감정과 표현에는 일종의 연계성이 있으며 인간의 표정에 나타나는 감성기호에는 일정한 패턴의 체계가 존재한다. 인간의 풍부하고 복잡 미묘한 감성은 감정이라는 형태로 표출되어지고, 복합적이고 세세한 감정의 형태를 모두 통제하는 것은 불가능하리라 사료되나, 감정의 영역에 대한 적정한 일체화 행위를 통하여 각 감정 영역별 흐름을 찾을 수 있을 것으로 기대된다. 표정 이외의 인간의 다른 행동들 역시 이처럼 특징적인 형태, 유사성 등이 존재하나 본 연구에서는 인간의 표정에 제한하여 연구를 실시하였고, 연구를 통하여 보다 편리한 표정제작에 도움이 될 수 있는 감정의 표출 형태 중 표정의 범주화를 실시코자 한다.

  • PDF

가상 인간의 감정 표현 인식을 위한 비언어적 다중모달 영향 분석 (Impact Analysis of nonverbal multimodals for recognition of emotion expressed virtual humans)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.9-19
    • /
    • 2012
  • 디지털 콘텐츠에서 HCI로 활용되는 가상 인간은 얼굴 표정과 신체자세와 같은 모달을 이용하여 다양한 감정을 표현하지만 비언어적 다중모달의 조합에 대한 연구는 많지 않다. 감정을 표현하는 가상 인간을 제작하려면 계산 엔진 모델은 얼굴 표정과 신체자세와 같은 비언어적 모달의 조합이 사용자에 의해 어떻게 인식되는지를 고려해야 하기 때문에 본 연구는 가상 인간의 감정 표현 디자인에 필요한 비언어적 다중모달의 영향을 분석하여 제시한다. 먼저 가상 인간에 대한 다중모달 별 감정 인식을 평가하여 다른 모달간의 상대적 영향성을 분석하였다. 그리고 일치하는 얼굴과 자세 모달을 통해 기본 감정 및 정서가와 활성화 인식에 대한 영향을 평가하며 감정이 불일치하는 다중모달을 통해 일상생활에서 빈번하게 드러나는 중첩된 감정의 인식 정도를 관측하였다. 실험 결과, 가상 인간의 얼굴과 신체자세의 표정이 일치하면 감정 인식이 용이하며, 얼굴 표정으로 감정 카테고리를 판별하지만 감정의 활성화 차원 판단에는 자세 모달리티가 선호됨을 확인하였다. 본 연구 결과는 감정을 드러내는 가상 인간의 행동 동기화 및 애니메이션 엔진 시스템 구현에 활용할 수 있다.

인체 해부학을 바탕으로 한 3D 캐릭터 애니메이션 제작방법에 관한 연구 (A Study on 3D Character Animation Production Based on Human Body Anatomy)

  • 백승만
    • 디자인학연구
    • /
    • 제17권2호
    • /
    • pp.87-94
    • /
    • 2004
  • 3D 캐릭터 애니메이션은 영화, 광고, 게임, 사이버아이돌 등 다양한 엔터테인먼트 요소로 하여 영상산업에서 중요한 위치를 차지하고 있다. 기술적인 발달로 3D 캐릭터 애니메이션은 다양한 연출과 사실적인 표현이 가능하였지만 인체 해부학적 이해가 없이 캐릭터를 제작한다면 비례와 구조에 맞지 않은 캐릭터가 제작되어 진다. 인체 해부학은 신체구조를 해부학으로 분석하여 캐릭터 모델링 제작에 많은 도움을 주고, 캐릭터 애니메이션을 제작할 때도 신체 움직임이나 얼굴표정을 정밀하게 제작할 수 있는 기본 지식이라 할 수 있다. 이에 본고에서는 인체의 구조와 인체의 비례를 살펴보고 인체 해부학적 이해를 바탕으로 3D 캐릭터 모델링과 애니메이션 제작방법에 중점을 두었다.

  • PDF

페이셜 리그에 대한 페이셜 캡처 데이터의 다이렉트 리타겟팅 방법 (Direct Retargeting Method from Facial Capture Data to Facial Rig)

  • 송재원;노준용
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제22권2호
    • /
    • pp.11-19
    • /
    • 2016
  • 본 논문은 페이셜 캡처 데이터로부터 페이셜 리그에 대한 다이렉트 리타겟팅을 수행하는 새로운 방법론에 대하여 다룬다. 페이셜 리그는 프로덕션 파이프라인에서 아티스트가 손쉽게 페이셜 애니메이션을 제작하기 위하여 만들어진 제작도구로서, 모션 캡처 등으로 생성된 얼굴 애니메이션 데이터를 페이셜 리그에 매핑할 경우 아티스트에게 친숙한 방식으로 손쉽게 수정, 편집할 수 있으므로 작업 능률을 크게 향상시킬 수 있다는 장점이 있다. 그러나, 페이셜 리그는 그 종류와 작동 방식이 매우 다양하므로, 다양한 페이셜 리그에 대하여 강건하고 안정적으로 모션 데이터를 매핑할 수 있는 일반화된 방법을 찾기는 쉽지 않다. 이를 위하여, 본 논문은 캡처된 얼굴 모션 중 몇 개의 대표적 표정에 대하여 아티스트가 페이셜 리그로 제작한 표정을 예제로 학습시키는 데이터 기반 페이셜 리타겟팅 방식을 제안한다. 이를 통하여 우리는 아티스트가 페이셜 캡처 데이터를 기존 애니메이션 파이프라인의 페이셜 리그를 활용하여 손쉽게 수정할 수 있도록 할 뿐 아니라, 수십 수백개의 대응점을 일일이 지정해 주어야 하거나 사람과 많이 다른 동물 및 괴물 형태의 얼굴에는 리타겟팅이 잘 이루어지지 않았던 기존 대응점 기반 리타겟팅 방식의 한계점 또한 극복할 수 있었다. 본 논문의 결과물들은 우리의 방식이 제공하는 단순하면서도 직관적인 얼굴 애니메이션 리타겟팅이 실제 애니메이션 프로덕션에서 얼마나 효율적으로 활용될 수 있는지를 보여준다.