• 제목/요약/키워드: Facial Animation

검색결과 145건 처리시간 0.03초

얼굴 표정 표현을 위한 얼굴 특징점 추출 (Facial Characteristic Point Extraction for Representation of Facial Expression)

  • 오정수;김진태
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.117-122
    • /
    • 2005
  • 본 논문은 얼굴 특징점 추출을 위한 알고리즘을 제안한다. 얼굴 특징점은 얼굴 애니메이션과 아바타 모방을 위한 표정 표현이나, 얼굴 표정 인식 등에서 중요한 자료이다. 얼굴 특징점 추출을 위한 기존 방법은 고가의 모션 캡쳐 장비나 표식을 사용하는 것으로 대상 인물에게 심리적 부담감이나 부자연스러움을 준다. 이에 반해 제안된 알고리즘은 카메라로 취득된 영상에서 영상 처리만으로 얼굴 특징점을 추출함으로써 기존 방법의 문제점을 해결한다. 또한 효율적인 특징점 추출을 위해 특징점 추출의 근원이 되는 기존 얼굴 구성요소 검출 알고리즘의 문제점을 분석하고 개선한다.

간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 얼굴표정 생성 (The facial expression generation of vector graphic character using the simplified principle component vector)

  • 박태희
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1547-1553
    • /
    • 2008
  • 본 논문은 간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 다양한 얼굴 표정 생성 방법을 제안한다. 먼저 Russell의 내적 정서 상태에 기반하여 재정의된 벡터 그래픽 캐릭터들의 9가지 표정에 대해 주성분 분석을 수행한다. 이를 통해 캐릭터의 얼굴 특성과 표정에 주된 영향을 미치는 주성분 벡터를 찾아내고, 간소화된 주성분 벡터로부터 얼굴 표정을 생성한다. 또한 캐릭터의 특성과 표정의 가중치 값을 보간함으로써 자연스러운 중간 캐릭터 및 표정을 생성한다. 이는 얼굴 애니메이션에서 종래의 키프레임 저장 공간을 상당히 줄일 수 있으며, 적은 계산량으로 중간 표정을 생성할 수 있다. 이에 실시간 제어를 요구하는 웹/모바일 서비스, 게임 등에서 캐릭터 생성 시스템의 성능을 상당히 개선할 수 있다.

감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구 (Study of expression in virtual character of facial smile by emotion recognition)

  • 이동엽
    • 만화애니메이션 연구
    • /
    • 통권33호
    • /
    • pp.383-402
    • /
    • 2013
  • 본 연구에서는 감성 변화에 따라 나타나는 얼굴 표정에 대한 해부학적 접근방식으로 근육 체계에 의해서 부호화하는 얼굴 움직임 부호화 시스템(FACS, Facial Action Coding System)을 얼굴표정에 적용하고 이를 바탕으로 듀센스마일(Duchenne smile)을 가상 캐릭터에 적용하여 검증해 보고자 한다. 인간의 표정을 인식하는 방식이 동일하게 가상의 캐릭터에도 적용된다는 선행연구를 바탕으로 애니메이션, 게임 등의 캐릭터에 보다 사실적인 표정을 담을 수 있는 연구 방식을 제안하고자 한다. 실험을 위해 훈련된 연극전공 학생들에게 정서 유발 실험을 통해 듀센 스마일과 일반 스마일을 추출하였다. 추출된 표정을 바탕으로 얼굴 근육 데이터를 표집하여 입과 입술주변의 근육과 다른 부위의 얼굴 표정 빈도를 산출하여 얻어진 데이터를 가상 캐릭터에 적용해 보았다. 그 결과 미소 표정에서 근육의 움직임은 협골 대근육의 수축으로 인한 입술 끝이 상향운동을 하며 안륜근이 수축하며 뺨이 올라가고 눈의 아래쪽 외측 눈꺼풀이 올라가는 표정이 나타났다. 개방성과 관련된 입주변 근육(AU25, AU26, AU27)과 코주위 근육(AU9)이 함께 협골근과 광대근 주변 근육의 움직임이 표현되었다. 그중 듀센 미소는 협골 대근육과 안륜근이 동시에 움직이는 형태로 발생되었다. 이를 바탕으로 본인의 의지에 의해 수행 가능한 광대근육과 감성적 정서에 공감하여 웃음의 형태로 나타나는 안륜근을 구분하고 이를 가상의 캐릭터의 근육에 적용하여 인간의 표정과 가상의 캐릭터 표정이 서로 구분 가능한지를 설문을 통해 알아보고자 하였다.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

감정 기반 모바일 손제스쳐 애니메이션 제작 시스템 (Emotion Based Gesture Animation Generation Mobile System)

  • 이정숙;변혜원
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.129-134
    • /
    • 2009
  • 최근 모바일의 문자 서비스를 사용하여 사람들과 소통하는 사용자가 늘어나고 있다. 하지만 기존 문자 서비스의 문장과 이모티콘 만으로는 자신의 감정을 정확히 표현하기 어렵다. 이러한 점에 착안하여, 본 논문에서는 문자 내용이 나타내는 감정과 분위기 및 뉘앙스를 정확하고 재미있게 전달하기 위해서 캐릭터 애니메이션을 활용하였다. 문자 내용의 감정을 말보다 역동적이고 뚜렷하게 전달하기 위해서 캐릭터의 얼굴 표정과 손제스쳐로 감정과 내용을 나타내는 감정 기반 모바일 손제스쳐 애니메이션 제작 시스템을 제안한다. Michel[1]등은 화자의 스타일을 나타낸 손제스쳐 애니메이션 제작을 위해서 인터뷰 영상을 분석하고 손제스쳐가 자연스럽게 연결되는 애니메이션 생성을 위한 손제스쳐 생성 그래프를 제안하였다. 본 논문에서는 Michel[1]의 논문을 확장하여 캐릭터의 감정을 손제스쳐로 과장되게 표현한 디즈니 애니메이션에서 단어의 감정을 표현하는 손제스쳐를 추출하고 자연스럽게 연결된 모바일 3차원 애니메이션으로 제작하는 것에 초점을 맞춘다. 특히 입력된 문장의 감정에 맞는 손제스쳐를 선택하는 감정 손제스쳐 생성 그래프를 제안하고 감정의 자연스러운 흐름을 반영하는 방법을 제시한다. 제안된 시스템의 타당성과 기존 서비스와의 대체 적정도를 알아보기 위해서 사용자 반응을 조사 분석한다.

  • PDF

감정변화에 따른 3D캐릭터의 표정연출에 관한 연구 (해부학적 구조 중심으로) (A Study on Effective Facial Expression of 3D Character through Variation of Emotions (Model using Facial Anatomy))

  • 김지애
    • 한국멀티미디어학회논문지
    • /
    • 제9권7호
    • /
    • pp.894-903
    • /
    • 2006
  • 하드웨어의 급속한 기술발전은 3차원 영상정보를 포함한 다양한 디지털 영상정보의 급속한 발전과 확대를 가져왔다. 애니메이션, 가상현실, 영화, 광고, 게임 분야에서도 3차원 디지털 영상처리는 매우 다양하고 광범위하게 사용되고 있다. 이러한 3차원 디지털 영상 속에 등장하는 3D캐릭터는 의인화된 동작이나 음성, 표정등을 통해 관객에게 감동과 정보를 전달하는 중요한 역할을 담당한다. 3D캐릭터의 활용도와 사용범위가 확대되어감에 따라 효과적인 3D캐릭터의 동작연구나 표정연출에 대한 관심도 또한 높아지고 있다. 본 연구에서는 내적감정상태의 효과적 수단으로 사용되는 표정에 대해 연구해본다. 해부학적 구조에 기반한 얼굴근육의 운동방향과 변화에 따른 3D 캐릭터의 표정구현에 대해 살펴보고 효과적인 표현방법을 모색해보고자 한다. 또한 선행연구로 진행된 2D캐릭터 표정연구와의 비교를 통하여 그 차이점과 특징에 대해 살펴보고자 한다.

  • PDF

Orthodromic Transfer of the Temporalis Muscle in Incomplete Facial Nerve Palsy

  • Aum, Jae Ho;Kang, Dong Hee;Oh, Sang Ah;Gu, Ja Hea
    • Archives of Plastic Surgery
    • /
    • 제40권4호
    • /
    • pp.348-352
    • /
    • 2013
  • Background Temporalis muscle transfer produces prompt surgical results with a one-stage operation in facial palsy patients. The orthodromic method is surgically simple, and the vector of muscle action is similar to the temporalis muscle action direction. This article describes transferring temporalis muscle insertion to reconstruct incomplete facial nerve palsy patients. Methods Between August 2009 and November 2011, 6 unilateral incomplete facial nerve palsy patients underwent surgery for orthodromic temporalis muscle transfer. A preauricular incision was performed to expose the mandibular coronoid process. Using a saw, the coronoid process was transected. Three strips of the fascia lata were anchored to the muscle of the nasolabial fold through subcutaneous tunneling. The tension of the strips was adjusted by observing the shape of the nasolabial fold. When optimal tension was achieved, the temporalis muscle was sutured to the strips. The surgical results were assessed by comparing pre- and postoperative photographs. Three independent observers evaluated the photographs. Results The symmetry of the mouth corner was improved in the resting state, and movement of the oral commissure was enhanced in facial animation after surgery. Conclusions The orthodromic transfer of temporalis muscle technique can produce prompt results by applying the natural temporalis muscle vector. This technique preserves residual facial nerve function in incomplete facial nerve palsy patients and produces satisfying cosmetic outcomes without malar muscle bulging, which often occurs in the turn-over technique.

3D 캐릭터의 얼굴 블렌드쉐입(blendshape)의 제작연구 -언리얼 엔진의 페이셜 캡처를 중심으로 (A Study on the Fabrication of Facial Blend Shape of 3D Character - Focusing on the Facial Capture of the Unreal Engine)

  • 러우이쓰;최동혁
    • 한국콘텐츠학회논문지
    • /
    • 제22권8호
    • /
    • pp.73-80
    • /
    • 2022
  • 얼굴 표정은 영화나 애니메이션에서 캐릭터의 특징을 나타내기 위한 중요한 수단이며, 페이셜 캡쳐 기술은 3D 캐릭터의 페이셜 애니메이션 제작을 보다 빠르고 효과적으로 지원할 수 있다. 블렌드쉐입(blendshape) 기법은 고품질의 3D 얼굴 애니메이션을 생성하기 위해 가장 널리 사용되는 방법이지만, 전통적인 블렌드쉐입은 제작에 시간이 오래 걸리는 경우가 많다. 따라서 블렌드쉐입의 제작 기간을 줄이기 위해 전통적인 제작의 효과에 크게 뒤지지 않는 결과를 얻으려는 것이 이번 연구의 목적이다. 본문은 블렌드쉐입의 제작을 위해 크로스 모델(Cross-Model)로 블렌드쉐입을 전달 방법을 사용하고, 전통적인 블렌드쉐입의 제작 방법과 비교하여 새로운 방식의 타당성을 검증하였다. 이번 연구는 언리얼 엔진이 개발한 키트 보이(kite boy)를 실험 대상으로 삼고, 각각 두 가지 블렌드쉐입 제작 기법을 사용하여 페이셜 캡처 테스트를 실시하고, 블렌드쉐입과 연동된 얼굴 표정 제작 방법의 효과를 비교 분석하였다.

사상인 용모분석을 위한 얼굴표준 및 얼굴유형에 대한 연구현황 (The Study of Face Model and Face Type)

  • 편용범;곽창규;유정희;김종원;김규곤;고병희;이의주
    • 사상체질의학회지
    • /
    • 제18권2호
    • /
    • pp.25-33
    • /
    • 2006
  • 1. Objectives Recently there have been studied the trials to take out the characteristics of Sasangin's face. 3 dimensional modeling is essential to find out sasangin's face. So the studies of standard face model and face type are necessary. 2. Methods I have reviewed the researches of standard facial modeling and facial type in the inside and outside of the country. 3. Results and Conclusions The Facial Definition Parameters are a very complex set of parameters defined by MPEG-4. It has defineds set of 84 feature points and 68 Facial Animation Parameters. Face type has been researched to divide into male and female, or the westerns and the orientals, or sasangin(Taeyangin, Taeumin, Soyangin, Soeumin).

  • PDF

3차원 얼굴 표정 추적을 위한 스테레오 시각 모듈 설계 및 구현 (Design and Realization of Stereo Vision Module For 3D Facial Expression Tracking)

  • 이문희;김경석
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.533-540
    • /
    • 2006
  • 본 연구에서는 2개의 CMOS 영상 센서가 탑재된 스테레오 시각 모듈을 사용하여 얼굴 움직임 및 표정을 효과적으로 추적할 수 있는 얼굴용 모션 캡쳐 기술을 제안한다. 제안한 추적 알고리즘에는 신경회로망 기반의 중심점추적기법 및 상관추적기법을 사용한다. 실험 결과, 일반 얼굴 표정에 대해 스테레오 시각 모션 캡쳐를 사용한 두 추적기법 모두 15, 30프레임율에 대해 각각 95.6%, 99.6%의 추적성공률을 가진다는 것을 보여준다. 그러나 '입술 떨림'의 경우, 입술부위는 중심점추적기법(82.7%/15frame, 99.1%/30frame)의 추적성공률이 상관추적기법(78.7%/15frame, 92.7%/30frame)보다 높다는 것을 보여준다.