• 제목/요약/키워드: 3D facial expression

검색결과 88건 처리시간 0.031초

3D 캐릭터의 얼굴 블렌드쉐입(blendshape)의 제작연구 -언리얼 엔진의 페이셜 캡처를 중심으로 (A Study on the Fabrication of Facial Blend Shape of 3D Character - Focusing on the Facial Capture of the Unreal Engine)

  • 러우이쓰;최동혁
    • 한국콘텐츠학회논문지
    • /
    • 제22권8호
    • /
    • pp.73-80
    • /
    • 2022
  • 얼굴 표정은 영화나 애니메이션에서 캐릭터의 특징을 나타내기 위한 중요한 수단이며, 페이셜 캡쳐 기술은 3D 캐릭터의 페이셜 애니메이션 제작을 보다 빠르고 효과적으로 지원할 수 있다. 블렌드쉐입(blendshape) 기법은 고품질의 3D 얼굴 애니메이션을 생성하기 위해 가장 널리 사용되는 방법이지만, 전통적인 블렌드쉐입은 제작에 시간이 오래 걸리는 경우가 많다. 따라서 블렌드쉐입의 제작 기간을 줄이기 위해 전통적인 제작의 효과에 크게 뒤지지 않는 결과를 얻으려는 것이 이번 연구의 목적이다. 본문은 블렌드쉐입의 제작을 위해 크로스 모델(Cross-Model)로 블렌드쉐입을 전달 방법을 사용하고, 전통적인 블렌드쉐입의 제작 방법과 비교하여 새로운 방식의 타당성을 검증하였다. 이번 연구는 언리얼 엔진이 개발한 키트 보이(kite boy)를 실험 대상으로 삼고, 각각 두 가지 블렌드쉐입 제작 기법을 사용하여 페이셜 캡처 테스트를 실시하고, 블렌드쉐입과 연동된 얼굴 표정 제작 방법의 효과를 비교 분석하였다.

표정과 동작 데이터의 자동 동기화 기술 (Automatic Synchronization of Separately-Captured Facial Expression and Motion Data)

  • 정태완;박상일
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권1호
    • /
    • pp.23-28
    • /
    • 2012
  • 본 논문은 동작 포착 장비를 통해 각각 따로 포착된 얼굴과 동작 데이터의 자동 동기화 기술에 대해 다룬다. 광학식 동작 포착 기기를 사용할 때 얼굴 표정과 동작의 포착은 별도로 이루어지는 경우가 많으며, 이 경우 두 데이터 간의 동기화 수행하여야 자연스러운 애니메이션을 만들 수 있다. 본 연구에서는 두 데이터 간의 공통 부분인 목 및 얼굴의 전체적인 움직임 데이터를 기준으로 비선형 시간 변형을 통해 동기화를 수행하는 기법을 제안한다. 연구 결과를 간단한 실험 시나리오에 적용하여 기술의 효과성 여부를 검증하였다.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

3D 애니메이션 "인사이드 아웃" 분석을 통한 감성별 캐릭터 외형특징 연구 (A Study on Character's Emotional Appearance in Distinction Focused on 3D Animation "Inside Out")

  • 안덕기;정진헌
    • 디지털융복합연구
    • /
    • 제15권2호
    • /
    • pp.361-368
    • /
    • 2017
  • 본 연구는, 발전하는 3D 애니메이션 영상산업의 캐릭터 개발과 관련하여, 심리변화를 중심으로 감정의 표현방법을 위한 캐릭터의 외형별 특징 분석에 대한 연구로, 2015년 픽사의 인사이드 아웃을 중심으로 심리의 시각적 형태를 위한 5명 캐릭터의 감성별 외형 특징을 대상으로 분석논문을 진행하였다. 이를 위해 선행연구로 인간의 심리적 범주의 변화를 심리학자 Paul Ekman과 Robert Plutchik의 기본감정을 연구배경으로 선택, 이를 바탕으로 애니메이션 인사이드아웃 속 사춘기 소녀의 심리요소를 대표하는 다섯 캐릭터의 외형적 특징 요소를 감성별 표정변화와 감성별 색상변화를 심리적 관점에서 접근, 시각적인 표현의 방식에 대하여 분석하였다. 본 연구는 3D 애니메이션 제작과 관련하여 감성 표현을 통한 캐릭터 설정에 필수적인 외형 특징 연구가 필요하다고 판단, 향후 애니메이션 제작을 위한 차별화된 캐릭터 설정 및 개발에 필요한 가이드라인을 제시하는 것에 본 연구의 목적과 의의를 두었다.

3D 애니메이션 캐릭터의 표정연출을 위한 효율적인 페이셜 리깅 공정 연구 (Study on Effective Facial Rigging Process for Facial Expression of 3D Animation Character)

  • 유지선
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2014년도 추계 종합학술대회 논문집
    • /
    • pp.169-170
    • /
    • 2014
  • 컴퓨터 그래픽의 발달로 3D 애니메이션은 시각적 리얼리티와 화려한 영상미로 애니메이션 특유의 비현실적인 상황과 허구적 캐릭터가 주는 재미를 관객에게 전한다. 특히 캐릭터의 얼굴 표정은 관객과의 감정 소통과 의사전달에 중요한 정보로서 디테일한 연기를 필요로 한다. 이에 3D 애니메이션 캐릭터의 경우 페이셜에 다양한 기능들이 요구되며, 일반적인 블렌드 쉐입과 클러스터 외에도 만화적 표현을 위한 다양한 기술들이 사용된다. 기존의 공정 과정에는 한 페이셜에 이러한 모든 기능들이 접목되어 복잡하며 까다로운 페이셜 리깅 공정이 이뤄진다. 본 연구에서는 기존의 공정들에서 한정되게 사용되었던 블렌드 쉐입을 이용하여 다양한 기능들을 타겟팅하는 레이어 방식을 통해 효율적인 페이셜 리깅 공정을 연구하고자 한다.

  • PDF

얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성 (3D Facial Model Expression Creation with Head Motion)

  • 권오륜;전준철;민경필
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

3D Game 제작을 위한 Character Design에 관한 연구 (3D와 2D Graphics의 결합효율성에 관하여) (A Study on 3D Character Design for Games (About Improvement efficiency with 2D Graphics))

  • 조동민;정성환
    • 한국멀티미디어학회논문지
    • /
    • 제10권10호
    • /
    • pp.1310-1318
    • /
    • 2007
  • 최근 매스컴이나 공영방송에서 예쁜 여자, 멋있는 남자들만이 대우를 받는다는 것이 사회 문제로 대두되어 TV프로의 주제로 다루어진 적이 있습니다. 분명 이러한 편향된 사고방식이 올바르지는 않지만 상대적으로 현대 사회를 살아가는 많은 사람들이 외적 이미지 즉, 1차 적인 시각적 이미지와 효과를 중시하고 있다는 것을 알 수 있습니다. 컴퓨터 영상 게임 역시 유행과 소비자 기호가 빠르게 변화하고 있으며 캐릭터 디자인 역시 빠른 변화를 거듭하고 있습니다. 이러한 급변하는 환경 속에서 디자이너가 창조적이고 효율적인 게임 캐릭터 디자인 개발을 하기 위해서는 이를 뒷받침해줄 수 있는 새로운 프로세스의 개발이 필요합니다. 또한 유저(User)에게 최초의 구매 욕구를 자극하는 첫 번째 수단은 바로 영상 그래픽디자인의 질입니다. 바로 강력한 시각적 효과로써 그래픽의 화면이 더욱 부드럽게, 보다 더 화려한 리얼리티의 실현을 유저(User)들은 바라고 있으며 또한 컴퓨터게임 그래픽 역시 이러한 방향으로 발전해 가고 있습니다. 본 연구에서는 이러한 과정을 3d와 2d의 게임그래픽을 적절히 배합하고 효율적으로 사용하여 디자이너가 3D 캐릭터를 개발하는데 있어서 능력의 한계를 극복하고 최대의 효과를 낼 수 있도록 하는데 그 목적을 두었습니다.

  • PDF

Putting Your Best Face Forward: Development of a Database for Digitized Human Facial Expression Animation

  • Lee, Ning-Sung;Alia Reid Zhang Yu;Edmond C. Prakash;Tony K.Y Chan;Edmund M-K. Lai
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.153.6-153
    • /
    • 2001
  • 3-Dimentional 3D digitization of the human is a technology that is still relatively new. There are present uses such as radiotherapy, identification systems and commercial uses and potential future applications. In this paper, we analyzed and experimented to determine the easiest and most efficient method, which would give us the most accurate results. We also constructed a database of realistic expressions and high quality human heads. We scanned people´s heads and facial expressions in 3D using a Minolta Vivid 700 scanner, then edited the models obtained on a Silicon Graphics workstation. Research was done into the present and potential uses of the 3D digitized models of the human head and we develop ideas for ...

  • PDF

An Action Unit co-occurrence constraint 3DCNN based Action Unit recognition approach

  • Jia, Xibin;Li, Weiting;Wang, Yuechen;Hong, SungChan;Su, Xing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.924-942
    • /
    • 2020
  • The facial expression is diverse and various among persons due to the impact of the psychology factor. Whilst the facial action is comparatively steady because of the fixedness of the anatomic structure. Therefore, to improve performance of the action unit recognition will facilitate the facial expression recognition and provide profound basis for the mental state analysis, etc. However, it still a challenge job and recognition accuracy rate is limited, because the muscle movements around the face are tiny and the facial actions are not obvious accordingly. Taking account of the moving of muscles impact each other when person express their emotion, we propose to make full use of co-occurrence relationship among action units (AUs) in this paper. Considering the dynamic characteristic of AUs as well, we adopt the 3D Convolutional Neural Network(3DCNN) as base framework and proposed to recognize multiple action units around brows, nose and mouth specially contributing in the emotion expression with putting their co-occurrence relationships as constrain. The experiments have been conducted on a typical public dataset CASME and its variant CASME2 dataset. The experiment results show that our proposed AU co-occurrence constraint 3DCNN based AU recognition approach outperforms current approaches and demonstrate the effectiveness of taking use of AUs relationship in AU recognition.

광학식 동작 포착 장비를 이용한 노이즈에 강건한 얼굴 애니메이션 제작 (Noise-Robust Capturing and Animating Facial Expression by Using an Optical Motion Capture System)

  • 박상일
    • 한국게임학회 논문지
    • /
    • 제10권5호
    • /
    • pp.103-113
    • /
    • 2010
  • 본 논문은 얼굴의 표정과 몸 동작을 광학식 동작 포착장비를 활용하여 동시에 포착하는 경우에 있어 얼굴 부위 마커들에 대한 노이즈에 강건한 데이터 처리 방법에 대해 다룬다. 일반적인 얼굴 표정만 포착하는 경우와 달리, 몸의 움직임과 동시에 포착할 경우 포착용 카메라가 멀리 있어 얼굴에 붙인 마커들의 궤적 데이터는 특별한 처리를 요한다. 특히 궤적의 표식화, 빈 곳 메우기, 노이즈 제거의 과정이 필수적이며, 이러한 과정을 위해 본 논문에서는 지역좌표에 기반을 둔 궤적 데이터 처리 방법을 제안한다. 지역 좌표는 강체변형에 불변한 특징이 있으며, 얼굴모양의 국지적인 변화를 의미하여, 궤적 데이터처리에 효과적으로 활용 될 수 있음을 보였다. 또한 제안한 방법을 활용하여 애니메이션을 제작해 실제 제작 환경에 적용 가능함을 보였다.