• 제목/요약/키워드: 3차원 얼굴 애니메이션

검색결과 47건 처리시간 0.021초

웹기반 3차원 얼굴 모델링 시스템 (Web-based 3D Face Modeling System)

  • 김응곤;송승헌
    • 한국정보통신학회논문지
    • /
    • 제5권3호
    • /
    • pp.427-433
    • /
    • 2001
  • 본 연구에서는 기존의 방법에 비하여 3차원 스캐너나 카메라를 이용하지 않고 비용과 노력을 크게 절감하면서 실감나는 얼굴 모델링을 효율적으로 수행하는 웹 기반 3차원 얼굴 모델링 시스템을 제안한다. 고가의 영상입력장비를 이용하지 않고 정면과 측면사진영상을 이용하여 3차원 얼굴모델을 만들 수 있다. 특정한 플랫폼과 소프트웨어에 독립적으로 웹상에서 얼굴 모델링 서버에 접속함으로써 3차원 얼굴모델을 만들 수 있도록 설계하였다. 얼굴모델러의 3차원 그래픽스 관련 모듈은 개발된 그래픽 라이브러리들의 특징과 편리함을 제공하는 자바 3B API를 이용하여 개발 중이다. 이 얼굴 모델링 시스템은 클라이언트/서버구조로 되어있다. 클라이언트측의 사용자가 본 시스템에 접속하면 자바 애플릿의 얼굴모델러가 실행되며, 사용자는 두 장의 사진을 입력으로 하여 웹브라우저만으로 절차에 따라서 3차원 얼굴 모델을 생성하게 된다.

  • PDF

정서-색채 이론에 기반한 게임 캐릭터의 동적 얼굴 색 제어 (Facial Color Control based on Emotion-Color Theory)

  • 박규호;김태용
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1128-1141
    • /
    • 2009
  • 게임 산업이 성장하면서 게임 그래픽 분야는 가장 빠르게 발전하고 있으며 지금은 실제 사진과 컴퓨터 그래픽을 구분하기 힘든 정도로 그래픽 기술은 양적으로나 질적으로 성장했다. 그러나 이러한 발전에도 불구하고 새롭게 출시되는 게임에 등장하는 캐릭터는 정서를 표현하지 않거나 소극적으로 표현하고 있다. 일반적으로 사람들은 얼굴의 표정이나 얼굴의 색(안색)에서 많은 정서 정보를 인지하는 것은 누구나 아는 사실이다. 그러므로 컴퓨터의 게임 환경에서 등장하는 캐릭터에게도 얼굴의 색의 변화를 통하여 유저에게 게임의 사실적인 느낌을 줄 수 있다. 본 논문에서는 기존의 맥박과 피부 온도만을 이용한 방법과는 다른 인간의 정서 이론을 기반한 정서 모형과 애니메이션의 정서표현 색 그리고 성격이론을 기반한 정서의 반응 속도를 결합하여 게임 캐릭터의 얼굴의 색을 동적으로 변화시켜 정서를 표현할 수 있는 얼굴 색 적응 기술 (Facial Color Adaptive Technique: FCAT)를 제안한다. 실제 얼굴 색 적응 기술을 이용하여 만든 얼굴색 모형(Facial Color Model : FCM)과 애니메이션 콘텐츠의 정서표현을 비교한 결과 정서 표현 색상과 변화율이 애니메이션과 유사하게 시뮬레이션 되었다. 또한 2차원 이미지뿐만 아니라 3차원 이미지에도 적용이 가능함을 확인 하였다.

  • PDF

현실감 있는 3차원 얼굴 애니메이션을 위한 실시간 표정 제어 (A Realtime Expression Control for Realistic 3D Facial Animation)

  • 김정기;민경필;전준철;최용길
    • 인터넷정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.23-35
    • /
    • 2006
  • 본 논문에서는 실시간으로 입력되는 동영상으로부터 영상 내에 존재하는 사람의 얼굴 및 얼굴 특징점들을 자동으로 추출한 후, 추출된 정보를 이용하여 3차원 얼굴 모델의 표정을 실시간으로 제어함으로써 현실감 있는 얼굴 애니메이션 처리가 가능한 새로운 방법을 제시한다. 입력 영상의 각 프레임으로부터 얼굴을 효과적으로 추출하기 위해 기존에 일반적으로 사용되는 색상 공간을 이용한 파라미터 검출 방법에 대변되는 새로운 비파라미터 검출 방법을 제시하였다. 기존의 파라미터 검출 방법은 일반적으로 얼굴의 피부 색상분포를 가우지언 형태로 표현하며 특히 주변조명의 변화 및 배경 영상 등에 민감하게 반응하므로 정화한 영역의 검출을 위한 부가적 작업을 필요로 한다. 이러한 문제점을 효과적으로 해결하기 위하여 본 논문에서는 Hue와 Tint 색상 성분에 기반을 둔 새로운 스킨 색상 공간을 제시하고 모델의 분포특성을 직선 형식으로 표현하여 얼굴검출 시 발생되는 오류를 축소시킬 수 있었다. 또한, 검출된 얼굴 영역으로부터 정확한 얼굴특성 정보를 추출하기 위하여 각 특징영역에 대한 에지검색 결과와 얼굴의 비율 비를 적용하여 효과적으로 얼굴의 특징 영역을 검출하였다. 추출된 얼굴 특징점 변화 정보는 3차원 얼굴 모델의 실시간 표정 변화에 적용되며, 보다 실감 있는 얼굴 표정을 생성하기위하여 사람의 근육 정보와 근육의 움직이는 방법을 나타내는 Waters의 선형 근육 모델에 새로운 근육 정보들을 새롭게 추가함으로써 화장 적용하였다. 실험결과 제안된 방법을 이용하여 실시간으로 입력되는 대상의 얼굴표정을 3차원 얼굴 모델에 자연스럽게 표현할 수 있다.

  • PDF

3차원동작측정에 의한 얼굴 표정의 분석 (Analysis of facial expressions using three-dimensional motion capture)

  • 박재희;이경태;김봉옥;조강희
    • 대한인간공학회:학술대회논문집
    • /
    • 대한인간공학회 1996년도 추계학술대회논문집
    • /
    • pp.59-65
    • /
    • 1996
  • 인간의 얼굴 표정은 인간의 감성이 가장 잘 나타나는 부분이다 . 따라서 전통적으로 인간의 표정을 감 성과 연관 지어 연구하려는 많은 노력이 있어 왔다. 최근에는 얼굴 온도 변화를 측정하는 방법, 근전도(EMG; Electromyography)로 얼굴 근육의 움직임을 측정하는 방법, 이미지나 동작분석에 의한 얼굴 표정의 연구가 가능 하게 되었다. 본 연구에서는 인간의 얼굴 표정 변화를 3차원 동작분석 장비를 이용하여 측정하였다. 얼굴 표정 의 측정을 위해 두가지의 실험을 계획하였는데, 첫번 째 실험에서는 피실험자들로 하여금 웃는 표정, 놀라는 표정, 화난 표정, 그리고 무표정 등을 짓게 한 후 이를 측정하였으며, 두번째 실험에스는 코미디 영화와 공포 영화를 피 실험자들에게 보여 주어 피실험자들의 표정 변화를 측정하였다. 5명의 성인 남자가 실험에 참여하였는데, 감성을 일으킬 수 있는 적절한 자극 제시를 못한 점 등에서 처음에 기도했던 6개의 기본 표정(웃음, 슬픔, 혐오, 공포, 화남, 놀람)에 대한 모든 실험과 분석이 수행되지 못했다. 나머지 부분을 포함한 정교한 실험 준비가 추후 연구 에서 요구된다. 이러한 연구는 앞으로 감성공학, 소비자 반응 측정, 컴퓨터 애니메이션(animation), 정보 표시 장치(display) 수단으로서 사용될 수 있을 것이다.

  • PDF

<한국어 립씽크를 위한 3D 디자인 시스템 연구> ()

  • 신동선;정진오
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 2부
    • /
    • pp.362-369
    • /
    • 2006
  • 3 차원 그래픽스에 적용하는 한국어 립씽크 합성 체계를 연구하여, 말소리에 대응하는 자연스러운 립씽크를 자동적으로 생성하도록 하는 디자인 시스템을 연구 개발하였다. 페이셜애니메이션은 크게 나누어 감정 표현, 즉 표정의 애니메이션과 대화 시 입술 모양의 변화를 중심으로 하는 대화 애니메이션 부분으로 구분할 수 있다. 표정 애니메이션의 경우 약간의 문화적 차이를 제외한다면 거의 세계 공통의 보편적인 요소들로 이루어지는 반면 대화 애니메이션의 경우는 언어에 따른 차이를 고려해야 한다. 이와 같은 문제로 인해 영어권 및 일본어 권에서 제안되는 음성에 따른 립싱크 합성방법을 한국어에 그대로 적용하면 청각 정보와 시각 정보의 부조화로 인해 지각의 왜곡을 일으킬 수 있다. 본 연구에서는 이와 같은 문제점을 해결하기 위해 표기된 텍스트를 한국어 발음열로 변환, HMM 알고리듬을 이용한 입력 음성의 시분할, 한국어 음소에 따른 얼굴특징점의 3 차원 움직임을 정의하는 과정을 거쳐 텍스트와 음성를 통해 3 차원 대화 애니메이션을 생성하는 한국어 립싱크합성 시스템을 개발 실제 캐릭터 디자인과정에 적용하도록 하였다. 또한 본 연구는 즉시 적용이 가능한 3 차원 캐릭터 애니메이션뿐만 아니라 아바타를 활용한 동적 인터페이스의 요소기술로서 사용될 수 있는 선행연구이기도 하다. 즉 3 차원 그래픽스 기술을 활용하는 영상디자인 분야와 HCI 에 적용할 수 있는 양면적 특성을 지니고 있다. 휴먼 커뮤니케이션은 언어적 대화 커뮤니케이션과 시각적 표정 커뮤니케이션으로 이루어진다. 즉 페이셜애니메이션의 적용은 보다 인간적인 휴먼 커뮤니케이션의 양상을 지니고 있다. 결국 인간적인 상호작용성이 강조되고, 보다 편한 인간적 대화 방식의 휴먼 인터페이스로 그 미래적 양상이 변화할 것으로 예측되는 아바타를 활용한 인터페이스 디자인과 가상현실 분야에 보다 폭넓게 활용될 수 있다.

  • PDF

LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어 (Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.117-124
    • /
    • 2007
  • 본 논문은 얼굴 모션 캡쳐 데이터를 재사용하여 실시간 표정 제어 및 표정 애니메이션을 생성하기 위한 방법론을 기술한다. 이 방법의 핵심요소는 얼굴 표정들을 정의할 수 있는 표정상태 표현법을 정하고, 이를 LLE 알고리즘에 적용하여 표정들을 적당한 공간에 분포시키는 방법론과, 이 공간을 사용하여 실시간 표정 애니메이션 생성 및 표정제어를 수행하기 위한 사용자 인터페이스 기법이다. 본 논문에서는 약 2400개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하고, 애니메이터가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되거나 표정제어가 가능하도록 하였다. 약 2400개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 얼굴 표정 프레임 데이터로부터 얼굴 표정상태를 표현할 필요가 있고, 이를 위해서는 임의의 두 마커 사이의 거리들로 구성된 거리행렬 벡터를 이용한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정상태벡터들의 집합을 LLE 알고리즘에 적용하고, 이로부터 2차원 평면에 균일하게 분포하였다. 본 논문에서는 애니메이터로 하여금 사용자 인터페이스를 사용하여 실시간으로 표정 애니메이션을 생성하거나 표정제어를 수행하도록 하였으며, 그 결과를 평가한다.

청각장애우의 언어교육을 위한 캐릭터 구화 애니메이션 시스템 (A Character Speech Animation System for Language Education for Each Hearing Impaired Person)

  • 원용태;김하동;이말례;장봉석;곽훈성
    • 디지털콘텐츠학회 논문지
    • /
    • 제9권3호
    • /
    • pp.389-398
    • /
    • 2008
  • 청각장애우들과 일반인과의 커뮤니케이션을 위한 구화체계가 연구되고 있지만 사회적인 무관심과 시장성의 결여로 기존 교사가 일일이 지도하는 비효율적 교육 방식으로 진행되고 있다. 이러한 단점을 극복하기위하여 3차원 애니메이션 및 디지털 테크놀로지 기술을 활용한 콘텐츠를 개발이 필요하다. 캐릭터 제작을 위한 표준얼굴 및 표준구형 조사를 위해 국내 서울 및 경기지역 초등학교 $3{\sim}6$학년 학생의 얼굴관련 데이터를 충분히 수집하여 해당 연령층 학생들의 얼굴과 구형에 대한 표준을 도출하였다. 이러한 자료는 청각장애우를 위한 콘텐츠개발의 기초자료 뿐 아니라 실질적으로 적용할 수 있는 표준치수 및 표준 형태를 제공할 수 있다. 캐릭터 구화 애니메이션 시스템은 3D캐릭터 애니메이션을 응용하여 대화를 이해하고 자신의 의사표현을 교육하는 시스템으로 3D 기술과 모션캡쳐를 접목시켜 가정 및 특수교육 기관에서 언어교육이 필요한 청각장애아동들의 언어교육에 효과적인 학습을 지원한다.

  • PDF

FAES : 감성 표현 기법을 이용한 얼굴 애니메이션 구현 (On the Implementation of a Facial Animation Using the Emotional Expression Techniques)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.147-155
    • /
    • 2005
  • 본 논문은 여러 가지 감정들 중에서 4가지 감정의 범주 즉, 중성, 두려움, 싫증 및 놀람을 포함한 음성과 감성이 결합되어진 얼굴의 표정을 좀 더 정확하고 자연스러운 3차원 모델로 만들 수 있는 FAES(a Facial Animation with Emotion and Speech) 시스템을 구축하는데 그 주된 목적이 있다. 이를 위해서 먼저 사용할 훈련자료를 추출하고 난후에 감성을 처리한 얼굴 애니메이션에서는 SVM(Support vector machine)[11]을 사용하여 4개의 감정을 수반한 얼굴 표정을 데이터베이스로 구축한다. 마지막으로 얼굴 표정에 감정과 음성이 표현되는 시스템을 개발하는 것이다. 얼굴 표정을 위해서 본 논문에서는 한국인 청년을 대상으로 이루어졌다. 이런 시스템을 통한 결과가 기존에 제시된 방법에 비해서 감정의 영역을 확대시킴은 물론이고 감정인지의 정확도가 약 7%, 어휘의 연속 음성인지가 약 5%의 향상을 시켰다.

  • PDF

사용자 인터페이스 에이젼트 환경을 위한 국어 발음 애니메이션 (Korean Talking Animation for User Interface Agent Environment)

  • 최승걸;이미승;김웅순
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1996년도 제8회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.284-297
    • /
    • 1996
  • 사용자가 컴퓨터와 자연스럽고 인간적으로 대화할 수 있고, 사람의 요구에 지능적인 해답을 능동적으로 제시할 수 있는 사용자 인터페이스 에이전트가 활발히 연구되고 있다. 음성, 펜, 제스쳐인식 등을 비롯한 다양한 방법을 통하여 사람의 의사전달방식을 컴퓨터의 입력수단으로 구현하여 사용자 편의성을 도모하고 있다. 본 논문에서는 컴퓨터를 블랙박스로 하고, 표면적으로 지능형 3차원 그래픽 얼굴 에이전트와 사용자가 의사소통을 하는 사용자 인터페이스를 대상으로 하였다. 컴퓨터가 단순문제 해결을 위한 도구에서 많은 정보를 다양한 매체를 통해 제공하는 보조자의 역할을 수행하게 되었기 때문에 위의 방법은 보다 적극적인 방법이라 할 수 있다. 이를 위한 기반 기술로써 국어를 발음하는 얼굴 애니메이션을 연구하였다. 발음을 표현하기 위한 데이터로써 디지털 카메라를 사용하여 입술 운동의 특징점의 위치를 조사하였고, 모델링 시스템을 개발하여 데이터를 입력하였다. 적은 데이터로도 복잡한 자유곡면을 표현할 수 있는 B-Spline곡면을 기본데이터로 사용하였기 때문에 애니메이션을 위한 데이터의 양 또한 줄일 수 있었다. 그리고 국어음소의 발음시간 수열에 대한 입술모양의 변화를 조사하여 발음소리와 입술 움직임을 동기화 시킨 발음 애니메이션을 구현하였다.

  • PDF

표정과 동작 데이터의 자동 동기화 기술 (Automatic Synchronization of Separately-Captured Facial Expression and Motion Data)

  • 정태완;박상일
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권1호
    • /
    • pp.23-28
    • /
    • 2012
  • 본 논문은 동작 포착 장비를 통해 각각 따로 포착된 얼굴과 동작 데이터의 자동 동기화 기술에 대해 다룬다. 광학식 동작 포착 기기를 사용할 때 얼굴 표정과 동작의 포착은 별도로 이루어지는 경우가 많으며, 이 경우 두 데이터 간의 동기화 수행하여야 자연스러운 애니메이션을 만들 수 있다. 본 연구에서는 두 데이터 간의 공통 부분인 목 및 얼굴의 전체적인 움직임 데이터를 기준으로 비선형 시간 변형을 통해 동기화를 수행하는 기법을 제안한다. 연구 결과를 간단한 실험 시나리오에 적용하여 기술의 효과성 여부를 검증하였다.