• 제목/요약/키워드: 아바타의 표정 변화

검색결과 15건 처리시간 0.019초

실시간 감정 표현 아바타의 설계 및 구현 (Design and Implementation of a Real-Time Emotional Avatar)

  • 정일홍;조세홍
    • 디지털콘텐츠학회 논문지
    • /
    • 제7권4호
    • /
    • pp.235-243
    • /
    • 2006
  • 본 논문에서는 얼굴의 표정 변화를 인식하여 실시간으로 감정을 표현하는 아바타를 설계하고 구현하는 방법을 제안하였다. 실시간 감정 표현 아바타는 수동으로 아바타의 표정 패턴을 변화를 주는 것이 아니라 웹캠을 이용하여 실시간으로 입 모양 특징을 추출하고 추출한 입 모양의 패턴을 분석한 뒤, 미리 정의된 표정 패턴에 부합되는 것을 찾는다. 그리고 부합된 표정 패턴을 아바타에 적용하여 아바타의 얼굴 표정을 표현한다. 표정 인식 아바타는 웹캠에서 들어온 영상을 모델 접근 방법을 이용하여 보다 빠르게 입 부분을 인식할 수 있도록 하였다. 그리고 표정 패턴 추출은 표정에 따라 입 모양이 변하는 것을 이용하였다. 모델접근 방법을 이용하여 눈의 정보를 찾은 후 그 정보를 이용하여 입 모양을 추출하게 된다. 기본적으로 13가지 입 모양으로 각각의 표정을 유추하고 각 표정 패턴에 맞는 6개의 아바타를 미리 구현하여 보다 빠르게 아바타의 표정을 변할 수 있게 하였다.

  • PDF

FCM 클러스터링을 이용한 표정공간의 단계적 가시화 (Phased Visualization of Facial Expressions Space using FCM Clustering)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제8권2호
    • /
    • pp.18-26
    • /
    • 2008
  • 본 논문은 사용자로 하여금 표정공간으로부터 일련의 표정들을 선택하게 함으로써 3차원 아바타의 표정을 제어할 수 있는 표정공간의 단계적 가시화 기법을 기술한다. 본 기법에 의한 시스템은 무표정 상태를 포함하여 11개의 서로 다른 모션들로 구성된 2400여개의 표정 프레임으로 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해함으로서 수행되어진다. 그러나 표정공간에서는 과격한 표정 변화에서부터 세밀한 표정 변화까지 다양한 표정 제어를 수행할 수 있어야하기 때문에 단계적 가시화 기법이 필요하다. 표정공간을 단계적으로 가시화하기 위해서는 퍼지 클러스터링을 이용한다. 초기 단계에서는 11개의 클러스터 센터를 가지도록 클러스터링하고, 단계가 증가될 때 마다 클러스터 센터의 수를 두 배씩 증가시켜 표정들을 클러스터링한다. 이때 클러스터 센터와 표정공간에 분포된 표정들의 위치는 서로 다른 경우가 많기 때문에, 클러스터 센터에서 가장 가까운 표정상태를 찾아 클러스터 센터로 간주한다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 단계적 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

3차원 아바타의 실시간 얼굴표정제어를 위한 표정공간의 생성방법 (Generation Method of Expression Space for Realtime Facial Expression Control of 3D Avatar)

  • 김성호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (A)
    • /
    • pp.109-111
    • /
    • 2006
  • 본 논문은 애니메이터로 하여금 얼굴 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정을 실시간적으로 제어할 수 있도록 하기 위한 표정공간의 생성방법에 관하여 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정이 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 한 표정에서 다른 표정까지 거쳐 갈 수 있는 경로를 캡쳐된 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정 제어는 애니메이터들이 표정공간을 항해할 때 실시간적으로 수행된다. 이를 도와주기 위해 표정공간을 차원 스케일링 기법을 이용하여 2차원 공간으로 가시화하였고, 애니메이터들로 하여금 본 시스템을 사용하여 실시간 표정 제어를 수행하게 했는데, 본 논문은 그 결과를 평가한다.참여하는 빈들 간의 관계를 분석하여 워크플로우에 대한 성능 측정이 가능하도록 한다. 또한 제안된 메트릭을 통하여 EJB 어플리케이션의 성능 향상을 도모할 수 있도록 한다.로 표면 위로 자라났고, 부종은 창상 밑 조직까지 감소하였으며, 육아조직은 교원질 섬유로 대체되었다. 창상 유발 21일 후, 다른 창상에 비해, HG 처치창은 유의적으로 창상 표면이 거의 재생성 상피로 덮였으며, 육아조직은 창상 유발 14일 후와 비교해서 유의적으로 교원질 섬유로 대체되었다. 위의 모든 결과에서 보듯이, 개에서 전층피부 창상의 처치 시 HG의 사용은 HC와 생리 식염수에 비해 창상치유 복구기의 치유 속도를 촉진하는 것으로 사료된다.시범학교의 자녀를 들 부모들은 환경관련문제에 대한 의식 및 환경관련 제품에 대한 구매행동의 변화가 두드러지게 나타났다.EX>$d^{2+}$ + SA처리구는 두 화합물의 이중 효과에 의해 전반적인 생리 활성을 억제하여, 결국에는 식물의 고사를 유도하는 것으로 사료된다.목에 대한 보안'이 가장 중요한 것으로 나타났다. 본 연구에서는 솔루션 선정요인에 관한 중요도를 e-마켓플레이스의 유형과 산업 별로 평가해보았는데, 여기에서 밝혀진 중요도를 통해 e 마켓플레이스를 구축하고 자 하는 기업은 솔루션을 자체 개발하거나 구입할 때 올바른 의사결정을 할 수 있다. 그리고 솔루션을 제공하려는 기업측면에서는 e-마켓플레이스를 구축하고자 하는 기업에게 유형과 산업별로 적절한 솔루션을 제공할 수 있다.순환이 뇌대사 및 수술 후 신경학적 결과에 보다 유익한 효과를 제공해 줄 수 있음

  • PDF

실시간 아바타 표정 제어를 위한 SVM 기반 실시간 얼굴표정 인식 (SVM Based Facial Expression Recognition for Expression Control of an Avatar in Real Time)

  • 신기한;전준철;민경필
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1057-1062
    • /
    • 2007
  • 얼굴표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI(Human Computer Interaction) 등 다양한 분야에서 중요성이 증가하고 있다. 얼굴표정은 사람의 감정 표현, 관심의 정도와 같은 사회적 상호작용에 있어서 중요한 정보를 제공한다. 얼굴표정 인식은 크게 정지영상을 이용한 방법과 동영상을 이용한 방법으로 나눌 수 있다. 정지영상을 이용할 경우에는 처리량이 적어 속도가 빠르다는 장점이 있지만 얼굴의 변화가 클 경우 매칭, 정합에 의한 인식이 어렵다는 단점이 있다. 동영상을 이용한 얼굴표정 인식 방법은 신경망, Optical Flow, HMM(Hidden Markov Models) 등의 방법을 이용하여 사용자의 표정 변화를 연속적으로 처리할 수 있어 실시간으로 컴퓨터와의 상호작용에 유용하다. 그러나 정지영상에 비해 처리량이 많고 학습이나 데이터베이스 구축을 위한 많은 데이터가 필요하다는 단점이 있다. 본 논문에서 제안하는 실시간 얼굴표정 인식 시스템은 얼굴영역 검출, 얼굴 특징 검출, 얼굴표정 분류, 아바타 제어의 네 가지 과정으로 구성된다. 웹캠을 통하여 입력된 얼굴영상에 대하여 정확한 얼굴영역을 검출하기 위하여 히스토그램 평활화와 참조 화이트(Reference White) 기법을 적용, HT 컬러모델과 PCA(Principle Component Analysis) 변환을 이용하여 얼굴영역을 검출한다. 검출된 얼굴영역에서 얼굴의 기하학적 정보를 이용하여 얼굴의 특징요소의 후보영역을 결정하고 각 특징점들에 대한 템플릿 매칭과 에지를 검출하여 얼굴표정 인식에 필요한 특징을 추출한다. 각각의 검출된 특징점들에 대하여 Optical Flow알고리즘을 적용한 움직임 정보로부터 특징 벡터를 획득한다. 이렇게 획득한 특징 벡터를 SVM(Support Vector Machine)을 이용하여 얼굴표정을 분류하였으며 추출된 얼굴의 특징에 의하여 인식된 얼굴표정을 아바타로 표현하였다.

  • PDF

모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어 (Facial Expression Control of 3D Avatar using Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권5호
    • /
    • pp.383-390
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간 적으로 선택하게 함으로써 3차원 아바타의 얼굴 표정을 제어하는 기법을 제안하고, 해당 시스템을 구축한다. 본 시스템에서는 얼굴 모션 캡쳐 데이터로 구성된 2400여개의 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정에서 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 이 경로를 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 원하는 표정을 실시간 적으로 선택함으로써 제어한다. 이를 도와주기 위해 표정공간을 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화 했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 해본 결과, 3차원 아바타의 실시간 얼굴 표정 제어가 필요한 각 분야에서 매우 유용하게 사용될 것으로 판단되었다.24시간 경과시킨 후 치아의 장축에 따라 절단하여 침투된 색소의 정도를 광학현미경상에서 40배로 관찰하였다. 각각의 실험결과는 ANOVA/Tukey's test 및 Kruskal-Wallis non-parametric independent analysis와 Mann-Whitney U test에 의하여 통계 분석하여 다음과 같은 결론을 얻었다. 1. 대조군에 있어서 혼합형 복합레진의 미세인장 결합강도는 미세혼합형에 비하여 높았으며, 실험군 사이에는 유의차를 보이지 않았다. 2.모든 복합레진의 미세인장 결합강도는 와동의 C-factor증가에 따라 감소하는 경향을 나타내었고, 혼합형 복합레진의 실험군은 대조군에 비하여 낮게 나타났으며, 미세혼합형 복합레진에서는 유의차를 보이지 않았다. 3. 절단측 및 치은측 변연부의 미세누출정도는 혼합형 복합레진이 미세혼합형에 비하여 대체로 높게 나타났다. 4. 모든 실험군에서 미세누출은 C-factor증가에 따라 증가하였고 절단측에 비하여 치은측 변연이 높게 나타났으나 통계학적 유의차는 보이지 않았다. C-factor의 변화에 대하여 필러함량과 탄성계수가 높은 혼합형 복합레진이 미세혼합형에 비하여 더 민감한 결과를 보인다. 이는 복합레진 수복시 재료의 선택과 중합수축의 적절한 조절이 중요한 요소임을 시사한다.s에서는 1주, 2주에서 강한 염증반응을 보였으나 12주에서는 염증반응이 감소하였다. 4) 새로 개발된 봉함제 Adseal-1,2는 1주, 2주에서는 가장 약한 염증반응을 보이나 4주, 12주 후에는 AH Plus와 비슷한 수준의 염증 반응을 보였다. 5) Pulp Canal Sealer를 제외한 모든 군에서 인정할 만한 생체친화성을 보였다. 6)

한글 입술 움직임과 얼굴 표정이 동기화된 3차원 개인 아바타 대화방 시스템 (Supporting the Korean Lip Synchronization and Facial Expression)

  • 이정;오범수;정원기;김창헌
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (B)
    • /
    • pp.640-642
    • /
    • 2000
  • 대화방 시스템은 텍스트화 화상을 이용한 대화방 또는 메시지 전달시스템이 널리 사용되고 있다. 본 논문은 3차원 아바타가 등장하는 대화방 시스템을 생성 및 관리하는 기술을 제안한다. 본 아바타 대화방의 특징은 사진을 가지고 간단히 3차원 개인 아바타로 변환 생성하는 기술, 3차원 개인 아바타의 한글 발음에 적합한 입술 움직임, 메시지에 따른 적절한 표정변화 등이다. 특히, 3차원 개인 아바타는 사진만으로 생성이 가능하며, 텍스쳐 매핑된 3차원 아바타는 실시간으로 사실감있는 대화방 서비스가 가능하도록 제어된다.

  • PDF

동적 감성 공간에 기반한 감성 표현 시스템 (Emotional Expression System Based on Dynamic Emotion Space)

  • 변광섭;박창현;심귀보;정인철;함호상
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 추계학술대회 학술발표 논문집 제14권 제2호
    • /
    • pp.130-133
    • /
    • 2004
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니고 다양한 감정의 복합으로, 눈에 띄는 강정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion Space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 키리 설정된 몇개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제로 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion space를 이용한 감성 표현 시스템의 성능을 입증한다.

  • PDF

감정 표현이 가능한 실시간 반응형 그림자 아바타 (A Real-time Interactive Shadow Avatar with Facial Emotions)

  • 임양미;이재원;홍의석
    • 한국멀티미디어학회논문지
    • /
    • 제10권4호
    • /
    • pp.506-515
    • /
    • 2007
  • 본 논문에서는 사용자의 동작에 대한 반응으로 표정을 변화하여 감정을 표현할 수 있는 실시간 반응형 그림자 아바타인 RISA(Real-time Interactive Shadow Avatar)를 제안한다. 아바타 형태는 사용자의 실사로부터 실시간으로 추출한 가상의 그림자를 사용하며, 손동작의 유형에 따라 변화하는 표정 애니메이션이 그림자의 얼굴 위치에 겹쳐지도록 하였다. 가상 그림자의 추출을 위해서는 배경 차분화 기법을 사용하며, 머리위치 및 손동작의 추적 및 유형 탐지를-위해-단순화된 영역 단위 추적 기법을 사용하였다. 또한 표정의 자연스러운 변화를 표현하기 위해 표정 애니메이션은 기존의 동적 이모티콘보다 많은 수의 애니메이션 프레임들을 사용하는 변형된 모핑 기법을 적용하였다. RISA는 인터페이스 미디어 아트 분야에 직접 응용될 수 있을 것이며, RISA에 적용된 탐지 기법은 향후 입력 장치의 간결성이 요구되는 DMB나 카메라폰 등을 위한 대체 인터페이스에도 활용될 수 있을 것이다.

  • PDF

동적 감성 공간에 기반한 감성 표현 시스템 (Emotional Expression System Based on Dynamic Emotion Space)

  • 심귀보;변광섭;박창현
    • 한국지능시스템학회논문지
    • /
    • 제15권1호
    • /
    • pp.18-23
    • /
    • 2005
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니라 다양한 감정의 복합으로, 눈에 띄는 감정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 미리 설정된 몇 개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제의 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion spaces를 이용한 감성 표현 시스템의 성능을 입증한다.

영상통신 감성융합 서비스를 위한 실시간 아바타 정합기술 (Emotion fusion video communication services for real-time avatar matching technology)

  • 오동식;강준규;신민호
    • 디지털융복합연구
    • /
    • 제10권10호
    • /
    • pp.283-288
    • /
    • 2012
  • 현재 전 세계적으로 미래 수익 사업의 일환으로 각광받고 있는 분야 중 하나는 3D이다. 3D는 현실세계와 가상현실 세계의 차원을 함께 공존시켜주며 형태 및 질감 등을 느낄 수 있게 해주어 기존의 평면적인 2D에서 입체적인 3D로 변화하고 공존의 시대적 현실을 잘 보여주고 있기 때문이다. 3D에 대한 사람들의 관심은 3D아바타를 바탕으로 하는 영화를 통하여 확산되었다. 또한 현재 대기업들의 3D TV 시장으로의 시장 변화 역시 3D시장의 개척에서 도약의 시대로 한층 더 업그레이드 시키게 되었다. 또한 이와 동시에 세계의 현대인이라면 필수품이 되어가고 있는 스마트폰의 열풍 또한 새로운 핸드폰 시장과 IT 시장의 혁신을 이루었으며. 스마트 폰은 작은 컴퓨터라 불릴 정도로, 그 파급속도와 여파는 전화, 인터넷의 혁신만큼 많은 이슈를 남기고 있다. 스마트폰은 말 그대로 똑똑한 폰으로 여러 가지 기능을 할 수 있는 핸드폰이다. 현재 iPhone, Android. Windows Phone외에 다수의 스마트폰이 출시되어 있다. 위의 전체적인 향후의 전망과 비즈니스 서비스 모델을 위하여 스마트폰에 가상의 3D캐릭터를 카메라로 입력받아 3D 표정아바타를 사람의 얼굴에 합성할 수 있고 카메라로 사용자의 감성 표정을 인식하여 합성된 아바타를 실시간 다른 휴대전화 사용자에게 정합, 전송, 통신 할 수 있는 실시간 감성융합 영상통신 서비스 어플리케이션의 개발하고자 한다.