• 제목/요약/키워드: Facial Expression Space

검색결과 48건 처리시간 0.03초

동적 감성 공간에 기반한 감성 표현 시스템 (Emotional Expression System Based on Dynamic Emotion Space)

  • 심귀보;변광섭;박창현
    • 한국지능시스템학회논문지
    • /
    • 제15권1호
    • /
    • pp.18-23
    • /
    • 2005
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니라 다양한 감정의 복합으로, 눈에 띄는 감정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 미리 설정된 몇 개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제의 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion spaces를 이용한 감성 표현 시스템의 성능을 입증한다.

모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어 (Facial Expression Control of 3D Avatar using Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권5호
    • /
    • pp.383-390
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간 적으로 선택하게 함으로써 3차원 아바타의 얼굴 표정을 제어하는 기법을 제안하고, 해당 시스템을 구축한다. 본 시스템에서는 얼굴 모션 캡쳐 데이터로 구성된 2400여개의 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정에서 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 이 경로를 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 원하는 표정을 실시간 적으로 선택함으로써 제어한다. 이를 도와주기 위해 표정공간을 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화 했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 해본 결과, 3차원 아바타의 실시간 얼굴 표정 제어가 필요한 각 분야에서 매우 유용하게 사용될 것으로 판단되었다.24시간 경과시킨 후 치아의 장축에 따라 절단하여 침투된 색소의 정도를 광학현미경상에서 40배로 관찰하였다. 각각의 실험결과는 ANOVA/Tukey's test 및 Kruskal-Wallis non-parametric independent analysis와 Mann-Whitney U test에 의하여 통계 분석하여 다음과 같은 결론을 얻었다. 1. 대조군에 있어서 혼합형 복합레진의 미세인장 결합강도는 미세혼합형에 비하여 높았으며, 실험군 사이에는 유의차를 보이지 않았다. 2.모든 복합레진의 미세인장 결합강도는 와동의 C-factor증가에 따라 감소하는 경향을 나타내었고, 혼합형 복합레진의 실험군은 대조군에 비하여 낮게 나타났으며, 미세혼합형 복합레진에서는 유의차를 보이지 않았다. 3. 절단측 및 치은측 변연부의 미세누출정도는 혼합형 복합레진이 미세혼합형에 비하여 대체로 높게 나타났다. 4. 모든 실험군에서 미세누출은 C-factor증가에 따라 증가하였고 절단측에 비하여 치은측 변연이 높게 나타났으나 통계학적 유의차는 보이지 않았다. C-factor의 변화에 대하여 필러함량과 탄성계수가 높은 혼합형 복합레진이 미세혼합형에 비하여 더 민감한 결과를 보인다. 이는 복합레진 수복시 재료의 선택과 중합수축의 적절한 조절이 중요한 요소임을 시사한다.s에서는 1주, 2주에서 강한 염증반응을 보였으나 12주에서는 염증반응이 감소하였다. 4) 새로 개발된 봉함제 Adseal-1,2는 1주, 2주에서는 가장 약한 염증반응을 보이나 4주, 12주 후에는 AH Plus와 비슷한 수준의 염증 반응을 보였다. 5) Pulp Canal Sealer를 제외한 모든 군에서 인정할 만한 생체친화성을 보였다. 6)

표정별 가버 웨이블릿 주성분특징을 이용한 실시간 표정 인식 시스템 (Real-time Recognition System of Facial Expressions Using Principal Component of Gabor-wavelet Features)

  • 윤현섭;한영준;한헌수
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.821-827
    • /
    • 2009
  • 표정은 인간의 감정을 전달할 수 있는 중요한 수단으로 표정 인식은 감정상태를 알아낼 수 있는 효과적인 방법중 하나이다. 일반적인 표정 인식 시스템은 얼굴 표정을 표현하는 특징점을 찾고, 물리적인 해석 없이 특징을 추출한다. 하지만 특징점 추출은 많은 시간이 소요될 뿐 아니라 특징점의 정확한 위치를 추정하기 어렵다. 그리고 표정 인식 시스템을 실시간 임베디드 시스템에서 구현하기 위해서는 알고리즘을 간략화하고 자원 사용량을 줄일 필요가 있다. 본 논문에서 제안하는 실시간 표정 인식 시스템은 격자점 위치에서 얻어진 가버 웨이블릿(Gabor wavelet) 특징 기반 표정 공간을 설정하고, 각 표정 공간에서 얻어진 주성분을 신경망 분류기를 이용하여 얼굴 표정을 분류한다. 제안하는 실시간 표정 인식 시스템은 화남, 행복, 평온, 슬픔 그리고 놀람의 5가지 표정이 인식 가능하며, 다양한 실험에서 평균 10.25ms의 수행시간, 그리고 87%~93%의 인식 성능을 보였다.

3차원 정서 공간에서 마스코트 형 얼굴 로봇에 적용 가능한 동적 감정 모델 (Dynamic Emotion Model in 3D Affect Space for a Mascot-Type Facial Robot)

  • 박정우;이희승;조수훈;정명진
    • 로봇학회논문지
    • /
    • 제2권3호
    • /
    • pp.282-287
    • /
    • 2007
  • Humanoid and android robots are emerging as a trend shifts from industrial robot to personal robot. So human-robot interaction will increase. Ultimate objective of humanoid and android would be a robot like a human. In this aspect, implementation of robot's facial expression is necessary in making a human-like robot. This paper proposes a dynamic emotion model for a mascot-type robot to display similar facial and more recognizable expressions.

  • PDF

얼굴 표정 데이터의 최적의 가시화를 위한 선형 및 비선형 투영 기법의 비교 분석 (Comparative Analysis of Linear and Nonlinear Projection Techniques for the Best Visualization of Facial Expression Data)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제9권9호
    • /
    • pp.97-104
    • /
    • 2009
  • 본 논문은 고차원 얼굴 모션 캡처 데이터를 선형 및 비선형 투영 기법에 각각 적용하고, 이를 2차원 평면으로 투영하기 위한 최적의 방법론에 대한 것이다. 본 방법의 핵심 요소는 프레임 단위의 고차원 얼굴 표정 데이터를 선형 투영 기법인 PCA와 비선형 투영 기법인 Isomap, MDS, CCA, Sammon's Mapping, LLE 등에 적용하고 이를 저차원 공간에 분포시키는 방법론 및 그 결과를 비교 분석하는 것이다. 이를 위해서는 먼저 기존의 고차원 얼굴 표정 프레임 데이터들 사이의 거리를 구하고, 선형 및 비선형 투영 기법들을 적용한 상태에서 기존의 데이터들 사이의 거리 관계를 유지하면서 저차원인 2차원 평면 공간에 분포시키는 것이다. 그리고 2차원 공간에 분포된 얼굴 표정 데이터가 원형 데이터와 비교 했을 때, 최적의 상태로 프레임 데이터들 사이의 거리 관계를 유지하고 있는 투영 기법을 찾는다. 결국 본 논문에서는 고차원 얼굴 표정 데이터를 저차원 공간에 투영하기 위한 선형 및 비선형 투영 기법들을 비교 분석하고, 각각에서 최적의 투영 기법을 찾아낸다.

A Facial Expression Recognition Method Using Two-Stream Convolutional Networks in Natural Scenes

  • Zhao, Lixin
    • Journal of Information Processing Systems
    • /
    • 제17권2호
    • /
    • pp.399-410
    • /
    • 2021
  • Aiming at the problem that complex external variables in natural scenes have a greater impact on facial expression recognition results, a facial expression recognition method based on two-stream convolutional neural network is proposed. The model introduces exponentially enhanced shared input weights before each level of convolution input, and uses soft attention mechanism modules on the space-time features of the combination of static and dynamic streams. This enables the network to autonomously find areas that are more relevant to the expression category and pay more attention to these areas. Through these means, the information of irrelevant interference areas is suppressed. In order to solve the problem of poor local robustness caused by lighting and expression changes, this paper also performs lighting preprocessing with the lighting preprocessing chain algorithm to eliminate most of the lighting effects. Experimental results on AFEW6.0 and Multi-PIE datasets show that the recognition rates of this method are 95.05% and 61.40%, respectively, which are better than other comparison methods.

간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 얼굴표정 생성 (The facial expression generation of vector graphic character using the simplified principle component vector)

  • 박태희
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1547-1553
    • /
    • 2008
  • 본 논문은 간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 다양한 얼굴 표정 생성 방법을 제안한다. 먼저 Russell의 내적 정서 상태에 기반하여 재정의된 벡터 그래픽 캐릭터들의 9가지 표정에 대해 주성분 분석을 수행한다. 이를 통해 캐릭터의 얼굴 특성과 표정에 주된 영향을 미치는 주성분 벡터를 찾아내고, 간소화된 주성분 벡터로부터 얼굴 표정을 생성한다. 또한 캐릭터의 특성과 표정의 가중치 값을 보간함으로써 자연스러운 중간 캐릭터 및 표정을 생성한다. 이는 얼굴 애니메이션에서 종래의 키프레임 저장 공간을 상당히 줄일 수 있으며, 적은 계산량으로 중간 표정을 생성할 수 있다. 이에 실시간 제어를 요구하는 웹/모바일 서비스, 게임 등에서 캐릭터 생성 시스템의 성능을 상당히 개선할 수 있다.

ICA-factorial 표현법을 이용한 얼굴감정인식 (Facial Expression Recognition using ICA-Factorial Representation Method)

  • 한수정;곽근창;고현주;김승석;전명근
    • 한국지능시스템학회논문지
    • /
    • 제13권3호
    • /
    • pp.371-376
    • /
    • 2003
  • 본 논문에서는 효과적인 정보를 표현하는 Independent Component Analysis(ICA)-factorial 표현방법을 이용하여 얼굴감정 인식을 수행한다. 얼굴감정인식은 두 단계인 특징추출 과정과 인식과정에 의해 이루어진다. 먼저 특징추출방법은 주성분 분석(Principal Component Analysis)을 이용하여 얼굴영상의 고차원 공간을 저차원 특징공간으로 변환한 후 ICA-factorial 표현방법을 통해 좀 더 효과적으로 특징벡터를 추출한다. 인식단계는 최소거리 분류방법인 유클리디안 거리에 근거한 K-Nearest Neighbor 알고리즘으로 얼굴감정을 인식한다. 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 공포, 혐오)에 대해 얼굴 감정 데이터베이스를 구축하고 실험해본 결과 기존의 방법보다 좋은 인식 성능을 얻었다.

간단한 사용자 인터페이스에 의한 벡터 그래픽 캐릭터의 자동 표정 생성 시스템 (Automatic facial expression generation system of vector graphic character by simple user interface)

  • 박태희;김재호
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1155-1163
    • /
    • 2009
  • 본 논문에서는 가우시안 프로세스 모델을 이용한 벡터 그래픽 캐릭터의 자동 표정 생성 시스템을 제안한다. 제안한 방법은 Russell의 내적 정서 상태의 차원 모형을 근거로 재정의된 캐릭터의 26가지 표정 데이터로 부터 주요 특징 벡터를 추출한다. 그리고 추출된 고차원의 특징 벡터에 대해 SGPLVM이라는 가우시안 프로세스 모델을 이용하여 저차원 특징 벡터를 찾고, 확률분포함수(PDF)를 학습한다. 확률분포함수의 모든 파라메타는 학습된 표정 데이터의 우도를 최대화함으로써 추정할 수 있으며, 이는 2차원 공간에서 사용자가 원하는 얼굴 표정을 실시간으로 선택하기 위해 사용된다. 시뮬레이션 결과 본 논문에서 제안한 표정 생성 프로그램은 얼굴 표정의 작은 데이터셋에도 잘 동작하며, 사용자는 표정과 정서간의 관련성에 관한 사전지식이 없이도 연속되는 다양한 캐릭터의 표정을 생성할 수 있음을 확인할 수 있었다.

  • PDF

Multiscale Adaptive Local Directional Texture Pattern for Facial Expression Recognition

  • Zhang, Zhengyan;Yan, Jingjie;Lu, Guanming;Li, Haibo;Sun, Ning;Ge, Qi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권9호
    • /
    • pp.4549-4566
    • /
    • 2017
  • This work presents a novel facial descriptor, which is named as multiscale adaptive local directional texture pattern (MALDTP) and employed for expression recognition. We apply an adaptive threshold value to encode facial image in different scales, and concatenate a series of histograms based on the MALDTP to generate facial descriptor in term of Gabor filters. In addition, some dedicated experiments were conducted to evaluate the performance of the MALDTP method in a person-independent way. The experimental results demonstrate that our proposed method achieves higher recognition rate than local directional texture pattern (LDTP). Moreover, the MALDTP method has lower computational complexity, fewer storage space and higher classification accuracy than local Gabor binary pattern histogram sequence (LGBPHS) method. In a nutshell, the proposed MALDTP method can not only avoid choosing the threshold by experience but also contain much more structural and contrast information of facial image than LDTP.