• Title/Summary/Keyword: 얼굴표정

Search Result 518, Processing Time 0.057 seconds

The Congruent Effects of Gesture and Facial Expression of Virtual Character on Emotional Perception: What Facial Expression is Significant? (가상 캐릭터의 몸짓과 얼굴표정의 일치가 감성지각에 미치는 영향: 어떤 얼굴표정이 중요한가?)

  • Ryu, Jeeheon;Yu, Seungbeom
    • The Journal of the Korea Contents Association
    • /
    • v.16 no.5
    • /
    • pp.21-34
    • /
    • 2016
  • In the design and develop a virtual character, it is important to correctly deliver target emotions generated by the combination of facial expression and gesture. The purpose of this study is to examine the effect of congruent/incongruent between gesture and facial expression on target emotion. In this study four emotions, joy, sadness, fear, and anger, are applied. The results of study showed that sadness emotion were incorrectly perceived. Moreover, it was perceived as anger instead of sadness. Sadness can be easily confused when facial expression and gestures were simultaneously presented. However, in the other emotional status, the intended emotional expressions were correctly perceived. The overall evaluation of virtual character's emotional expression was significantly low when joy gesture was combined with sad facial expression. The results of this study suggested that emotional gesture is more influential correctly to deliver target emotions to users. This study suggested that social cues like gender or age of virtual character should be further studied.

3D Facial Expression Creation System Based on Muscle Model (근육모델 기반의 3차원 얼굴표정 생성시스템)

  • 이현철;윤재홍;허기택
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05c
    • /
    • pp.465-468
    • /
    • 2002
  • 최근 컴퓨터를 이용한 시각 분야가 발전하면서 인간과 관계된 연구가 중요시 되어, 사람과 컴퓨터의 인터페이스에 대한 새로운 시도들이 다양하게 이루어지고 있다. 특히 얼굴 형상 모델링과 얼굴 표정변화를 애니메이션 화하는 방법에 대한 연구가 활발히 수행되고 있으며, 그 용도가 매우 다양하고, 적용 범위도 증가하고 있다. 본 논문에서는 한국인의 얼굴특성에 맞는 표준적인 일반모델을 생성하고, 실제 사진과 같이 개개인의 특성에 따라 정확한 형상을 유지할 수 있는 3차원 형상 모델을 제작한다. 그리고 자연스러운 얼굴 표정 생성을 위하여, 근육모델 기반의 얼굴표정 생성 시스템을 개발하여, 자연스럽고 실제감 있는 얼굴애니메이션이 이루어질 수 있도록 하였다.

  • PDF

Facial Expression Recognition using the geometric features of the face (얼굴의 기하학적 특징을 이용한 표정 인식)

  • Woo, hyo-jeong;Lee, seul-gi;Kim, dong-woo;Song, Yeong-Jun;Ahn, jae-hyeong
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2013.05a
    • /
    • pp.289-290
    • /
    • 2013
  • 이 논문은 얼굴의 기하학적 특징을 이용한 표정인식 시스템을 제안한다. 먼저 얼굴 인식 시스템으로 Haar-like feature의 특징 마스크를 이용한 방법을 적용하였다 인식된 얼굴은 눈을 포함하고 있는 얼굴 상위 부분과 입을 포함하고 있는 얼굴 하위 부분으로 분리한다. 그래서 얼굴 요소 추출에 용이하게 된다. 얼굴 요소 추출은 PCA를 통한 고유 얼굴의 고유 눈과 고유 입의 템플릿 매칭으로 추출하였다. 얼굴 요소는 눈과 입이 있으며 두 요소의 기하학적 특징을 통하여 표정을 인식한다. 눈과 입의 특징 값은 실험을 통하여 정한 각 표정별 임계 값과 비교하여 표정이 인식된다. 본 논문은 기존의 논문에서 거의 사용하지 않는 눈동자의 비율을 적용하여 기존의 표정인식 알고리즘보다 인식률을 높이는 방향으로 제안되었다. 실험결과 기존의 논문보다 인식률이 개선됨을 확인 할 수 있었다.

  • PDF

Facial Features Extraction for Recognition System of Facial Expression (표정인식 시스템을 위한 얼굴 특징 영역 추출)

  • Kim, Sang-Jun;Lee, Sung-Oh;Park, Gwi-Tae
    • Proceedings of the KIEE Conference
    • /
    • 2003.07d
    • /
    • pp.2564-2566
    • /
    • 2003
  • 표정인식은 컴퓨터 비전 분야에서 중요한 부분을 차지하고 있으며, 현재 꾸준히 연구가 진행되고 있다. 표정인식 시스템은 크게 얼굴 영역 추출과 표정인식 부분으로 나눌 수 있으며, 얼굴 영역 추출은 전체 인식 시스템의 성능에 큰 영향을 미친다. 특히 표정인식 시스템은 일반 얼굴인식 시스템과 다르게 부분적으로나 전체적으로 형태의 변화가 큰 얼굴에 대해서 정확한 얼굴 영역이 확보되지 않으면 높은 인식성능을 기대하기 어렵다. 따라서 표정인식 시스템은 얼굴 영역 추출이 비중한 부분을 차지하고 있다. 본 논문에서는 영상에서 실시간으로 얼굴 영역을 찾아내고, 그 영역에서 얼굴의 특징점인 눈과 입의 위치를 검출하고, 이를 바탕으로 얼굴의 정확한 영역을 확정하는 일련의 과정을 서술한다.

  • PDF

Analysis and Synthesis of Facial Expression using Base Faces (기준얼굴을 이용한 얼굴표정 분석 및 합성)

  • Park, Moon-Ho;Ko, Hee-Dong;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.8
    • /
    • pp.827-833
    • /
    • 2000
  • Facial expression is an effective tool to express human emotion. In this paper, a facial expression analysis method based on the base faces and their blending ratio is proposed. The seven base faces were chosen as axes describing and analyzing arbitrary facial expression. We set up seven facial expressions such as, surprise, fear, anger, disgust, happiness, sadness, and expressionless as base faces. Facial expression was built by fitting generic 3D facial model to facial image. Two comparable methods, Genetic Algorithms and Simulated Annealing were used to search the blending ratio of base faces. The usefulness of the proposed method for facial expression analysis was proved by the facial expression synthesis results.

  • PDF

An Overview on Method of Recognition of Facial Expression (얼굴표정 인식방법론에 관한 검토)

  • Kim, Dae-Young;Sin, Do-Seong;Lee, Chil-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.326-329
    • /
    • 2012
  • 이 논문에서는 사람 얼굴 표정을 인식하기 위한 여러 가지 방법론들을 비교분석하였다. 사람얼굴표정을 인식할 때 특징 추출 방법에는 크게 AAM(Active Appearance Model) 기반 방법과 비 AAM 기반 방법이 있었다. 추출된 특징에 대한 학습 및 인식에도 신경망, SVM(Support Vector Machine), 사후확률, 기타 변형 알고리즘을 이용하는 경우가 많았다. 인식되는 표정에는 크게 행복, 분노, 슬픔, 놀람에 대한 표정 인식이 주를 이루었고 추가적으로 역겨움, 두려움, 졸음, 윙크까지도 인식하려는 시도가 있었으나 인식률이 그다지 높지 않았다. 또한 현재 나와 있는 표정인식방법들은 얼굴표정을 과장되게 지을 때에만 인식할 수 있다는 한계가 있었다. 따라서 사람들이 인식할 수 있는 미세한 표정변화를 컴퓨터가 인식하기 위해서 더욱 강건한 특징추출과 새로운 표정분류에 대한 정의 방법이 필요함을 알 수 있었다.

Robust Facial Expression Recognition using PCA Representation (PCA 표상을 이용한 강인한 얼굴 표정 인식)

  • Shin Young-Suk
    • Korean Journal of Cognitive Science
    • /
    • v.16 no.4
    • /
    • pp.323-331
    • /
    • 2005
  • This paper proposes an improved system for recognizing facial expressions in various internal states that is illumination-invariant and without detectable rue such as a neutral expression. As a preprocessing to extract the facial expression information, a whitening step was applied. The whitening step indicates that the mean of the images is set to zero and the variances are equalized as unit variances, which reduces murk of the variability due to lightening. After the whitening step, we used the facial expression information based on principal component analysis(PCA) representation excluded the first 1 principle component. Therefore, it is possible to extract the features in the lariat expression images without detectable cue of neutral expression from the experimental results, we ran also implement the various and natural facial expression recognition because we perform the facial expression recognition based on dimension model of internal states on the images selected randomly in the various facial expression images corresponding to 83 internal emotional states.

  • PDF

Construction of facial database for a facial expression-inner states correlation model (표정-내적상태 상관모형을 위한 얼굴 DB 구축)

  • 반세범;한재현;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.215-219
    • /
    • 1997
  • 내적 감성상태와 표정을 연결하는 상관모형을 개발하기 위\ulcorner 기초자료로서 광범위한 얼굴표정자료를 수집하였다. 다양한 얼굴유형의 표정자료를 DB화하기 위해서는 궁극적으로 50명 이상의 인물표정 자료수집이 필요하다고 보고, 우선 영화배우 10면분의 표정자료를 수집하였다. 이를 위해 표정연기가 자연스럽다고 평가된 영화배우 10명을 선정하고, 이들이 출연한 50여편의 영화비디오에서 표정자료를 수집하였다. 한사람의 인물당 50개의 표정을 한세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 한사람의 인물당 50개의 표정을 한 세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 각각의 표정은 시작-상승-절정-하강-종료의 연속 5단계를 비율적으로 표집하여 동적정보를 포함하고 있다. 이들 자료들은 등자인물의 출연맥락이나 상황별로 분류하여 표정관련 맥락단서를 기록하였고, 후속연구를 통해 각 표정에 대응되는 내적상태를 기록할 수 있도록 DB화 하였다. 이와같이 구조화된 자료들은 표정인식과 합성의 입출력모형을 위한 기초자료로 활용될 뿐 아니라, 한국인의 얼굴 프로토타입 DB구축 및 향후 표정관련 연구의 타당성을 검증할 수 있는 Benchmarking 정보를 제공할 수 있다.

  • PDF

Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data (모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어)

  • Kim Sung-Ho
    • Journal of Korea Multimedia Society
    • /
    • v.7 no.10
    • /
    • pp.1478-1484
    • /
    • 2004
  • This paper presents a method that controls facial expression in realtime of 3D avatar by having the user select a sequence of facial expressions in the space of facial expressions. The space of expression is created from about 2400 frames of facial expressions. To represent the state of each expression, we use the distance matrix that represents the distances between pairs of feature points on the face. The set of distance matrices is used as the space of expressions. Facial expression of 3D avatar is controled in real time as the user navigates the space. To help this process, we visualized the space of expressions in 2D space by using the Principal Component Analysis(PCA) projection. To see how effective this system is, we had users control facial expressions of 3D avatar by using the system. This paper evaluates the results.

  • PDF

Realistics Facial Expression Animation and 3D Face Synthesis (실감 있는 얼굴 표정 애니메이션 및 3차원 얼굴 합성)

  • 한태우;이주호;양현승
    • Science of Emotion and Sensibility
    • /
    • v.1 no.1
    • /
    • pp.25-31
    • /
    • 1998
  • 컴퓨터 하드웨어 기술과 멀티미디어 기술의 발달로 멀티미디어 입출력 장치를 이용한 고급 인터메이스의 필요성이 대두되었다. 친근감 있는 사용자 인터페이스를 제공하기 위해 실감 있는 얼굴 애니메이션에 대한 요구가 증대되고 있다. 본 논문에서는 사람의 내적 상태를 잘 표현하는 얼굴의 표정을 3차원 모델을 이용하여 애니메이션을 수행한다. 애니메이션에 실재감을 더하기 위해 실제 얼굴 영상을 사용하여 3차원의 얼굴 모델을 변형하고, 여러 방향에서 얻은 얼굴 영상을 이용하여 텍스터 매핑을 한다. 변형된 3차원 모델을 이용하여 얼굴 표정을 애니메이션 하기 위해서 해부학에 기반한 Waters의 근육 모델을 수정하여 사용한다. 그리고, Ekman이 제안한 대표적인 6가지 표정들을 합성한다.

  • PDF