• Title/Summary/Keyword: 얼굴 표정

Search Result 518, Processing Time 0.043 seconds

A Study of Recognizing Degree of Continuous Facial Expression Change (연속적인 얼굴 표정 변화 인식 방법에 관한 연구)

  • Park, Ho-Sik;Bae, Cheol-Soo;Na, Sang-Dong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04a
    • /
    • pp.737-740
    • /
    • 2002
  • 본 논문에서는 영상에서 연속적인 얼굴 표정 변화 인식 방법에 대하여 제안하였다. 제안된 방법은 가중 결합으로 정합 된 분류 그래프를 이용한 얼굴 특징점 추적과 특징 궤도와 표정 변화 모델의 비교에 의한 얼굴표정 인식의 두 가지 부분으로 구성된다. 표정 변화 모델은 얼굴 특징 동작과 표정의 변화사이의 연관 관계를 표현한 B-spline 곡선을 이용하여 구성된다. 유형뿐만 아니라 표정의 변화 단계까지 인식 할 수 있다. 더욱이 획득된 표정 정보는 다음 프레임의 추적의 지침으로 피드백 됨에 따라 추적의 검색 시간을 감소시킴으로서 교점 확산 구간을 최소화 할 수 있다.

  • PDF

Face Expression Recognition Algorithm Using Geometrical Properties of Face Features and Accumulated Histogram (얼굴 특징자들의 구조적 특성과 누적 히스토그램을 이용한 얼굴 표정 인식 알고리즘)

  • 김영일;이응주
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.08a
    • /
    • pp.293-296
    • /
    • 2000
  • 본 논문에서는 얼굴의 구조적 특성과 누적 히스토그램을 이용하여 다양한 정보를 포함하고 있는 얼굴의 6가지 표정을 인식하는 알고리즘을 기술하였다. 표정 인식을 위해 특징점 추출 전처리 과정으로 입력 영상으로부터 에지 추출, 이진화, 잡음 제거, 모폴로지 기법을 이용한 팽창, 레이블링 순으로 적용한다. 본 논문은 레이블 영역의 크기를 이용해 1차 특징점 영역을 추출하고 가로방향의 누적 히스토그램 값과 대칭성의 구조적인 관계를 이용하여 2차 특징점 추출 과정을 거쳐 정확하게 눈과 입을 찾아낸다. 또한 표정 변화를 정량적으로 측정하기 위해 추출된 특징점들의 눈과 입의 크기, 미간 사이의 거리 그리고 눈에서 입까지의 거리 정보를 이용하여 표정을 인식한다. 1, 2차 특징점 추출 과정을 거치므로 추출률이 매우 높고 특징점들의 표정에 따른 변화 거리를 이용하므로 표정 인식률이 높다. 본 논문은 안경 착용 영상과 같이 복잡한 얼굴 영상에서도 표정 인식이 가능하다.

  • PDF

Emotion Recognition Method of Facial Image using PCA (PCA을 이용한 얼굴표정의 감정인식 방법)

  • Kim, Ho-Deok;Yang, Hyeon-Chang;Park, Chang-Hyeon;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.11a
    • /
    • pp.11-14
    • /
    • 2006
  • 얼굴 표정인식에 관한 연구에서 인식 대상은 대부분 얼굴의 정면 정지 화상을 가지고 연구를 한다. 얼굴 표정인식에 큰 영향을 미치는 대표적인 부위는 눈과 입이다. 그래서 표정 인식 연구자들은 얼굴 표정인식 연구에 있어서 눈, 눈썹, 입을 중심으로 표정 인식이나 표현 연구를 해왔다. 그러나 일상생활에서 카메라 앞에 서는 대부분의 사람들은 눈동자의 빠른 변화의 인지가 어렵고, 많은 사람들이 안경을 쓰고 있다. 그래서 본 연구에서는 눈이 가려진 경우의 표정 인식을 Principal Component Analysis (PCA)를 이용하여 시도하였다.

  • PDF

The Influence of Background Color on Perceiving Facial Expression (배경색채가 얼굴 표정에서 전달되는 감성에 미치는 영향)

  • Son, Ho-Won;Choe, Da-Mi;Seok, Hyeon-Jeong
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2009.05a
    • /
    • pp.51-54
    • /
    • 2009
  • 다양한 미디어에서 인물과 색채는 가장 중심적인 요소로서 활용되므로 인물의 표정에서 느껴지는 감성과 색채 자극에 대한 감성적 반응에 연구는 심리학 분야에서 각각 심도 있게 연구되어왔다. 본 연구에서는 감성 자극물로서의 얼굴 표정과 색채가 상호 작용을 하였을 때 이에 대한 감성적 반응에 대하여 조사하는데 그 목적이 있다. 즉, 인물의 표정과 배경 색상을 배치하였을 때 인물의 표정에서 느껴지는 감성이 어떻게 변하는지에 관한 실험 연구를 진행하여 이를 미디어에서 활용할 수 있는 방안을 제시하고자 한다. 60명의 피실험자들을 대상으로 진행한 실험연구에서는 Ekman의 7가지의 universal facial expression 중 증오(Contempt)의 표정을 제외한 분노(Anger), 공포(Fear), 역겨움(Disgusting), 기쁨(Happiness), 슬픔(Sadness), 놀람(Surprising) 등의 6가지의 표정의 이미지를 인물의 표정으로 활용하였다. 그리고, 배경 색채로서 빨강, 노랑, 파랑, 초록의 색상들을 기준으로 각각 밝은(light), 선명한(vivid), 둔탁한(dull), 그리고 어두운(dark) 등의 4 가지 톤(tone)의 영역에서 색채를 추출하였고, 추가로 무채색의 5 가지 색상이 적용되었다. 총 120 장(5 가지 얼굴표정 ${\times}$ 20 가지 색채)의 표정에서 나타나는 감성적 표현을 평가하도록 하였으며, 각각의 피실험자는 무작위 순위로 60개의 자극물을 평가하였다. 실험에서 측정된 데이터는 각 표정별로 분류되었으며 배경에 적용된 색채에 따라 얼굴 표현에서 나타나는 감성적 표현이 다름을 보여주었다. 특히 색채에 대한 감성적 반응에 대한 기존연구에서 제시하고 있는 자료를 토대로 색채와 얼굴표정의 감성이 상반되는 경우, 얼굴표정에서 나타나는 감성적 표현이 약하게 전달되었음을 알 수 있었으며, 이는 부정적인 얼굴표정일수록 더 두드러지는 것으로 나타났다. 이러한 현상은 색상과 톤의 경우 공통적으로 나타나는 현상으로서 광고 및 시각 디자인 분야의 실무에서 활용될 수 있다.

  • PDF

3D Facial Animation with Head Motion Estimation and Facial Expression Cloning (얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션)

  • Kwon, Oh-Ryun;Chun, Jun-Chul
    • The KIPS Transactions:PartB
    • /
    • v.14B no.4
    • /
    • pp.311-320
    • /
    • 2007
  • This paper presents vision-based 3D facial expression animation technique and system which provide the robust 3D head pose estimation and real-time facial expression control. Many researches of 3D face animation have been done for the facial expression control itself rather than focusing on 3D head motion tracking. However, the head motion tracking is one of critical issues to be solved for developing realistic facial animation. In this research, we developed an integrated animation system that includes 3D head motion tracking and facial expression control at the same time. The proposed system consists of three major phases: face detection, 3D head motion tracking, and facial expression control. For face detection, with the non-parametric HT skin color model and template matching, we can detect the facial region efficiently from video frame. For 3D head motion tracking, we exploit the cylindrical head model that is projected to the initial head motion template. Given an initial reference template of the face image and the corresponding head motion, the cylindrical head model is created and the foil head motion is traced based on the optical flow method. For the facial expression cloning we utilize the feature-based method, The major facial feature points are detected by the geometry of information of the face with template matching and traced by optical flow. Since the locations of varying feature points are composed of head motion and facial expression information, the animation parameters which describe the variation of the facial features are acquired from geometrically transformed frontal head pose image. Finally, the facial expression cloning is done by two fitting process. The control points of the 3D model are varied applying the animation parameters to the face model, and the non-feature points around the control points are changed by use of Radial Basis Function(RBF). From the experiment, we can prove that the developed vision-based animation system can create realistic facial animation with robust head pose estimation and facial variation from input video image.

facial Expression Animation Using 3D Face Modelling of Anatomy Base (해부학 기반의 3차원 얼굴 모델링을 이용한 얼굴 표정 애니메이션)

  • 김형균;오무송
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.7 no.2
    • /
    • pp.328-333
    • /
    • 2003
  • This paper did to do with 18 muscle pairs that do fetters in anatomy that influence in facial expression change and mix motion of muscle for face facial animation. After set and change mash and make standard model in individual's image, did mapping to mash using individual facial front side and side image to raise truth stuff. Muscle model who become motive power that can do animation used facial expression creation correcting Waters' muscle model. Created deformed face that texture is dressed using these method. Also, 6 facial expression that Ekman proposes did animation.

Facial expression recognition using eigen-points (아이겐포인트를 이용한 표정 인식)

  • 홍성희;변혜란
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.817-819
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정을 구분하기 위해서 무표정 영상으로부터 18개의 특징점을 찾고, 그 특징점 간의 거리를 템플릿으로 이용하는 방법을 연구하였다. 얼굴표정인식을 위해 정의된 기본 템플릿과 입력 표정 영상에서의 특징정 간의 상대적인 거리의 차이와 특징점의 좌표변위 차이를 이용하여 표정을 구분하도록 하였다. 각 테스트 표정영상의 특징점은 주요 얼굴요소로부터 아이겐포인트(eigen-point)를 자동으로 추출하였다. 표정 인식은 신경망 학습을 통해서 기쁨, 경멸, 놀람, 공포 슬픔 등 5가지로 나누어 실험하였고, 신경망의 인식 결과와 사람의 인식 결과를 통해서 비교한 결과, 72%의 인식성능을 보여주었다.

  • PDF

Facial Expression Recognition using Face Alignment and AdaBoost (얼굴정렬과 AdaBoost를 이용한 얼굴 표정 인식)

  • Jeong, Kyungjoong;Choi, Jaesik;Jang, Gil-Jin
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.51 no.11
    • /
    • pp.193-201
    • /
    • 2014
  • This paper suggests a facial expression recognition system using face detection, face alignment, facial unit extraction, and training and testing algorithms based on AdaBoost classifiers. First, we find face region by a face detector. From the results, face alignment algorithm extracts feature points. The facial units are from a subset of action units generated by combining the obtained feature points. The facial units are generally more effective for smaller-sized databases, and are able to represent the facial expressions more efficiently and reduce the computation time, and hence can be applied to real-time scenarios. Experimental results in real scenarios showed that the proposed system has an excellent performance over 90% recognition rates.

An Overview on Method of Recognition of Facial Expression (얼굴표정 인식방법론에 관한 검토)

  • Kim, Dae-Young;Sin, Do-Seong;Lee, Chil-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.326-329
    • /
    • 2012
  • 이 논문에서는 사람 얼굴 표정을 인식하기 위한 여러 가지 방법론들을 비교분석하였다. 사람얼굴표정을 인식할 때 특징 추출 방법에는 크게 AAM(Active Appearance Model) 기반 방법과 비 AAM 기반 방법이 있었다. 추출된 특징에 대한 학습 및 인식에도 신경망, SVM(Support Vector Machine), 사후확률, 기타 변형 알고리즘을 이용하는 경우가 많았다. 인식되는 표정에는 크게 행복, 분노, 슬픔, 놀람에 대한 표정 인식이 주를 이루었고 추가적으로 역겨움, 두려움, 졸음, 윙크까지도 인식하려는 시도가 있었으나 인식률이 그다지 높지 않았다. 또한 현재 나와 있는 표정인식방법들은 얼굴표정을 과장되게 지을 때에만 인식할 수 있다는 한계가 있었다. 따라서 사람들이 인식할 수 있는 미세한 표정변화를 컴퓨터가 인식하기 위해서 더욱 강건한 특징추출과 새로운 표정분류에 대한 정의 방법이 필요함을 알 수 있었다.

3-D Facial Animation on the PDA via Automatic Facial Expression Recognition (얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션)

  • Lee Don-Soo;Choi Soo-Mi;Kim Hae-Hwang;Kim Yong-Guk
    • The KIPS Transactions:PartB
    • /
    • v.12B no.7 s.103
    • /
    • pp.795-802
    • /
    • 2005
  • In this paper, we present a facial expression recognition-synthesis system that recognizes 7 basic emotion information automatically and renders face with non-photorelistic style in PDA For the recognition of the facial expressions, first we need to detect the face area within the image acquired from the camera. Then, a normalization procedure is applied to it for geometrical and illumination corrections. To classify a facial expression, we have found that when Gabor wavelets is combined with enhanced Fisher model the best result comes out. In our case, the out put is the 7 emotional weighting. Such weighting information transmitted to the PDA via a mobile network, is used for non-photorealistic facial expression animation. To render a 3-D avatar which has unique facial character, we adopted the cartoon-like shading method. We found that facial expression animation using emotional curves is more effective in expressing the timing of an expression comparing to the linear interpolation method.