• Title/Summary/Keyword: 얼굴표정인식

Search Result 293, Processing Time 0.03 seconds

Face Recognition Using Fuzzy-based Fisherfaces (퍼지 기반 Fisherfaces을 이용한 얼굴인식)

  • 곽근창;한수정;고현주;전명근
    • Proceedings of the Korea Institutes of Information Security and Cryptology Conference
    • /
    • 2002.11a
    • /
    • pp.430-433
    • /
    • 2002
  • 본 논문에서는 얼굴인식을 위해 기존의 Fisherfaces와 퍼지개념을 도입한 퍼지 기반 Fisherfaces 방법을 제안한다. 기존의 얼굴인식 방법들은 학습영상에 해당되는 각 특징벡터에 대해 특정한 클래스를 할당하지만, 이와는 달리 제안된 방법은 각 특징벡터에 대해 퍼지 값으로 된 클래스 소속도를 부여하여 조명의 방향, 얼굴표정과 같은 큰 변화에 민감하지 않으면서도 닮은 얼굴 영상으로 인해 생기는 오분류(misclassification)의 문제점을 해결하고자 한다. 따라서, 본 논문에서는 ORL(Olivetti Research Laboratory) 얼굴 데이터 베이스에 대해 적용하여 이전의 연구인 Eigenfaces와 Fisherfaces보다 더 좋은 인식성능을 보이고자 한다.

  • PDF

Emotion Recognition of User using 2D Face Image in the Mobile Robot (이동로봇에서의 2D얼굴 영상을 이용한 사용자의 감정인식)

  • Lee, Dong-Hun;Seo, Sang-Uk;Go, Gwang-Eun;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.11a
    • /
    • pp.131-134
    • /
    • 2006
  • 본 논문에서는 가정용 로봇 및 서비스 로봇과 같은 이동로봇에서 사용자의 감정을 인식하는 방법중 한가지인 얼굴영상을 이용한 감정인식 방법을 제안한다. 얼굴영상인식을 위하여 얼굴의 여러 가지 특징(눈썹, 눈, 코, 입)의 움직임 및 위치를 이용하며, 이동로봇에서 움직이는 사용자를 인식하기 위한 움직임 추적 알고리즘을 구현하고, 획득된 사용자의 영상에서 얼굴영역 검출 알고리즘을 사용하여 얼굴 영역을 제외한 손과 배경 영상의 피부색은 제거한다. 검출된 얼굴영역의 거리에 따른 영상 확대 및 축소, 얼굴 각도에 따른 영상 회전변환 등의 정규화 작업을 거친 후 이동 로봇에서는 항상 고정된 크기의 얼굴 영상을 획득 할 수 있도록 한다. 또한 기존의 특징점 추출이나 히스토그램을 이용한 감정인식 방법을 혼합하여 인간의 감성 인식 시스템을 모방한 로봇에서의 감정인식을 수행한다. 본 논문에서는 이러한 다중 특징점 추출 방식을 통하여 이동로봇에서의 얼굴 영상을 이용한 사용자의 감정인식 시스템을 제안한다.

  • PDF

A Study on Emotion Recognition from a Active Face Images (동적얼굴영상으로부터 감정인식에 관한 연구)

  • Lee, Myung-Won;Kwak, Keun-Chang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.295-297
    • /
    • 2011
  • 본 논문에서는 동적얼굴영상으로부터 감정인식을 위해 벡터 표현 보다는 직접적인 텐서 표현으로 특징들을 추출하는 텐서 기반 다선형 주성분분석(MPCA: Multilinear Principal Component Analysis) 기법을 사용한다. 사람 6가지의 얼굴 표정을 사용하는데 한 사람의 각 표정마다 5프레임으로 묶어서 텐서 형태로 취하여 특징을 추출하고 인식한다. 시스템의 성능 평가는 CNU 얼굴 감정인식 데이터베이스를 이용하여 특징점 개수와 성능척도에 따른 실험을 수행하여 제시된 방법의 유용성에 관해 살펴본다.

Face Recognition Using View-based EigenSpaces (시점 기반 고유공간을 이용한 얼굴 인식)

  • 김일정;차의영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.458-460
    • /
    • 1998
  • 본 논문은 주성분 분석으로 시점 기반 고유얼굴(view-based eigenface)을 생성하고, 그에 기반한 얼굴 인식을 수행하고자 한다. 주성분 분석을 통한 고유얼굴 생성은 얼굴 인식의 어려운 문제 중 하나인 특징 선택과 추출이라는 문제를 해결해 준다. 또한 얼굴 표정이나 방향의 변화에도 인식률이 저하되는 것을 방지할 수 있다. 얼굴 영상을 특징공간(고유공간)으로 변환할 때, 원 얼굴영상의 정보를 최대한으로 나타낼 수 있는 최적의 고유치 개수 선택은 얼굴 데이터베이스의 크기와 인식 속도에 영향을 끼친다. 따라서 본 논문에서는 고유치 개수를 고유치의 누적기여율을 이용해서 구한다. 이는 64$\times$64(=4096)차원의 원 얼굴 영상을 5~7차원으로 표현 가능하게 하였다. 그리고, 각 얼굴 방향에 따라 특징공간을 분리해서 생성함으로써 얼굴 방향의 변화에 따라 오인식률을 줄였다. 축소된 차원과 분리된 특징공간은 메모리 사용과 인식속도의 향상에 기여한다. 본 논문에서 얼굴의 인식은 Mahalanobis distance와 재구성 오차율을 고려해서 이루어졌다. 실험은 개인당 세가지 다른 방향을 가지는 얼굴 영상을 이용하여 이루어졌고, 실험결과, 약 93%의 인식률을 보여주었다.

  • PDF

Emotion Detection Model based on Sequential Neural Networks in Smart Exhibition Environment (스마트 전시환경에서 순차적 인공신경망에 기반한 감정인식 모델)

  • Jung, Min Kyu;Choi, Il Young;Kim, Jae Kyeong
    • Journal of Intelligence and Information Systems
    • /
    • v.23 no.1
    • /
    • pp.109-126
    • /
    • 2017
  • In the various kinds of intelligent services, many studies for detecting emotion are in progress. Particularly, studies on emotion recognition at the particular time have been conducted in order to provide personalized experiences to the audience in the field of exhibition though facial expressions change as time passes. So, the aim of this paper is to build a model to predict the audience's emotion from the changes of facial expressions while watching an exhibit. The proposed model is based on both sequential neural network and the Valence-Arousal model. To validate the usefulness of the proposed model, we performed an experiment to compare the proposed model with the standard neural-network-based model to compare their performance. The results confirmed that the proposed model considering time sequence had better prediction accuracy.

An Improved LBP-based Facial Expression Recognition through Optimization of Block Weights (블록가중치의 최적화를 통해 개선된 LBP기반의 표정인식)

  • Park, Seong-Chun;Koo, Ja-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.11
    • /
    • pp.73-79
    • /
    • 2009
  • In this paper, a method is proposed that enhances the performance of the facial expression recognition using template matching of Local Binary Pattern(LBP) histogram. In this method, the face image is segmented into blocks, and the LBP histogram is constructed to be used as the feature of the block. Block dissimilarity is calculated between a block of input image and the corresponding block of the model image. Image dissimilarity is defined as the weighted sum of the block dissimilarities. In conventional methods, the block weights are assigned by intuition. In this paper a new method is proposed that optimizes the weights from training samples. An experiment shows the recognition rate is enhanced by the proposed method.

Development of Vision based Emotion Recognition Robot (비전 기반의 감정인식 로봇 개발)

  • Park, Sang-Sung;Kim, Jung-Nyun;An, Dong-Kyu;Kim, Jae-Yeon;Jang, Dong-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.670-672
    • /
    • 2005
  • 본 논문은 비전을 기반으로 한 감정인식 로봇에 관한 논문이다. 피부스킨칼라와 얼굴의 기하학적 정보를 이용한 얼굴검출과 감정인식 알고리즘을 제안하고, 개발한 로봇 시스템을 설명한다. 얼굴 검출은 RGB 칼라 공간을 CIElab칼라 공간으로 변환하여, 피부스킨 후보영역을 추출하고, Face Filter로 얼굴의 기하학적 상관관계를 통하여 얼굴을 검출한다. 기하학적인 특징을 이용하여 눈, 코, 입의 위치를 판별하여 표정 인식의 기본 데이터로 활용한다. 눈썹과 입의 영역에 감정 인식 윈도우를 적용하여, 윈도우 내에서의 픽셀값의 변화와 크기의 변화로 감정인식의 특징 칼을 추출한다. 추출된 값은 실험에 의해서 미리 구해진 샘플과 비교를 통해 강정을 표현하고, 표현된 감정은 Serial Communication을 통하여 로봇에 전달되고, 감정 데이터를 받은 얼굴에 장착되어 있는 모터를 통해 표정을 표현한다.

  • PDF

A 3D Face Reconstruction and Tracking Method using the Estimated Depth Information (얼굴 깊이 추정을 이용한 3차원 얼굴 생성 및 추적 방법)

  • Ju, Myung-Ho;Kang, Hang-Bong
    • The KIPS Transactions:PartB
    • /
    • v.18B no.1
    • /
    • pp.21-28
    • /
    • 2011
  • A 3D face shape derived from 2D images may be useful in many applications, such as face recognition, face synthesis and human computer interaction. To do this, we develop a fast 3D Active Appearance Model (3D-AAM) method using depth estimation. The training images include specific 3D face poses which are extremely different from one another. The landmark's depth information of landmarks is estimated from the training image sequence by using the approximated Jacobian matrix. It is added at the test phase to deal with the 3D pose variations of the input face. Our experimental results show that the proposed method can efficiently fit the face shape, including the variations of facial expressions and 3D pose variations, better than the typical AAM, and can estimate accurate 3D face shape from images.

Study of expression in virtual character of facial smile by emotion recognition (감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구)

  • Lee, Dong-Yeop
    • Cartoon and Animation Studies
    • /
    • s.33
    • /
    • pp.383-402
    • /
    • 2013
  • In this study, we apply the facial Facial Action Coding System for coding the muscular system anatomical approach facial expressions to be displayed in response to a change in sensitivity. To verify by applying the virtual character the Duchenne smile to the original. I extracted the Duchenne smile by inducing experiment of emotion (man 2, woman 2) and the movie theater department students trained for the experiment. Based on the expression that has been extracted, I collect the data of the facial muscles. Calculates the frequency of expression of the face and other parts of the body muscles around the mouth and lips, to be applied to the virtual character of the data. Orbicularis muscle to contract end of lips due to shrinkage of the Zygomatic Major is a upward movement, cheek goes up, the movement of the muscles, facial expressions appear the outer eyelid under the eye goes up with a look of smile. Muscle movement of large muscle and surrounding Zygomatic Major is observed together (AU9) muscles around the nose and (AU25, AU26, AU27) muscles around the mouth associated with openness. Duchen smile occurred in the form of Orbicularis Oculi and Zygomatic Major moves at the same time. Based on this, by separating the orbicularis muscle that is displayed in the form of laughter and sympathy to emotional feelings and viable large muscle by the will of the person, by applying to the character of the virtual, and expression of human I try to examine expression of the virtual character's ability to distinguish.

Implementation of Real Time Facial Expression and Speech Emotion Analyzer based on Haar Cascade and DNN (Haar Cascade와 DNN 기반의 실시간 얼굴 표정 및 음성 감정 분석기 구현)

  • Yu, Chan-Young;Seo, Duck-Kyu;Jung, Yuchul
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.33-36
    • /
    • 2021
  • 본 논문에서는 인간의 표정과 목소리를 기반으로 한 감정 분석기를 제안한다. 제안하는 분석기들은 수많은 인간의 표정 중 뚜렷한 특징을 가진 표정 7가지를 별도의 클래스로 구성하며, DNN 모델을 수정하여 사용하였다. 또한, 음성 데이터는 학습 데이터 증식을 위한 Data Augmentation을 하였으며, 학습 도중 과적합을 방지하기 위해 콜백 함수를 사용하여 가장 최적의 성능에 도달했을 때, Early-stop 되도록 설정했다. 제안하는 표정 감정 분석 모델의 학습 결과는 val loss값이 0.94, val accuracy 값은 0.66이고, 음성 감정 분석 모델의 학습 결과는 val loss 결과값이 0.89, val accuracy 값은 0.65로, OpenCV 라이브러리를 사용한 모델 테스트는 안정적인 결과를 도출하였다.

  • PDF