• 제목/요약/키워드: automatic facial expression recognition

검색결과 18건 처리시간 0.022초

Person-Independent Facial Expression Recognition with Histograms of Prominent Edge Directions

  • Makhmudkhujaev, Farkhod;Iqbal, Md Tauhid Bin;Arefin, Md Rifat;Ryu, Byungyong;Chae, Oksam
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권12호
    • /
    • pp.6000-6017
    • /
    • 2018
  • This paper presents a new descriptor, named Histograms of Prominent Edge Directions (HPED), for the recognition of facial expressions in a person-independent environment. In this paper, we raise the issue of sampling error in generating the code-histogram from spatial regions of the face image, as observed in the existing descriptors. HPED describes facial appearance changes based on the statistical distribution of the top two prominent edge directions (i.e., primary and secondary direction) captured over small spatial regions of the face. Compared to existing descriptors, HPED uses a smaller number of code-bins to describe the spatial regions, which helps avoid sampling error despite having fewer samples while preserving the valuable spatial information. In contrast to the existing Histogram of Oriented Gradients (HOG) that uses the histogram of the primary edge direction (i.e., gradient orientation) only, we additionally consider the histogram of the secondary edge direction, which provides more meaningful shape information related to the local texture. Experiments on popular facial expression datasets demonstrate the superior performance of the proposed HPED against existing descriptors in a person-independent environment.

표정 인식을 이용한 3D 감정 아바타 생성 및 애니메이션 (3D Emotional Avatar Creation and Animation using Facial Expression Recognition)

  • 조태훈;정중필;최수미
    • 한국멀티미디어학회논문지
    • /
    • 제17권9호
    • /
    • pp.1076-1083
    • /
    • 2014
  • We propose an emotional facial avatar that portrays the user's facial expressions with an emotional emphasis, while achieving visual and behavioral realism. This is achieved by unifying automatic analysis of facial expressions and animation of realistic 3D faces with details such as facial hair and hairstyles. To augment facial appearance according to the user's emotions, we use emotional templates representing typical emotions in an artistic way, which can be easily combined with the skin texture of the 3D face at runtime. Hence, our interface gives the user vision-based control over facial animation of the emotional avatar, easily changing its moods.

딥러닝 표정 인식을 활용한 실시간 온라인 강의 이해도 분석 (Analysis of Understanding Using Deep Learning Facial Expression Recognition for Real Time Online Lectures)

  • 이자연;정소현;신유원;이은혜;하유빈;최장환
    • 한국멀티미디어학회논문지
    • /
    • 제23권12호
    • /
    • pp.1464-1475
    • /
    • 2020
  • Due to the spread of COVID-19, the online lecture has become more prevalent. However, it was found that a lot of students and professors are experiencing lack of communication. This study is therefore designed to improve interactive communication between professors and students in real-time online lectures. To do so, we explore deep learning approaches for automatic recognition of students' facial expressions and classification of their understanding into 3 classes (Understand / Neutral / Not Understand). We use 'BlazeFace' model for face detection and 'ResNet-GRU' model for facial expression recognition (FER). We name this entire process 'Degree of Understanding (DoU)' algorithm. DoU algorithm can analyze a multitude of students collectively and present the result in visualized statistics. To our knowledge, this study has great significance in that this is the first study offers the statistics of understanding in lectures using FER. As a result, the algorithm achieved rapid speed of 0.098sec/frame with high accuracy of 94.3% in CPU environment, demonstrating the potential to be applied to real-time online lectures. DoU Algorithm can be extended to various fields where facial expressions play important roles in communications such as interactions with hearing impaired people.

Gabor 웨이브렛과 FCM 군집화 알고리즘에 기반한 동적 연결모형에 의한 얼굴표정에서 특징점 추출 (Feature-Point Extraction by Dynamic Linking Model bas Wavelets and Fuzzy C-Means Clustering Algorithm)

  • 신영숙
    • 인지과학
    • /
    • 제14권1호
    • /
    • pp.11-16
    • /
    • 2003
  • 본 논문은 Gabor 웨이브렛 변환을 이용하여 무표정을 포함한 표정영상에서 얼굴의 주요 요소들의 경계선을 추출한 후, FCM 군집화 알고리즘을 적용하여 무표정 영상에서 저차원의 대표적인 특징점을 추출한다. 무표정 영상의 특징점들은 표정영상의 특징점들을 추출하기 위한 템플릿으로 사용되어지며, 표정영상의 특징점 추출은 무표정 영상의 특징점과 동적 연결모형을 이용하여 개략적인 정합과 정밀한 정합 과정의 두단계로 이루어진다. 본 논문에서는 Gabor 웨이브렛과 FCM 군집화 알고리즘을 기반으로 동적 연결모형을 이용하여 표정영상에서 특징점들을 자동으로 추출할 수 있음을 제시한다. 본 연구결과는 자동 특징추출을 이용한 차원모형기반 얼굴 표정인식[1]에서 얼굴표정의 특징점을 자동으로 추출하는 데 적용되었다.

  • PDF

얼굴 특징 정보를 이용한 얼굴 방향성 검출 (Detection of Facial Direction using Facial Features)

  • 박지숙;동지연
    • 인터넷정보학회논문지
    • /
    • 제4권6호
    • /
    • pp.57-67
    • /
    • 2003
  • 최근 멀티미디어 처리 기술과 광학 기술의 발달과 더불어 얼굴 영상 정보를 이용한 응용 시스템에 대한 관심이 증대되고 있다. 기존의 얼굴 정보와 관련한 연구들은 대부분 정면 영상을 해석하여 사람을 식별하거나 영상의 표정을 분석하는데 초점을 두어왔으며 임의의 얼굴 영상의 방향성에 대한 연구는 부족한 실정이다. 특히, 한대의 카메라로 연속 촬영된 이미지들을 이용하는 기존의 방향성 검출 기법에서는 초기 영상이 정면 영상이어야 하는 제약점을 가진다. 본 논문에서는 얼굴의 특징 정보를 이용하여 임의의 얼굴 영상의 방항성을 검출하는 기법을 제안한다. 제안된 기법에서는 두 눈과 입술의 특징점을 기반으로 얼굴 사다리꼴을 정의하고, 얼굴 사다리꼴의 좌$.$우 면적을 비교한 통계 데이터를 이용하여 얼굴 영상의 좌.우 방향성을 계산하는 방향성 함수를 정의한다. 제안된 얼굴 영상의 검출 기법은 얼굴 영상의 방향성에 따라 얼굴 영상의 좌$.$우 여백을 안정적으로 설정하는 영상의 자동 배치 응용에 효과적으로 활용될 수 있다.

  • PDF

표정 분류 연구 (Analysis of facial expression recognition)

  • 손나영;조현선;이소현;송종우
    • 응용통계연구
    • /
    • 제31권5호
    • /
    • pp.539-554
    • /
    • 2018
  • 최근 등장하는 다양한 사물인터넷 기기 혹은 상황인식 기반의 인공지능에서는 사용자와 기기의 상호작용이 중요시 된다. 특히 인간을 대상으로 상황에 맞는 대응을 하기 위해서는 인간의 표정을 실시간으로 인식하여 빠르고 정확한 판단을 내리는 것이 필요하다. 따라서, 보다 빠르고 정확하게 표정을 인식하는 시스템을 구축하기 위해 얼굴 이미지 분석에 대한 많은 연구들이 선행되어 왔다. 본 연구에서는 웹사이트 Kaggle에서 제공한 48*48 8-bit grayscale 이미지 데이터셋을 사용하여 얼굴인식과 표정분류로 구분된 두 단계를 거치는 얼굴표정 자동 인식 시스템을 구축하였고, 이를 기존의 연구와 비교하여 자료 및 방법론의 특징을 고찰하였다. 분석 결과, Face landmark 정보에 주성분분석을 적용하여 단 30개의 주성분만으로도 빠르고 효율적인 예측모형을 얻을 수 있음이 밝혀졌다. LDA, Random forest, SVM, Bagging 중 SVM방법을 적용했을 때 가장 높은 정확도를 보이며, LDA방법을 적용하는 경우는 SVM 다음으로 높은 정확도를 보이며, 매우 빠르게 적합하고 예측하는 것이 가능하다.

Gabor 웨이브렛과 FCM 군집화 알고리즘에 기반한 동적 연결모형에 의한 얼굴표정에서 특징점 추출 (Feature-Point Extraction by Dynamic Linking Model bas Wavelets and Fuzzy C-Means Clustering Algorithm)

  • 신영숙
    • 인지과학
    • /
    • 제14권1호
    • /
    • pp.10-10
    • /
    • 2003
  • 본 논문은 Gabor 웨이브렛 변환을 이용하여 무표정을 포함한 표정영상에서 얼굴의 주요 요소들의 경계선을 추출한 후, FCM 군집화 알고리즘을 적용하여 무표정 영상에서 저차원의 대표적인 특징점을 추출한다. 무표정 영상의 특징점들은 표정영상의 특징점들을 추출하기 위한 템플릿으로 사용되어지며, 표정영상의 특징점 추출은 무표정 영상의 특징점과 동적 연결모형을 이용하여 개략적인 정합과 정밀한 정합 과정의 두단계로 이루어진다. 본 논문에서는 Gabor 웨이브렛과 FCM 군집화 알고리즘을 기반으로 동적 연결모형을 이용하여 표정영상에서 특징점들을 자동으로 추출할 수 있음을 제시한다. 본 연구결과는 자동 특징추출을 이용한 차원모형기반 얼굴 표정인식[1]에서 얼굴표정의 특징점을 자동으로 추출하는 데 적용되었다.

Pose and Expression Invariant Alignment based Multi-View 3D Face Recognition

  • Ratyal, Naeem;Taj, Imtiaz;Bajwa, Usama;Sajid, Muhammad
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권10호
    • /
    • pp.4903-4929
    • /
    • 2018
  • In this study, a fully automatic pose and expression invariant 3D face alignment algorithm is proposed to handle frontal and profile face images which is based on a two pass course to fine alignment strategy. The first pass of the algorithm coarsely aligns the face images to an intrinsic coordinate system (ICS) through a single 3D rotation and the second pass aligns them at fine level using a minimum nose tip-scanner distance (MNSD) approach. For facial recognition, multi-view faces are synthesized to exploit real 3D information and test the efficacy of the proposed system. Due to optimal separating hyper plane (OSH), Support Vector Machine (SVM) is employed in multi-view face verification (FV) task. In addition, a multi stage unified classifier based face identification (FI) algorithm is employed which combines results from seven base classifiers, two parallel face recognition algorithms and an exponential rank combiner, all in a hierarchical manner. The performance figures of the proposed methodology are corroborated by extensive experiments performed on four benchmark datasets: GavabDB, Bosphorus, UMB-DB and FRGC v2.0. Results show mark improvement in alignment accuracy and recognition rates. Moreover, a computational complexity analysis has been carried out for the proposed algorithm which reveals its superiority in terms of computational efficiency as well.