• 제목/요약/키워드: face expression recognition

검색결과 197건 처리시간 0.025초

자동 얼굴인식을 위한 얼굴 지역 영역 기반 다중 심층 합성곱 신경망 시스템 (Facial Local Region Based Deep Convolutional Neural Networks for Automated Face Recognition)

  • 김경태;최재영
    • 한국융합학회논문지
    • /
    • 제9권4호
    • /
    • pp.47-55
    • /
    • 2018
  • 본 논문에서는 얼굴인식 성능 향상을 위해 얼굴 지역 영역 영상들로 학습된 다중개의 심층 합성곱 신경망(Deep Convolutional Neural Network)으로부터 추출된 심층 지역 특징들(Deep local features)을 가중치를 부여하여 결합하는 방법을 제안한다. 제안 방법에서는 지역 영역 집합으로 학습된 다중개의 심층 합성곱 신경망으로부터 추출된 심층 지역 특징들과 해당 지역 영역의 중요도를 나타내는 가중치들을 결합한 특징표현인 '가중치 결합 심층 지역 특징'을 형성한다. 일반화 얼굴인식 성능을 극대화하기 위해, 검증 데이터 집합(validation set)을 사용하여 지역 영역에 해당하는 가중치들을 계산하고 가중치 집합(weight set)을 형성한다. 가중치 결합 심층 지역 특징은 조인트 베이시안(Joint Bayesian) 유사도 학습방법과 최근접 이웃 분류기(Nearest Neighbor classifier)에 적용되어 테스트 얼굴영상의 신원(identity)을 분류하는데 활용된다. 제안 방법은 얼굴영상의 자세, 표정, 조명 변화에 강인하고 기존 최신 방법들과 비교하여 얼굴인식 성능을 향상시킬 수 있음이 체계적인 실험을 통해 검증되었다.

A Multimodal Emotion Recognition Using the Facial Image and Speech Signal

  • Go, Hyoun-Joo;Kim, Yong-Tae;Chun, Myung-Geun
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권1호
    • /
    • pp.1-6
    • /
    • 2005
  • In this paper, we propose an emotion recognition method using the facial images and speech signals. Six basic emotions including happiness, sadness, anger, surprise, fear and dislike are investigated. Facia] expression recognition is performed by using the multi-resolution analysis based on the discrete wavelet. Here, we obtain the feature vectors through the ICA(Independent Component Analysis). On the other hand, the emotion recognition from the speech signal method has a structure of performing the recognition algorithm independently for each wavelet subband and the final recognition is obtained from the multi-decision making scheme. After merging the facial and speech emotion recognition results, we obtained better performance than previous ones.

Modified Local Directional Pattern 영상을 이용한 얼굴인식 (Face Recognition using Modified Local Directional Pattern Image)

  • 김동주;이상헌;손명규
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권3호
    • /
    • pp.205-208
    • /
    • 2013
  • 일반적으로 이진패턴 변환은 조명 변화에 강인한 특성을 가지므로, 얼굴인식 및 표정인식 분야에 널리 사용되고 있다. 이에, 본 논문에서는 기존의 LDP(Local Directional Pattern)의 텍스처 성분을 개선한 MLDP(Modified LDP) 변환 영상에 2D-PCA(Two-Dimensional Principal Component Analysis) 알고리즘을 결합한 조명변화에 강인한 얼굴인식 방법에 대하여 제안한다. 기존의 LBP(Local Binary Pattern)나 LDP와 같은 이진패턴 변환들이 히스토그램 특징 추출을 위해 주로 사용되는 것과는 다르게, 본 논문에서 제안하는 방법은 MLDP 영상을 2D-PCA 특징추출을 위해 직접 사용한다는 특성을 갖는다. 제안 방법의 성능평가는 PCA(Principal Component Analysis), 2D-PCA 및 가버변환 영상과 LBP를 결합한 알고리즘을 사용하여, 다양한 조명변화 환경에서 구축된 Yale B 및 CMU-PIE 데이터베이스를 이용하여 수행되었다. 실험 결과, MLDP 영상과 2D-PCA를 사용한 제안 방법이 가장 우수한 인식 성능을 보임을 확인하였다.

이용자 중심의 얼굴 표정을 통한 감정 인식 TV의 상호관계 연구 -인간의 표정을 통한 감정 인식기반의 TV과 인간의 상호 작용 연구 (The interaction between emotion recognition through facial expression based on cognitive user-centered television)

  • 이종식;신동희
    • 한국HCI학회논문지
    • /
    • 제9권1호
    • /
    • pp.23-28
    • /
    • 2014
  • In this study we focus on the effect of the interaction between humans and reactive television when emotion recognition through facial expression mechanism is used. Most of today's user interfaces in electronic products are passive and are not properly fitted into users' needs. In terms of the user centered device, we propose that the emotion based reactive television is the most effective in interaction compared to other passive input products. We have developed and researched next generation cognitive TV models in user centered. In this paper we present a result of the experiment that had been taken with Fraunhofer IIS $SHORE^{TM}$ demo software version to measure emotion recognition. This new approach was based on the real time cognitive TV models and through this approach we studied the relationship between humans and cognitive TV. This study follows following steps: 1) Cognitive TV systems can be on automatic ON/OFF mode responding to motions of people 2) Cognitive TV can directly select channels as face changes (ex, Neutral Mode and Happy Mode, Sad Mode, Angry Mode) 3) Cognitive TV can detect emotion recognition from facial expression of people within the fixed time and then if Happy mode is detected the programs of TV would be shifted into funny or interesting shows and if Angry mode is detected it would be changed to moving or touching shows. In addition, we focus on improving the emotion recognition through facial expression. Furthermore, the improvement of cognition TV based on personal characteristics is needed for the different personality of users in human to computer interaction. In this manner, the study on how people feel and how cognitive TV responds accordingly, plus the effects of media as cognitive mechanism will be thoroughly discussed.

Skin Color Based Facial Features Extraction

  • Alom, Md. Zahangir;Lee, Hyo Jong
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.351-354
    • /
    • 2011
  • This paper discusses on facial features extraction based on proposed skin color model. Different parts of face from input image are segmented based on skin color model. Moreover, this paper also discusses on concept to detect the eye and mouth position on face. A height and width ratio (${\delta}=1.1618$) based technique is also proposed to accurate detection of face region from the segmented image. Finally, we have cropped the desired part of the face. This exactly exacted face part is useful for face recognition and detection, facial feature analysis and expression analysis. Experimental results of propose method shows that the proposed method is robust and accurate.

Patch based Semi-supervised Linear Regression for Face Recognition

  • Ding, Yuhua;Liu, Fan;Rui, Ting;Tang, Zhenmin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권8호
    • /
    • pp.3962-3980
    • /
    • 2019
  • To deal with single sample face recognition, this paper presents a patch based semi-supervised linear regression (PSLR) algorithm, which draws facial variation information from unlabeled samples. Each facial image is divided into overlapped patches, and a regression model with mapping matrix will be constructed on each patch. Then, we adjust these matrices by mapping unlabeled patches to $[1,1,{\cdots},1]^T$. The solutions of all the mapping matrices are integrated into an overall objective function, which uses ${\ell}_{2,1}$-norm minimization constraints to improve discrimination ability of mapping matrices and reduce the impact of noise. After mapping matrices are computed, we adopt majority-voting strategy to classify the probe samples. To further learn the discrimination information between probe samples and obtain more robust mapping matrices, we also propose a multistage PSLR (MPSLR) algorithm, which iteratively updates the training dataset by adding those reliably labeled probe samples into it. The effectiveness of our approaches is evaluated using three public facial databases. Experimental results prove that our approaches are robust to illumination, expression and occlusion.

감성ICT 교육을 위한 얼굴감성 인식 시스템에 관한 연구 (A Study on the System of Facial Expression Recognition for Emotional Information and Communication Technology Teaching)

  • 송은지
    • 한국실천공학교육학회논문지
    • /
    • 제4권2호
    • /
    • pp.171-175
    • /
    • 2012
  • 최근 정보기술을 이용하여 인간의 감정을 인식하고 소통할 수 있는 ICT(Information and Communication Technology)의 연구가 증가하고 있다. 예를 들어 상대방의 마음을 읽기 위해서 그 사람과의 관계를 형성하고 활동을 해야만 하는 시대에서 사회의 디지털화로 그 경험이 디지털화 되어가며 마인드를 리딩 할 수 있는 디지털기기들이 출현하고 있다. 즉, 인간만이 예측할 수 있었던 감정을 디지털 기기가 대신해 줄 수 있게 된 것이다. 얼굴에서의 감정인식은 현재 연구되어지는 여러 가지 감정인식 중에서 효율적이고 자연스러운 휴먼 인터페이스로 기대되고 있다. 본 논문에서는 감성 ICT에 대한 고찰을 하고 그 사례로서 얼굴감정 인식 시스템에 대한 메카니즘을 살펴보고자 한다.

  • PDF

블록가중치의 최적화를 통해 개선된 LBP기반의 표정인식 (An Improved LBP-based Facial Expression Recognition through Optimization of Block Weights)

  • 박성천;구자영
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권11호
    • /
    • pp.73-79
    • /
    • 2009
  • 본 논문에서는 Local Binary Pattern 히스토그램의 템플릿 매칭을 이용한 얼굴 표정 인식에서 인식률을 높이는 방법을 제안한다. 이 방법에서, 주어진 얼굴 영상은 작은 크기의 블록으로 분할되고 각 블록에서 구해진 LBP 히스토그램은 블록 특징으로 사용된다. 입력 영상에서의 블록 특징과 모델의 해당블록 특징 사이에서 블록 상이도가 계산된다. 주어진 영상과 모델 영상 사이의 영상 상이도는 블록 상이도의 가중 합으로 계산된다. 기존의 방법들에서는 직관에 따른 블록 가중치를 사용하는데 본 논문에서는 블록 가중치를 트레이닝 샘플들로부터 최적화를 통해서 구하는 방법을 제안하고 있다. 실험을 통해서 제안된 방법이 기존의 방법보다 우수함을 보인다.

시선추적 장치를 활용한 부정적 감정표현 이모티콘의 시각적 주의집중도 분석 (Analysis of Visual Attention in Negative Emotional Expression Emoticons using Eye-Tracking Device)

  • 박민희;권만우;황미경
    • 한국멀티미디어학회논문지
    • /
    • 제24권11호
    • /
    • pp.1580-1587
    • /
    • 2021
  • Currently, the development and sale of various emoticons has given users a wider range of choices, but a systematic and specific approach to the recognition and use of emoticons by actual users is lacking. Therefore, this study tried to investigate the subjective perception and visual attention concentration of actual users on negative emotional expression emoticons through a survey and eye tracking experiment. First, as a result of subjective recognition analysis, it was found that emoticons are frequently used because their appearance is important, and they can express various emotions in a fun and interesting way. In particular, it was found that emoticons that express negative emotions are often used because they can indirectly express negative emotions through various and concretely expressed visual elements. Next, as a result of the eye tracking experiment, it was found that the negative emotional expression emoticons focused on the large elements that visually emphasized or emphasized the emotional expression elements, and it was found that the focus was not only on the facial expression but also on the physical behavioral responses and language of expression of emotions. These results will be used as basic data to understand users' perceptions and utilization of the diversified emoticons. In addition, for the long-term growth and activation of the emoticon industry market in the future, continuous research should be conducted to understand the various emotions of real users and to develop differentiated emoticons that can maximize the empathy effect appropriate to the situation.

Gabor 웨이브렛과 FCM 군집화 알고리즘에 기반한 동적 연결모형에 의한 얼굴표정에서 특징점 추출 (Feature-Point Extraction by Dynamic Linking Model bas Wavelets and Fuzzy C-Means Clustering Algorithm)

  • 신영숙
    • 인지과학
    • /
    • 제14권1호
    • /
    • pp.10-10
    • /
    • 2003
  • 본 논문은 Gabor 웨이브렛 변환을 이용하여 무표정을 포함한 표정영상에서 얼굴의 주요 요소들의 경계선을 추출한 후, FCM 군집화 알고리즘을 적용하여 무표정 영상에서 저차원의 대표적인 특징점을 추출한다. 무표정 영상의 특징점들은 표정영상의 특징점들을 추출하기 위한 템플릿으로 사용되어지며, 표정영상의 특징점 추출은 무표정 영상의 특징점과 동적 연결모형을 이용하여 개략적인 정합과 정밀한 정합 과정의 두단계로 이루어진다. 본 논문에서는 Gabor 웨이브렛과 FCM 군집화 알고리즘을 기반으로 동적 연결모형을 이용하여 표정영상에서 특징점들을 자동으로 추출할 수 있음을 제시한다. 본 연구결과는 자동 특징추출을 이용한 차원모형기반 얼굴 표정인식[1]에서 얼굴표정의 특징점을 자동으로 추출하는 데 적용되었다.