• 제목/요약/키워드: face expression recognition

검색결과 197건 처리시간 0.031초

Signed Local Directional Pattern을 이용한 강력한 얼굴 표정인식 (Robust Facial Expression Recognition Based on Signed Local Directional Pattern)

  • 류병용;김재면;안기옥;송기훈;채옥삼
    • 전자공학회논문지
    • /
    • 제51권6호
    • /
    • pp.89-101
    • /
    • 2014
  • 본 논문에서는 얼굴 표정인식을 위한 새로운 지역 미세 패턴 기술 방법인 Signed Local Directional Pattern(SLDP)을 제안한다. SLDP는 얼굴 영상의 텍스쳐 정보를 표현하기 위해 에지 정보를 이용한다. 이는 기존의 방법들에 비해 뛰어난 구별 성능과 효율적인 코드 생성을 가능하게 한다. SLDP는 마스크 범위 이웃 화소들을 이용하여 에지 반응 값을 계산하고 이들 중 부호를 고려하여 에지 반응 값이 큰 에지 방향 정보를 가지고 만들어진다. 이는 기존 LDP에서 구별하지 못하던 비슷한 에지구조에 밝기 값이 반대인 지역 패턴을 구별할 수 있다. 본 논문에서는 얼굴 표정인식을 위해 얼굴 영상을 여러 영역으로 분할하고 각 영역으로부터 SLDP코드의 분포를 계산한다. 각 분포는 얼굴의 지역적인 특징을 나타내고 이들 특징을 연결해서 얼굴 전체를 나타내는 얼굴 특징 벡터를 생성한다. 본 논문에서는 생성된 얼굴 특징 벡터와 SVM(Support Vector Machine)을 이용해서 Cohn-Kanade 데이터베이스와 JAFFE데이터베이스에서 얼굴 표정인식을 수행했다. SLDP는 표정인식에서 기존 방법들보다 뛰어난 결과를 보여주었다.

Transfer Learning for Face Emotions Recognition in Different Crowd Density Situations

  • Amirah Alharbi
    • International Journal of Computer Science & Network Security
    • /
    • 제24권4호
    • /
    • pp.26-34
    • /
    • 2024
  • Most human emotions are conveyed through facial expressions, which represent the predominant source of emotional data. This research investigates the impact of crowds on human emotions by analysing facial expressions. It examines how crowd behaviour, face recognition technology, and deep learning algorithms contribute to understanding the emotional change according to different level of crowd. The study identifies common emotions expressed during congestion, differences between crowded and less crowded areas, changes in facial expressions over time. The findings can inform urban planning and crowd event management by providing insights for developing coping mechanisms for affected individuals. However, limitations and challenges in using reliable facial expression analysis are also discussed, including age and context-related differences.

Haar 웨이블릿 특징과 피부색 정보를 이용한 실시간 얼굴 검출 및 추적 방법 (A Real-Time Face Detection/Tracking Methodology Using Haar-wavelets and Skin Color)

  • 박영경;서해종;민경원;김중규
    • 정보처리학회논문지B
    • /
    • 제13B권3호
    • /
    • pp.283-294
    • /
    • 2006
  • 본 논문은 Haar 웨이블릿 특징과 피부색 정보를 이용한 실시간 얼굴 검출 및 추적 방법을 제안한다. 검출과 추적이 각기 다른 특징들을 이용해 이루어졌던 기존 방법과는 달리 본 논문에서는 피부색 정보와 Haar 웨이블릿 특징을 검출과 추적에 동시에 이용하고 두 특징들을 효과적으로 융합함으로써 빠르고 강인한 추적을 가능하게 한다. 제안된 방법은 검출과 추적에 동일한 특징을 이용함에도 불구하고 표본화에 기반을 둔 Condensation 알고리즘의 특징으로 인해 검출 방법만을 적용했을 때 검출하지 못하는 얼굴의 회전이나 가려짐 등의 문제를 효과적으로 해결한다. 특히, 얼굴의 위치와 함께 크기 변화를 효과적으로 추적하기 때문에 얼굴의 위치 및 크기를 정확하게 알아야 하는 얼굴 인식이나 표정인식 등의 다양한 어플리케이션에 이용되기에 용이하다. 제안된 방법은 복잡한 배경 및 다양한 얼굴 자세 등의 변화에 대한 테스트를 통해 효율성을 검증한다.

ICA-factorial 표현법을 이용한 얼굴감정인식 (Facial Expression Recognition using ICA-Factorial Representation Method)

  • 한수정;곽근창;고현주;김승석;전명근
    • 한국지능시스템학회논문지
    • /
    • 제13권3호
    • /
    • pp.371-376
    • /
    • 2003
  • 본 논문에서는 효과적인 정보를 표현하는 Independent Component Analysis(ICA)-factorial 표현방법을 이용하여 얼굴감정 인식을 수행한다. 얼굴감정인식은 두 단계인 특징추출 과정과 인식과정에 의해 이루어진다. 먼저 특징추출방법은 주성분 분석(Principal Component Analysis)을 이용하여 얼굴영상의 고차원 공간을 저차원 특징공간으로 변환한 후 ICA-factorial 표현방법을 통해 좀 더 효과적으로 특징벡터를 추출한다. 인식단계는 최소거리 분류방법인 유클리디안 거리에 근거한 K-Nearest Neighbor 알고리즘으로 얼굴감정을 인식한다. 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 공포, 혐오)에 대해 얼굴 감정 데이터베이스를 구축하고 실험해본 결과 기존의 방법보다 좋은 인식 성능을 얻었다.

감정노동자를 위한 딥러닝 기반의 스트레스 감지시스템의 설계 (Stress Detection System for Emotional Labor Based On Deep Learning Facial Expression Recognition)

  • 옥유선;조우현
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.613-617
    • /
    • 2021
  • 서비스 산업의 성장과 함께 감정노동자의 스트레스가 사회적 문제로 인식되어 2018년 감정노동자 보호법이 시행되었다. 그러나 실질적인 감정노동자 보호 시스템의 부족으로 스트레스 관리를 위한 디지털 시스템이 필요한 시점이다. 본 논문에서는 대표적인 감정노동자인 고객 상담사를 위한 딥러닝 기반 스트레스 감지 시스템을 제안한다. 시스템은 실시간 얼굴검출 모듈, 한국인 감정 이미지 중심의 이미지 빅데이터를 딥러닝한 감정분류 FER 모듈, 마지막으로 스트레스 수치만을 시각화하는 모니터링 모듈로 구성된다. 이 시스템을 통하여 감정노동자의 스트레스 모니터링과 정신질환 예방을 목표로 설계하였다.

  • PDF

Harris Corner Detection for Eyes Detection in Facial Images

  • Navastara, Dini Adni;Koo, Kyung-Mo;Park, Hyun-Jun;Cha, Eui-Young
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 춘계학술대회
    • /
    • pp.373-376
    • /
    • 2013
  • Nowadays, eyes detection is required and considered as the most important step in several applications, such as eye tracking, face identification and recognition, facial expression analysis and iris detection. This paper presents the eyes detection in facial images using Harris corner detection. Firstly, Haar-like features for face detection is used to detect a face region in an image. To separate the region of the eyes from a whole face region, the projection function is applied in this paper. At the last step, Harris corner detection is used to detect the eyes location. In experimental results, the eyes location on both grayscale and color facial images were detected accurately and effectively.

  • PDF

An Action Unit co-occurrence constraint 3DCNN based Action Unit recognition approach

  • Jia, Xibin;Li, Weiting;Wang, Yuechen;Hong, SungChan;Su, Xing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.924-942
    • /
    • 2020
  • The facial expression is diverse and various among persons due to the impact of the psychology factor. Whilst the facial action is comparatively steady because of the fixedness of the anatomic structure. Therefore, to improve performance of the action unit recognition will facilitate the facial expression recognition and provide profound basis for the mental state analysis, etc. However, it still a challenge job and recognition accuracy rate is limited, because the muscle movements around the face are tiny and the facial actions are not obvious accordingly. Taking account of the moving of muscles impact each other when person express their emotion, we propose to make full use of co-occurrence relationship among action units (AUs) in this paper. Considering the dynamic characteristic of AUs as well, we adopt the 3D Convolutional Neural Network(3DCNN) as base framework and proposed to recognize multiple action units around brows, nose and mouth specially contributing in the emotion expression with putting their co-occurrence relationships as constrain. The experiments have been conducted on a typical public dataset CASME and its variant CASME2 dataset. The experiment results show that our proposed AU co-occurrence constraint 3DCNN based AU recognition approach outperforms current approaches and demonstrate the effectiveness of taking use of AUs relationship in AU recognition.

A Study on Non-Contact Care Robot System through Deep Learning

  • Hyun-Sik Ham;Sae Jun Ko
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권12호
    • /
    • pp.33-40
    • /
    • 2023
  • 한국이 초고령사회로 진입하면서 노인 복지에 대한 필요성이 증가하고 있으나 현재 복지 인력 부족이 사회문제로 대두되고 있다. 이에 대한 해결책으로 노인의 사회적 고립감 완화와 위급 상황 시 비상 연락 등의 기능을 하는 노인 돌봄 로봇이 활발히 연구되고 있다. 하지만 이러한 기능들은 사용자의 접촉이 있어야만 작동하여 기존 노인 돌봄 로봇의 한계점으로 자리 잡고 있다. 본 논문에서는 기존의 문제를 해결하기 위해 상용화된 노인 돌봄 로봇과 카메라를 통해 직접적인 접촉 없이도 사용자와 상호작용할 수 있는 돌봄 로봇 시스템을 제안한다. 돌봄 로봇에 연결된 엣지 디바이스에 표정 인식 모델과 행동 인식 모델을 탑재하였고, 공공데이터를 통해 모델의 학습 및 성능검증을 진행했다. 실험 결과를 통해 표정 인식과 행동 인식의 성능이 각각 정확도 96.5%, 90.9%인 것을 확인할 수 있으며, 수행 시간의 경우에는 각각 50ms, 350ms인 것을 확인할 수 있다. 해당 결과는 제안한 시스템의 표정 및 행동 인식 정확도가 높고 추론 시간이 효율적임을 확인하며, 이는 비접촉 상황에서도 원활한 상호작용을 가능하게 한다.

Hand gesture recognition for player control

  • 시란얀;김진규;염동회;주영훈
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2011년도 제42회 하계학술대회
    • /
    • pp.1908-1909
    • /
    • 2011
  • Hand gesture recognition has been widely used in virtual reality and HCI (Human-Computer-Interaction) system, which is challenging and interesting subject in the vision based area. The existing approaches for vision-driven interactive user interfaces resort to technologies such as head tracking, face and facial expression recognition, eye tracking and gesture recognition. The purpose of this paper is to combine the finite state machine (FSM) and the gesture recognition method, in other to control Windows Media Player, such as: play/pause, next, pervious, and volume up/down.

  • PDF

다차원 데이터의 동적 얼굴 이미지그래픽 표현 (Representation of Dynamic Facial ImageGraphic for Multi-Dimensional)

  • 최철재;최진식;조규천;차홍준
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권10호
    • /
    • pp.1291-1300
    • /
    • 2001
  • 이 논문은 실시간 변화가 가능한 동적 그래픽스를 기반하며, 인간의 감성적 인식을 위해서 이미지 영상을 다차원 데이터의 그래픽 요소로 조작하는 시각화 표현 기법으로 연구되었다. 이 구현의 중요한 사상은 사람의 얼굴 특징 점과 기존의 화상 인식 알고리즘을 바탕으로 획득한 모수 제어 값을 다차원 데이터에 대응시켜 그 변화하는 수축 표정에 따라 감성 표현의 가상 이미지를 생성하는 이미지그래픽으로 표현한다. 제안된 DyFIG 시스템은 감성적인 표현을 할 수 있는 얼굴 그래픽의 모듈을 제안하고 구현하며, 조작과 실험을 통해 감성 데이터 표현 기술과 기법이 실현 가능함을 보인다.

  • PDF