• 제목/요약/키워드: face expression recognition

검색결과 197건 처리시간 0.024초

Person-Independent Facial Expression Recognition with Histograms of Prominent Edge Directions

  • Makhmudkhujaev, Farkhod;Iqbal, Md Tauhid Bin;Arefin, Md Rifat;Ryu, Byungyong;Chae, Oksam
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권12호
    • /
    • pp.6000-6017
    • /
    • 2018
  • This paper presents a new descriptor, named Histograms of Prominent Edge Directions (HPED), for the recognition of facial expressions in a person-independent environment. In this paper, we raise the issue of sampling error in generating the code-histogram from spatial regions of the face image, as observed in the existing descriptors. HPED describes facial appearance changes based on the statistical distribution of the top two prominent edge directions (i.e., primary and secondary direction) captured over small spatial regions of the face. Compared to existing descriptors, HPED uses a smaller number of code-bins to describe the spatial regions, which helps avoid sampling error despite having fewer samples while preserving the valuable spatial information. In contrast to the existing Histogram of Oriented Gradients (HOG) that uses the histogram of the primary edge direction (i.e., gradient orientation) only, we additionally consider the histogram of the secondary edge direction, which provides more meaningful shape information related to the local texture. Experiments on popular facial expression datasets demonstrate the superior performance of the proposed HPED against existing descriptors in a person-independent environment.

인간의 언어와 얼굴 표정에 통하여 자동적으로 감정 인식 시스템 새로운 접근법 (Automatic Human Emotion Recognition from Speech and Face Display - A New Approach)

  • 딩�E령;이영구;이승룡
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(B)
    • /
    • pp.231-234
    • /
    • 2011
  • Audiovisual-based human emotion recognition can be considered a good approach for multimodal humancomputer interaction. However, the optimal multimodal information fusion remains challenges. In order to overcome the limitations and bring robustness to the interface, we propose a framework of automatic human emotion recognition system from speech and face display. In this paper, we develop a new approach for fusing information in model-level based on the relationship between speech and face expression to detect automatic temporal segments and perform multimodal information fusion.

LDP 기반의 얼굴 표정 인식 평가 시스템의 설계 및 구현 (A Study of Evaluation System for Facial Expression Recognition based on LDP)

  • 이태환;조영탁;안용학;채옥삼
    • 융합보안논문지
    • /
    • 제14권7호
    • /
    • pp.23-28
    • /
    • 2014
  • 본 논문에서는 기존에 제안된 LDP(Local Directional Pattern)를 기반으로 얼굴 표정 인식 시스템에 대한 설계 및 구현 방법을 제안한다. LDP는 얼굴 영상을 구성하고 있는 각 화소를 주변 화소들과의 관계를 고려하여 지역적인 미세 패턴(Local Micro Pattern)으로 표현해준다. 새롭게 제시된 LDP에서 생성되는 코드들이 다양한 조건하에서 정확한 정보를 포함할 수 있는지의 여부를 검증할 필요가 있다. 따라서, 새롭게 제안된 지역 미세 패턴인 LDP를 다양한 환경에서 신속하게 검증하기 위한 평가 시스템을 구축한다. 제안된 얼굴 표정인식 평가 시스템에서는 6개의 컴포넌트를 거쳐 얼굴 표정인식률을 계산할 수 있도록 구성하였으며, Gabor, LBP와 비교하여 LDP의 인식률을 검증한다.

컴퓨터그래픽스를 이용한 사실적인 3D 인물 일러스트레이션의 표현 (Realistic 3-dimensional using computer graphics Expression of Human illustrations)

  • 김훈
    • 디자인학연구
    • /
    • 제19권1호
    • /
    • pp.79-88
    • /
    • 2006
  • 사람의 얼굴은 정체성의 시각적 상징이다. 사람마다 각기 다른 얼굴 모습은 타인과 구별할 수 있도록 하는 중요한 역할을 하면서 개인의 정체성과 직결된다. 역사적으로 볼 때 얼굴에 대한 시대적 인식의 변화와 함께 표현매체와 커뮤니케이션매체가 다양해지고 발전함에 따라 얼굴을 표현하는 것에도 많은 변화가 있었다. 그러나 지금처럼 얼굴에 대한 사람들의 관심과 주목이 컸던 적이 없었다. 기술적으로는 컴퓨터그래픽스의 등장으로 얼굴표현의 새로운 전기를 맞이하게 되었다. 특히 시각 이미지들이 디지털형태로 제작, 저장, 전송할 수 있게 되어 시간적, 공간적제약이 없어지면서 시각이미지정보는 커뮤니케이션에서 그 비중이 전보다 더 커지고 있다. 그 중에서 디지털로 만들어진 얼굴 이미지는 그 활용도가 점차 확대되고 있다. 이에 따라 컴퓨터그래픽스를 이용한 얼굴의 3d (3-dimensional) 표현은 수년전부터 얼굴 각 부분의 형태와 텍스추어 맵 등 각 요소들을 필요할 때 마치 퍼즐 조각처럼 조립해서 전문적인 기술이 없이도 손쉽게 표현할 수 있게 되었다. 본 연구에서는 3d 얼굴표현의 제작단계별 내용을 연구하고 그 결과를 바탕으로 케이스 스터디에서 시각화함으로써 3d 전문가가 아닌 일반 시각디자이너들이 3d 형태의 얼굴을 효과적으로 표현하는 방법을 연구한다.

  • PDF

UAV 및 모바일 기기를 위한 얼굴 표정 인식 네트워크 (Face Expression Recognition Network for UAV and Mobile Device)

  • 최은지;박병준;윤경로
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.348-351
    • /
    • 2021
  • 최근 자동화의 필요성이 증가함에 따라 얼굴 표정 인식 분야(face expression recognition)가 인공지능과 이미지 처리 분야에서 활발히 연구되고 있다. 본 논문에서는 기존 인공신경망에서 요구되었던 고성능 GPU 환경과 높은 연산량을 극복하고자 모델 경량화(Light weighted Model) 기법을 적용하여 드론 및 모바일 기기에서 적용될 수 있는 얼굴 표정 인식 신경망을 제안한다. 제안하는 방법은 미세한 얼굴의 표정 인식을 위한 방법으로, 입력 이미지의 receptive field 를 늘려 특징 맵의 표현력을 높이는 방법을 제안한다. 또한 효과적인 신경망의 경량화를 위하여, 파라미터의 연산량을 줄일 때 발생하는 문제점을 극복하기 위한 방법을 제시한다. 따라서 제안하는 네트워크를 적용하면 많은 연산량과 느린 연산속도로 인해 제한되었던 네트워크 환경을 극복할 수 있을 뿐만 아니라, UAV(Unmanned Aerial Vehicle, 무인항공기) 및 모바일 기기에서 신경망을 이용한 실시간 얼굴 표정 인식을 할 수 있다.

  • PDF

부분공간 기반 특징 추출기의 조명 변인에 대한 얼굴인식 성능 분석 (Face Recognition Evaluation of an Illumination Property of Subspace Based Feature Extractor)

  • 김광수;부덕희;안정호;곽수영;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권7호
    • /
    • pp.681-687
    • /
    • 2007
  • 오늘날 개인의 정보 보호 및 신분 확인을 위하여 생체 인식 분야 중에서 사람의 얼굴 인식기술이 많이 사용되고 있지만 조명, 자세, 표정 변화로 인하여 얼굴 인식의 성능 저하를 일으키는 문제가 있다. 본 논문에서는 얼굴 인식 결과에 큰 영향을 주는 요소인 조명 변화에 초점을 맞춰 D-LDA(Direct-Linear Disciminant Analysis)가 다른 기법들에 비해 덜 민감하게 수행할 수 있는 성질을 지녔음을 밝히 고자 한다. 측면광과 역광등의 조명 변화와 농도의 변화를 고려하여 조명 변화를 갖는 테스트를 갖는 ORL, Yale, 포항공대 데이타베이스를 여러 특징 추출 알고리즘에 적용함으로써 클래스, 학습 데이타 그리고 테스트 데이타 수가 각기 다른 세 종류의 데이타베이스에서 모두 D-LDA가 적은 학습 데이터에서도 조명 변인에 가장 덜 민감하게 반응하는 좋은 인식 성능을 갖는 성질을 지녔음을 보여준다.

서비스 로봇을 위한 감성인터페이스 기술 (Emotional Interface Technologies for Service Robot)

  • 양현승;서용호;정일웅;한태우;노동현
    • 로봇학회논문지
    • /
    • 제1권1호
    • /
    • pp.58-65
    • /
    • 2006
  • The emotional interface is essential technology for the robot to provide the proper service to the user. In this research, we developed emotional components for the service robot such as a neural network based facial expression recognizer, emotion expression technologies based on 3D graphical face expression and joints movements, considering a user's reaction, behavior selection technology for emotion expression. We used our humanoid robots, AMI and AMIET as the test-beds of our emotional interface. We researched on the emotional interaction between a service robot and a user by integrating the developed technologies. Emotional interface technology for the service robot, enhance the performance of friendly interaction to the service robot, to increase the diversity of the service and the value-added of the robot for human. and it elevates the market growth and also contribute to the popularization of the robot. The emotional interface technology can enhance the performance of friendly interaction of the service robot. This technology can also increase the diversity of the service and the value-added of the robot for human. and it can elevate the market growth and also contribute to the popularization of the robot.

  • PDF

얼굴에서 거리 측정에 의한 노래 플레이어 (Song Player by Distance Measurement from Face)

  • 신성윤;이민혜;신광성;이현창
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.667-669
    • /
    • 2022
  • 본 논문에서는 개인의 표정을 인식하여 그에 맞는 음악을 연주하는 시스템인 Face Song Player를 제시한다. 얼굴 윤곽선에 대한 정보를 연구하고 평균을 추출하여 얼굴형 정보를 획득한다. 학습용 DB는 MUCT DB를 사용하였다. 표정 인식을 위해 무표정 영상을 기반으로 각 표정의 특성 차이를 이용하여 알고리즘을 설계하였다.

  • PDF

모바일 기기를 이용한 정합필터 기반의 얼굴 검출 (Face Detection based on Matched Filtering with Mobile Device)

  • 염석원;이동수
    • 융합신호처리학회논문지
    • /
    • 제15권3호
    • /
    • pp.76-79
    • /
    • 2014
  • 얼굴 인식은 표정과 포즈 또는 주변 조명변화 등 예기치 못한 영향으로 어려움이 크다. 또한 모바일 장치에서 실시간 처리를 위하여 모바일 환경의 한정된 제한이 필히 고려되어야 한다. 본 논문에서 모바일 환경에서 주파수 영역의 정합 필터를 이용한 얼굴 검출 방법을 제안한다. 얼굴 검출은 선형(Linear) 또는 위상(Phase-only) 정합 필터(Matched filter), 순차적인 검증 단계를 이용하여 수행된다. 먼저 얼굴 후보 윈도우 영역은 정합필터의 출력에 의하여 추출되고 그 다음에 피부색 테스트와 에지 마스크 필터링 테스트로 검출된 후보 영역 중 오경보(False alarm) 영역이 제거된다. 제안된 방법은 Android 플랫폼에서 JAVA를 이용하여 개발되었다. 실험 결과는 모바일 환경에서 얼굴 인식이 실시간으로 성공적으로 수행될 수 있음을 보인다.

Local Similarity based Discriminant Analysis for Face Recognition

  • Xiang, Xinguang;Liu, Fan;Bi, Ye;Wang, Yanfang;Tang, Jinhui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권11호
    • /
    • pp.4502-4518
    • /
    • 2015
  • Fisher linear discriminant analysis (LDA) is one of the most popular projection techniques for feature extraction and has been widely applied in face recognition. However, it cannot be used when encountering the single sample per person problem (SSPP) because the intra-class variations cannot be evaluated. In this paper, we propose a novel method called local similarity based linear discriminant analysis (LS_LDA) to solve this problem. Motivated by the "divide-conquer" strategy, we first divide the face into local blocks, and classify each local block, and then integrate all the classification results to make final decision. To make LDA feasible for SSPP problem, we further divide each block into overlapped patches and assume that these patches are from the same class. To improve the robustness of LS_LDA to outliers, we further propose local similarity based median discriminant analysis (LS_MDA), which uses class median vector to estimate the class population mean in LDA modeling. Experimental results on three popular databases show that our methods not only generalize well SSPP problem but also have strong robustness to expression, illumination, occlusion and time variation.