• 제목/요약/키워드: Facial Feature Recognition

검색결과 279건 처리시간 0.022초

무게중심을 이용한 자동얼굴인식 시스템의 구현 (Implementation of an automatic face recognition system using the object centroid)

  • 풍의섭;김병화;안현식;김도현
    • 전자공학회논문지B
    • /
    • 제33B권8호
    • /
    • pp.114-123
    • /
    • 1996
  • In this paper, we propose an automatic recognition algorithm using the object centroid of a facial image. First, we separate the facial image from the background image using the chroma-key technique and we find the centroid of the separated facial image. Second, we search nose in the facial image based on knowledge of human faces and the coordinate of the object centroid and, we calculate 17 feature parameters automatically. Finally, we recognize the facial image by using feature parameters in the neural networks which are trained through error backpropagation algorithm. It is illustrated by experiments by experiments using the proposed recogniton system that facial images can be recognized in spite of the variation of the size and the position of images.

  • PDF

gradCam을 사용한 얼굴인식 신경망 (Face Recognition Network using gradCAM)

  • 백찬형;권지훈;정호엽
    • 스마트미디어저널
    • /
    • 제12권2호
    • /
    • pp.9-14
    • /
    • 2023
  • 이 논문에서는 gradCAM를 활용한 적은 데이터로 얼굴 전체 또는 더 다양한 feature을 사용하여 얼굴인식을 할 수 있는 새로운 앙상블 방법론을 제안하였다. 인공지능 모델의 판단 근거는 gradCAM을 통하여 saliency map으로 표현될 수 있다. 따라서 본 논문에서는 학습된 얼굴인식 모델이 어느 부분에 편향적으로 관찰하여 판단했는지 gradCAM으로 시각화한다. 계산된 saliency map에서 일정 수치 이상의 돌출된 부분을 추가 모델이 학습에 사용할 수 없도록 노이즈를 추가해 데이터를 생산한다. 노이즈를 추가해서 만든 데이터로 학습할 경우 노이즈 부분을 활용하여 학습을 할 수 없으므로 새로운 얼굴 부분을 사용하여 얼굴인식 네트워크를 학습하게 된다. 기본 데이터로 학습한 네트워크와 돌출 부분에 노이즈를 추가해서 학습한 모델은 얼굴의 서로 다른 얼굴 feature을 사용할 수밖에 없고, 앙상블로 결합했을 때 얼굴의 좀 더 다양한 부분들을 사용한 임베딩 feature를 만들 수 있다. 이 논문에서 제안하는 앙상블 기법은 일반적인 앙상블 모델보다 정확도는 1.79% 상승하였고 equal error rate (EER)은 0.01788 감소하였다.

Active Shape Model을 이용한 외형기반 얼굴표정인식에 관한 연구 (A Study on Appearance-Based Facial Expression Recognition Using Active Shape Model)

  • 김동주;신정훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권1호
    • /
    • pp.43-50
    • /
    • 2016
  • 본 논문에서는 ASM(Active Shape Model) 특징점(Landmark)을 이용하여 정밀한 얼굴영역을 획득하고, 외형기반 접근법으로 표정을 인식하는 방법에 대하여 제안한다. 외형기반 표정인식은 EHMM(Embedded Hidden Markov Model) 및 이진패턴 히스토그램 특징과 SVM(Support Vector Machine)을 사용하는 알고리즘으로 구성되며, 제안 방법의 성능평가는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 이용하여 수행되었다. 더불어, 성능비교는 기존의 눈 거리 기반의 얼굴 정규화 방법과 비교를 통하여 수행되었고, 또한 ASM 전체 특징점 및 변형된 특징을 SVM으로 인식하는 기하학적 표정인식 방법론과 성능비교를 수행하였다. 실험 결과, 제안 방법은 거리기반 얼굴정규화 영상을 사용한 방법보다 CK 데이터베이스 및 JAFFE 데이터베이스 경우, 최대 6.39%와 7.98%의 성능향상을 보였다. 또한, 제안 방법은 기하학적 특징점을 사용한 방법보다 높은 인식 성능을 보였으며, 이로부터 제안하는 표정인식 방법의 효용성을 확인하였다.

A Video Expression Recognition Method Based on Multi-mode Convolution Neural Network and Multiplicative Feature Fusion

  • Ren, Qun
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.556-570
    • /
    • 2021
  • The existing video expression recognition methods mainly focus on the spatial feature extraction of video expression images, but tend to ignore the dynamic features of video sequences. To solve this problem, a multi-mode convolution neural network method is proposed to effectively improve the performance of facial expression recognition in video. Firstly, OpenFace 2.0 is used to detect face images in video, and two deep convolution neural networks are used to extract spatiotemporal expression features. Furthermore, spatial convolution neural network is used to extract the spatial information features of each static expression image, and the dynamic information feature is extracted from the optical flow information of multiple expression images based on temporal convolution neural network. Then, the spatiotemporal features learned by the two deep convolution neural networks are fused by multiplication. Finally, the fused features are input into support vector machine to realize the facial expression classification. Experimental results show that the recognition accuracy of the proposed method can reach 64.57% and 60.89%, respectively on RML and Baum-ls datasets. It is better than that of other contrast methods.

배경영상에서 유전자 알고리즘을 이용한 얼굴의 각 부위 추출 (Facial Feature Extraction using Genetic Algorithm from Original Image)

  • 이형우;이상진;박석일;민홍기;홍승홍
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 하계종합학술대회 논문집(4)
    • /
    • pp.214-217
    • /
    • 2000
  • Many researches have been performed for human recognition and coding schemes recently. For this situation, we propose an automatic facial feature extraction algorithm. There are two main steps: the face region evaluation from original background image such as office, and the facial feature extraction from the evaluated face region. In the face evaluation, Genetic Algorithm is adopted to search face region in background easily such as office and household in the first step, and Template Matching Method is used to extract the facial feature in the second step. We can extract facial feature more fast and exact by using over the proposed Algorithm.

  • PDF

근육기반의 특징모델을 이용한 얼굴표정인식에 관한 연구 (Recognition of Facial Expressions Using Muscle-eased Feature Models)

  • 김동수;남기환;한준희;박호식;차영석;최현수;배철수;권오홍;나상동
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 1999년도 추계종합학술대회
    • /
    • pp.416-419
    • /
    • 1999
  • 얼굴특징들의 추적을 위한 근육을 기반으로 한 특징모델을 사용한다. 그 특징모델은 적은 파라메터와 범위와 방향으로 한정된 변형으로 구성되고, 각 특징점에 관한 검색 공간은 한정되어질 수 있다. 본 논문에서는 6개로 분류한 주요 얼굴표정에 대해 근육의 수축강도로 추정한다. 그 수축 벡터는 얼굴근육모델의 변화량으로부터 얻어지며, 유사도는 _그것들의 벡터와 대표하는 주요한 표정들의 벡터사이로 규정짓고, 얼굴표정들의 측정을 위해 사용된다.

  • PDF

FCM 군집화 알고리즘에 의한 얼굴의 특징점에서 Gabor 웨이브렛을 이용한 복원 (Reconstruction from Feature Points of Face through Fuzzy C-Means Clustering Algorithm with Gabor Wavelets)

  • 신영숙;이수용;이일병;정찬섭
    • 인지과학
    • /
    • 제11권2호
    • /
    • pp.53-58
    • /
    • 2000
  • 본 논문은 FCM 군집화 알고리즘을 사용하여 표정영상에서 특징점들을 추출한 후 추출된 특징점으로부터 Gabor 웨이브렛들을 이용하여 표정영상의 국소영역을 복원한다. 얼굴의 특징점 추출은 두단계로 이루어진다. 1단계는 이차원 Gabor 웨이브렛 계수 히스토그램의 평균값을 적용하여 얼굴의 주요 요소성분들의 경계선을 추출한 후, 2단계에서는 추출된 경계선 정보로부터 FCM 군집화 알고리즘을 사용하여 얼굴의 주요 요소성분들의 최종적인 특징점들을 추출한다. 본 연구에서는 FCM 군집화 알고리즘을 이용하여 추출된 적은 수의 특징점들 만으로도 표정영상의 주요 요소들을 복원할 수 있음을 제시한다. 이것은 인간의 얼굴 표정인식 뿐만아니라 물체인식에도 적용되어질 수 있다.

  • PDF

Advanced AAM 기반 정서특징 검출 기법 개발 (Development of Emotional Feature Extraction Method based on Advanced AAM)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.834-839
    • /
    • 2009
  • 지능로봇시스템과 같은 HCI 환경에서 사람의 감정을 인식하기 위한 매개정보인 얼굴영상 기반 정서특징 검출문제는 관련분야의 매우 중요한 이슈이다. 본 논문에서는 보편화된 시스템 기반에서 임의의 사용자에 대한 정서 인식을 수행하기 위해 사람의 얼굴에서 나타나는 최적의 정서특징을 가장 효율적으로 추출하기 위한 연구로서 본 연구실에서 기존에 제안한 FACS와 AAM을 이용한 Bayesian Network 기반 얼굴표정 인식 시스템을 보완한 Advanced AAM을 기반 얼굴영상 정서 특징을 검출 시스템에 대한 연구를 진행하였다. 이를 수행하기 위하여 정규화된 이미지에서의 Statistical Shape Analysis로서 Advanced AAM과 얼굴 표정 분석 시스템인 FACS를 이용하여, 임의의 사용자에 대한 자동적인 정서특징 검출이 가능하도록 연구를 진행하였다.

Facial Feature Extraction Based on Private Energy Map in DCT Domain

  • Kim, Ki-Hyun;Chung, Yun-Su;Yoo, Jang-Hee;Ro, Yong-Man
    • ETRI Journal
    • /
    • 제29권2호
    • /
    • pp.243-245
    • /
    • 2007
  • This letter presents a new feature extraction method based on the private energy map (PEM) technique to utilize the energy characteristics of a facial image. Compared with a non-facial image, a facial image shows large energy congestion in special regions of discrete cosine transform (DCT) coefficients. The PEM is generated by energy probability of the DCT coefficients of facial images. In experiments, higher face recognition performance figures of 100% for the ORL database and 98.8% for the ETRI database have been achieved.

  • PDF

LDP를 이용한 지역적 얼굴 특징 표현 방법에 관한 연구 (A study on local facial features using LDP)

  • 조영탁;정웅경;안용학;채옥삼
    • 융합보안논문지
    • /
    • 제14권5호
    • /
    • pp.49-56
    • /
    • 2014
  • 본 논문에서는 기존의 제안된 LDP(Local Directional Pattern)에 기반하여 지역적인 얼굴특징을 표현하는 방법을 제안한다. 제안된 방법은 눈과 입과 같은 얼굴의 영구적인 특징과 표정이 변하면서 발생하는 일시적인 특징을 효과적으로 표현할 수 있도록 얼굴특징별로 크기와 형태를 달리하는 중첩 가능한 블록을 설정하고 이를 바탕으로 얼굴 특징벡터를 구성한다. 제안된 중첩 블록설정 및 특징 표현 방법은 기하학적 특징을 기반으로 하는 접근 방법의 장점을 수용할 뿐만 아니라 각 얼굴특징의 움직임 특성을 이용하여 얼굴검출에 대한 오류를 수용할 수 있고, 블록사이즈의 가변성으로 인한 공간정보를 유지할 수 있어 표본오차를 줄일 수 있는 장점이 있다. 실험결과, 제안된 방법은 기존 방법에 비해 인식률이 향상됨을 확인하였고, 기존 얼굴 특징 벡터보다 길이가 짧기 때문에 연산량 또한 감소하는 것을 확인하였다.