• 제목/요약/키워드: facial recognition

검색결과 711건 처리시간 0.029초

유전자 알고리즘에 의한 얼굴인식성능의 향상 방안 (The Improving Method of Facial Recognition Using the Genetic Algorithm)

  • 배경율
    • 지능정보연구
    • /
    • 제11권1호
    • /
    • pp.95-105
    • /
    • 2005
  • 얼굴인식을 이용해 출입을 통제하는 보안 시스템에 있어서 얼굴인식성능은 인증 대상의 변화 (표정, 헤어스타일, 나이, 화장)에 커다란 영향을 받는다. 이처럼 수시로 변화하는 환경 변화를 보완하기 위하여 일반적인 얼굴인식 시스템에서는 일정한 보안 임계치를 설정해두고 임계치 내에 포함되는 얼굴을 기존에 등록된 얼굴과 교체하거나 추가적으로 등록하는 업데이트 방식이 사용되고 있다. 그러나 이러한 방식은 부정확한 매칭 결과를 보이거나, 유사한 얼굴에 쉽게 반응할 수 있다. 따라서 우리는 각 얼굴간의 유사도나 인증 대상의 변화를 흡수하며, 잘못된 얼굴 등록을 방지하기 위한 방법으로 학습 성능이 우수한 유전자 알고리즘을 제안하고자 한다. 변화가 심하고 유사한 얼굴영상(한사람 당 10개씩의 변화된 300개의 얼굴 영상)에 대하여 실험을 수행하였고, 얼굴인식기법은 주성분 분석에 기초한 고유얼굴을 이용하였다. 제안된 방식은 기존 얼굴인식 출입통제 시스템에 비해 우성인자의 인식률을 향상뿐만 아니라 유사 얼굴(열성인자)에 반응하는 비율을 감소시키는 효과를 보였다.

  • PDF

An Action Unit co-occurrence constraint 3DCNN based Action Unit recognition approach

  • Jia, Xibin;Li, Weiting;Wang, Yuechen;Hong, SungChan;Su, Xing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.924-942
    • /
    • 2020
  • The facial expression is diverse and various among persons due to the impact of the psychology factor. Whilst the facial action is comparatively steady because of the fixedness of the anatomic structure. Therefore, to improve performance of the action unit recognition will facilitate the facial expression recognition and provide profound basis for the mental state analysis, etc. However, it still a challenge job and recognition accuracy rate is limited, because the muscle movements around the face are tiny and the facial actions are not obvious accordingly. Taking account of the moving of muscles impact each other when person express their emotion, we propose to make full use of co-occurrence relationship among action units (AUs) in this paper. Considering the dynamic characteristic of AUs as well, we adopt the 3D Convolutional Neural Network(3DCNN) as base framework and proposed to recognize multiple action units around brows, nose and mouth specially contributing in the emotion expression with putting their co-occurrence relationships as constrain. The experiments have been conducted on a typical public dataset CASME and its variant CASME2 dataset. The experiment results show that our proposed AU co-occurrence constraint 3DCNN based AU recognition approach outperforms current approaches and demonstrate the effectiveness of taking use of AUs relationship in AU recognition.

3차원 안면자동인식기(3D-AFRA)의 Hardware 정밀도 검사 : 형상복원 오차분석 (An Hardware Error Analysis of 3D Automatic Face Recognition Apparatus(3D-AFRA) : Surface Reconstruction)

  • 석재화;송정훈;김현진;유정희;곽창규;이준희;고병희;김종원;이의주
    • 사상체질의학회지
    • /
    • 제19권2호
    • /
    • pp.30-39
    • /
    • 2007
  • 1. Objectives The Face is an important standard for the classification of Sasang Constitution. We are developing 3D Automatic Face Recognition Apparatus(3D-AFRA) to analyse the facial characteristics. This apparatus show us 3D image and data of man's face and measure facial figure data. So we should examine the figure restoration error of 3D Automatic Fare Recognition Apparatus(3D-AFRA) in hardware Error Analysis. 2. Methods We scanned Face status by using 3D Automatic Face Recognition Apparatus(3D-AFRA). And also we scanned Face status by using laser scanner(vivid 9i). We compared facial shape data be restored by 3D Automatic Face Recognition Apparatus(3D-AFRA) with facial shape data that be restorated by 3D laser scanner. And we analysed the average error and the maximum error of two data. 3. Results and Conclusions In frontal face, the average error was 0.48mm. and the maximum error was 4.60mm. In whole face, the average error of was 0.99mm. And the maximum error was 6.64mm. In conclusion, We assessed that accuracy of 3D Automatic Face Recognition Apparatus(3D-AFRA) is considerably good.

  • PDF

A Study on Non-Contact Care Robot System through Deep Learning

  • Hyun-Sik Ham;Sae Jun Ko
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권12호
    • /
    • pp.33-40
    • /
    • 2023
  • 한국이 초고령사회로 진입하면서 노인 복지에 대한 필요성이 증가하고 있으나 현재 복지 인력 부족이 사회문제로 대두되고 있다. 이에 대한 해결책으로 노인의 사회적 고립감 완화와 위급 상황 시 비상 연락 등의 기능을 하는 노인 돌봄 로봇이 활발히 연구되고 있다. 하지만 이러한 기능들은 사용자의 접촉이 있어야만 작동하여 기존 노인 돌봄 로봇의 한계점으로 자리 잡고 있다. 본 논문에서는 기존의 문제를 해결하기 위해 상용화된 노인 돌봄 로봇과 카메라를 통해 직접적인 접촉 없이도 사용자와 상호작용할 수 있는 돌봄 로봇 시스템을 제안한다. 돌봄 로봇에 연결된 엣지 디바이스에 표정 인식 모델과 행동 인식 모델을 탑재하였고, 공공데이터를 통해 모델의 학습 및 성능검증을 진행했다. 실험 결과를 통해 표정 인식과 행동 인식의 성능이 각각 정확도 96.5%, 90.9%인 것을 확인할 수 있으며, 수행 시간의 경우에는 각각 50ms, 350ms인 것을 확인할 수 있다. 해당 결과는 제안한 시스템의 표정 및 행동 인식 정확도가 높고 추론 시간이 효율적임을 확인하며, 이는 비접촉 상황에서도 원활한 상호작용을 가능하게 한다.

SVM과 PCA를 이용한 국부 외형 기반 얼굴 인식 방법 (Local Appearance-based Face Recognition Using SVM and PCA)

  • 박승환;곽노준
    • 대한전자공학회논문지SP
    • /
    • 제47권3호
    • /
    • pp.54-60
    • /
    • 2010
  • 얼굴 인식 방법 중에 한 얼굴 영상을 분할하여 분할한 각 부분마다 통계적 방법을 적용해 특징추출을 수행한 다음 각 부분마다 분류를 수행하고 이러한 분류결과를 모아서 voting등의 방법으로 얼굴 인식을 수행 하는 방법을 국부 외형 기반 방법(local appearance-based method) 이라고 한다. 기존에 제안된 국부 외형 기반 얼굴 인식은 얼굴 영상을 일정한 크기로 단순분할하고, 그 부분들을 모두 인식에 사용한다. 본고에서는 인식에 상대적으로 중요한 부분만을 사용하여 얼굴 인식을 수행하는 새로운 국부 외형 기반 얼굴 인식 방법을 제안한다. 본고에서는 단순 분할 방법 대신에 눈, 코, 입 등 인물 간의 차이가 잘 나타나는 얼굴 부분들을 support vector machine (SVM) 을 이용하여 검출한 후, 검출한 각 부분에 주성분 분석 (PCA) 을 적용하고 이를 통합하여 얼굴 인식을 수행하였다. 실험을 통해 제안한 방법과 기존 방법의 성능을 비교한 결과, 제안한 방법이 기존의 국부 외형 기반 방법의 장점을 지니는 동시에 성능을 개선시킴을 확인하였다.

새로운 얼굴 특징공간을 이용한 모델 기반 얼굴 표정 인식 (Model based Facial Expression Recognition using New Feature Space)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제17B권4호
    • /
    • pp.309-316
    • /
    • 2010
  • 본 연구에서는 얼굴 그리드 각도를 특징공간으로 하는 새로운 모델 기반 얼굴 표정 인식 방법을 제안한다. 제안 방식은 6가지 얼굴 대표 표정을 인식하기 위해 표정 그리드를 이용하여 그리드의 각 간선과 정점이 형성하는 각도를 기반으로 얼굴 특징 공간을 구성한다. 이 방법은 다른 표정 인식 알고리즘의 정확도를 낮추는 원인인 변환, 회전, 크기변화와 같은 어파인 변환에 강건한 특징을 보인다. 또한, 본 연구에서는 각도로 특징공간을 구성하고 이 공간 내에서 Wrapper 방식으로 특징 부분집합을 선택하는 과정을 설명한다. 선택한 특징들은 SVM, 3-NN 분류기를 이용해 분류하고 분류 결과는 2중 교차검증을 통해 검증하도록 한다. 본 연구가 제안한 방법에서는 94%의 표정 인식 결과를 보였으며 특히 특징 부분집합 선택 알고리즘을 적용한 결과 전체 특징을 이용한 경우보다 약 10%의 인식율 개선 효과를 보인다.

얼굴 나이 그룹별 피플 카운팅 시스템 (People Counting System by Facial Age Group)

  • 고기남;이용섭;문남미
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.69-75
    • /
    • 2014
  • 기존의 피플 카운팅 시스템(People Counting System)은 주로 오버헤드(Overhead) 시점에 설치된 단일 카메라를 활용하기 때문에, 겹침 및 가림 현상과 일정 크기 이상의 소지품, 급격한 조명 변화와 같은 외부 환경적 요인들로 인해 객체 인식에 장애가 발생하고, 다양한 환경에서 카운팅을 수행하기에 어려움이 존재한다. 이에 본 논문에서는 기존 단일 시점 피플 카운팅 시스템의 인식 장애 개선 및 외부 환경적 요인들에 보다 강인하게 카운팅할 수 있도록, 오버헤드 및 전면 시점에 두 개의 깊이 카메라를 활용하는 얼굴 나이 그룹별 피플 카운팅 시스템을 제안한다. 제안 시스템은 오버헤드 영상 처리, 전면 영상 처리, 동일 객체 판별, 얼굴 나이 그룹 분류, 입퇴장 카운팅의 총 5가지 처리를 통해 얼굴 나이 그룹별 피플 카운팅을 수행한다. 제안 시스템을 C++, OpenCV 및 Kinect SDK를 기반으로 구현하여, 나이 그룹별로 10명씩 총 40명을 대상으로 피플 카운팅 성능과 나이 그룹 분류 성능을 각각 평가하였다. 성능 평가 결과는 피플 카운팅에서 약 98%의 정확도를 나타냈고, 나이 그룹 분류는 약 74.23%의 정확도를 보였다.

A Noisy-Robust Approach for Facial Expression Recognition

  • Tong, Ying;Shen, Yuehong;Gao, Bin;Sun, Fenggang;Chen, Rui;Xu, Yefeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권4호
    • /
    • pp.2124-2148
    • /
    • 2017
  • Accurate facial expression recognition (FER) requires reliable signal filtering and the effective feature extraction. Considering these requirements, this paper presents a novel approach for FER which is robust to noise. The main contributions of this work are: First, to preserve texture details in facial expression images and remove image noise, we improved the anisotropic diffusion filter by adjusting the diffusion coefficient according to two factors, namely, the gray value difference between the object and the background and the gradient magnitude of object. The improved filter can effectively distinguish facial muscle deformation and facial noise in face images. Second, to further improve robustness, we propose a new feature descriptor based on a combination of the Histogram of Oriented Gradients with the Canny operator (Canny-HOG) which can represent the precise deformation of eyes, eyebrows and lips for FER. Third, Canny-HOG's block and cell sizes are adjusted to reduce feature dimensionality and make the classifier less prone to overfitting. Our method was tested on images from the JAFFE and CK databases. Experimental results in L-O-Sam-O and L-O-Sub-O modes demonstrated the effectiveness of the proposed method. Meanwhile, the recognition rate of this method is not significantly affected in the presence of Gaussian noise and salt-and-pepper noise conditions.

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

고유특징을 이용한 얼굴인식에 있어서 얼굴영상에 대한 분수차 Fourier 변환의 효과 (Effects of fractional fourier transform of facial images in face recognition using eigenfeatures)

  • 심영미;장주석
    • 전자공학회논문지C
    • /
    • 제35C권8호
    • /
    • pp.60-67
    • /
    • 1998
  • We studied the effects of fractional fourier transform in face recognition, in which only the amplitude spectra of transformed facial images were used.We used two recently developed face recognition methods, the most effective feature (MEF) method (i.e., eigenface method) and most discriminating feature (MDF) method, and the effects of th etransform for th etwo methods were consistent. We confirmed that the recognition rate by the use of MDF method is better than that consistent. We confirmed that the recognition rate by the use of MDF method is better than that by MEF regardless of the order to transform, these methods provided slightly better results when the order was 1 than for any other order values. Only when the order was close to 1, the recognition rates were robust to the shift of the input images, and the trend that the recognition rates decreased as the input size varied was independent of the order. From these results, we fond that it is most advantageous to use the amplitude spectra of the conventional fourier transform whose order is 1.

  • PDF