• 제목/요약/키워드: Face Features

검색결과 875건 처리시간 0.029초

FRS-OCC: Face Recognition System for Surveillance Based on Occlusion Invariant Technique

  • Abbas, Qaisar
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.288-296
    • /
    • 2021
  • Automated face recognition in a runtime environment is gaining more and more important in the fields of surveillance and urban security. This is a difficult task keeping in mind the constantly volatile image landscape with varying features and attributes. For a system to be beneficial in industrial settings, it is pertinent that its efficiency isn't compromised when running on roads, intersections, and busy streets. However, recognition in such uncontrolled circumstances is a major problem in real-life applications. In this paper, the main problem of face recognition in which full face is not visible (Occlusion). This is a common occurrence as any person can change his features by wearing a scarf, sunglass or by merely growing a mustache or beard. Such types of discrepancies in facial appearance are frequently stumbled upon in an uncontrolled circumstance and possibly will be a reason to the security systems which are based upon face recognition. These types of variations are very common in a real-life environment. It has been analyzed that it has been studied less in literature but now researchers have a major focus on this type of variation. Existing state-of-the-art techniques suffer from several limitations. Most significant amongst them are low level of usability and poor response time in case of any calamity. In this paper, an improved face recognition system is developed to solve the problem of occlusion known as FRS-OCC. To build the FRS-OCC system, the color and texture features are used and then an incremental learning algorithm (Learn++) to select more informative features. Afterward, the trained stack-based autoencoder (SAE) deep learning algorithm is used to recognize a human face. Overall, the FRS-OCC system is used to introduce such algorithms which enhance the response time to guarantee a benchmark quality of service in any situation. To test and evaluate the performance of the proposed FRS-OCC system, the AR face dataset is utilized. On average, the FRS-OCC system is outperformed and achieved SE of 98.82%, SP of 98.49%, AC of 98.76% and AUC of 0.9995 compared to other state-of-the-art methods. The obtained results indicate that the FRS-OCC system can be used in any surveillance application.

프라이버시 보호를 위한 얼굴 인증이 가능한 비식별화 얼굴 이미지 생성 연구 (De-Identified Face Image Generation within Face Verification for Privacy Protection)

  • 이정재;나현식;옥도민;최대선
    • 정보보호학회논문지
    • /
    • 제33권2호
    • /
    • pp.201-210
    • /
    • 2023
  • 딥러닝 기반 얼굴 인증 모델은 높은 성능을 보이며 많은 분야에 이용되지만, 얼굴 이미지를 모델에 입력하는 과정에서 사용자의 얼굴 이미지가 유출될 가능성이 존재한다. 얼굴 이미지의 노출을 최소화하기 위한 방법으로 비식별화 기술이 존재하지만, 얼굴 인증이라는 특수한 상황에서 기존 기술을 적용할 때에는 인증 성능이 감소하는 문제점이있다. 본 논문에서는 원본 얼굴 이미지에 다른 인물의 얼굴 특성을 결합한 뒤, StyleGAN을 통해 비식별화 얼굴이미지를 생성한다. 또한, HopSkipJumpAttack을 활용해 얼굴 인증 모델에 맞춰 특징들의 결합 비율을 최적화하는 방법을 제안한다. 우리는 제안 방법을 통해 생성된 이미지들을 시각화하여 사용자 얼굴의 비식별화 성능을 확인하고, 실험을 통해 얼굴 인증 모델에 대한 인증 성능을 유지할 수 있음을 평가한다. 즉, 제안 방법을 통해 생성된 비식별화 이미지를 사용하여 얼굴 인증을 할 수 있으며, 동시에 얼굴 개인정보 유출을 방지할 수 있다.

Physiological Neuro-Fuzzy Learning Algorithm for Face Recognition

  • Kim, Kwang-Baek;Woo, Young-Woon;Park, Hyun-Jung
    • Journal of information and communication convergence engineering
    • /
    • 제5권1호
    • /
    • pp.50-53
    • /
    • 2007
  • This paper presents face features detection and a new physiological neuro-fuzzy learning method by using two-dimensional variances based on variation of gray level and by learning for a statistical distribution of the detected face features. This paper reports a method to learn by not using partial face image but using global face image. Face detection process of this method is performed by describing differences of variance change between edge region and stationary region by gray-scale variation of global face having featured regions including nose, mouse, and couple of eyes. To process the learning stage, we use the input layer obtained by statistical distribution of the featured regions for performing the new physiological neuro-fuzzy algorithm.

특징들의 공유에 의한 기울어진 얼굴 검출 (Rotated face detection based on sharing features)

  • 송영모;고윤호
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2009년도 정보 및 제어 심포지움 논문집
    • /
    • pp.31-33
    • /
    • 2009
  • Face detection using AdaBoost algorithm is capable of processing images rapidly while having high detection rates. It seemed to be the fastest and the most robust and it is still today. Many improvements or extensions of this method have been proposed. However, previous approaches only deal with upright faces. They suffer from limited discriminant capability for rotated faces as these methods apply the same features for both upright and rotated faces. To solve this problem, it is necessary that we rotate input images or make independently trained detectors. However, this can be slow and can require a lot of training data, since each classifier requires the computation of many different image features. This paper proposes a robust algorithm for finding rotated faces within an image. It reduces the computational and sample complexity, by finding common features that can be shared across the classes. And it will be able to apply with multi-class object detection.

  • PDF

피부색 정보와 얼굴의 구조적 특징 분석을 통한 얼굴 영상 인식 시스템 (Human Face Recognition System Based on Skin Color Informations and Geometrical Feature Analysis of Face)

  • 이응주
    • 융합신호처리학회논문지
    • /
    • 제1권1호
    • /
    • pp.42-48
    • /
    • 2000
  • 본 논문에서는 칼라 CCD 카메라로부터 입력된 얼굴 영상에서 피부색 정보와 눈, 코, 입 등의 얼굴 영역 특징 자 및 턱 선의 선형 적 특징을 이용한 얼굴 영상 인식 알고리즘을 제안하져다. 제안한 알고리즘에서는 인간의 시각 체계와 비교적 유사한 HSI 좌표계 상에서 피부색에 대한 색상 정보와 명암값 정보를 함께 이용함으로써 얼굴영역 추출의 효율을 높였고, 인종에 따라 적응적인 추출이 가능하도록 하였다. 또한 추출된 얼굴 영역에서 얼굴 인식율 개선을 위해 눈, 코, 입 등의 구조적 위치정보와 턱선의 선형적인 특징값을 이용하여 얼굴 인식율을 개선하였다. 제안한 알고리즘에서는 기존의 명암 정보를 이용하는 방법과는 달리 색상 정보와 명암 정보를 함께 이용함으로써 정확한 얼굴영역의 검출이 가긍하였으며 인식 방법에 있어서 구조적 특징자 외에 턱선의 선형적인 관계값을 이용함으로써 인식 효율을 개선하였다.

  • PDF

Zernike 모멘트를 이용한 얼굴 검출 (Face Detection using Zernike Moments)

  • 이대호
    • 한국멀티미디어학회논문지
    • /
    • 제10권2호
    • /
    • pp.179-186
    • /
    • 2007
  • 본 논문에서는 Zernike 모멘트를 이용한 새로운 얼굴 검출 기법을 제안한다. 입력 영상을 가변 크기의 영역으로 탐색하면서 Zernike 모멘트를 계산하여 신경망에 의해 얼굴과 비얼굴 영역으로 분류하여 얼굴을 검출한다. 직교 모멘트의 재구성 능력으로 인해, 분류기의 입력 특정은 화소의 수에 비해 감소될 수 있다. 또한, Zernike 모멘트의 크기는 회전에 불변한 특정을 가지므로, 회전된 얼굴 영역을 검출할 수 있다. Yale 데이터베이스의 영상에 대해 적용한 결과, 회전되지 않은 영상에서는 밝기값 정보를 사용하는 기법보다 약간 낮은 성능을 보였지만, 회전된 영상에 대해서는 월등히 높은 성능을 보였다. 국부 조명에 대한 추가적인 보상과 특징이 사용된다면, 강건한 얼굴 인식을 위한 전처리 과정의 핵심 기술로 사용할 수 있을 것이다.

  • PDF

얼굴인식 성능 향상을 위한 얼굴 전역 및 지역 특징 기반 앙상블 압축 심층합성곱신경망 모델 제안 (Compressed Ensemble of Deep Convolutional Neural Networks with Global and Local Facial Features for Improved Face Recognition)

  • 윤경신;최재영
    • 한국멀티미디어학회논문지
    • /
    • 제23권8호
    • /
    • pp.1019-1029
    • /
    • 2020
  • In this paper, we propose a novel knowledge distillation algorithm to create an compressed deep ensemble network coupled with the combined use of local and global features of face images. In order to transfer the capability of high-level recognition performances of the ensemble deep networks to a single deep network, the probability for class prediction, which is the softmax output of the ensemble network, is used as soft target for training a single deep network. By applying the knowledge distillation algorithm, the local feature informations obtained by training the deep ensemble network using facial subregions of the face image as input are transmitted to a single deep network to create a so-called compressed ensemble DCNN. The experimental results demonstrate that our proposed compressed ensemble deep network can maintain the recognition performance of the complex ensemble deep networks and is superior to the recognition performance of a single deep network. In addition, our proposed method can significantly reduce the storage(memory) space and execution time, compared to the conventional ensemble deep networks developed for face recognition.

부분 얼굴 특징 추출에 기반한 신원 확인 시스템 (Identification System Based on Partial Face Feature Extraction)

  • 최선형;조성원;정선태
    • 한국지능시스템학회논문지
    • /
    • 제22권2호
    • /
    • pp.168-173
    • /
    • 2012
  • 본 논문은 얼굴인식 시스템 상에서 마스크를 착용한 변장이미지가 입력 감지될 경우 나머지 노출된 부분의 특징만을 가지고 가려진 사람의 신원을 추정하는 방법을 기술한다. 얼굴영역 검출 후에 마스크상단의 눈 주변 이미지만을 가지고 특징점 추출을 실시하여 등록된 얼굴 인증 데이터 베이스와의 특징점 비교를 통해 사람의 신원을 추정한다. 매칭에 쓰일 특징점 추출에는 조명에 강인하고 영상의 크기와 회전에도 변하지 않는 특성을 가진 SIFT(Scale Invariant Feature Transform) 알고리즘을 이용한다. 특징점 매칭을 통해 정확한 매칭률은 전체 실험결과를 통해 평가한다.

Multi-view Human Recognition based on Face and Gait Features Detection

  • Nguyen, Anh Viet;Yu, He Xiao;Shin, Jae-Ho;Park, Sang-Yun;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제11권12호
    • /
    • pp.1676-1687
    • /
    • 2008
  • In this paper, we proposed a new multi-view human recognition method based on face and gait features detection algorithm. For getting the position of moving object, we used the different of two consecutive frames. And then, base on the extracted object, the first important characteristic, walking direction, will be determined by using the contour of head and shoulder region. If this individual appears in camera with frontal direction, we will use the face features for recognition. The face detection technique is based on the combination of skin color and Haar-like feature whereas eigen-images and PCA are used in the recognition stage. In the other case, if the walking direction is frontal view, gait features will be used. To evaluate the effect of this proposed and compare with another method, we also present some simulation results which are performed in indoor and outdoor environment. Experimental result shows that the proposed algorithm has better recognition efficiency than the conventional sing]e view recognition method.

  • PDF

다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원 (Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제9B권5호
    • /
    • pp.563-570
    • /
    • 2002
  • 본 논문은 MPEG4 SNHC의 얼굴 모델 인코딩을 구현하기 위하여 연속된 2차원 영상으로부터 얼굴영역을 검출하고, 얼굴의 특징데이터들을 추출한 후, 얼굴의 3차원 모양 및 움직임 정보를 복원하는 알고리즘과 결과를 제시한다. 얼굴 영역 검출을 위해서 영상의 거리, 피부색상, 움직임 색상정보등을 융합시킨 멀티모달합성의 방법이 사용되었다. 결정된 얼굴영역에서는 MPEG4의 FDP(Face Definition Parameter) 에서 제시된 특징점 위치중 23개의 주요 얼굴 특징점을 추출하며 추출성능을 향상시키기 위하여 GSCD(Generalized Skin Color Distribution), BWCD(Black and White Color Distribution)등의 움직임색상 변환기법과 형태연산 방법이 제시되었다. 추출된 2차원 얼팔 특징점들로부터 얼굴의 3차원 모양, 움직임 정보를 복원하기 위하여 준원근 카메라 모델을 적용하여 SVD(Singular Value Decomposition)에 의한 인수분해연산을 수행하였다. 본 논문에서 제시된 방법들의 성능을 객관적으로 평가하기 위하여 크기와 위치가 알려진 3차원 물체에 대해 실험을 행하였으며, 복원된 얼굴의 움직임 정보는 MPEG4 FAP(Face Animation Parameter)로 변환된 후, 인터넷상에서 확인이 가능한 가상얼굴모델에 인코딩되어 실제 얼굴파 일치하는 모습을 확인하였다.