• 제목/요약/키워드: robust face detection

검색결과 126건 처리시간 0.022초

주성분 분석을 이용한 기울어진 얼굴에서의 눈동자 검출 (Eye detection on Rotated face using Principal Component Analysis)

  • 최연석;문원호;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 춘계학술대회
    • /
    • pp.61-64
    • /
    • 2011
  • 컴퓨터 비전을 이용한 눈동자 추적 기술은 Human-Computer Interface(HCI)의 중요성이 높아짐에 따라 많이 연구되고 있다. 본 논문에서는 HCI 장치를 위한 눈동자 검출 방법을 제안한다. 제안하는 방법은 기울어진 얼굴에서도 눈동자를 검출하기 위해 Principal Component Analysis(PCA) 방법을 이용하여 얼굴의 기울어진 정도를 검출하고 기울어진 정도를 이용하여 눈동자 영역의 위치를 계산한다. 최종적으로 눈 위치의 검출을 위해 눈동자 영역의 밝기 정보를 사용한다. FERET DB의 얼굴영상을 사용하여 실험한 결과, 기울어진 얼굴에서도 눈동자를 효과적으로 검출 할 수 있음을 확인하였다.

  • PDF

강건한 얼굴 검출 알고리즘을 위한 YCbCr 컬러 모델과 러프 집합 연구 (A Study on the YCbCr Color Model and the Rough Set for a Robust Face Detection Algorithm)

  • 변오성
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권7호
    • /
    • pp.117-125
    • /
    • 2011
  • 본 논문에서는 특징 기반 방법인 YCbCr 컬러 모델을 이용하여 얼굴색 분포를 분할하고, 전처리 과정에서 양자화를 하여 특징 기반의 단점 중의 하나인 조명에 민감한 것을 둔감하도록 하였다. 또한 러프 집합을 이용하여 패턴의 형태로 가장 근사한 영상의 객체를 선택하는 특성을 가지게 함으로 영상 합성의 정확도를 높였다. 본 논문에서 제안된 얼굴 검출 알고리즘은 다양한 얼굴 크기 및 방향에 관계없이 기존의 알고리즘보다 약 2~3%정도 우수함을 시뮬레이션을 통해 확인하였다.

전경픽셀 히스토그램 분석 기반의 머리영역 검출 기법 (Head Detection based on Foreground Pixel Histogram Analysis)

  • 최유주;손향경;박정민;문남미
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권11호
    • /
    • pp.179-186
    • /
    • 2009
  • 본 논문은 기존의 Haar 유사 특징 기반 얼굴검출 기법의 한계를 보완하는 수평 및 수직방향픽셀 히스토그램 분석 기반의 머리영역 검출 방법을 제안한다. 제안 기법은 배경차감 영상에서 수평과 수직 방향으로 전경 픽셀의 수를 표시하는 픽셀 히스토그램 영상을 생성한 후, 해리스 코너 검출기법을 이용하여 머리 영역을 특징짓는 특징점을 검출한다. 제안한 방법은 기존의 얼굴 특성 기반 검출에 비해 머리를 포함한 몸체의 수직과 수평 픽셀 히스토그램을 이용함으로써 정면 영상뿐만 아니라 측면 및 후면 영상이나 이마가 가려진 입력 영상의 경우에도 머리 영역을 안정적으로 검출하는 결과를 보여주었다.

사각형 특징 기반 분류기와 PCA기반 MLNN을 이용한 실시간 얼굴검출 및 인식 (Real Time Face Detection and Recognition using Rectangular Feature Based Classifier and PCA-based MLNN)

  • 김종민;이기준
    • 디지털콘텐츠학회 논문지
    • /
    • 제11권4호
    • /
    • pp.417-424
    • /
    • 2010
  • 본 논문은 사각형 특징 기반 분류기를 제안하여 실시간으로 얼굴 영역을 검출하며, 계산의 효율성과 검출 성능을 동시에 만족시키는 강인한 검출 알고리즘을 제안하였다. 또한 검출한 얼굴영역은 인식의 입력 영상으로 사용하여 PCA와 지능형 분류기법의 하나인 다층 신경망을 결합한 얼굴 인식 방법을 제안하고 성능을 평가 하였다. 이 방법은 입력된 얼굴 영상에 대해 전처리 과정으로서 PCA을 통하여 고유얼굴을 산출하고 이를 기본 벡터로 하여 훈련 영상들을 표현한다. 각 영상들은 기본벡터에 대한 가중치의 집합을 특징벡터로 함과 동시에 영상의 차원을 줄인 다음에 다층신경망에 입력하여 얼굴인식을 수행한다. 실험 결과 기존의 방식인 Euclidean과 Mahananobis방법과 비교한 결과 제안한 방법이 잘못된 매칭이나 매칭 실패에서 향상된 인식 성능을 보였다. 또한 학습률에 따른 인식률에 변화를 실험하여 가장 최적의 학습률의 값을 도출하였다.

CCD카메라와 적외선 카메라의 융합을 통한 효과적인 객체 추적 시스템 (Efficient Object Tracking System Using the Fusion of a CCD Camera and an Infrared Camera)

  • 김승훈;정일균;박창우;황정훈
    • 제어로봇시스템학회논문지
    • /
    • 제17권3호
    • /
    • pp.229-235
    • /
    • 2011
  • To make a robust object tracking and identifying system for an intelligent robot and/or home system, heterogeneous sensor fusion between visible ray system and infrared ray system is proposed. The proposed system separates the object by combining the ROI (Region of Interest) estimated from two different images based on a heterogeneous sensor that consolidates the ordinary CCD camera and the IR (Infrared) camera. Human's body and face are detected in both images by using different algorithms, such as histogram, optical-flow, skin-color model and Haar model. Also the pose of human body is estimated from the result of body detection in IR image by using PCA algorithm along with AdaBoost algorithm. Then, the results from each detection algorithm are fused to extract the best detection result. To verify the heterogeneous sensor fusion system, few experiments were done in various environments. From the experimental results, the system seems to have good tracking and identification performance regardless of the environmental changes. The application area of the proposed system is not limited to robot or home system but the surveillance system and military system.

Multimodal Biometrics Recognition from Facial Video with Missing Modalities Using Deep Learning

  • Maity, Sayan;Abdel-Mottaleb, Mohamed;Asfour, Shihab S.
    • Journal of Information Processing Systems
    • /
    • 제16권1호
    • /
    • pp.6-29
    • /
    • 2020
  • Biometrics identification using multiple modalities has attracted the attention of many researchers as it produces more robust and trustworthy results than single modality biometrics. In this paper, we present a novel multimodal recognition system that trains a deep learning network to automatically learn features after extracting multiple biometric modalities from a single data source, i.e., facial video clips. Utilizing different modalities, i.e., left ear, left profile face, frontal face, right profile face, and right ear, present in the facial video clips, we train supervised denoising auto-encoders to automatically extract robust and non-redundant features. The automatically learned features are then used to train modality specific sparse classifiers to perform the multimodal recognition. Moreover, the proposed technique has proven robust when some of the above modalities were missing during the testing. The proposed system has three main components that are responsible for detection, which consists of modality specific detectors to automatically detect images of different modalities present in facial video clips; feature selection, which uses supervised denoising sparse auto-encoders network to capture discriminative representations that are robust to the illumination and pose variations; and classification, which consists of a set of modality specific sparse representation classifiers for unimodal recognition, followed by score level fusion of the recognition results of the available modalities. Experiments conducted on the constrained facial video dataset (WVU) and the unconstrained facial video dataset (HONDA/UCSD), resulted in a 99.17% and 97.14% Rank-1 recognition rates, respectively. The multimodal recognition accuracy demonstrates the superiority and robustness of the proposed approach irrespective of the illumination, non-planar movement, and pose variations present in the video clips even in the situation of missing modalities.

Rank Order Filter와 화소값 차이를 이용한 강인한 눈동자 검출 (Robust Pupil Detection using Rank Order Filter and Pixel Difference)

  • 장경식
    • 한국정보통신학회논문지
    • /
    • 제16권7호
    • /
    • pp.1383-1390
    • /
    • 2012
  • 이 논문에서는 얼굴 영상에 대해 rank order 필터와 화소 값 차이를 사용하여 강인하게 눈동자를 찾는 방법을 제안한다. 개선된 rank order 필터를 사용하여 얼굴 영상에서 눈동자 후보점을 찾는다. 눈동자와 흰자위의 경계에서 화소값 변화가 크다는 사실을 이용하여 눈썹 등 눈동자가 아닌 위치에 있는 눈동자 후보점들을 제거한다. 눈동자 후보점을 두 점간의 거리와 각도를 이용하여 쌍으로 묶고 눈동자 영역에서의 밝기 정보를 이용한 적합도 함수를 적용하여 최종 눈동자를 추출한다. BioID 얼굴 데이터베이스에 있는 얼굴 영상 400개에 대한 실험 결과 90.25%의 눈동자 추출율을 보여 기존 방법보다 4% 개선된 결과를 얻었으며, 특히 안경을 착용한 얼굴 영상의 경우 기존 방법보다 약 12% 개선된 결과를 얻었다.

Face Spoofing Attack Detection Using Spatial Frequency and Gradient-Based Descriptor

  • Ali, Zahid;Park, Unsang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권2호
    • /
    • pp.892-911
    • /
    • 2019
  • Biometric recognition systems have been widely used for information security. Among the most popular biometric traits, there are fingerprint and face due to their high recognition accuracies. However, the security system that uses face recognition as the login method are vulnerable to face-spoofing attacks, from using printed photo or video of the valid user. In this study, we propose a fast and robust method to detect face-spoofing attacks based on the analysis of spatial frequency differences between the real and fake videos. We found that the effect of a spoofing attack stands out more prominently in certain regions of the 2D Fourier spectra and, therefore, it is adequate to use the information about those regions to classify the input video or image as real or fake. We adopt a divide-conquer-aggregate approach, where we first divide the frequency domain image into local blocks, classify each local block independently, and then aggregate all the classification results by the weighted-sum approach. The effectiveness of the methodology is demonstrated using two different publicly available databases, namely: 1) Replay Attack Database and 2) CASIA-Face Anti-Spoofing Database. Experimental results show that the proposed method provides state-of-the-art performance by processing fewer frames of each video.

Hausdorff와 LBP 거리의 융합을 이용한 개선된 얼굴검출 (An Improved Face Detection Method Using a Hybrid of Hausdorff and LBP Distance)

  • 박성천;구자영
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권11호
    • /
    • pp.67-73
    • /
    • 2010
  • 본 논문에서는 두 점의 집합들 사이의 기하학적 유사도에 근거한 Hausdorff 거리와 국지적 미세 텍스처의 분포에 근거한 Local Binary Pattern 거리가 융합된 새로운 측도를 도입함으로써 얼굴검출의 정확도를 높이는 방법을 제안하고 있다. 트레이닝 데이터를 이용해서 두 가지의 상이한 측도들을 정규화할 수 있는 매개변수와 최적화된 융합 비율을 찾는 방법을 보였다. 흔히 사용되는 얼굴 데이터베이스에 적용함으로써 제시된 방법이 두 가지 방법 각각을 이용한 방법보다 효과적이고 얼굴의 자세, 조명, 배경의 변화에 강인함을 보였다. 실험에서 사용된 데이터베이스의 경우 실제 얼굴의 위치와 검출된 얼굴의 위치 간의 평균거리오차가 LBP 방식의 47.9%, Hausdorff 방식의 22.8% 로 감소됨을 보였다.

조명의 변화에 강건한 얼굴인식 (Face Recognition Method Robust to Change in Lighting Condition)

  • 남기환;한준희;박호식;이영식;정연길;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.1137-1140
    • /
    • 2005
  • 본 논문은 실험영상이 학습영상에 대해 조명의 차이가 있는 경우에도 데이터베이스 안에서 누구인지를 식별하는 얼굴인식 방법을 제안하였으며, 또한 HMM과 KLT를 이용한 얼굴인식 알고리즘의 수행결과를 비교, 분석하였다. 얼굴인식 방법으로 측정벡터는 직교변환(Karhuman Loevs Trans-form : KLT)의 상관관계를 이용하여 얻은 HMM의 정역학특성을 사용하여 HMM 기존의 얼굴인식 방법에서 인식률을 개선하였으며, 실험결과로써 조명의 조건에 따른 여러 가지 복잡한 주변 상황변화에서도 제안된 방식의 효율성을 입증할 수 있었다.

  • PDF