• 제목/요약/키워드: multimodal biometrics

검색결과 21건 처리시간 0.024초

Multimodal Face Biometrics by Using Convolutional Neural Networks

  • Tiong, Leslie Ching Ow;Kim, Seong Tae;Ro, Yong Man
    • 한국멀티미디어학회논문지
    • /
    • 제20권2호
    • /
    • pp.170-178
    • /
    • 2017
  • Biometric recognition is one of the major challenging topics which needs high performance of recognition accuracy. Most of existing methods rely on a single source of biometric to achieve recognition. The recognition accuracy in biometrics is affected by the variability of effects, including illumination and appearance variations. In this paper, we propose a new multimodal biometrics recognition using convolutional neural network. We focus on multimodal biometrics from face and periocular regions. Through experiments, we have demonstrated that facial multimodal biometrics features deep learning framework is helpful for achieving high recognition performance.

조합기법을 이용한 다중생체신호의 특징추출에 의한 실시간 인증시스템 개발 (Development of Real-Time Verification System by Features Extraction of Multimodal Biometrics Using Hybrid Method)

  • 조용현
    • 한국산업융합학회 논문집
    • /
    • 제9권4호
    • /
    • pp.263-268
    • /
    • 2006
  • This paper presents a real-time verification system by extracting a features of multimodal biometrics using hybrid method, which is combined the moment balance and the independent component analysis(ICA). The moment balance is applied to reduce the computation loads by extracting the validity signal due to exclude the needless backgrounds of multimodal biometrics. ICA is also applied to increase the verification performance by removing the overlapping signals due to extract the statistically independent basis of signals. Multimodal biometrics are used both the faces and the fingerprints which are acquired by Web camera and acquisition device, respectively. The proposed system has been applied to the fusion problems of 48 faces and 48 fingerprints(24 persons * 2 scenes) of 320*240 pixels, respectively. The experimental results show that the proposed system has a superior verification performances(speed, rate).

  • PDF

안드로이드 환경의 다중생체인식 기술을 응용한 인증 성능 개선 연구 (Enhancement of Authentication Performance based on Multimodal Biometrics for Android Platform)

  • 최성필;정강훈;문현준
    • 한국멀티미디어학회논문지
    • /
    • 제16권3호
    • /
    • pp.302-308
    • /
    • 2013
  • 본 논문은 모바일 환경에서의 다중생체인식을 통한 개인인증 시나리오에서 false acceptance rate (FAR)가 향상된 시스템을 제안한다. 다중생체인식을 위하여 얼굴인식과 화자인식을 선택하였으며, 시스템의 인식 시나리오는 다음을 따른다. 얼굴인식을 위하여 Modified census transform (MCT) 기반의 얼굴검출과 k-means 클러스터 분석 (cluster analysis) 알고리즘 기반의 눈 검출을 통해 얼굴영역 전처리를 수행하고, principal component analysis (PCA) 기반의 얼굴인증 시스템을 구현한다. 화자인식을 위하여 음성의 끝점추출과 Mel frequency cepstral coefficient (MFCC) 특징을 추출하고, dynamic time warping (DTW) 기반의 화자 인증 시스템을 구현한다. 그리고 각각의 생체인식을 본 논문에서 제안된 방법을 기반으로 융합하여 인식률을 향상시킨다. 본 논문의 실험은 Android 환경에서 수행하였으며, 구현한 다중생체인식 시스템과 단일생체인식 시스템과의 FAR을 비교하였다. 단일 얼굴인식의 FAR은 4.6%, 단일 화자인식의 FAR은 6.7%로 각각 나타났으며, 제안된 다중생체인식 시스템의 FAR은 1.8%로 크게 감소하였다.

유비쿼터스 환경에서 PDA를 이용한 다중생체인식 시스템 구현 (Multimodal biometrics system using PDA under ubiquitous environments)

  • 권만준;양동화;김용삼;이대종;전명근
    • 한국지능시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.430-435
    • /
    • 2006
  • 본 논문은 유비쿼터스 컴퓨팅 환경 기반에서의 얼굴과 서명을 이용한 다중생체인식 시스템을 제안한다. 이를 위해서 얼굴과 서명 영상은 PDA로 획득하고, 취득한 영상은 무선랜을 통해 인증 서버로 전송하여 서버로부터 인증된 결과를 받도록 하였다. 구현한 다중 생체 인식 시스템의 구성은 두 부분으로 나눌 수 있는데, 먼저 클라이언트 부문인 PDA 에서는 임베디드 비주얼 C++로 작성된 사용자 인터페이스 프로그램을 통하여 사용자 등록과 인증 과정을 수행한다. 그리고, 서버 부문에서는 얼굴인식에서 우수한 성능을 보이는 PCA와 LDA 알고리즘을 사용하였고, 서명인식에서는 구간 분할 매칭으로 구간을 분할 한 후 X축과 Y 축의 투영값을 Kernel PCA와 LDA 알고리즘에 적용하였다. 얼굴과 서명영상을 이용하여 제안된 알고리즘을 평가한 결과 기존의 단일 생체인식 기법에 비해 우수한 결과를 보임을 확인할 수 있었다.

Multimodal Biometrics Recognition from Facial Video with Missing Modalities Using Deep Learning

  • Maity, Sayan;Abdel-Mottaleb, Mohamed;Asfour, Shihab S.
    • Journal of Information Processing Systems
    • /
    • 제16권1호
    • /
    • pp.6-29
    • /
    • 2020
  • Biometrics identification using multiple modalities has attracted the attention of many researchers as it produces more robust and trustworthy results than single modality biometrics. In this paper, we present a novel multimodal recognition system that trains a deep learning network to automatically learn features after extracting multiple biometric modalities from a single data source, i.e., facial video clips. Utilizing different modalities, i.e., left ear, left profile face, frontal face, right profile face, and right ear, present in the facial video clips, we train supervised denoising auto-encoders to automatically extract robust and non-redundant features. The automatically learned features are then used to train modality specific sparse classifiers to perform the multimodal recognition. Moreover, the proposed technique has proven robust when some of the above modalities were missing during the testing. The proposed system has three main components that are responsible for detection, which consists of modality specific detectors to automatically detect images of different modalities present in facial video clips; feature selection, which uses supervised denoising sparse auto-encoders network to capture discriminative representations that are robust to the illumination and pose variations; and classification, which consists of a set of modality specific sparse representation classifiers for unimodal recognition, followed by score level fusion of the recognition results of the available modalities. Experiments conducted on the constrained facial video dataset (WVU) and the unconstrained facial video dataset (HONDA/UCSD), resulted in a 99.17% and 97.14% Rank-1 recognition rates, respectively. The multimodal recognition accuracy demonstrates the superiority and robustness of the proposed approach irrespective of the illumination, non-planar movement, and pose variations present in the video clips even in the situation of missing modalities.

RBF 기반 유사도 단계 융합 다중 생체 인식에서의 품질 활용 방안 연구 (A study of using quality for Radial Basis Function based score-level fusion in multimodal biometrics)

  • 최현석;신미영
    • 전자공학회논문지CI
    • /
    • 제45권5호
    • /
    • pp.192-200
    • /
    • 2008
  • 다중 생체 인식은 둘 이상의 생체 정보를 획득하여 이를 기반으로 개인 인증 및 신원을 확인하는 방법으로, 패턴 분류 알고리즘을 이용한 RBF 기반 유사도 단계 융합 다중 생체 인식은 입력된 생체 정보와 데이터베이스 내의 유사도를 나타내는 매칭 값을 각 단일 생체 인식 시스템으로부터 제공받아 이를 이용하여 특징 벡터를 구성하고, 특징 공간상에서 사용자와 위조자를 구분해주는 최적의 판정 경계를 탐색하여 인식을 수행하는 방법이다. 이러한 패턴 분류 알고리즘의 경우 특징 벡터를 구성하는 각 매칭값이 동일한 신뢰도를 가지고 있다는 가정 하에 고정된 판정 경계를 구성하고 분류를 수행하게 된다. 한편, 생체 인식 시스템의 인식 결과는 입력되는 생체 정보의 품질에 영향을 받을 수 있음이 기존의 연구에서 보고되고 있는데, 이는 일반적인 RBF 기반 유사도 단계 융합 다중 생체 인식 시스템을 구성하고 있는 단일 생체 인식 시스템 중 하나의 시스템에 저품질의 생체 정보가 입력되어 신뢰할 수 없는 매칭값을 출력한 경우에는 이를 기반으로 구성된 특징 벡터의 판정이 오분류 되거나 그 결과의 신뢰도가 감소될 수 있는 문제가 있다. 이에 대한 대안으로 본 논문에서는 각 단일 생체 인식 시스템에 입력되는 생체 정보의 품질을 활용하여 RBF 기반 유사도 단계 융합 다중 생체 인식 시스템에서 품질에 따라 유동적인 판정 경계를 구성하여 특징 벡터를 구성하는 각 매칭값이 판정에 미치는 영향을 조절하고자 하였다. 이를 통해 각 생체 정보가 그 품질에 따라 판정에 미치는 영향이 달리 적용될 수 있도록 하였으며, 그 결과 단일 생체 인식과 일반적인 RBF 기반 유사도 단계 융합 다중 생체 인식에 비해 보다 개선된 인식 결과와 신뢰도를 얻을 수 있었다.

스마트폰 환경의 인증 성능 최적화를 위한 다중 생체인식 융합 기법 연구 (Authentication Performance Optimization for Smart-phone based Multimodal Biometrics)

  • 문현준;이민형;정강훈
    • 디지털융복합연구
    • /
    • 제13권6호
    • /
    • pp.151-156
    • /
    • 2015
  • 본 논문에서는 스마트폰 환경의 얼굴 검출, 인식 및 화자 인증 기반 다중생체인식 개인인증 시스템을 제안한다. 제안된 시스템은 Modified Census Transform과 gabor filter 및 k-means 클러스터 분석 알고리즘을 통해 얼굴의 주요 특징을 추출하여 얼굴인식을 위한 데이터 전처리를 수행한다. 이후 Linear Discriminant Analysis기반 본인 인증을 수행하고(얼굴인식), Mel Frequency Cepstral Coefficient기반 실시간성 검증(화자인증)을 수행한다. 화자인증에 사용하는 음성 정보는 실시간으로 변화하므로 본 논문에서는 Dynamic Time Warping을 통해 이를 해결한다. 제안된 다중생체인식 시스템은 얼굴 및 음성 특징 정보를 융합 및 스마트폰 환경에 최적화하여 실시간 얼굴검출, 인식과 화자인증 과정을 수행하며 단일 생체인식에 비해 약간 낮은 95.1%의 인식률을 보이지만 1.8%의 False Acceptance Ratio를 통해 객관적인 실시간 생체인식 성능을 입증하여 보다 신뢰할 수 있는 시스템을 완성한다.

다중생체인식을 이용한 사용자 인증 (Person Authentication using Multi-Modal Biometrics)

  • 이경희;최우용;지형근;반성범;정용화
    • 한국정보보호학회:학술대회논문집
    • /
    • 한국정보보호학회 2003년도 하계학술대회논문집
    • /
    • pp.204-207
    • /
    • 2003
  • 생체인식 기술은 전통적인 비밀번호 방식 또는 토큰 방식보다 신뢰성 면에서 더 선호되지만, 환경의 영향에 매우 민감하여 성능의 한계가 있다. 이러한 단일 생체인식 기술의 한계를 극복하기 위하여 여러 종류의 생체 정보를 결합한 다중 생체인식 (multimodal biometrics)에 관한 다양한 연구가 진행되고 있다 본 논문에서는 다중 생체인식 기술을 간략히 소개하고, Support Vector Machines(SVM)을 이용하여 얼굴 및 음성 정보를 함께 이용한 다중 생체인식 실험으로 성능이 개선될 수 있음을 확인하였다.

  • PDF

얼굴과 발걸음을 결합한 인식 (Fusion algorithm for Integrated Face and Gait Identification)

  • Nizami, Imran Fareed;Hong, Sug-Jun;Lee, Hee-Sung;Ann, Toh-Kar;Kim, Eun-Tai;Park, Mig-Non
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.15-18
    • /
    • 2007
  • Identification of humans from multiple view points is an important task for surveillance and security purposes. For optimal performance the system should use the maximum information available from sensors. Multimodal biometric systems are capable of utilizing more than one physiological or behavioral characteristic for enrollment, verification, or identification. Since gait alone is not yet established as a very distinctive feature, this paper presents an approach to fuse face and gait for identification. In this paper we will use the single camera case i.e. both the face and gait recognition is done using the same set of images captured by a single camera. The aim of this paper is to improve the performance of the system by utilizing the maximum amount of information available in the images. Fusion is considered at decision level. The proposed algorithm is tested on the NLPR database.

  • PDF

사용자 인증시스템의 인증결과 예측을 위한 바이오정보의 품질평가기법 (A Quality Assessment Method of Biometrics for Estimating Authentication Result in User Authentication System)

  • 김애영;이상호
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권2호
    • /
    • pp.242-246
    • /
    • 2010
  • 본 논문에서는 사용자 인증시스템에서 인식결과에 대한 예측이 가능한 품질평가모델을 설계하고 분석한다. 제안하는 품질평가기법은 다중고유얼굴 정보에 T-검정과 같은 소표본 분석법을 적용하여 CIMR(Confidence Interval Matching Ratio)이라는 품질 값이 결과로 나타나도록 설계하였으며, 이 CIMR 기반의 품질평가기법을 이용하여 서로 다른 바이오정보간의 차별성이 잘 나타나는지 향후 보편화될 멀티바이오정보 환경을 고려하여 실험하였다. 또한 획득한 바이오정보의 인증결과에 대한 예측가능성 실험은 T-검정기반의 CIMR에 내포되어있는 평균 $\bar{X}$ 와 분산 $s^2$을 이용하였으며, 사용자인증 결과에 대한 예측은 최대 88%정도의 정확도를 보인다.