• 제목/요약/키워드: Multi-Modal Recognition

검색결과 68건 처리시간 0.025초

Steganography based Multi-modal Biometrics System

  • Go, Hyoun-Joo;Chun, Myung-Geun
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제7권2호
    • /
    • pp.148-153
    • /
    • 2007
  • This paper deals with implementing a steganography based multi-modal biometric system. For this purpose, we construct a multi-biometrics system based on the face and iris recognition. Here, the feature vector of iris pattern is hidden in the face image. The recognition system is designed by the fuzzy-based Linear Discriminant Analysis(LDA), which is an expanded approach of the LDA method combined by the theory of fuzzy sets. Furthermore, we present a watermarking method that can embed iris information into face images. Finally, we show the advantages of the proposed watermarking scheme by computing the ROC curves and make some comparisons recognition rates of watermarked face images with those of original ones. From various experiments, we found that our proposed scheme could be used for establishing efficient and secure multi-modal biometric systems.

Steganography based Multi-modal Biometrics System

  • Go, Hyoun-Joo;Moon, Dae-Sung;Moon, Ki-Young;Chun, Myung-Geun
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제7권1호
    • /
    • pp.71-76
    • /
    • 2007
  • This paper deals with implementing a steganography based multi-modal biometric system. For this purpose, we construct a multi-biometrics system based on the face and iris recognition. Here, the feature vector of iris pattern is hidden in the face image. The recognition system is designed by the fuzzy-based Linear Discriminant Analysis(LDA), which is an expanded approach of the LDA method combined by the theory of fuzzy sets. Furthermore, we present a watermarking method that can embed iris information into face images. Finally, we show the advantages of the proposed watermarking scheme by computing the ROC curves and make some comparisons recognition rates of watermarked face images with those of original ones. From various experiments, we found that our proposed scheme could be used for establishing efficient and secure multi-modal biometric systems.

장애인을 위한 멀티모달 인터페이스 기반의 홈 네트워크 제어 (Home Automation Control with Multi-modal Interfaces for Disabled Persons)

  • 박희동
    • 디지털융복합연구
    • /
    • 제12권2호
    • /
    • pp.321-326
    • /
    • 2014
  • 최근 장애인을 위한 IT 접근성 향상 기술에 대한 요구가 증대되고 있다. 따라서 장애인 IT 사용자를 위하여 음성 인식, 영상 인식, TTS 등과 같은 멀티모달 인터페이스를 지원하는 것이 매우 중요하다. 본 논문에서는 홈 네트워크 제어에 있어서 장애인 IT 접근성 향상 기술의 적용 방안에 대하여 서술한 후, 장애인이 쉽게 홈 네트워크를 제어할 수 있도록 음성 인식 및 애니메이션 UI (User interfaces)등과 같은 멀티모달 인터페이스 기반의 홈 네트워크 제어 시스템 모델을 구현하였다.

SVM 결정법칙에 의한 얼굴 및 서명기반 다중생체인식 시스템 (Multi-modal Biometrics System Based on Face and Signature by SVM Decision Rule)

  • 민준오;이대종;전명근
    • 정보처리학회논문지B
    • /
    • 제11B권7호
    • /
    • pp.885-892
    • /
    • 2004
  • 본 논문에서는 SVM에 기반을 둔 결정법칙에 의해 얼굴인식과 서명인식시스템으로 구성된 다중생체인식시스템을 제안하고자 한다. 이를 위해 퍼지 선형판별기법(Fuzzy Linear Discriminant Analysis : Fnzzy LDA)를 이용한 얼굴인식과 선형판별분석기법과 구간매칭기법을 이용한 서명인식을 구축하였다. 두 개의 단일생체인식시스템을 효과적으로 융합시키기 위해 우선 독립적인 두 개의 생체인식시스템에 의해 산출된 매칭도로부터 등록자(Genuine)와 침입자(Impostor)의 확률 분포 모델을 생성한 후, SVM(Support Vector Machine)에 의해 최종 인증하는 구조로 되어있다. 제안된 방법인 SVM기반 결정법칙을 적용하여 실험한 결과 기존에 결정법칙으로 많이 사용되고 있는 가중치합과 결정트리 방식에 비해 각각 $1.654{\%}$$3.3{\%}$의 인식률 향상을 나타내 제안된 방법의 우수성을 나타냈다.

다중생체인식 기법을 이용한사용자 인식률 향상 (Improvement of User Recognition Rate using Multi-modal Biometrics)

  • 금명환;이규원;이봉환
    • 한국정보통신학회논문지
    • /
    • 제12권8호
    • /
    • pp.1456-1462
    • /
    • 2008
  • 단일 생체인식 시스템의 인식률을 높이는 것은 생체인식 방법마다 취약점이 있기 때문에 그 한계가 있기 마련이다. 얼굴 인식의 경우 조명과 같은 환경적 요인으로 인식률이 저하될 수 있으며, 화자 확인의 경우도 잡음과 같은 환경적 요인으로 인식률이 크게 저하될 수 있다. 따라서 두 가지 이상의 생체특징을 결합하여 다중 생체인식 시스템을 구현함으로써 그 취약점을 보완하는 추세에 있다. 본 논문에서는 얼굴 인식과 화자 확인 시스템을 결합하여 다중 생체인식 시스템을 구현하였고, 일반적인 가중치합 알고리즘에 환경 변수를 적용하여 기존의 다중 생체 인식 시스템보다 인식률을 향상시켰다. 본 시스템은 비밀키 기반의 애플릿으로 구현되어 있으므로 웹 상의 사용자 인증을 필요로 하는 응용에 활용될 수 있다.

최소 분류 오차 기법과 멀티 모달 시스템을 이용한 감정 인식 알고리즘 (Emotion Recognition Algorithm Based on Minimum Classification Error incorporating Multi-modal System)

  • 이계환;장준혁
    • 대한전자공학회논문지SP
    • /
    • 제46권4호
    • /
    • pp.76-81
    • /
    • 2009
  • 본 논문에서는 최소 분류 오차 기법 (Minimum Classification Error, MCE)에 기반한 감정 인식을 위한 알고리즘 멀티 모달(Multi-modal) 시스템을 기반으로 제안한다. 사람의 음성 신호로부터 추출한 특징벡터와 장착한 바디센서로부터 구한 피부의 전기반응도 (Galvanic Skin Response, GSR)를 기반으로 특징벡터를 구성하여 이를 Gaussian Mixture Model (GMM)으로 구성하고 이를 기반으로 구해지는 로그 기반의 우도 (Likelihood)를 사용한다. 특히, 변별적 가중치 학습을 사용하여 최적화된 가중치를 특징벡터에 인가하여 주요 감정을 식별하는 데 이용하여 성능향상을 도모한다. 실험결과 제안된 감정 인식이 기존의 방법보다 우수한 성능을 보인 것을 알 수 있었다.

감정 인지를 위한 음성 및 텍스트 데이터 퓨전: 다중 모달 딥 러닝 접근법 (Speech and Textual Data Fusion for Emotion Detection: A Multimodal Deep Learning Approach)

  • 에드워드 카야디;송미화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.526-527
    • /
    • 2023
  • Speech emotion recognition(SER) is one of the interesting topics in the machine learning field. By developing multi-modal speech emotion recognition system, we can get numerous benefits. This paper explain about fusing BERT as the text recognizer and CNN as the speech recognizer to built a multi-modal SER system.

A Study on Developmental Direction of Interface Design for Gesture Recognition Technology

  • Lee, Dong-Min;Lee, Jeong-Ju
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.499-505
    • /
    • 2012
  • Objective: Research on the transformation of interaction between mobile machines and users through analysis on current gesture interface technology development trend. Background: For smooth interaction between machines and users, interface technology has evolved from "command line" to "mouse", and now "touch" and "gesture recognition" have been researched and being used. In the future, the technology is destined to evolve into "multi-modal", the fusion of the visual and auditory senses and "3D multi-modal", where three dimensional virtual world and brain waves are being used. Method: Within the development of computer interface, which follows the evolution of mobile machines, actively researching gesture interface and related technologies' trend and development will be studied comprehensively. Through investigation based on gesture based information gathering techniques, they will be separated in four categories: sensor, touch, visual, and multi-modal gesture interfaces. Each category will be researched through technology trend and existing actual examples. Through this methods, the transformation of mobile machine and human interaction will be studied. Conclusion: Gesture based interface technology realizes intelligent communication skill on interaction relation ship between existing static machines and users. Thus, this technology is important element technology that will transform the interaction between a man and a machine more dynamic. Application: The result of this study may help to develop gesture interface design currently in use.

Fuzzy-EBGM을 이용한 얼굴인식과 Fuzzy-LDA를 이용한 홍채인식의 다중생체인식 기법 연구 (Multi-Modal Biometrics Recognition Method of Face Recognition using Fuzzy-EBGM and Iris Recognition using Fuzzy LDA)

  • 고현주;권만준;전명근
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.299-301
    • /
    • 2005
  • 본 연구는 생체정보를 이용하여 개인을 인증하고 확인하기 위한 방법으로 기존 단일 생체인식 기법의 단점을 보완하기 위해 홍채와 얼굴을 이용한 다중생체인식(Multi-Modal Biometrics Recognition)기법을 연구하였다. 중국 홍채 데이터베이스 CASIA(Chinese Academy of Science)에 Gabor Wavelet과 FLDA(Fuzzy Linear Discriminant Analysis)를 사용하여 특징벡터를 획득하였으며, FERET(FERET(Face Recognition Technology) 얼굴영상데이터를 사용하여 FERET 연구에서 매우 우수한 성능을 보인 EBGM알고리듬으로 특징벡터를 획득하였다. 이로부터 얻어진 두 score 값에 대하여 다양한 균등화 과정을 시도해 보았으며, 등록자와 침입자를 구분하기 위한 Fusion Algorithm으로 Bayesian Classifier, Support vector machine, Fisher's linear discriminant를 사용하였다. 또한, 널리 사용되는 방법 중 Weighted Summation을 이용하여 다중생체인식의 성능을 비교해 보았다.

  • PDF

IoT를 위한 음성신호 기반의 톤, 템포 특징벡터를 이용한 감정인식 (Emotion Recognition Using Tone and Tempo Based on Voice for IoT)

  • 변성우;이석필
    • 전기학회논문지
    • /
    • 제65권1호
    • /
    • pp.116-121
    • /
    • 2016
  • In Internet of things (IoT) area, researches on recognizing human emotion are increasing recently. Generally, multi-modal features like facial images, bio-signals and voice signals are used for the emotion recognition. Among the multi-modal features, voice signals are the most convenient for acquisition. This paper proposes an emotion recognition method using tone and tempo based on voice. For this, we make voice databases from broadcasting media contents. Emotion recognition tests are carried out by extracted tone and tempo features from the voice databases. The result shows noticeable improvement of accuracy in comparison to conventional methods using only pitch.