• Title/Summary/Keyword: 얼굴식별

Search Result 109, Processing Time 0.025 seconds

A Face Recognition Based Player Identification via ULBP and SRC in Soccer Videos (축구 비디오에서 ULBP와 SRC를 이용한 얼굴인식기반의 선수 식별)

  • Jung, Ho-Seok;Lee, Jong-Uk;Lee, Han-Sung;Park, Dai-Hee
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.446-449
    • /
    • 2011
  • 얼굴 인식 성능을 저해하는 환경으로 인한 축구 비디오에서의 낮은 선수 인식률과 제한된 해공간의 문제점을 해결하는 차원에서 본 논문에서는 다음과 같은 특징을 갖는 얼굴 인식 기반의 축구선수 인식 방법론을 제안한다: 1) 조명 변화에 민감하지 않은 얼굴 표현 방법인 ULBP를 사용하여 얼굴 인식 성능을 향상시킨다; 2) 얼굴 인식 성능을 저해하는 다양한 환경에서도 이미 강인한 성능이 검증된 SRC를 선수 식별 과정에 적용함으로써 안정적이고 높은 선수 식별 성능을 보장한다; 3) 클로즈업 샷뿐만 아니라 미디엄 샷의 정면, 준정면, 측면 얼굴 이미지를 대상으로 선수 식별의 해공간을 확장한다; 4) SRC의 점증적 갱신 학습 능력으로 축구 선수 얼굴 데이터베이스의 변화에도 능동적으로 적응한다. 실제 2010년 남아프리카 공화국 월드컵의 스페인 경기를 대상으로 제안된 방법론의 성능을 실험적으로 검증한다.

Face identification with frequency domain matched filtering in mobile environments (모바일 환경에서 정합 필터를 이용한 얼굴 식별)

  • Lee, Dong-Su;Woo, Yong-Hyun;Yeom, Seok-Won;Kim, Shin-Hwan
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2012.05a
    • /
    • pp.4-5
    • /
    • 2012
  • 원거리에서의 얼굴 식별은 낮은 영상 해상도를 비롯하여 블러와 잡음으로 인한 어려움이 크다. 더욱이 모바일 장치에서 실시간 처리를 하기 위하여 느린 수행속도와 제한된 메모리 등 모바일 계산환경을 필히 고려하여야 한다. 본 논문은 모바일 환경에서 주파수 영역의 정합 필터를 이용한 얼굴 식별 방법을 제안한다. 얼굴 식별은 선형(linear) 및 위상(phase-only) 필터, 순차적인 검증 단계를 이용하여 수행된다. 얼굴 후보 윈도우 영역은 선형 필터와 위상 필터를 수행하여 검출하고 순차적인 검증 단계는 피부색 테스트와 경계 마스크 필터링 테스트로 구성한다. 제안된 방법은 Android 플랫폼에서 Java을 이용하여 모바일 폰에서 개발하였다. 예비실험 결과는 모바일 환경에서 얼굴 식별이 실시간으로 성공적으로 수행될 수 있음을 보인다.

  • PDF

De-Identified Face Image Generation within Face Verification for Privacy Protection (프라이버시 보호를 위한 얼굴 인증이 가능한 비식별화 얼굴 이미지 생성 연구)

  • Jung-jae Lee;Hyun-sik Na;To-min Ok;Dae-seon Choi
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.33 no.2
    • /
    • pp.201-210
    • /
    • 2023
  • Deep learning-based face verificattion model show high performance and are used in many fields, but there is a possibility the user's face image may be leaked in the process of inputting the face image to the model. Althoughde-identification technology exists as a method for minimizing the exposure of face features, there is a problemin that verification performance decreases when the existing technology is applied. In this paper, after combining the face features of other person, a de-identified face image is created through StyleGAN. In addition, we propose a method of optimizingthe combining ratio of features according to the face verification model using HopSkipJumpAttack. We visualize the images generated by the proposed method to check the de-identification performance, and evaluate the ability to maintain the performance of the face verification model through experiments. That is, face verification can be performed using the de-identified image generated through the proposed method, and leakage of face personal information can be prevented.

Robust Face Recognition based on 2D PCA Face Distinctive Identity Feature Subspace Model (2차원 PCA 얼굴 고유 식별 특성 부분공간 모델 기반 강인한 얼굴 인식)

  • Seol, Tae-In;Chung, Sun-Tae;Kim, Sang-Hoon;Chung, Un-Dong;Cho, Seong-Won
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.47 no.1
    • /
    • pp.35-43
    • /
    • 2010
  • 1D PCA utilized in the face appearance-based face recognition methods such as eigenface-based face recognition method may lead to less face representative power and more computational cost due to the resulting 1D face appearance data vector of high dimensionality. To resolve such problems of 1D PCA, 2D PCA-based face recognition methods had been developed. However, the face representation model obtained by direct application of 2D PCA to a face image set includes both face common features and face distinctive identity features. Face common features not only prevent face recognizability but also cause more computational cost. In this paper, we first develope a model of a face distinctive identity feature subspace separated from the effects of face common features in the face feature space obtained by application of 2D PCA analysis. Then, a novel robust face recognition based on the face distinctive identity feature subspace model is proposed. The proposed face recognition method based on the face distinctive identity feature subspace shows better performance than the conventional PCA-based methods (1D PCA-based one and 2D PCA-based one) with respect to recognition rate and processing time since it depends only on the face distinctive identity features. This is verified through various experiments using Yale A and IMM face database consisting of face images with various face poses under various illumination conditions.

Face and Emotion Recognition Using Eigenface (Eigenface를 이용한 인간의 얼굴인식과 감정인식)

  • 이상윤;오재흥;장근호;주영훈
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.321-324
    • /
    • 2002
  • 본 논문에서는 다양한 환경하에서 인간의 식별과 감정을 인식할 수 있는 감정 인식 알고리즘을 제안한다. 제안된 알고리즘을 구현하기 위해, 먼저, CCD 칼라 카메라에 의해 획득한 원 영상으로부터 피부색을 이용해 얼굴영상을 얻는 과정을 거친다. 그 다음, 주요 요소분석을 기본으로 하는 얼굴인식기술인 Eigenface를 사용하여 이미지들을 고차원의 픽셀공간으로부터 저차원공간으로의 변환하는 파정을 거친다. 제안된 개인에 대한 식별과 감성인식은 사용한 특징벡터들의 추출로 인한 Eigenface의 가중치와 상관관계를 통해 이루어진다 즉, 영상의 가중치로부터 개인에 대한 식별과 감성정보를 찾는 방법을 제안한다. 마지막으로, 실험을 통해 제안된 방법의 응용가능성을 보인다.

A Face Recognition Based Suspected Criminal Detection and Identification System (얼굴 인식 기반의 범죄 용의자 탐지 및 식별 시스템)

  • Lee, Jong-Uk;Kang, Bong-Su;Lee, Han-Sung;Park, Dae-Hee
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.11a
    • /
    • pp.127-128
    • /
    • 2010
  • 본 논문에서는 CCTV 감시 영상에서 취득한 얼굴 이미지를 이용하여, 범죄자 감시목록에 등록된 범죄 용의자를 탐지 식별하는 시스템을 설계 및 구현하였다. 특히 본 논문에서 제안한 SVDD와 SRC를 혼합한 계층적 구조의 범죄 용의자 식별 모듈은 다음과 같은 특성을 갖는다: 1) 먼저 SVDD를 이용하여 범죄 용의자만을 빠르게 인식함으로써, 일반인에 대한 불필요한 범죄자 식별 연산을 수행하지 않는다; 2) 다양한 식별 성능을 저해하는 환경에서도 이미 강인한 성능이 검증된 SRC를 범죄 용의자 식별과정에 적용함으로써 안정적이고 정확한 식별 시스템을 보장한다; 3) 동일 생체 특정의 반복적 사용을 통한 다수결 투표전략을 취함으로써 시스템의 신뢰도를 보장한다; 4) 점증적 갱신의 학습 능력으로 인하여 범죄 용의자 감시목록 데이터베이스의 변화에도 능동적으로 적응한다 실제 KUFD(Korea University Face Database)를 자체 제작하고 캠퍼스 내에서 CCTV 환경의 얼굴 인식 기반 범죄 용의자 탐지 및 식별 시스템 환경을 모의 구축하여 실험적으로 제안된 시스템의 성능을 검증한다.

  • PDF

CNN Based Face Tracking and Re-identification for Privacy Protection in Video Contents (비디오 컨텐츠의 프라이버시 보호를 위한 CNN 기반 얼굴 추적 및 재식별 기술)

  • Park, TaeMi;Phu, Ninh Phung;Kim, HyungWon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.25 no.1
    • /
    • pp.63-68
    • /
    • 2021
  • Recently there is sharply increasing interest in watching and creating video contents such as YouTube. However, creating such video contents without privacy protection technique can expose other people in the background in public, which is consequently violating their privacy rights. This paper seeks to remedy these problems and proposes a technique that identifies faces and protecting portrait rights by blurring the face. The key contribution of this paper lies on our deep-learning technique with low detection error and high computation that allow to protect portrait rights in real-time videos. To reduce errors, an efficient tracking algorithm was used in this system with face detection and face recognition algorithm. This paper compares the performance of the proposed system with and without the tracking algorithm. We believe this system can be used wherever the video is used.

Real Time Discrimination of 3 Dimensional Face Pose (실시간 3차원 얼굴 방향 식별)

  • Kim, Tae-Woo
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.3 no.1
    • /
    • pp.47-52
    • /
    • 2010
  • In this paper, we introduce a new approach for real-time 3D face pose discrimination based on active IR illumination from a monocular view of the camera. Under the IR illumination, the pupils appear bright. We develop algorithms for efficient and robust detection and tracking pupils in real time. Based on the geometric distortions of pupils under different face orientations, an eigen eye feature space is built based on training data that captures the relationship between 3D face orientation and the geometric features of the pupils. The 3D face pose for an input query image is subsequently classified using the eigen eye feature space. From the experiment, we obtained the range of results of discrimination from the subjects which close to the camera are from 94,67%, minimum from 100%, maximum.

  • PDF

Implementing Augmented Reality By Using Face Detection, Recognition And Motion Tracking (얼굴 검출과 인식 및 모션추적에 의한 증강현실 구현)

  • Lee, Hee-Man
    • Journal of the Korea Society of Computer and Information
    • /
    • v.17 no.1
    • /
    • pp.97-104
    • /
    • 2012
  • Natural User Interface(NUI) technologies introduce new trends in using devices such as computer and any other electronic devices. In this paper, an augmented reality on a mobile device is implemented by using face detection, recognition and motion tracking. The face detection is obtained by using Viola-Jones algorithm from the images of the front camera. The Eigenface algorithm is employed for face recognition and face motion tracking. The augmented reality is implemented by overlapping the rear camera image and GPS, accelerator sensors' data with the 3D graphic object which is correspond with the recognized face. The algorithms and methods are limited by the mobile device specification such as processing ability and main memory capacity.

Real Time 3D Face Pose Discrimination Based On Active IR Illumination (능동적 적외선 조명을 이용한 실시간 3차원 얼굴 방향 식별)

  • 박호식;배철수
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.8 no.3
    • /
    • pp.727-732
    • /
    • 2004
  • In this paper, we introduce a new approach for real-time 3D face pose discrimination based on active IR illumination from a monocular view of the camera. Under the IR illumination, the pupils appear bright. We develop algorithms for efficient and robust detection and tracking pupils in real time. Based on the geometric distortions of pupils under different face orientations, an eigen eye feature space is built based on training data that captures the relationship between 3D face orientation and the geometric features of the pupils. The 3D face pose for an input query image is subsequently classified using the eigen eye feature space. From the experiment, we obtained the range of results of discrimination from the subjects which close to the camera are from 94,67%, minimum from 100%, maximum.