• 제목/요약/키워드: Video Face Recognition

검색결과 110건 처리시간 0.028초

딥러닝 및 기계학습 활용 반려견 얼굴 정면판별 방법 (Recognition of dog's front face using deep learning and machine learning)

  • 김종복;장동화;양가영;권경석;김중곤;이준환
    • 한국산학기술학회논문지
    • /
    • 제21권12호
    • /
    • pp.1-9
    • /
    • 2020
  • 반려견을 키우는 가구 수가 급격하게 증가함에 따라 유기, 유실견도 많이 증가하고 있다. 국내에서는 2014년부터 반려동물 등록제를 시행하고 있지만, 안전성과 실효성 문제로 등록률이 높지 않은 실정이다. 이러한 문제를 해결할 방법으로 반려견 생체인식 기술이 주목을 받고 있다. 생체인식률을 높이기 위해서는 최대한 정면에서 같은 형태로 생체정보 이미지를 수집해야 한다. 하지만 반려견은 사람과 달리 비협조적이기 때문에 생체정보 이미지 수집이 어렵다. 본 논문에서는 반려견 생체인식에 적합한 생체정보 이미지 수집을 위해 실시간 영상에서 반려견 얼굴 방향이 정면인지를 판별하는 방법을 제안한다. 제안 방법은 딥러닝을 활용하여 반려견 눈과 코를 검출하고, 검출된 눈과 코의 상대적 크기와 위치를 통해 5가지의 얼굴 방향 정보를 추출하여 기계학습 분류기로 정면 여부를 판별한다. 2,000개의 반려견 이미지를 분류하여 학습, 검증 및 테스트에 사용하였다. 눈과 코 검출에는 YOLOv3와 YOLOv4를 사용하였고, 분류기는 MLP(Multi-layer Perceptron), RF(Random Forest), SVM(Support Vector Machine)을 사용하였다. YOLOv4와 RF 분류기를 사용하고 제안하는 5가지 얼굴 방향 정보 모두를 적용하였을 때 얼굴 정면 판별 성능이 95.25%로 가장 좋았으며, 실시간 처리도 가능한 것으로 나타났다.

웹캠을 이용한 실시간 얼굴인식과 이상적 헤어스타일 적용방법에 관한 연구 (A study of Real-Time Face Recognition using Web CAM and Ideal Hair style Adaption Method)

  • 강남순
    • 한국산학기술학회논문지
    • /
    • 제11권2호
    • /
    • pp.532-539
    • /
    • 2010
  • 본 논문에서 제안하는 시스템은 기존 미용예술분야와 영상처리 기술을 결합한 헤어스타일 검색 및 적용 시스템을 제안한다. 제안하는 시스템은 데이터베이스에 여러 헤어스타일 정보를 저장하고 사용자가 웹캠을 이용하여 실시간으로 자신에 얼굴 이미지 정보를 전송하여 자신의 얼굴형에 맞는 헤어스타일을 찾을 수 있는 시스템을 제안하고자 한다.

비강압적 방법에 의한 원거리에서의 홍채 탐지 기법 (Iris Detection at a Distance by Non-volunteer Method)

  • 박권도;김동수;김정민;송영주;고석주
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.705-708
    • /
    • 2018
  • 현재 보안을 위해 상용화된 생체 인식 중 홍채 인식 기술은 개인마다 일치할 확률이 매우 적다. 그러나 현재 상용화된 홍채 인식 기술은 인식력은 뛰어나나 인식하기 위해 사용자의 능동적 협조가 필요하다는 단점을 가지고 있다. 이에 따라 최근 추세는 이러한 불편을 해결하기 위해 비강압적인 방식을 통해 사용자들의 홍채를 검출하는 방향으로 흐르고 있으며, 본 과제의 목적은 고성능 적외선 카메라를 사용하여 3m 거리 이내에서 비자발적 방식으로 확보한 영상에서홍채를 통해 사람을 식별하는 모듈을 개발하는 것이다. 고성능 적외선 카메라를 사용해 확보한 영상에서 이미지를 가져오고, 이 이미지를 식별하여 사람의 얼굴 및 눈의 위치를 가져온 뒤, 식별된 사람의 얼굴 및 눈의 위치를 허프 변환을 통해 홍채의 이미지를 잘라내어 데이터베이스에 저장된 홍채 패턴과 대조하여 사람을 식별하고자 한다.

  • PDF

Uncooperative Person Recognition Based on Stochastic Information Updates and Environment Estimators

  • Kim, Hye-Jin;Kim, Dohyung;Lee, Jaeyeon;Jeong, Il-Kwon
    • ETRI Journal
    • /
    • 제37권2호
    • /
    • pp.395-405
    • /
    • 2015
  • We address the problem of uncooperative person recognition through continuous monitoring. Multiple modalities, such as face, height, clothes color, and voice, can be used when attempting to recognize a person. In general, not all modalities are available for a given frame; furthermore, only some modalities will be useful as some frames in a video sequence are of a quality that is too low to be able to recognize a person. We propose a method that makes use of stochastic information updates of temporal modalities and environment estimators to improve person recognition performance. The environment estimators provide information on whether a given modality is reliable enough to be used in a particular instance; such indicators mean that we can easily identify and eliminate meaningless data, thus increasing the overall efficiency of the method. Our proposed method was tested using movie clips acquired under an unconstrained environment that included a wide variation of scale and rotation; illumination changes; uncontrolled distances from a camera to users (varying from 0.5 m to 5 m); and natural views of the human body with various types of noise. In this real and challenging scenario, our proposed method resulted in an outstanding performance.

Character-Net을 이용한 주요배역 추출 (Major Character Extraction using Character-Net)

  • 박승보;김유원;조근식
    • 인터넷정보학회논문지
    • /
    • 제11권1호
    • /
    • pp.85-102
    • /
    • 2010
  • 본 논문에서는 동영상의 등장인물 간의 상황을 기초로 배역간의 관계를 정의한 Character-Net을 구축하는 방법과 이를 이용하여 동영상으로부터 주요배역을 추출하는 방법을 제안한다. 인터넷의 발전과 함께 디지털화된 동영상의 수가 기하급수적으로 증가하여 왔고 원하는 동영상을 검색하거나 축약하기 위해 동영상으로부터 의미정보를 추출하려는 다양한 시도가 있어왔다. 상업용 영화나 TV 드라마와 같이 이야기 구조를 가진 대부분의 동영상은 그 속에 존재하는 등장인물들에 의해 이야기 전개가 이루어지게 되므로, 동영상 분석을 위해 인물 간의 관계와 상황을 체계적으로 정리하고 주요배역을 추출하여 동영상 검색이나 축약을 위한 정보로 활용할 필요가 있다. Character-Net은 영상의 그룹 단위에 등장하는 인물들을 찾아 화자와 청자를 분류하여 등장인물 기반의 그래프로 표현하고 이 그래프를 누적하여 전체 동영상의 등장인물들 간의 관계를 묘사한 네트워크다. 그리고 이 네트워크에서 연결정도 중심성 분석을 통해 주요배역을 추출할 수 있다. 이를 위해 본 논문에서는 Character-Net을 구축하고 주요배역을 추출하는 실험을 진행 하였다.

하이브리드 인식 기술을 이용한 전사적 인적자원관리 (Enterprise Human Resource Management using Hybrid Recognition Technique)

  • 한정수;이정헌;김귀정
    • 디지털융복합연구
    • /
    • 제10권10호
    • /
    • pp.333-338
    • /
    • 2012
  • 인적자원관리는 IT기술을 접목하여 다양한 변화를 가져오고 있다. 특히 HRM이 집단차원의 관리, 물리적 사업장, 근무시간의 제약, 개인적 접촉 등 비과학적 방법으로 이루어졌다면, 현재의 전자적 인적자원관리(e-HRM)는 개별 차원의 관리, 가상 작업 공간의 등장(예. 스마트워크센터, 홈워크 등), 근무시간의 유연화 및 탄력화, 컴퓨터 기반의 통계자료 및 과학적 방법에 의한 분석 및 관리를 근간으로 이루어지고 있다는 점에서 큰 차이가 있다. 따라서 환경의 변화에 따라 기업들은 보다 효율적이고 전략적인 인적자원 관리 체계를 구축하기 위하여 RFID 카드, 지문인식 근태관리 시스템 등 다양한 기술을 도입하고 있다. 본 논문에서는 효율적인 전사적 인적자원 관리를 위한 멀티 카메라를 이용하여 2D 및 3D 얼굴인식기술 기반의 근태관리, 출입통제관리 시스템을 개발하였다. 여기서는 기존 2D방식의 얼굴인식기술이 가지고 있는 문제점인 조명 및 자세에 따른 인식률 저하를 극복하여 90% 이상의 인식률을 확보하였다. 또한 3D 얼굴인식방식의 문제점인 많은 계산량을 개선하기 위하여 3D와 2D 인식기술을 병행하여 처리함으로써 하이브리드 영상인식 및 인식속도를 개선할 수 있었다.

PCA와 HMM을 이용한 실시간 립리딩 시스템의 설계 및 구현 (Design and Implementation of a Real-Time Lipreading System Using PCA & HMM)

  • 이지근;이은숙;정성태;이상설
    • 한국멀티미디어학회논문지
    • /
    • 제7권11호
    • /
    • pp.1597-1609
    • /
    • 2004
  • 립리딩은 잡음 환경에서 저하되는 음성 인식률의 보상과 음성을 청취하기 어려운 상황에서의 음성인식보조 수단으로 많은 연구가 시도되고 있다. 기존 립리딩 시스템은 인위적인 조명 환경이나 얼굴과 입술 추출을 위하여 미리 정해진 제한된 조건에서 실험되어 왔다. 본 논문에서는 화자의 움직임이 허용되고 컬러나 조명과 같은 환경 변화에 제한조건을 완화한 영상을 이용하여 실시간 립리딩 시스템을 구현하였다. 본 논문의 시스템은 범용으로 사용되는 PC 카메라를 통해 입력받은 영상에서 얼굴과 입술 영역을 실시간으로 검출한 후, 립리딩에 필요한 영상정보를 추출하고 이 입술 영상 정보를 이용하여 실시간으로 발성 단어를 인식할 수 있다. 얼굴과 입술 영역 검출을 위하여 조명환경에 독립성을 갖는 색도 히스토그램 모델을 이용하였고 움직이는 화자의 얼굴 추적을 위하여 평균 이동 알고리즘을 이용하였다. 검출된 입술 영역에서 학습과 인식에 필요한 영상 정보를 추출하기 위하여 PCA(Principal Component Analysis)를 사용하였고, 인식 알고리즘으로는 HMM을 이용하였다. 실험 결과 화자종속일 경우 90%의 인식률을 보였으며 잡음이 있는 음성과 합병하여 인식률 실험을 해 본 결과, 음성 잡음비에 따라서 음성 인식률을 약 40~85%까지 향상시킬 수 있었다.

  • PDF

미디어 아카이브 구축을 위한 등장인물, 사물 메타데이터 생성 시스템 구현 (Implementation of Character and Object Metadata Generation System for Media Archive Construction)

  • 조성만;이승주;이재현;박구만
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.1076-1084
    • /
    • 2019
  • 본 논문에서는 딥러닝을 적용하여 미디어 내의 등장인물 및 사물을 인식, 메타데이터를 추출하고 이를 통해 아카이브를 구축하는 시스템을 개발하였다. 방송 분야에서 비디오, 오디오, 이미지, 텍스트 등의 멀티미디어 자료들을 디지털 컨텐츠로 전환하기 시작한지는 오래 되었지만, 아직 구축해야 할 자료들은 방대하게 남아있다. 따라서 딥러닝 기반의 메타데이터 생성 시스템을 구현하여 미디어 아카이브 구축에 소모되는 시간과 비용을 절약 할 수 있도록 하였다. 전체 시스템은 학습용 데이터 생성 모듈, 사물 인식 모듈, 등장인물 인식 모듈, API 서버의 네 가지 요소로 구성되어 있다. 미디어 내에서 등장인물 및 사물을 인식하여 메타데이터로 추출할 수 있도록 딥러닝 기술로 사물 인식 모듈, 얼굴 인식 모듈을 구현하였다. 딥러닝 신경망을 학습시키기 위한 데이터를 구축하기 용이하도록 학습용 데이터 생성 모듈을 별도로 설계하였으며 얼굴 인식, 사물 인식의 기능은 API 서버 형태로 구성하였다. 1500명의 인물, 80종의 사물 데이터를 사용하여 신경망을 학습시켰으며 등장인물 테스트 데이터에서 98%, 사물 데이터에서 42%의 정확도를 확인하였다.

동영상 등장인물의 자동색인을 위한 효율적인 저장과 검색 방법 (Efficient Storage and Retrieval for Automatic Indexing of Persons in Videos)

  • 김진승;한용구;이영구
    • 한국멀티미디어학회논문지
    • /
    • 제14권8호
    • /
    • pp.1050-1060
    • /
    • 2011
  • 대용량 동영상을 대상으로 한 등장인물 색인에 대한 수요가 증가함에 따라, 많은 시간과 비용이 소요되는 수동 태깅의 단점을 보완할 수 있는 자동 태깅을 이용한 자동 색인이 연구되고 있다. 하지만, 자동 색인은 인물을 100% 정확하게 검출하지 못하므로 검출된 인물에 대해 정확도를 함께 표현해야 한다. 본 논문에서는 이러한 정보를 포스팅 리스트에 효율적으로 저장하는 방법과 등장인물의 검색시 관련 동영상들을 효율적으로 찾기 위한 순위 결정 방법을 제안한다. 실험을 통하여 제안하는 색인 정보 저장 방법이 포스팅 리스트의 압축에 효과적임을 입증하였다. 또한 제안한 순위 결정 방법이 관련 동영상을 찾는데 효과적임을 입증하였다.

표정 강도에 강건한 얼굴 표정 인식 (Robust Facial Expression-Recognition Against Various Expression Intensity)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.395-402
    • /
    • 2009
  • 본 연구는 표정 인식률을 개선하기 위한, 강도가 다른 표정을 인식하는 새로운 표정 인식 방법을 제안한다. 사람마다 다르게 나타나는 표정과 표정마다 다른 강도는 표정 인식률 저하에 지대한 영향을 미친다. 하지만 얼굴 표정의 다양한 강도를 처리하는 방법은 많이 제시되지 않고 있다. 본 연구에서는 표정 템플릿과 표정 강도 분포모델을 이용하여 다양한 얼굴 표정 강도를 인식하는 방법을 제시한다. 표정 템플릿과 표정강도 분포모델은 얼굴의 특징 부위에 표시한 관심 점과 얼굴 특징 부위간의 움직임이 다른 표정과 강도에 따라 어떻게 달라지는지 설명하여 표정 인식률 개선에 기여한다. 제안 방법은 정지 이미지뿐만 아니라 비디오시퀀스에서도 빠른 측정 과정을 통해 다양한 강도의 표정을 인식할 수 있는 장점이 있다. 실험 결과, 제안 연구가 특히 약한 강도의 표정에 대해 타 방법보다 높은 인식 결과를 보여 제안 방법이 다양한 강도의 표정 인식에 강건함을 알 수 있다.