• 제목/요약/키워드: Facial Features Detection

검색결과 138건 처리시간 0.029초

얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A Flexible Feature Matching for Automatic Facial Feature Points Detection)

  • 황선기;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권2호
    • /
    • pp.12-17
    • /
    • 2010
  • 본 논문에서는 자동적으로 얼굴 특징점을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며, 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였다. 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.

  • PDF

얼굴과 얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A Flexible Feature Matching for Automatic face and Facial feature Points Detection)

  • 박호식;손형경;정연길;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 춘계종합학술대회
    • /
    • pp.608-612
    • /
    • 2002
  • 본 논문에서는 자동적으로 얼굴과 얼굴 특징점을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며, 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였다. 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.

  • PDF

METHODS OF EYEBROW REGION EXTRACRION AND MOUTH DETECTION FOR FACIAL CARICATURING SYSTEM PICASSO-2 EXHIBITED AT EXPO2005

  • Tokuda, Naoya;Fujiwara, Takayuki;Funahashi, Takuma;Koshimizu, Hiroyasu
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.425-428
    • /
    • 2009
  • We have researched and developed the caricature generation system PICASSO. PICASSO outputs the deformed facial caricature by comparing input face with prepared mean face. We specialized it as PICASSO-2 for exhibiting a robot at Aichi EXPO2005. This robot enforced by PICASSO-2 drew a facial caricature on the shrimp rice cracker with the laser pen. We have been recently exhibiting another revised robot characterized by a brush drawing. This system takes a couple of facial images with CCD camera, extracts the facial features from the images, and generates the facial caricature in real time. We experimentally evaluated the performance of the caricatures using a lot of data taken in Aichi EXPO2005. As a result it was obvious that this system were not sufficient in accuracy of eyebrow region extraction and mouth detection. In this paper, we propose the improved methods for eyebrow region extraction and mouth detection.

  • PDF

Masked Face Recognition via a Combined SIFT and DLBP Features Trained in CNN Model

  • Aljarallah, Nahla Fahad;Uliyan, Diaa Mohammed
    • International Journal of Computer Science & Network Security
    • /
    • 제22권6호
    • /
    • pp.319-331
    • /
    • 2022
  • The latest global COVID-19 pandemic has made the use of facial masks an important aspect of our lives. People are advised to cover their faces in public spaces to discourage illness from spreading. Using these face masks posed a significant concern about the exactness of the face identification method used to search and unlock telephones at the school/office. Many companies have already built the requisite data in-house to incorporate such a scheme, using face recognition as an authentication. Unfortunately, veiled faces hinder the detection and acknowledgment of these facial identity schemes and seek to invalidate the internal data collection. Biometric systems that use the face as authentication cause problems with detection or recognition (face or persons). In this research, a novel model has been developed to detect and recognize faces and persons for authentication using scale invariant features (SIFT) for the whole segmented face with an efficient local binary texture features (DLBP) in region of eyes in the masked face. The Fuzzy C means is utilized to segment the image. These mixed features are trained significantly in a convolution neural network (CNN) model. The main advantage of this model is that can detect and recognizing faces by assigning weights to the selected features aimed to grant or provoke permissions with high accuracy.

실시간 얼굴인식 시스템을 위한 얼굴의 위치 및 각 부위 자동 검출에 관한 연구 (A Study on Automatic Detection of The Face and Facial Features for Face Recognition System in Real Time)

  • 구자일;홍준표
    • 대한전자공학회논문지TE
    • /
    • 제39권4호
    • /
    • pp.379-388
    • /
    • 2002
  • 본 논문에서는 실시간 얼굴인식 시스템을 위한 얼굴의 위치 및 얼굴의 각 부위 자동 검출에 관한 알고리즘을 제안하였다. 얼굴의 각 부위 기반 특징점 추출을 위해 검출된 얼굴영역에서 얼굴의 눈, 코, 입의 탐색 과정을 수행하면서, 얼굴 각 부위의 크기 및 위치의 구조적인 정보를 이용하거나 가우시안 2차 미분 연산자를 통한 신호처리의 두 가지 방법을 이용하였다. 이들은 전체 영상이 아닌 검출된 얼굴 영역에 대해서 탐색하기 때문에 전체 영상을 탐색할 때에 비해 처리 시간을 줄일 수 있을 뿐만 아니라, 정확성을 높일 수 있다. 제안된 알고리즘을 통해 95%에 근접한 얼굴 검출률과 1초미만의 속도 향상, 그리고 얼굴 검출의 장애요인이 되었던 조명의 영향을 줄이는 동시에 얼굴의 각도 변화를 보정할 수 있었다.

얼굴 특징점 기반의 졸음운전 감지 알고리즘 (Driver Drowsiness Detection Algorithm based on Facial Features)

  • 오미연;정유수;박길흠
    • 한국멀티미디어학회논문지
    • /
    • 제19권11호
    • /
    • pp.1852-1861
    • /
    • 2016
  • Drowsy driving is a significant factor in traffic accidents, so driver drowsiness detection system based on computer vision for convenience and safety has been actively studied. However, it is difficult to accurately detect the driver drowsiness in complex background and environmental change. In this paper, it proposed the driver drowsiness detection algorithm to determine whether the driver is drowsy through the measurement standard of a yawn, eyes drowsy status, and nod based on facial features. The proposed algorithm detect the driver drowsiness in the complex background, and it is robust to changes in the environment. The algorithm can be applied in real time because of the processing speed faster. Throughout the experiment, we confirmed that the algorithm reliably detected driver drowsiness. The processing speed of the proposed algorithm is about 0.084ms. Also, the proposed algorithm can achieve an average detection rate of 98.48% and 97.37% for a yawn, drowsy eyes, and nod in the daytime and nighttime.

분포맵에 기반한 얼굴 영역 검출 (Face Detection Based on Distribution Map)

  • 조한수
    • 한국멀티미디어학회논문지
    • /
    • 제9권1호
    • /
    • pp.11-22
    • /
    • 2006
  • 얼굴 검출은 개인 인증이나 보안 등 그 응용분야가 다양하여 활발히 연구가 진행되고 있다. 본 논문에서는 분포맵에 기반한 얼굴 검출의 새로운 방법을 제안한다. 제안한 방법은 먼저, 빈도수를 고려한 피부색 분포맵을 입력 영상에 적용하여 일차적으로 얼굴 후보영역을 구하고, 이 영역에서 눈동자색 분포맵을 이용하여 눈후보영역을 결정함으로써 얼굴 구성 요소를 탐색하는 탐색공간을 축소한다. 결정된 눈 후보영역에서 가중치가 있는 윈도우를 이용하여 휘도성분과 색상성분의 상관값을 특징벡터로 한 템플릿 정합 방법으로 눈 후보점을 검출한다. 최종적으로 각 눈 후보점 쌍에 대하여 눈과 입의 위치관계 정보와 입을 인식하는 평가함수를 이용하여 얼굴을 검출하였다. 실험 결과, 제안된 방법은 좋은 성능을 보였다.

  • PDF

얼굴의 회전 및 이동 분석에 의한 응시 위치 파악 (Gaze Detection by Computing Facial Rotation and Translation)

  • 이정준;박강령;김재훈
    • 대한전자공학회논문지SP
    • /
    • 제39권5호
    • /
    • pp.535-543
    • /
    • 2002
  • 본 논문에서는 모니터 위에 설치된 카메라를 통해 입력된 사용자의 2차원 얼굴 영상을 이용하여, 사용자가 모니터 상에 쳐다보고 있는 응시 위치를 파악하는 방법을 제안한다. 본 논문에서는 사용자의 눈동자 움직임은 고려하지 않고 얼굴의 회전 및 이동만을 고려하였다. 제안하는 방법은 얼굴의 회전에 의한 응시위치와 얼굴의 좌우상하 이동량을 각각 계산하여 이 둘을 결합함으로써 모니터상의 응시위치를 추정하는 것이다. 얼굴 특징점의 기하학적 형태변화를 입력으로 하는 신경망(다층 퍼셉트론)을 이용하여 얼굴의 회전에 의한 응시위치를 구하였으며 영상처리 알고리즘을 이용하여 입력영상으로부터 실시간으로 얼굴의 이동량을 추정하였다. 실험결과 19인치 모니터를 사용하고 사용자가 모니터와의 거리를 50~70cm 정도 유지하며 얼굴의 이동 및 회전을 통하여 모니터를 바라볼 때 약 2.11인치의 응시 위치 추정 오차를 보이는 것으로 나타났다. 처리시간은 Pentium PC(233MHz)환경에서 320${\times}$240 화소 크기의 영상을 사용할 때 약 0.7초가 소요되었다.

색상요소를 고려한 얼굴검출에 대한 연구 (A study of face detection using color component)

  • 이정하;강진석;최연성;김장형
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 추계종합학술대회
    • /
    • pp.240-243
    • /
    • 2002
  • 본 논문에서는 칼라 이미지에서 색상 요소를 기초로 하여 얼굴영역을 추출하고 얼굴의 특징요소를 추출하는 방법을 제안한다. 얼굴 영역을 추출하기 위하여 일반적인 얼굴색상분포를 이용하여 색상변환을 하였다. 얼굴 특성요소를 찾기 위하여 윤곽선검출을 이용하였다. 얼굴영역의 상단부분에서 눈의 요소를 찾고, 눈과 입의 지정학적 위치를 이용하여 입의 후보영역을 지정하고 입을 찾도록 하였다. 검색영역을 좁혀 계산량을 줄임으로서 탐색시간을 줄일 수 있고, 일반적인 얼굴색상분포를 이용하여 얼굴 영역을 검출함으로서 얼굴표정, 얼굴색변화, 기울짐에 대해서도 얼굴영역을 검출할 수 있었다.

  • PDF

얼굴의 3차원 위치 및 움직임 추정에 의한 시선 위치 추적 (Facial Gaze Detection by Estimating Three Dimensional Positional Movements)

  • 박강령;김재희
    • 대한전자공학회논문지SP
    • /
    • 제39권3호
    • /
    • pp.23-35
    • /
    • 2002
  • 시선 위치 추적이란 모니터상에 사용자가 쳐다보고 있는 지점을 파악해 내는 기술이다 이 논문에서는 컴퓨터 비젼 방법을 이용하여 사용자가 모니터 상에 어느 지점을 쳐다보고 있는지를 파악(시선 위치 추적)하는 새로운 방법을 제안한다. 시선위치를 파악하기 위해 본 논문에서는 얼굴 영역 및 얼굴 특징점(양 눈, 양 콧구멍, 입술 끝점 등)을 2차원 카메라 영상으로부터 추출하였으며, 이들의 움직임으로부터 카메라 보정 및 매개변수 추정 방법등을 이용하여 초기 3차원 위치를 추정해 내었다. 이후 모니터 상의 한 지점을 쳐다보기 위해 사용자가 얼굴을 움직이는 경우 이러한 얼굴의 3차원 움직임 량 역시 자동으로 추정하였다. 이로부터 변화된 얼굴 특징점의 3차원 위치를 계산해 낼 수 있었으며, 이를 바탕으로 모니터 상의 시선 위치를 구하였다. 실험 결과, 19인치 모니터상의 임의의 지점을 사용자가 쳐다보았을 때, 약 2.01인치의 시선 위치에러 성능을 얻었다.