• Title/Summary/Keyword: 얼굴 특징점 추출

Search Result 181, Processing Time 0.081 seconds

Head Pose Estimation Using Error Compensated Singular Value Decomposition for 3D Face Recognition (3차원 얼굴 인식을 위한 오류 보상 특이치 분해 기반 얼굴 포즈 추정)

  • 송환종;양욱일;손광훈
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.40 no.6
    • /
    • pp.31-40
    • /
    • 2003
  • Most face recognition systems are based on 2D images and applied in many applications. However, it is difficult to recognize a face when the pose varies severely. Therefore, head pose estimation is an inevitable procedure to improve recognition rate when a face is not frontal. In this paper, we propose a novel head pose estimation algorithm for 3D face recognition. Given the 3D range image of an unknown face as an input, we automatically extract facial feature points based on the face curvature. We propose an Error Compensated Singular Value Decomposition (EC-SVD) method based on the extracted facial feature points. We obtain the initial rotation angle based on the SVD method, and perform a refinement procedure to compensate for remained errors. The proposed algorithm is performed by exploiting the extracted facial features in the normaized 3D face space. In addition, we propose a 3D nearest neighbor classifier in order to select face candidates for 3D face recognition. From simulation results, we proved the efficiency and validity of the proposed algorithm.

The analysis of parameters and affection(Gamsung) for facial types of Korean females in twenties (한국인 20대 여성 얼굴의 수치 및 감성 구조 분석)

  • 박수진;김한경;한재현;이정원;김종일;송경석;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2001.05a
    • /
    • pp.74-81
    • /
    • 2001
  • 얼굴은 내측두(IT: inferotemporal) 영역에 독자적인 처리 공간을 가지고 있는 (Bruce, Desimone, & Gross, 1981; Rolls, 1992) 매우 복잡한 시각 자극이다. 본연구는 이러한 복잡한 얼굴 자극을 구성하고 있는 물리적인 특징들을 추출하여 얼굴을 수치 구조면에서 분석하고 이를 감성 공간과 연결시킬 목적으로 수행되었ㄷ. 이를 위해 본연구에서는 먼저 얼굴 내부에 36개의 특징들 및 특징들 간 관계를 설정하였다. 또한 얼굴 외곽형의 분류를 위해 얼굴 윤곽선 부위에 14개의 특징점을 찍고 코끝에서부터 이들 지점과의 거리를 측정하였다. 사람마다 기본적인 얼굴 14개의 특징점을 찍고 코끝에서부터 이들 지점과의 거리를 측정하였다. 사람마다 기본적인 얼굴 크기가 다르다는 점을 감안하여 이들 특징값들 중 길이값들은 얼굴 좌우폭 또는 얼굴 상하길이를 기주으로 정규화(normalization)되었다. 그런 다음 36개의 얼굴 내부 특징 요소들과 5가지 얼굴 외곽형을 입력값으로 하여 주성분분석(PCA: proncipal component analysis)을 실시하고, 여기서 도출된 다섯 개의 요인점수를 기반으로 5차원 공간을 가정하였다. 이 공간을 대표하는 얼굴을 고루 선정하되 해당 얼굴이 있다고 보기 어려운 영역을 제외하고 평균에 해당하는 얼굴을 추가하여 총 30가지 대표 얼굴 유형을 선정하였다. 선정된 얼굴들에 대해 일차적으로 감성 평가를 실시하여 2차원 감성 공간에 대표 얼굴들을 분포시켰다.

  • PDF

A Facial Feature Area Extraction Method for Improving Face Recognition Rate in Camera Image (일반 카메라 영상에서의 얼굴 인식률 향상을 위한 얼굴 특징 영역 추출 방법)

  • Kim, Seong-Hoon;Han, Gi-Tae
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.5 no.5
    • /
    • pp.251-260
    • /
    • 2016
  • Face recognition is a technology to extract feature from a facial image, learn the features through various algorithms, and recognize a person by comparing the learned data with feature of a new facial image. Especially, in order to improve the rate of face recognition, face recognition requires various processing methods. In the training stage of face recognition, feature should be extracted from a facial image. As for the existing method of extracting facial feature, linear discriminant analysis (LDA) is being mainly used. The LDA method is to express a facial image with dots on the high-dimensional space, and extract facial feature to distinguish a person by analyzing the class information and the distribution of dots. As the position of a dot is determined by pixel values of a facial image on the high-dimensional space, if unnecessary areas or frequently changing areas are included on a facial image, incorrect facial feature could be extracted by LDA. Especially, if a camera image is used for face recognition, the size of a face could vary with the distance between the face and the camera, deteriorating the rate of face recognition. Thus, in order to solve this problem, this paper detected a facial area by using a camera, removed unnecessary areas using the facial feature area calculated via a Gabor filter, and normalized the size of the facial area. Facial feature were extracted through LDA using the normalized facial image and were learned through the artificial neural network for face recognition. As a result, it was possible to improve the rate of face recognition by approx. 13% compared to the existing face recognition method including unnecessary areas.

Development of Virtual Makeup Tool based on Mobile Augmented Reality

  • Song, Mi-Young;Kim, Young-Sun
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.1
    • /
    • pp.127-133
    • /
    • 2021
  • In this study, an augmented reality-based make-up tool was built to analyze the user's face shape based on face-type reference model data and to provide virtual makeup by providing face-type makeup. To analyze the face shape, first recognize the face from the image captured by the camera, then extract the features of the face contour area and use them as analysis properties. Next, the feature points of the extracted face contour area are normalized to compare with the contour area characteristics of each face reference model data. Face shape is predicted and analyzed using the distance difference between the feature points of the normalized contour area and the feature points of the each face-type reference model data. In augmented reality-based virtual makeup, in the image input from the camera, the face is recognized in real time to extract the features of each area of the face. Through the face-type analysis process, you can check the results of virtual makeup by providing makeup that matches the analyzed face shape. Through the proposed system, We expect cosmetics consumers to check the makeup design that suits them and have a convenient and impact on their decision to purchase cosmetics. It will also help you create an attractive self-image by applying facial makeup to your virtual self.

A Hybrid Approach of Efficient Facial Feature Detection and Tracking for Real-time Face Direction Estimation (실시간 얼굴 방향성 추정을 위한 효율적인 얼굴 특성 검출과 추적의 결합방법)

  • Kim, Woonggi;Chun, Junchul
    • Journal of Internet Computing and Services
    • /
    • v.14 no.6
    • /
    • pp.117-124
    • /
    • 2013
  • In this paper, we present a new method which efficiently estimates a face direction from a sequences of input video images in real time fashion. For this work, the proposed method performs detecting the facial region and major facial features such as both eyes, nose and mouth by using the Haar-like feature, which is relatively not sensitive against light variation, from the detected facial area. Then, it becomes able to track the feature points from every frame using optical flow in real time fashion, and determine the direction of the face based on the feature points tracked. Further, in order to prevent the erroneously recognizing the false positions of the facial features when if the coordinates of the features are lost during the tracking by using optical flow, the proposed method determines the validity of locations of the facial features using the template matching of detected facial features in real time. Depending on the correlation rate of re-considering the detection of the features by the template matching, the face direction estimation process is divided into detecting the facial features again or tracking features while determining the direction of the face. The template matching initially saves the location information of 4 facial features such as the left and right eye, the end of nose and mouse in facial feature detection phase and reevaluated these information when the similarity measure between the stored information and the traced facial information by optical flow is exceed a certain level of threshold by detecting the new facial features from the input image. The proposed approach automatically combines the phase of detecting facial features and the phase of tracking features reciprocally and enables to estimate face pose stably in a real-time fashion. From the experiment, we can prove that the proposed method efficiently estimates face direction.

Active Appearance Model Face Shape Estimation Using Face Region Tracking and Mouth Detection (얼굴 영역 추적과 입 검출을 이용한 AAM 얼굴 모양 파라미터 추정)

  • Choi, Kwun-Taeg;Byun, Hye-Ran
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.928-930
    • /
    • 2005
  • 얼굴의 특징점 추적은 많은 응용프로그램에서 사용된다. AAM기반의 접근방식은 정교한 얼굴 특징점 정보를 제공하지만 정확한 특징 점 추출을 위해 얼굴 모양 파라미터 초기화 문제와 연속 영상에서 얼굴의 이동이 클 경우 모션 보정에 대한 문제가 여전히 남아있다. 이러한 문제를 풀기 위해 본 논문에서는 CAMShift를 사용해 얼굴 영역을 추적하고, 얼굴 영역 내에서 입을 검출함으로써 AAM 검색을 위한 얼굴 모양 파라미터를 추정하는 방법을 제안한다. 기존 알고리즘과의 비교 실험을 통해 얼굴의 움직임이 심한 상황에서도 제안하는 알고리즘의 성능이 매우 우수함을 확인할 수 있었다.

  • PDF

Robust Extraction of Facial Features under Illumination Variations (조명 변화에 견고한 얼굴 특징 추출)

  • Jung Sung-Tae
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.6 s.38
    • /
    • pp.1-8
    • /
    • 2005
  • Facial analysis is used in many applications like face recognition systems, human-computer interface through head movements or facial expressions, model based coding, or virtual reality. In all these applications a very precise extraction of facial feature points are necessary. In this paper we presents a method for automatic extraction of the facial features Points such as mouth corners, eye corners, eyebrow corners. First, face region is detected by AdaBoost-based object detection algorithm. Then a combination of three kinds of feature energy for facial features are computed; valley energy, intensity energy and edge energy. After feature area are detected by searching horizontal rectangles which has high feature energy. Finally, a corner detection algorithm is applied on the end region of each feature area. Because we integrate three feature energy and the suggested estimation method for valley energy and intensity energy are adaptive to the illumination change, the proposed feature extraction method is robust under various conditions.

  • PDF

Face Detection and Facial Feature Extraction for Person Identification (신원확인을 위한 얼굴 영역 탐지 및 얼굴 구성 요소 추출)

  • 이선화;차의영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.517-519
    • /
    • 2001
  • 본 논문에서는 신원 확인 시스템을 위한 얼굴 영역 탐지 및 얼굴 구성 요소들을 추출하는 방법을 제안한다. 이 방법은 신원 확인을 위해 사용자가 시스템을 조작할 때, 움직임이 발생한다는 점과 눈 영역이 주위 영역에 비하여 뚜렷하게 어두운 화소들로 구성되어 있다는 점에 착안하였다. CCD 카메라로부터 입력되는 동영상에서 차영상 기법을 이용하여 얼굴 영역을 탐지하고, 탐지된 얼굴 영역 내에서 가장 안정적인 검출 결과를 보이는 눈 영역을 추출한다. 그리고 추출된 두 눈의 위치를 이용하여 전체 얼굴의 기울기를 보정한 수, 제안하는 가변 Ratio Template을 이용하여 검출된 얼굴영역을 검증하며 코, 입과 같은 다른 얼굴 구성 요소들을 추출한다. 이 방법은 명암의 변화에 따라 유동적인 결과를 산출해내는 이진화 과정을 거치지 않으므로 국부적인 조명이 밝기 변화나 얼굴의 기울기 변화와 같은 얼굴 인식의 제약점에 강인한 특징을 가진다.

  • PDF

Extraction of Facial Region and features Using Snakes in Color Image (Snakes 알고리즘을 이용한 얼굴영역 및 특징추출)

  • 김지희;민경필;전준철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.496-498
    • /
    • 2001
  • Snake 모델(active contour model)은 초기값을 설정해주면 자동으로 임의의 물체의 윤곽을 찾아내는 알고리즘으로 영상에서 특정 영역을 분할하여 할 때 많이 이용되고 있다. 본 논문에서는 칼라 영상에서 얼굴과 얼굴의 특징점을 찾는 방법으로 이 알고리즘을 적용한다. 특히, 주어진 영상의 RGB 값을 정규화(normalization) 해주는 전처리 과정을 통해 얼굴의 특징점 후보 영역을 얻어내는 초기 값을 설정해주어야 하는 과정을 생략해주고 보다 정확한 값을 얻을 수 있도록 구현한다. RGB 값을 이용한 정규화 과정을 적용한 방법과 적용하지 않은 방법을 구현한 결과를 비교해줌으로써, 정규화 과정을 거친 방법의 성능이 더 우수함을 보여준다.

  • PDF

Facial Features Extraction for Recognition System of Facial Expression (표정인식 시스템을 위한 얼굴 특징 영역 추출)

  • Kim, Sang-Jun;Lee, Sung-Oh;Park, Gwi-Tae
    • Proceedings of the KIEE Conference
    • /
    • 2003.07d
    • /
    • pp.2564-2566
    • /
    • 2003
  • 표정인식은 컴퓨터 비전 분야에서 중요한 부분을 차지하고 있으며, 현재 꾸준히 연구가 진행되고 있다. 표정인식 시스템은 크게 얼굴 영역 추출과 표정인식 부분으로 나눌 수 있으며, 얼굴 영역 추출은 전체 인식 시스템의 성능에 큰 영향을 미친다. 특히 표정인식 시스템은 일반 얼굴인식 시스템과 다르게 부분적으로나 전체적으로 형태의 변화가 큰 얼굴에 대해서 정확한 얼굴 영역이 확보되지 않으면 높은 인식성능을 기대하기 어렵다. 따라서 표정인식 시스템은 얼굴 영역 추출이 비중한 부분을 차지하고 있다. 본 논문에서는 영상에서 실시간으로 얼굴 영역을 찾아내고, 그 영역에서 얼굴의 특징점인 눈과 입의 위치를 검출하고, 이를 바탕으로 얼굴의 정확한 영역을 확정하는 일련의 과정을 서술한다.

  • PDF