• 제목/요약/키워드: face feature extraction

검색결과 248건 처리시간 0.031초

조명 변화에 견고한 얼굴 특징 추출 (Robust Extraction of Facial Features under Illumination Variations)

  • 정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.1-8
    • /
    • 2005
  • 얼굴 분석은 얼굴 인식 머리 움직임과 얼굴 표정을 이용한 인간과 컴퓨터사이의 인터페이스, 모델 기반 코딩, 가상현실 등 많은 응용 분야에서 유용하게 활용된다. 이러한 응용 분야에서는 얼굴의 특징점들을 정확하게 추출해야 한다. 본 논문에서는 눈, 눈썹, 입술의 코너와 같은 얼굴 특징을 자동으로 추출하는 방법을 제안한다. 먼저, 입력 영상으로부터 AdaBoost 기반의 객체 검출 기법을 이용하여 얼굴 영역을 추출한다. 그 다음에는 계곡 에너지. 명도 에너지, 경계선 에너지의 세 가지 특징 에너지를 계산하여 결합한다. 구해진 특징 에너지 영상에 대하여 에너지 값이 큰 수평 방향향의 사각형을 탐색함으로써 특징 영역을 검출한다. 마지막으로 특징 영역의 가장자리 부분에서 코너 검출 알고리즘을 적용함으로써 눈, 눈썹, 입술의 코너를 검출한다. 본 논문에서 제안된 얼굴 특징 추출 방법은 세 가지의 특징 에너지를 결합하여 사용하고 계곡 에너지와 명도 에너지의 계산이 조명 변화에 적응적인 특성을 갖도록 함으로써, 다양한 환경 조건하에서 견고하게 얼굴 특징을 추출할 수 있다.

  • PDF

새로운 독립 요소 해석 방법론에 의한 얼굴 인식 (Face Recognition Using A New Methodology For Independent Component Analysis)

  • 류재흥;고재흥
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2000년도 추계학술대회 학술발표 논문집
    • /
    • pp.305-309
    • /
    • 2000
  • In this paper, we presents a new methodology for face recognition after analysing conventional ICA(Independent Component Analysis) based approach. In the literature we found that ICA based methods have followed the same procedure without any exception, first PCA(Principal Component Analysis) has been used for feature extraction, next ICA learning method has been applied for feature enhancement in the reduced dimension. However, it is contradiction that features are extracted using higher order moments depend on variance, the second order statistics. It is not considered that a necessary component can be located in the discarded feature space. In the new methodology, features are extracted using the magnitude of kurtosis(4-th order central moment or cumulant). This corresponds to the PCA based feature extraction using eigenvalue(2nd order central moment or variance). The synergy effect of PCA and ICA can be achieved if PCA is used for noise reduction filter. ICA methodology is analysed using SVD(Singular Value Decomposition). PCA does whitening and noise reduction. ICA performs the feature extraction. Simulation results show the effectiveness of the methodology compared to the conventional ICA approach.

  • PDF

얼굴과 음성 정보를 이용한 바이모달 사용자 인식 시스템 설계 및 구현 (Design and Implementation of a Bimodal User Recognition System using Face and Audio)

  • 김명훈;이지근;소인미;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권5호
    • /
    • pp.353-362
    • /
    • 2005
  • 최근 들어 바이모달 인식에 관한 연구가 활발히 진행되고 있다. 본 논문에서는 음성 정보와 얼굴정보를 이용하여 바이모달 시스템을 구현하였다. 얼굴인식은 얼굴 검출과 얼굴 인식 두 부분으로 나누어서 실험을 하였다. 얼굴 검출 단계에서는 AdaBoost를 이용하여 얼굴 후보 영역을 검출 한 뒤 PCA를 통해 특징 벡터 계수를 줄였다. PCA를 통해 추출된 특징 벡터를 객체 분류 기법인 SVM을 이용하여 얼굴을 검출 및 인식하였다. 음성인식은 MFCC를 이용하여 음성 특징 추출을 하였으며 HMM을 이용하여 음성인식을 하였다. 인식결과, 단일 인식을 사용하는 것보다 얼굴과 음성을 같이 사용하였을 때 인식률의 향상을 가져왔고, 잡음 환경에서는 더욱 높은 성능을 나타냈었다.

  • PDF

피부색 영역의 분할을 통한 후보 검출과 부분 얼굴 분류기에 기반을 둔 얼굴 검출 시스템 (Face Detection System Based on Candidate Extraction through Segmentation of Skin Area and Partial Face Classifier)

  • 김성훈;이현수
    • 전자공학회논문지CI
    • /
    • 제47권2호
    • /
    • pp.11-20
    • /
    • 2010
  • 본 논문에서는 피부색 정보를 이용한 얼굴 후보 검출 방법과 얼굴의 구조적 특징을 이용한 얼굴 확인 방법으로 구성된 얼굴 검출 시스템을 제안한다. 먼저 제안하는 얼굴 후보 검출 방법은 피부색 영역과 피부색의 주변 영역에 대한 이미지 분할과 병합 알고리듬을 이용한다. 이미지 분할과 병합 알고리듬의 적용은 복잡한 이미지에 존재하는 다양한 얼굴들을 후보로 검출할 수 있다. 그리고 제안하는 얼굴 확인 방법은 얼굴을 지역적인 특징에 따라 분류 가능한 부분 얼굴 분류기를 사용하여 얼굴의 구조적 특징을 판단하고, 얼굴과 비-얼굴을 구별한다. 부분 얼굴 분류기는 학습 과정에서 얼굴 이미지만을 사용하고, 비-얼굴 이미지는 고려하지 않기 때문에 적은 수의 훈련 이미지를 사용한다. 실험 결과 제안한 얼굴 후보 검출 방법은 기존의 방법보다 평균 9.55% 많은 얼굴을 후보로 검출하였다. 그리고 얼굴/비-얼굴 분류 실험에서 비-얼굴에 대한 분류율이 99%일 때 기존의 분류기보다 평균 4.97% 높은 얼굴 분류율을 달성 하였다.

특징정보 분석을 통한 실시간 얼굴인식 (Realtime Face Recognition by Analysis of Feature Information)

  • 정재모;배현;김성신
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2001년도 추계학술대회 학술발표 논문집
    • /
    • pp.299-302
    • /
    • 2001
  • The statistical analysis of the feature extraction and the neural networks are proposed to recognize a human face. In the preprocessing step, the normalized skin color map with Gaussian functions is employed to extract the region of face candidate. The feature information in the region of the face candidate is used to detect the face region. In the recognition step, as a tested, the 120 images of 10 persons are trained by the backpropagation algorithm. The images of each person are obtained from the various direction, pose, and facial expression. Input variables of the neural networks are the geometrical feature information and the feature information that comes from the eigenface spaces. The simulation results of$.$10 persons show that the proposed method yields high recognition rates.

  • PDF

특징정보 분석을 통한 실시간 얼굴인식 (Realtime Face Recognition by Analysis of Feature Information)

  • 정재모;배현;김성신
    • 한국지능시스템학회논문지
    • /
    • 제11권9호
    • /
    • pp.822-826
    • /
    • 2001
  • The statistical analysis of the feature extraction and the neural networks are proposed to recognize a human face. In the preprocessing step, the normalized skin color map with Gaussian functions is employed to extract the region of face candidate. The feature information in the region of the face candidate is used to detect the face region. In the recognition step, as a tested, the 120 images of 10 persons are trained by the backpropagation algorithm. The images of each person are obtained from the various direction, pose, and facial expression. Input variables of the neural networks are the geometrical feature information and the feature information that comes from the eigenface spaces. The simulation results of 10 persons show that the proposed method yields high recognition rates.

  • PDF

주 요소와 독립 요소 분석의 통합에 의한 얼굴 인식 (Face Recognition By Combining PCA and ICA)

  • 류재흥;김강철;임창균
    • 한국정보통신학회논문지
    • /
    • 제10권4호
    • /
    • pp.687-692
    • /
    • 2006
  • 기존의 독립 요소 방법에 의한 얼굴인식에서는 주 요소 해석법으로 고유치 크기에 의해 특징을 추출하고 감소된 차원에서 특징 개선을 위한 독립 요소 해석법의 학습을 수행한다. 제거된 특징 공간 내에 필요한 요소가 있는 경우를 고려하지 못한 것이다. 새로운 방법은 독립 요소 해석에 의한 학습을 먼저 시행하고 분리된 데이터를 4차 중심 모멘트에 의한 축적 계수(cumulant)인 커토시스(kurtosis)의 절대값 크기에 의하여 특징을 추출한다. 하지만 독립 요소 방법은 효과적으로 노이즈를 제거하지 못한다. 두 방법의 결합효과는 주 요소 해석법을 노이즈 필터로 사용 할 때 극대화 될 수 있다. 즉 주 요소 해석법을 백색화와 노이즈 필터로 하고 독립 요소 해석법을 특징 추출 방법으로 사용하는 것이다. 실험 결과는 새로운 방법론이 기존의 방법론보다 우수함을 보여준다.

아바타 생성을 위한 이목구비 모양 특징정보 추출 및 분류에 관한 연구 (A Study on Facial Feature' Morphological Information Extraction and Classification for Avatar Generation)

  • 박연출
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권10호
    • /
    • pp.631-642
    • /
    • 2003
  • 본 논문에서는 웹상에서 자신을 대신하는 아바타 제작시 본인의 얼굴과 닮은 얼굴을 생성하기 위해 사진으로부터 개인의 특징정보를 추출하는 방법과 추출된 특징정보에 따라 해당하는 이목구비를 준비된 분류기준에 의해 특정 클래스로 분류해 내는 방법을 제안한다. 특징정보 추출은 눈, 코, 입, 턱선으로 나누어 진행되어졌으며, 각 이목구비의 특징점과 분류기준을 각각 제시하였다. 추출 된 특징정보들은 전문 디자이너에 의해 그려진 이목구비 이미지들과 유사도를 계산하는데 사용되었으며, 여기서 가장 유사한 이미지를 턱선 벡터이미지에 합성하여 아바타 얼굴을 얻어낼 수 있었다.

  • PDF

Automatic Face Identification System Using Adaptive Face Region Detection and Facial Feature Vector Classification

  • Kim, Jung-Hoon;Do, Kyeong-Hoon;Lee, Eung-Joo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.1252-1255
    • /
    • 2002
  • In this paper, face recognition algorithm, by using skin color information of HSI color coordinate collected from face images, elliptical mask, fratures of face including eyes, nose and mouth, and geometrical feature vectors of face and facial angles, is proposed. The proposed algorithm improved face region extraction efficacy by using HSI information relatively similar to human's visual system along with color tone information about skin colors of face, elliptical mask and intensity information. Moreover, it improved face recognition efficacy with using feature information of eyes, nose and mouth, and Θ1(ACRED), Θ2(AMRED) and Θ 3(ANRED), which are geometrical face angles of face. In the proposed algorithm, it enables exact face reading by using color tone information, elliptical mask, brightness information and structural characteristic angle together, not like using only brightness information in existing algorithm. Moreover, it uses structural related value of characteristics and certain vectors together for the recognition method.

  • PDF

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF