• 제목/요약/키워드: facial features extraction

검색결과 94건 처리시간 0.033초

Facial Feature Extraction with Its Applications

  • Lee, Minkyu;Lee, Sangyoun
    • Journal of International Society for Simulation Surgery
    • /
    • 제2권1호
    • /
    • pp.7-9
    • /
    • 2015
  • Purpose In the many face-related application such as head pose estimation, 3D face modeling, facial appearance manipulation, the robust and fast facial feature extraction is necessary. We present the facial feature extraction method based on shape regression and feature selection for real-time facial feature extraction. Materials and Methods The facial features are initialized by statistical shape model and then the shape of facial features are deformed iteratively according to the texture pattern which is selected on the feature pool. Results We obtain fast and robust facial feature extraction result with error less than 4% and processing time less than 12 ms. The alignment error is measured by average of ratio of pixel difference to inter-ocular distance. Conclusion The accuracy and processing time of the method is enough to apply facial feature based application and can be used on the face beautification or 3D face modeling.

아바타 생성을 위한 이목구비 모양 특징정보 추출 및 분류에 관한 연구 (A Study on Facial Feature' Morphological Information Extraction and Classification for Avatar Generation)

  • 박연출
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권10호
    • /
    • pp.631-642
    • /
    • 2003
  • 본 논문에서는 웹상에서 자신을 대신하는 아바타 제작시 본인의 얼굴과 닮은 얼굴을 생성하기 위해 사진으로부터 개인의 특징정보를 추출하는 방법과 추출된 특징정보에 따라 해당하는 이목구비를 준비된 분류기준에 의해 특정 클래스로 분류해 내는 방법을 제안한다. 특징정보 추출은 눈, 코, 입, 턱선으로 나누어 진행되어졌으며, 각 이목구비의 특징점과 분류기준을 각각 제시하였다. 추출 된 특징정보들은 전문 디자이너에 의해 그려진 이목구비 이미지들과 유사도를 계산하는데 사용되었으며, 여기서 가장 유사한 이미지를 턱선 벡터이미지에 합성하여 아바타 얼굴을 얻어낼 수 있었다.

  • PDF

정서재활 바이오피드백을 위한 얼굴 영상 기반 정서인식 연구 (Study of Emotion Recognition based on Facial Image for Emotional Rehabilitation Biofeedback)

  • 고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제16권10호
    • /
    • pp.957-962
    • /
    • 2010
  • If we want to recognize the human's emotion via the facial image, first of all, we need to extract the emotional features from the facial image by using a feature extraction algorithm. And we need to classify the emotional status by using pattern classification method. The AAM (Active Appearance Model) is a well-known method that can represent a non-rigid object, such as face, facial expression. The Bayesian Network is a probability based classifier that can represent the probabilistic relationships between a set of facial features. In this paper, our approach to facial feature extraction lies in the proposed feature extraction method based on combining AAM with FACS (Facial Action Coding System) for automatically modeling and extracting the facial emotional features. To recognize the facial emotion, we use the DBNs (Dynamic Bayesian Networks) for modeling and understanding the temporal phases of facial expressions in image sequences. The result of emotion recognition can be used to rehabilitate based on biofeedback for emotional disabled.

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

음영합성 기법을 이용한 실사형 아바타 얼굴 생성 (Realistic Avatar Face Generation Using Shading Mechanism)

  • 박연출
    • 인터넷정보학회논문지
    • /
    • 제5권5호
    • /
    • pp.79-91
    • /
    • 2004
  • 본 논문에서는 음영합성 기법과 얼굴 인식 기술 중 특징추출 기법을 이용한 아바타 얼굴 자동생성 시스템을 제안한다. 제안하는 시스템은 사진으로부터 얼굴의 특징정보를 추출하여 사람의 얼굴과 유사한 아바타 얼굴을 자동으로 생성해 주는 시스템이며, 음영을 사진으로부터 추출하여 이를 각 이목구비 이미지와 합성하여 생성한다. 따라서 실사형에 좀 더 근접한 얼굴을 생성할 수 있다. 본 논문은 새로운 눈동자 추출 기법과 각 이목구비별 특징정보 추출 방법 그리고. 검색시간을 줄이기 위한 분류 방법, 유사도 계산에 의한 이미지 검색방법, 최종적으로 사진으로부터 음영을 추출하여 검색된 이목구비와 합성, 실사형 아바타 얼굴을 생성하는 방법을 제안한다.

  • PDF

Emotion Detection Algorithm Using Frontal Face Image

  • Kim, Moon-Hwan;Joo, Young-Hoon;Park, Jin-Bae
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.2373-2378
    • /
    • 2005
  • An emotion detection algorithm using frontal facial image is presented in this paper. The algorithm is composed of three main stages: image processing stage and facial feature extraction stage, and emotion detection stage. In image processing stage, the face region and facial component is extracted by using fuzzy color filter, virtual face model, and histogram analysis method. The features for emotion detection are extracted from facial component in facial feature extraction stage. In emotion detection stage, the fuzzy classifier is adopted to recognize emotion from extracted features. It is shown by experiment results that the proposed algorithm can detect emotion well.

  • PDF

혼합형 특징점 추출을 이용한 얼굴 표정의 감성 인식 (Emotion Recognition of Facial Expression using the Hybrid Feature Extraction)

  • 변광섭;박창현;심귀보
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.132-134
    • /
    • 2004
  • Emotion recognition between human and human is done compositely using various features that are face, voice, gesture and etc. Among them, it is a face that emotion expression is revealed the most definitely. Human expresses and recognizes a emotion using complex and various features of the face. This paper proposes hybrid feature extraction for emotions recognition from facial expression. Hybrid feature extraction imitates emotion recognition system of human by combination of geometrical feature based extraction and color distributed histogram. That is, it can robustly perform emotion recognition by extracting many features of facial expression.

  • PDF

안정적인 실시간 얼굴 특징점 추적과 감정인식 응용 (Robust Real-time Tracking of Facial Features with Application to Emotion Recognition)

  • 안병태;김응희;손진훈;권인소
    • 로봇학회논문지
    • /
    • 제8권4호
    • /
    • pp.266-272
    • /
    • 2013
  • Facial feature extraction and tracking are essential steps in human-robot-interaction (HRI) field such as face recognition, gaze estimation, and emotion recognition. Active shape model (ASM) is one of the successful generative models that extract the facial features. However, applying only ASM is not adequate for modeling a face in actual applications, because positions of facial features are unstably extracted due to limitation of the number of iterations in the ASM fitting algorithm. The unaccurate positions of facial features decrease the performance of the emotion recognition. In this paper, we propose real-time facial feature extraction and tracking framework using ASM and LK optical flow for emotion recognition. LK optical flow is desirable to estimate time-varying geometric parameters in sequential face images. In addition, we introduce a straightforward method to avoid tracking failure caused by partial occlusions that can be a serious problem for tracking based algorithm. Emotion recognition experiments with k-NN and SVM classifier shows over 95% classification accuracy for three emotions: "joy", "anger", and "disgust".

조명 변화에 견고한 얼굴 특징 추출 (Robust Extraction of Facial Features under Illumination Variations)

  • 정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.1-8
    • /
    • 2005
  • 얼굴 분석은 얼굴 인식 머리 움직임과 얼굴 표정을 이용한 인간과 컴퓨터사이의 인터페이스, 모델 기반 코딩, 가상현실 등 많은 응용 분야에서 유용하게 활용된다. 이러한 응용 분야에서는 얼굴의 특징점들을 정확하게 추출해야 한다. 본 논문에서는 눈, 눈썹, 입술의 코너와 같은 얼굴 특징을 자동으로 추출하는 방법을 제안한다. 먼저, 입력 영상으로부터 AdaBoost 기반의 객체 검출 기법을 이용하여 얼굴 영역을 추출한다. 그 다음에는 계곡 에너지. 명도 에너지, 경계선 에너지의 세 가지 특징 에너지를 계산하여 결합한다. 구해진 특징 에너지 영상에 대하여 에너지 값이 큰 수평 방향향의 사각형을 탐색함으로써 특징 영역을 검출한다. 마지막으로 특징 영역의 가장자리 부분에서 코너 검출 알고리즘을 적용함으로써 눈, 눈썹, 입술의 코너를 검출한다. 본 논문에서 제안된 얼굴 특징 추출 방법은 세 가지의 특징 에너지를 결합하여 사용하고 계곡 에너지와 명도 에너지의 계산이 조명 변화에 적응적인 특성을 갖도록 함으로써, 다양한 환경 조건하에서 견고하게 얼굴 특징을 추출할 수 있다.

  • PDF

개인아바타 자동 생성을 위한 얼굴 구성요소의 추출에 관한 연구 (A Study on Face Component Extraction for Automatic Generation of Personal Avatar)

  • 최재영;황승호;양영규;황보택근
    • 인터넷정보학회논문지
    • /
    • 제6권4호
    • /
    • pp.93-102
    • /
    • 2005
  • 최근 네티즌들은 사이버 공간에서 자신의 정체성을 나타내기 위해 가상 캐릭터 '아바타(Avatar)'를 많이 이용하고 있으며, 더 나아가 사용자들은 좀 더 자신과 닮은 아바타를 요구하고 있다. 본 논문은 자동 아바타 생성의 기반기술인 얼굴 영역과 구성요소의 추출에 대한 연구로써 얼굴 구성 요소의 추출은 ACM과 에지의 정보를 이용하였다. 또한 얼굴 영역의 추출은 얼굴 영역의 면적 변화량을 ACM의 외부에너지로 사용하여 저해상도의 사진에서 발생하는 조명과 화질의 열화에 의한 영향을 감소시킬 수 있었다. 본 연구의 결과로 얼굴영역 추출 성공률은 $92{\%}$로 나타났으며, 얼굴 구성 요소의 추출은 $83.4{\%}$의 성공률을 보였다. 본 논문은 향후 자동 아바타 생성 시스템에서 얼굴 영역과 얼굴 구성요소를 정확하게 추출함으로써 패턴 부위별 특징처리가 가능하게 될 것으로 예상된다.

  • PDF