• Title/Summary/Keyword: 얼굴 특징점 추출

Search Result 181, Processing Time 0.031 seconds

Gaze Detection Using Facial Movement in Multimodal Interface (얼굴의 움직임을 이용한 다중 모드 인터페이스에서의 응시 위치 추출)

  • 박강령;남시욱;한승철;김재희
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.168-173
    • /
    • 1997
  • 시선의 추출을 통해 사용자의 관심 방향을 알고자하는 연구는 여러 분야에 응용될 수 있는데, 대표적인 것이 장애인의 컴퓨터 이용이나, 다중 윈도우에서 마우스의 기능 대용 및, VR에서의 위치 추적 장비의 대용 그리고 원격 회의 시스템에서의 view controlling등이다. 기존의 대부분의 연구들에서는 얼굴의 입력된 동영상으로부터 얼굴의 3차원 움직임량(rotation, translation)을 구하는데 중점을 두고 있으나 [1][2], 모니터, 카메라, 얼굴 좌표계간의 복잡한 변환 과정때문에 이를 바탕으로 사용자의 응시 위치를 파악하고자하는 연구는 거으 이루어지지 않고 있다. 본 논문에서는 일반 사무실 환경에서 입력된 얼굴 동영상으로부터 얼굴 영역 및 얼굴내의 눈, 코, 입 영역 등을 추출함으로써 모니터의 일정 영역을 응시하는 순간 변화된 특징점들의 위치 및 특징점들이 형성하는 기하학적 모양의 변화를 바탕으로 응시 위치를 계산하였다. 이때 앞의 세 좌표계간의 복잡한 변환 관계를 해결하기 위하여, 신경망 구조(다층 퍼셉트론)을 이용하였다. 신경망의 학습 과정을 위해서는 모니터 화면을 15영역(가로 5등분, 세로 3등분)으로 분할하여 각 영역의 중심점을 응시할 때 추출된 특징점들을 사용하였다. 이때 학습된 15개의 응시 위치이외에 또 다른 응시 영역에 대한 출력값을 얻기 위해, 출력 함수로 연속적이고 미분가능한 함수(linear output function)를 사용하였다. 실험 결과 신경망을 이용한 응시위치 파악 결과가 선형 보간법[3]을 사용한 결과보다 정확한 성능을 나타냈다.

  • PDF

Identification System Based on Partial Face Feature Extraction (부분 얼굴 특징 추출에 기반한 신원 확인 시스템)

  • Choi, Sun-Hyung;Cho, Seong-Won;Chung, Sun-Tae
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.22 no.2
    • /
    • pp.168-173
    • /
    • 2012
  • This paper presents a new human identification algorithm using partial features of the uncovered portion of face when a person wears a mask. After the face area is detected, the feature is extracted from the eye area above the mask. The identification process is performed by comparing the acquired one with the registered features. For extracting features SIFT(scale invariant feature transform) algorithm is used. The extracted features are independent of brightness and size- and rotation-invariant for the image. The experiment results show the effectiveness of the suggested algorithm.

Realtime Facial Expression Data Tracking System using Color Information (컬러 정보를 이용한 실시간 표정 데이터 추적 시스템)

  • Lee, Yun-Jung;Kim, Young-Bong
    • The Journal of the Korea Contents Association
    • /
    • v.9 no.7
    • /
    • pp.159-170
    • /
    • 2009
  • It is very important to extract the expression data and capture a face image from a video for online-based 3D face animation. In recently, there are many researches on vision-based approach that captures the expression of an actor in a video and applies them to 3D face model. In this paper, we propose an automatic data extraction system, which extracts and traces a face and expression data from realtime video inputs. The procedures of our system consist of three steps: face detection, face feature extraction, and face tracing. In face detection, we detect skin pixels using YCbCr skin color model and verifies the face area using Haar-based classifier. We use the brightness and color information for extracting the eyes and lips data related facial expression. We extract 10 feature points from eyes and lips area considering FAP defined in MPEG-4. Then, we trace the displacement of the extracted features from continuous frames using color probabilistic distribution model. The experiments showed that our system could trace the expression data to about 8fps.

Face recognition using Gabor wavelet and Feature weights from Genetic algorithm (Gabor Wavelet과 Genetic Algorithm을 통해 구한 특징점별 가중치를 사용한 얼굴 인식)

  • Jung Eun-sung;Rhee Phill-kyu
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.835-837
    • /
    • 2005
  • 본 논문에서는 가보 웨이블릿을 통해 얼굴 이미지로부터 특징을 추출하고, 그에 Genetic Algorithm 을 통해 구한 특징점별 가중치를 적용하여 얼굴 인식을 하는 방법을 소개한다. 각 특징점별로 가중치를 적용하는 방법은, 기존의 Gabor wavelet 을 사용한 얼굴 인식 방법들에 비해 높은 인식률을 보인다. 특징점별 가중치들은 진화 알고리즘을 통해 학습 되어진다.

  • PDF

Facial Feature Extraction using an Active Shape Model with an Adaptive Mean Shape (적응적인 평균 모양을 이용한 동적 모양 모델 기반 얼굴 특징점 추출)

  • Kim Hyun-Chul;Kim Hyoung-Joon;Hwang Wonjun;Kee Seok-Cheol;Kim Whoi-Yul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.868-870
    • /
    • 2005
  • 본 논문은 포즈가 취해진 얼굴의 정확한 특징점 추출을 위하여 적응적인 평균 모양 방법을 이용한 ASM(Active Shape Model)을 제안한다. ASM은 사람 얼굴의 모양을 모델링하기 위하여 통계학상의 모양 모델을 이용한다. 통계학상의 모양 모델의 평균 모양은 입력 영상의 얼굴 포즈와 관계없이 하나로 고정되어 있으며, 이는 모양 모델 제한 조건 검사 및 복원과정에서 잘못된 결과를 만드는 원인이 된다. 이러한 문제를 해결하기 위하여 입력 영상의 얼굴 모양에 적응적인 평균 모양을 제안하며, 실험을 통해 제안한 방법이 고정된 평균 모양 방법의 문제를 해결하고 특징점 추출 성능을 향상시킴을 보였다.

  • PDF

A study on the Caricature Generation using Face Features (얼굴의 특징을 이용한 캐리커쳐 생성에 관한 연구)

  • Oh, S.H.;Lim, H.;Park, S.Y.;Kim, I.S.;Park, H.S.
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.623-626
    • /
    • 2000
  • 본 논문에서는 얼굴의 특징 추출을 이용해서 캐리커쳐를 자동으로 생성하는 알고리즘을 제안한다. 제안된 방법은 사진이나 카메라를 이용해서 입력된 영상으로부터 색상정보를 이용하여 얼굴영역을 검출하고 얼굴의 기하학적인 구조를 이용해서 유전자 알고리즘의 추정 파라미터를 설정하여 최적의 특징 점의 위치를 검출한다. 검출된 특징 점 위치를 이용하여 눈, 코, 입, 눈썹, 머리카락 등 얼굴의 특징이 되는 구성요소를 추출한다. 마지막으로 얼굴의 윤곽선을 구한 다음 추출된 얼굴의 구성요소들을 합성하여 간단하면서도 개인의 특징을 잘 반영할 수 있는 캐리커쳐를 생성한다.

  • PDF

Robust Face Recognition System using AAM and Gabor Feature Vectors (AAM과 가버 특징 벡터를 이용한 강인한 얼굴 인식 시스템)

  • Kim, Sang-Hoon;Jung, Sou-Hwan;Jeon, Seoung-Seon;Kim, Jae-Min;Cho, Seong-Won;Chung, Sun-Tae
    • The Journal of the Korea Contents Association
    • /
    • v.7 no.2
    • /
    • pp.1-10
    • /
    • 2007
  • In this paper, we propose a face recognition system using AAM and Gabor feature vectors. EBGM, which is prominent among face recognition algorithms employing Gabor feature vectors, requires localization of facial feature points where Gabor feature vectors are extracted. However, localization of facial feature points employed in EBGM is based on Gator jet similarity and is sensitive to initial points. Wrong localization of facial feature points affects face recognition rate. AAM is known to be successfully applied to localization of facial feature points. In this paper, we propose a facial feature point localization method which first roughly estimate facial feature points using AAM and refine facial feature points using Gabor jet similarity-based localization method with initial points set by the facial feature points estimated from AAM, and propose a face recognition system based on the proposed localization method. It is verified through experiments that the proposed face recognition system using the combined localization performs better than the conventional face recognition system using the Gabor similarity-based localization only like EBGM.

SVM Based Facial Expression Recognition for Expression Control of an Avatar in Real Time (실시간 아바타 표정 제어를 위한 SVM 기반 실시간 얼굴표정 인식)

  • Shin, Ki-Han;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1057-1062
    • /
    • 2007
  • 얼굴표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI(Human Computer Interaction) 등 다양한 분야에서 중요성이 증가하고 있다. 얼굴표정은 사람의 감정 표현, 관심의 정도와 같은 사회적 상호작용에 있어서 중요한 정보를 제공한다. 얼굴표정 인식은 크게 정지영상을 이용한 방법과 동영상을 이용한 방법으로 나눌 수 있다. 정지영상을 이용할 경우에는 처리량이 적어 속도가 빠르다는 장점이 있지만 얼굴의 변화가 클 경우 매칭, 정합에 의한 인식이 어렵다는 단점이 있다. 동영상을 이용한 얼굴표정 인식 방법은 신경망, Optical Flow, HMM(Hidden Markov Models) 등의 방법을 이용하여 사용자의 표정 변화를 연속적으로 처리할 수 있어 실시간으로 컴퓨터와의 상호작용에 유용하다. 그러나 정지영상에 비해 처리량이 많고 학습이나 데이터베이스 구축을 위한 많은 데이터가 필요하다는 단점이 있다. 본 논문에서 제안하는 실시간 얼굴표정 인식 시스템은 얼굴영역 검출, 얼굴 특징 검출, 얼굴표정 분류, 아바타 제어의 네 가지 과정으로 구성된다. 웹캠을 통하여 입력된 얼굴영상에 대하여 정확한 얼굴영역을 검출하기 위하여 히스토그램 평활화와 참조 화이트(Reference White) 기법을 적용, HT 컬러모델과 PCA(Principle Component Analysis) 변환을 이용하여 얼굴영역을 검출한다. 검출된 얼굴영역에서 얼굴의 기하학적 정보를 이용하여 얼굴의 특징요소의 후보영역을 결정하고 각 특징점들에 대한 템플릿 매칭과 에지를 검출하여 얼굴표정 인식에 필요한 특징을 추출한다. 각각의 검출된 특징점들에 대하여 Optical Flow알고리즘을 적용한 움직임 정보로부터 특징 벡터를 획득한다. 이렇게 획득한 특징 벡터를 SVM(Support Vector Machine)을 이용하여 얼굴표정을 분류하였으며 추출된 얼굴의 특징에 의하여 인식된 얼굴표정을 아바타로 표현하였다.

  • PDF

Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model (다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원)

  • Kim, Sang-Hoon
    • The KIPS Transactions:PartB
    • /
    • v.9B no.5
    • /
    • pp.563-570
    • /
    • 2002
  • Robust extraction of 3D facial features and global motion information from 2D image sequence for the MPEG-4 SNHC face model encoding is described. The facial regions are detected from image sequence using multi-modal fusion technique that combines range, color and motion information. 23 facial features among the MPEG-4 FDP (Face Definition Parameters) are extracted automatically inside the facial region using color transform (GSCD, BWCD) and morphological processing. The extracted facial features are used to recover the 3D shape and global motion of the object using paraperspective camera model and SVD (Singular Value Decomposition) factorization method. A 3D synthetic object is designed and tested to show the performance of proposed algorithm. The recovered 3D motion information is transformed into global motion parameters of FAP (Face Animation Parameters) of the MPEG-4 to synchronize a generic face model with a real face.

Rotation and Scale Invariant Face Detection Using Log-polar Mapping and Face Features (Log-polar변환과 얼굴특징추출을 이용한 크기 및 회전불변 얼굴인식)

  • Go Gi-Young;Kim Doo-Young
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.6 no.1
    • /
    • pp.15-22
    • /
    • 2005
  • In this paper, we propose a face recognition system by using the CCD color image. We first get the face candidate image by using YCbCr color model and adaptive skin color information. And we use it initial curve of active contour model to extract face region. We use the Eye map and mouth map using color information for extracting facial feature from the face image. To obtain center point of Log-polar image, we use extracted facial feature from the face image. In order to obtain feature vectors, we use extracted coefficients from DCT and wavelet transform. To show the validity of the proposed method, we performed a face recognition using neural network with BP learning algorithm. Experimental results show that the proposed method is robuster with higher recogntion rate than the conventional method for the rotation and scale variant.

  • PDF