• 제목/요약/키워드: Facial Components

검색결과 134건 처리시간 0.026초

Comparison of Computer and Human Face Recognition According to Facial Components

  • Nam, Hyun-Ha;Kang, Byung-Jun;Park, Kang-Ryoung
    • 한국멀티미디어학회논문지
    • /
    • 제15권1호
    • /
    • pp.40-50
    • /
    • 2012
  • Face recognition is a biometric technology used to identify individuals based on facial feature information. Previous studies of face recognition used features including the eye, mouth and nose; however, there have been few studies on the effects of using other facial components, such as the eyebrows and chin, on recognition performance. We measured the recognition accuracy affected by these facial components, and compared the differences between computer-based and human-based facial recognition methods. This research is novel in the following four ways compared to previous works. First, we measured the effect of components such as the eyebrows and chin. And the accuracy of computer-based face recognition was compared to human-based face recognition according to facial components. Second, for computer-based recognition, facial components were automatically detected using the Adaboost algorithm and active appearance model (AAM), and user authentication was achieved with the face recognition algorithm based on principal component analysis (PCA). Third, we experimentally proved that the number of facial features (when including eyebrows, eye, nose, mouth, and chin) had a greater impact on the accuracy of human-based face recognition, but consistent inclusion of some feature such as chin area had more influence on the accuracy of computer-based face recognition because a computer uses the pixel values of facial images in classifying faces. Fourth, we experimentally proved that the eyebrow feature enhanced the accuracy of computer-based face recognition. However, the problem of occlusion by hair should be solved in order to use the eyebrow feature for face recognition.

주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출 (Face and Its Components Extraction of Animation Characters Based on Dominant Colors)

  • 장석우;신현민;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.93-100
    • /
    • 2011
  • 애니메이션 캐릭터의 감정과 성격을 가장 잘 표출해 낼 수 있는 부분이 캐릭터의 얼굴이므로 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 분석하여 필요한 정보를 추출하는 연구의 필요성이 증가하고 있는 추세이다. 본 논문에서는 애니메이션 캐릭터 얼굴의 특성에 맞게 수정한 메쉬모델을 정의하고, 주색상 정보를 이용하여 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 검출하는 방법을 제안한다. 제안된 시스템은 먼저 애니메이션 캐릭터 얼굴에 맞는 메쉬모델을 생성하고, 이 메쉬모델을 처음 입력되는 애니메이션 캐릭터의 얼굴에 정합시켜 얼굴과 얼굴의구성요소에 대한 주색상 값을 추출한다. 그리고 추출된 주색상 값을 이용하여 새롭게 입력되는 영상으로부터 캐릭터의 얼굴과 얼굴 구성요소의 후보 영역을 선정한 후, 모델로부터 추출한 주색상 정보와 후보 영역들의 주색상 사이의 유사도를 측정하여 최종적인 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 검출한다. 본 논문의 실험에서는 제안된 애니메이션 캐릭터 얼굴과 구성요소 검출 방법의 성능을 평가하기 위한 실험결과를 보인다.

얼굴 표정 인식을 위한 지역 미세 패턴 기술에 관한 연구 (A Study on Local Micro Pattern for Facial Expression Recognition)

  • 정웅경;조영탁;안용학;채옥삼
    • 융합보안논문지
    • /
    • 제14권5호
    • /
    • pp.17-24
    • /
    • 2014
  • 본 논문에서는 얼굴 표정 인식을 위한 지역미세패턴(local micro pattern)의 하나인 LBP(Local Binary Pattern) 코드의 잡음에 대한 단점을 해결하기위하여 새로운 미세패턴 방법인 LDP(Local Directional Pattern)를 제안한다. 제안된 방법은 LBP의 문제점을 해결하기 위해 $m{\times}m$ 마스크를 이용하여 8개의 방향 성분을 구하고, 이를 크기에 따라서 정렬한 후 상위 k개를 선정하여 해당 방향을 나타내는 비트를 1로 설정한다. 그리고 8개의 방향 비트를 순차적으로 연결하여 최종 패턴 코드를 생성한다. 실험결과, 제안된 방법은 기존 방법에 비해 회전에 대한 영향이 적으며, 잡음에 대한 적응력이 현저히 높았다. 또한, 제안된 방법을 기반으로 얼굴의 영구적인 특징과 일시적인 특징을 함께 표현하는 새로운 지역미세패턴의 개발이 가능함을 확인하였다.

SVM과 PCA를 이용한 국부 외형 기반 얼굴 인식 방법 (Local Appearance-based Face Recognition Using SVM and PCA)

  • 박승환;곽노준
    • 대한전자공학회논문지SP
    • /
    • 제47권3호
    • /
    • pp.54-60
    • /
    • 2010
  • 얼굴 인식 방법 중에 한 얼굴 영상을 분할하여 분할한 각 부분마다 통계적 방법을 적용해 특징추출을 수행한 다음 각 부분마다 분류를 수행하고 이러한 분류결과를 모아서 voting등의 방법으로 얼굴 인식을 수행 하는 방법을 국부 외형 기반 방법(local appearance-based method) 이라고 한다. 기존에 제안된 국부 외형 기반 얼굴 인식은 얼굴 영상을 일정한 크기로 단순분할하고, 그 부분들을 모두 인식에 사용한다. 본고에서는 인식에 상대적으로 중요한 부분만을 사용하여 얼굴 인식을 수행하는 새로운 국부 외형 기반 얼굴 인식 방법을 제안한다. 본고에서는 단순 분할 방법 대신에 눈, 코, 입 등 인물 간의 차이가 잘 나타나는 얼굴 부분들을 support vector machine (SVM) 을 이용하여 검출한 후, 검출한 각 부분에 주성분 분석 (PCA) 을 적용하고 이를 통합하여 얼굴 인식을 수행하였다. 실험을 통해 제안한 방법과 기존 방법의 성능을 비교한 결과, 제안한 방법이 기존의 국부 외형 기반 방법의 장점을 지니는 동시에 성능을 개선시킴을 확인하였다.

색도정보와 Mean-Gray 모폴로지 연산을 이용한 컬러영상에서의 얼굴특징점 검출 (Facial-feature Detection in Color Images using Chrominance Components and Mean-Gray Morphology Operation)

  • 강영도;양창우;김장형
    • 한국정보통신학회논문지
    • /
    • 제8권3호
    • /
    • pp.714-720
    • /
    • 2004
  • 얼굴검출 작업에서 다양한 형태를 가지는 후보영역을 정사하기 위한 기하학적 연산과정이 수반된다. 본 논문에서는 컬러영상에서 색도 분포 특성을 이용함으로써 얼굴가림과 방향에 영향을 받지 않고 얼굴 유효특징점을 검출할 수 있는 알고리즘을 제안한다. 제안한 알고리즘은 얼굴의 특징점 주변에서 Cb와 Cr이 일관적인 색도차를 가진다는 점에 착안한 것으로써, 기본 색도차 영상인 Eye맵 마스크에서 특징점을 효과적으로 강조시킬 수 있는 평균-그레이 모폴로지 연산을 수행한다. 실험을 통해, 제안한 방법이 가변적 형태의 후보영역에 대해서도 강인하게 얼굴의 유효특징점을 검출할 수 있음을 확인할 수 있었다.

기하학적 특징에 기반한 순수 얼굴영역 검출기법 (Geometrical Feature-Based Detection of Pure Facial Regions)

  • 이대호;박영태
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권7_8호
    • /
    • pp.773-779
    • /
    • 2003
  • 얼굴 영역의 정확한 위치를 정확히 찾는 것은 얼굴 인식을 위한 핵심적인 전처리 과정이다. 본 논문에서는 조명조건, 표정, 배경의 변화에 무관하게 얼굴의 구성요소를 검출할 수 있는 강건한 기법을 제안한다. 수평 방향의 상대적으로 어두운 화소값을 갖는 눈썹, 눈, 입 둥과 같은 독립된 얼굴 요소를 검출하기 위해 형상 분해 국부 최적 임계치 기법을 적용하며 얼굴을 구성하는 간단한 기하학적 조건을 만족하는 얼굴 요소의 그룹을 검색함으로써 순수 얼굴영역을 검출한다. AR-face 데이타베이스의 영상에 적용한 결과, 두꺼운 안경테에 의해 눈썹이 가리워진 특수한 경우를 제외한 거의 모든 영상에 대해 정확한 얼굴 영역을 검출할 수 있었고, 얼굴의 대칭성을 이용해 회전과 이동 변화를 보상할 수 있으므로 강건한 얼굴 인식의 전처리 과정으로 사용할 수 있다.

나이변화를 위한 얼굴영상의 분석과 합성 (Analysis and Syntheris of Facial Images for Age Change)

  • 박철하;최창석;최갑석
    • 전자공학회논문지B
    • /
    • 제31B권9호
    • /
    • pp.101-111
    • /
    • 1994
  • The human face can provide a great deal of information in regard to his/her race, age, sex, personality, feeling, psychology, mental state, health condition and ect. If we pay a close attention to the aging process, we are able to find out that there are recognizable phenomena such as eyelid drooping, cheek drooping, forehead furrowing, hair falling-out, the hair becomes gray and etc. This paper proposes that the method to estimate the age by analyzing these feature components for the facial image. Ang we also introduce the method of facial image synthesis in accordance with the cange of age. The feature components according to the change of age can be obtainec by dividing the facial image into the 3-dimensional shape of a face and the texture of a face and then analyzing the principle component respectively using 3-dimensional model. We assume the age of the facial image by comparing the extracted feature component to the facial image and synthesize the resulted image by adding or subtracting the feature component to/from the facial image. As a resurt of this simulation, we have obtained the age changed ficial image of high quality.

  • PDF

Facial Expression Explorer for Realistic Character Animation

  • Ko, Hee-Dong;Park, Moon-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1998년도 Proceedings of International Workshop on Advanced Image Technology
    • /
    • pp.16.1-164
    • /
    • 1998
  • This paper describes Facial Expression Explorer to search for the components of a facial expression and to map the expression to other expressionless figures like a robot, frog, teapot, rabbit and others. In general, it is a time-consuming and laborious job to create a facial expression manually, especially when the facial expression must personify a well-known public figure or an actor. In order to extract a blending ratio from facial images automatically, the Facial Expression Explorer uses Networked Genetic Algorithm(NGA) which is a fast method for the convergence by GA. The blending ratio is often used to create facial expressions through shape blending methods by animators. With the Facial Expression Explorer a realistic facial expression can be modeled more efficiently.

방사선사진과 안모사진을 이용한 하악 비대칭의 평가 (Evaluation of the mandibular asymmetry using the facial photographs and the radiographs)

  • 이설미
    • Imaging Science in Dentistry
    • /
    • 제31권4호
    • /
    • pp.199-204
    • /
    • 2001
  • Purpose : To assess the relationship between soft tissue asymmetry and bone tissue asymmetry using the standardized photographs and the posteroanterior (PA) cephalometric radiographs in mandibular asymmetric patients. And to clarify that the lack of morphologic balance among different skeletal components can often be masked by compensatory soft tissue contributions. Methods: Experimental group consisted of 58 patients whose chief complaints were facial asymmetry, they were taken with standardized facial photographs and PA cephalometric radiographs. Control group consisted of 30 persons in the normal occlusion. The reproducibility of the facial photograph was confirmed by model test. The differences of fractional vertical heightand horizontal width from standardized facial photographs and PA cephalometric radiographs were compared and analyzed. Results: The difference of fractional vertical bone height was 0.63 and fractional vertical soft height was 0.58 in control group, 3.10 and 2.01 in asymmetric group, respectively. The difference of fractional horizontal bone width was 0.52 and fractional horizontal soft width was 0.70 in control group, 2.51 and 1.70 in asymmetric group, respectively. Both soft and bone tissue showed significant difference between control and asymmetric group (p<0.05). The difference of bone tissue was greater than that of soft tissue (p<0.05) in the experimental group but, not in control group. Conclusions: Soft tissue components may compensate for underlying skeletal imbalances.

  • PDF

Facial Expression Classification through Covariance Matrix Correlations

  • Odoyo, Wilfred O.;Cho, Beom-Joon
    • Journal of information and communication convergence engineering
    • /
    • 제9권5호
    • /
    • pp.505-509
    • /
    • 2011
  • This paper attempts to classify known facial expressions and to establish the correlations between two regions (eye + eyebrows and mouth) in identifying the six prototypic expressions. Covariance is used to describe region texture that captures facial features for classification. The texture captured exhibit the pattern observed during the execution of particular expressions. Feature matching is done by simple distance measure between the probe and the modeled representations of eye and mouth components. We target JAFFE database in this experiment to validate our claim. A high classification rate is observed from the mouth component and the correlation between the two (eye and mouth) components. Eye component exhibits a lower classification rate if used independently.