• 제목/요약/키워드: Facial Component

검색결과 181건 처리시간 0.032초

Enhanced Independent Component Analysis of Temporal Human Expressions Using Hidden Markov model

  • 이지준;;김태성
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.487-492
    • /
    • 2008
  • Facial expression recognition is an intensive research area for designing Human Computer Interfaces. In this work, we present a new facial expression recognition system utilizing Enhanced Independent Component Analysis (EICA) for feature extraction and discrete Hidden Markov Model (HMM) for recognition. Our proposed approach for the first time deals with sequential images of emotion-specific facial data analyzed with EICA and recognized with HMM. Performance of our proposed system has been compared to the conventional approaches where Principal and Independent Component Analysis are utilized for feature extraction. Our preliminary results show that our proposed algorithm produces improved recognition rates in comparison to previous works.

  • PDF

동영상에서 얼굴의 주색상 밝기 분포를 이용한 실시간 얼굴영역 검출기법 (Using Analysis of Major Color Component facial region detection algorithm for real-time image)

  • 최미영;김계영;최형일
    • 디지털콘텐츠학회 논문지
    • /
    • 제8권3호
    • /
    • pp.329-339
    • /
    • 2007
  • 본 논문은 연속적으로 입력되는 동영상에서 시공간 정보를 이용하여 다양한 조명환경에서도 실시간 적용이 가능한 얼굴영역 검출기법을 제안한다. 제안한 알고리즘은 연속된 두개의 연속 영상에서 에지 차영상을 구하고 연속적으로 입력되는 영상과의 차분 누적영상을 통해 초기 얼굴영역을 검출한다. 초기 얼굴영역으로부터 외부 조명의 영향을 없애기 위해, 검출된 초기 얼굴영역의 수평 프로파일을 이용하여 수직 방향으로 객체영역을 이분하며, 각각의 객체영역에 관해 주색상 밝기를 구한다. 배경과 잡음 성분을 제거한 후, 분할된 얼굴영역을 통합한 주색상 밝기 분포를 이용하여 타원으로 근사화 함으로써 정확한 얼굴의 기울기와 영역을 실시간으로 계산한다. 제안된 방법은 다양한 조명조건에서 얻어진 동영상을 이용하여 실험되었으며 얼굴의 좌 우 기울기가 $30^{\circ}$이하에서 우수한 얼굴영역 검출 성능을 보였다.

  • PDF

아바타 생성을 위한 이목구비 모양 특징정보 추출 및 분류에 관한 연구 (A Study on Facial Feature' Morphological Information Extraction and Classification for Avatar Generation)

  • 박연출
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권10호
    • /
    • pp.631-642
    • /
    • 2003
  • 본 논문에서는 웹상에서 자신을 대신하는 아바타 제작시 본인의 얼굴과 닮은 얼굴을 생성하기 위해 사진으로부터 개인의 특징정보를 추출하는 방법과 추출된 특징정보에 따라 해당하는 이목구비를 준비된 분류기준에 의해 특정 클래스로 분류해 내는 방법을 제안한다. 특징정보 추출은 눈, 코, 입, 턱선으로 나누어 진행되어졌으며, 각 이목구비의 특징점과 분류기준을 각각 제시하였다. 추출 된 특징정보들은 전문 디자이너에 의해 그려진 이목구비 이미지들과 유사도를 계산하는데 사용되었으며, 여기서 가장 유사한 이미지를 턱선 벡터이미지에 합성하여 아바타 얼굴을 얻어낼 수 있었다.

  • PDF

나이변화를 위한 얼굴영상의 분석과 합성 (Analysis and Syntheris of Facial Images for Age Change)

  • 박철하;최창석;최갑석
    • 전자공학회논문지B
    • /
    • 제31B권9호
    • /
    • pp.101-111
    • /
    • 1994
  • The human face can provide a great deal of information in regard to his/her race, age, sex, personality, feeling, psychology, mental state, health condition and ect. If we pay a close attention to the aging process, we are able to find out that there are recognizable phenomena such as eyelid drooping, cheek drooping, forehead furrowing, hair falling-out, the hair becomes gray and etc. This paper proposes that the method to estimate the age by analyzing these feature components for the facial image. Ang we also introduce the method of facial image synthesis in accordance with the cange of age. The feature components according to the change of age can be obtainec by dividing the facial image into the 3-dimensional shape of a face and the texture of a face and then analyzing the principle component respectively using 3-dimensional model. We assume the age of the facial image by comparing the extracted feature component to the facial image and synthesize the resulted image by adding or subtracting the feature component to/from the facial image. As a resurt of this simulation, we have obtained the age changed ficial image of high quality.

  • PDF

Facial Expression Recognition using 1D Transform Features and Hidden Markov Model

  • Jalal, Ahmad;Kamal, Shaharyar;Kim, Daijin
    • Journal of Electrical Engineering and Technology
    • /
    • 제12권4호
    • /
    • pp.1657-1662
    • /
    • 2017
  • Facial expression recognition systems using video devices have emerged as an important component of natural human-machine interfaces which contribute to various practical applications such as security systems, behavioral science and clinical practices. In this work, we present a new method to analyze, represent and recognize human facial expressions using a sequence of facial images. Under our proposed facial expression recognition framework, the overall procedure includes: accurate face detection to remove background and noise effects from the raw image sequences and align each image using vertex mask generation. Furthermore, these features are reduced by principal component analysis. Finally, these augmented features are trained and tested using Hidden Markov Model (HMM). The experimental evaluation demonstrated the proposed approach over two public datasets such as Cohn-Kanade and AT&T datasets of facial expression videos that achieved expression recognition results as 96.75% and 96.92%. Besides, the recognition results show the superiority of the proposed approach over the state of the art methods.

PCA을 이용한 얼굴 표정의 감정 인식 방법 (Emotion Recognition Method of Facial Image using PCA)

  • 김호덕;양현창;박창현;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제16권6호
    • /
    • pp.772-776
    • /
    • 2006
  • 얼굴 표정인식에 관한 연구는 대부분 얼굴의 정면 화상을 가지고 연구를 한다. 얼굴 표정인식에 큰 영향을 미치는 대표적인 부위는 눈과 입이다. 그래서 표정 인식 연구자들은 눈, 눈썹, 입을 중심으로 표정 인식이나 표현 연구를 해왔다. 그러나 일상생활에서 카메라 앞에서는 대부분의 사람들은 눈동자의 빠른 변화의 인지가 어렵다. 또한 많은 사람들이 안경을 쓰고 있다. 그래서 본 연구에서는 눈이 가려진 경우의 표정 인식을 Principal Component Analysis (PCA)를 이용하여 시도하였다.

간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 얼굴표정 생성 (The facial expression generation of vector graphic character using the simplified principle component vector)

  • 박태희
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1547-1553
    • /
    • 2008
  • 본 논문은 간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 다양한 얼굴 표정 생성 방법을 제안한다. 먼저 Russell의 내적 정서 상태에 기반하여 재정의된 벡터 그래픽 캐릭터들의 9가지 표정에 대해 주성분 분석을 수행한다. 이를 통해 캐릭터의 얼굴 특성과 표정에 주된 영향을 미치는 주성분 벡터를 찾아내고, 간소화된 주성분 벡터로부터 얼굴 표정을 생성한다. 또한 캐릭터의 특성과 표정의 가중치 값을 보간함으로써 자연스러운 중간 캐릭터 및 표정을 생성한다. 이는 얼굴 애니메이션에서 종래의 키프레임 저장 공간을 상당히 줄일 수 있으며, 적은 계산량으로 중간 표정을 생성할 수 있다. 이에 실시간 제어를 요구하는 웹/모바일 서비스, 게임 등에서 캐릭터 생성 시스템의 성능을 상당히 개선할 수 있다.

PCA 표상을 이용한 강인한 얼굴 표정 인식 (Robust Facial Expression Recognition using PCA Representation)

  • 신영숙
    • 인지과학
    • /
    • 제16권4호
    • /
    • pp.323-331
    • /
    • 2005
  • 본 논문은 조명 변화에 강인하며 중립 표정과 같은 표정 측정의 기준이 되는 단서 없이 다양한 내적상태 안에서 얼굴표정을 인식할 수 있는 개선된 시스템을 제안한다. 표정정보를 추출하기 위한 전처리 작업으로, 백색화(whitening) 단계가 적용되었다. 백색화 단계는 영상데이터들의 평균값이 0이며 단위분산 값으로 균일한 분포를 갖도록 하여 조명 변화에 대한 민감도를 줄인다. 백색화 단계 수행 후 제 1 주성분이 제외된 나머지 주성분들로 이루어진 PCA표상을 표정정보로 사용함으로써 중립 표정에 대한 단서 없이 얼굴표정의 특징추출을 가능하게 한다. 본 실험 결과는 또한 83개의 내적상태와 일치되는 다양한 얼굴표정들에서 임의로 선택된 표정영상들을 내적상태의 차원모델에 기반한 얼굴표정 인식을 수행함으로써 다양하고 자연스런 얼굴 표정 인식을 가능하게 하였다.

  • PDF

3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성 (Automatic Anticipation Generation for 3D Facial Animation)

  • 최정주;김동선;이인권
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권1호
    • /
    • pp.39-48
    • /
    • 2005
  • 전통적인 2차원 애니메이션 제작기법에 의하면, 애니메이션의 기대효과(Anticipation)는 동작에 대한 준비단계로서 사실적이고 풍부한 표현을 하는데 중요한 역할을 한다고 알려져 있다. 얼굴 표정 애니메이션 데이타가 충분히 길다고 가정하면, 특정한 얼굴 표정에 대한 기대효과가 주어진 애니메이션 데이타에 존재할 가능성이 높다. 본 논문에서는 주어진 얼굴 표정 애니메이션 데이타로부터 얼굴 표정의 기대효과를 자동으로 추출하여 추가하는 방법을 제시한다. 먼저 애니메이션 데이타에 대해 중요요소분석법(Principal Component Analysis)을 적용하여 얼굴 모델의 모든 정점을 비슷한 움직임의 방향을 갖는 요소(Component)의 집합으로 분류한다. 각각의 요소에 대하여, 반대 방향의 움직임을 갖는 보정 애니메이션 데이타를 파 요소에 대한 기대효과로서 추출하고, 이 중에서 얼굴 모델의 위상정보를 보존하는 최적의 기대효과를 주어진 보정의 기대효과로 선택한다. 선택된 기대효과는 애니메이션 데이타의 연속성과 재생 시간을 유지하도록 주어진 표정과 적절히 합성(Blend)한다. 모션캡쳐 및 키프레임 작업에 의한 3차원 얼굴 보정 애니메이션 데이타를 입력으로 하여 기대효과론 자동으로 생성하는 실험격과를 제시한다. 본 논문은 전통적인 2차원 애니메이션 제자방법 중 하나인 기대효과를 3차원 얼굴 표정 애니메이션에 적용하는 새로운 방법을 제시하여, 애니메이션 제작자가 얼굴 표정을 선택하는 간단한 상호작용만으로도 기대효과가 추가된 3차원 얼굴 보정 애니메이션을 손쉽게 얻을 수 있다.

동영상에서 최적의 얼굴색 정보와 움직임 정보에 기반한 얼굴 영역 추출 (The Extraction of Face Regions based on Optimal Facial Color and Motion Information in Image Sequences)

  • 박형철;전병환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권2호
    • /
    • pp.193-200
    • /
    • 2000
  • 자연스러운 사용자 작업 환경인 헤드 제스처 인터페이스를 구현하기 위해서는 얼굴 영역 추출에 관한 연구가 선행되어야 하는데, 최근에는 동영상에서 얼굴 영역을 추출하기 위해 색상 정보를 이용하는 연구가 많이 진행되고 있다. 본 논문에서는 대표적으로 사용되는 HSI 컬러 모델과 YIQ 컬러 모델의 각 색상 성분인 H(hue)와 I(in-phase)를 이용하여 얼굴 영역의 추출 성능을 비교한다. 먼저 각 색상 성분에 대해 임계 구간 변화에 따른 최적의 얼굴색 구간을 설정하여 얼굴 영역 추출의 정확도를 비교한다. 다음으로 설정된 최적의 얼굴색 정보와 움직임 정보를 결합한 영상에 대해 얼굴 박스를 추출함으로써 최종적인 얼굴 영역 추출의 정확도를 비교 평가한다. 실험 결과, 최적의 얼굴색 정보를 표현하는 구간은 HSI의 H 성분의 경우 $0^{\circ}{\sim}14^{\circ}$, YIQ의 I 성분은 $-22^{\circ}{\sim}-2^{\circ}$인 것으로 나타났다. 이 최적 구간에 의한 각 색상 성분의 얼굴 영역 추출의 정확도에서는 I 성분이 H 성분에 비해 약 10% 정도 높은 추출율을 나타냈으며, 최적의 얼굴색 정보와 움직임 정보를 결합한 영상의 경우에서도 I 성분이 약 3% 정도의 보다 나은 얼굴 영역 추출 결과를 얻었다.

  • PDF