• 제목/요약/키워드: Facial Information

검색결과 1,060건 처리시간 0.03초

Center Position Tracking Enhancement of Eyes and Iris on the Facial Image

  • Chai Duck-hyun;Ryu Kwang-ryol
    • Journal of information and communication convergence engineering
    • /
    • 제3권2호
    • /
    • pp.110-113
    • /
    • 2005
  • An enhancement of tracking capacity for the centering position of eye and iris on the facial image is presented. A facial image is acquisitioned with a CCD camera to be converted into a binary image. The eye region to be a specified brightness and shapes is used the FRM method using the neighboring five mask areas, and the iris on the eye is tracked with FPDP method. The experimental result shows that the proposed methods lead the centering position tracking capability to be enhanced than the pixel average coordinate values method.

HCI를 위한 트리 구조 기반의 자동 얼굴 표정 인식 (Automatic Facial Expression Recognition using Tree Structures for Human Computer Interaction)

  • 신윤희;주진선;김은이;;;박세현;정기철
    • 한국산업정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.60-68
    • /
    • 2007
  • 본 논문에서는 자동으로 사용자의 얼굴 표정을 인식할 수 있는 시스템을 제안한다. 제안된 시스템은 휴리스틱 정보를 기반으로 설계된 트리 구조를 이용하여 행복, 역겨움, 놀람의 감정과 무표정을 인식한다. 카메라로부터 영상이 들어오면 먼저 얼굴 특징 검출기에서 피부색 모델과 연결성분 분석을 이용하여 얼굴 영역을 획득한다. 그 후에 신경망 기반의 텍스처 분류기를 사용하여 눈 영역과 비 눈 영역으로 구분한 뒤 눈의 중심 영역과 에지 정보를 기반으로 하여 눈, 눈썹, 입 등의 얼굴 특징을 찾는다. 검출된 얼굴 특징들은 얼굴 표정 인식기에 사용되며 얼굴 인식기는 이를 기반으로 한 decision tree를 이용하여 얼굴 감정을 인식한다. 제안된 방법의 성능을 평가하기 위해 MMI JAFFE, VAK DB에서 총 180장의 이미지를 사용하여 테스트하였고 약 93%의 정확도를 보였다.

  • PDF

3D Facial Landmark Tracking and Facial Expression Recognition

  • Medioni, Gerard;Choi, Jongmoo;Labeau, Matthieu;Leksut, Jatuporn Toy;Meng, Lingchao
    • Journal of information and communication convergence engineering
    • /
    • 제11권3호
    • /
    • pp.207-215
    • /
    • 2013
  • In this paper, we address the challenging computer vision problem of obtaining a reliable facial expression analysis from a naturally interacting person. We propose a system that combines a 3D generic face model, 3D head tracking, and 2D tracker to track facial landmarks and recognize expressions. First, we extract facial landmarks from a neutral frontal face, and then we deform a 3D generic face to fit the input face. Next, we use our real-time 3D head tracking module to track a person's head in 3D and predict facial landmark positions in 2D using the projection from the updated 3D face model. Finally, we use tracked 2D landmarks to update the 3D landmarks. This integrated tracking loop enables efficient tracking of the non-rigid parts of a face in the presence of large 3D head motion. We conducted experiments for facial expression recognition using both framebased and sequence-based approaches. Our method provides a 75.9% recognition rate in 8 subjects with 7 key expressions. Our approach provides a considerable step forward toward new applications including human-computer interactions, behavioral science, robotics, and game applications.

Motion Pattern Detection for Dynamic Facial Expression Understanding

  • Mizoguchi, Hiroshi;Hiramatsu, Seiyo;Hiraoka, Kazuyuki;Tanaka, Masaru;Shigehara, Takaomi;Mishima, Taketoshi
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -3
    • /
    • pp.1760-1763
    • /
    • 2002
  • In this paper the authors present their attempt io realize a motion pattern detector that finds specified sequence of image from input motion image. The detector is intended to be used for time-varying facial expression understanding. Needless to say, facial expression understanding by machine is crucial and enriches quality of human machine interaction. Among various facial expressions, like blinking, there must be such expressions that can not be recognized if input expression image is static. Still image of blinking can not be distinguished from sleeping. In this paper, the authors discuss implementation of their motion pattern detector and describe experiments using the detector. Experimental results confirm the feasibility of the idea behind the implemented detector.

  • PDF

얼굴과 얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A flexible Feature Matching for Automatic Face and Facial Feature Points Detection)

  • 박호식;배철수
    • 한국정보통신학회논문지
    • /
    • 제7권4호
    • /
    • pp.705-711
    • /
    • 2003
  • 본 논문에서는 자동적으로 얼굴과 얼굴 특징점(FFPs:Facial Feature Points)을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 또한, 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였으며, 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.

인접 부위의 깊이 차를 이용한 3차원 얼굴 영상의 특징 추출 (Facial Feature Localization from 3D Face Image using Adjacent Depth Differences)

  • 김익동;심재창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권5호
    • /
    • pp.617-624
    • /
    • 2004
  • 본 연구에서는 3차원 얼굴 데이타에서 인접 부위의 깊이 차를 이용하여 얼굴의 주요 특징을 추출해 내는 방법을 제안한다. 인간은 사물의 특정 부분의 깊이 정보를 인식하는데 있어서 인접 부위와의 깊이 정보를 비교하고, 이를 바탕으로 깊이 값에 의한 대조가 두드러진 정도에 따라 상대적으로 깊이가 깊고 얕음을 지각하게 된다. 이런 인식 원리를 얼굴의 특징 추출에 적용하여 간단한 연산 과정을 통해 신뢰성 있고, 빠른 얼굴의 특징 추출이 가능하다. 인접 부위의 깊이 차는 수평방향과 수직방향으로 각각 일정 거리를 둔 지점에서의 두 지점간의 깊이 차로 생성된다. 생성된 수평, 수직 방향으로 인접 깊이 차와 입력된 3차원 얼굴 영상을 분석하여 3차원 얼굴 영상에서 가장 주된 특징이 되는 코 영역을 추출하였다.

Facial Feature Recognition based on ASNMF Method

  • Zhou, Jing;Wang, Tianjiang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권12호
    • /
    • pp.6028-6042
    • /
    • 2019
  • Since Sparse Nonnegative Matrix Factorization (SNMF) method can control the sparsity of the decomposed matrix, and then it can be adopted to control the sparsity of facial feature extraction and recognition. In order to improve the accuracy of SNMF method for facial feature recognition, new additive iterative rules based on the improved iterative step sizes are proposed to improve the SNMF method, and then the traditional multiplicative iterative rules of SNMF are transformed to additive iterative rules. Meanwhile, to further increase the sparsity of the basis matrix decomposed by the improved SNMF method, a threshold-sparse constraint is adopted to make the basis matrix to a zero-one matrix, which can further improve the accuracy of facial feature recognition. The improved SNMF method based on the additive iterative rules and threshold-sparse constraint is abbreviated as ASNMF, which is adopted to recognize the ORL and CK+ facial datasets, and achieved recognition rate of 96% and 100%, respectively. Meanwhile, from the results of the contrast experiments, it can be found that the recognition rate achieved by the ASNMF method is obviously higher than the basic NMF, traditional SNMF, convex nonnegative matrix factorization (CNMF) and Deep NMF.

내적 정서 상태 차원에 근거한 캐릭터 표정생성 프로그램 구현 (Character's facial expression realization program with emotional state dimensions)

  • 고혜영;이재식;김재호
    • 한국정보통신학회논문지
    • /
    • 제12권3호
    • /
    • pp.438-444
    • /
    • 2008
  • 본 논문에서는 애니메이션 캐릭터의 표정 연출의 효율성을 높이기 위해 정서 상태의 변화에 따라 다양하고 주어진 상황에 부합하는 표정을 쉽게 구현할 수 있는 표정생성 프로그램을 제안하고자 한다. 이를 위해 우선, Russell의 내적 정서 상태의 차원 모형을 근거로 쾌-불쾌, 각성-비각성의 내적 정서 상태 정보를 포함한 9가지 표정을 정의하였다. 그리고 각각의 표정에 대해 본 연구에서 제안한 표정생성 프로그램을 이용하여 두 차원의 중앙에 위치하는 무표정 자극을 8가지의 가능한 표정 변화 방향으로 이동시킴으로써 정서 차원에서의 미묘한 위치 변화에 따라서도 다양한 표정 생성이 구현될 수 있음을 확인하였다. 향후 이러한 프로그램은 복잡한 정서를 가진 표정을 쉽고 다양하게 구현할 수 있는 표정 자동생성 시스템 설계의 기초적 프로그램으로 활용될 수 있을 것이다.

MPEG-4 FAP 기반 세분화된 얼굴 근육 모델 구현 (Subdivided Facial Muscle Modeling based on MPEG-4 EAP)

  • 이인서;박운기;전병우
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.631-634
    • /
    • 2000
  • In this paper, we propose a method for implementing a system for decoding the parameter data based on Facial Animation Parameter (FAP) developed by MPEG-4 Synthetic/Natural Hybrid Coding (SNHC) subcommittee. The data is displayed according to FAP with human mucle model animation engine. Proposed model has the basic properties of the human skin specified by be energy funtional for realistic facial animation.

  • PDF

Facial Sheet Masks의 사이즈 적합성을 위한 한국 여성의 3차원 얼굴 데이터 분석 (An Analysis on 3D Face Measurements of Korean Women for Suitable Facial Sheet Masks' Size)

  • 문지현;전은경
    • 한국의류학회지
    • /
    • 제43권6호
    • /
    • pp.930-940
    • /
    • 2019
  • This study analyzes the facial data required for sheet design in order to pursue the facial compatibility of disposable sheets used in facial mask products that are increasing in popularity as self-care methods. The subjects of the study were 23 facial measurements of 1,001 women in their 20s to 60s from Size Korea's 6th 3D data. Through factor analysis, sheet-related facial measurements were collected into six factors included in the vertical length of each part of the face: length of face surface from the ear to each part of the face, width of eyes, nose, lips, length of nose, vertical length of lower face, width of the head and width of chin. Three sheet face types were classified using six factor scores as variables, and the characteristics of each type differed according to age group. As a result of the discriminant analysis to identify the dimension items that classify the three cluster types, 12 contributing items were extracted out of 23 items. This study provides useful information and data for further studies of products requiring facial fitness.