• 제목/요약/키워드: Facial Information

검색결과 1,071건 처리시간 0.032초

MPEG-4 FAP 기반 세분화된 얼굴 근육 모델 구현 (Subdivided Facial Muscle Modeling based on MPEG-4 EAP)

  • 이인서;박운기;전병우
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.631-634
    • /
    • 2000
  • In this paper, we propose a method for implementing a system for decoding the parameter data based on Facial Animation Parameter (FAP) developed by MPEG-4 Synthetic/Natural Hybrid Coding (SNHC) subcommittee. The data is displayed according to FAP with human mucle model animation engine. Proposed model has the basic properties of the human skin specified by be energy funtional for realistic facial animation.

  • PDF

Facial Sheet Masks의 사이즈 적합성을 위한 한국 여성의 3차원 얼굴 데이터 분석 (An Analysis on 3D Face Measurements of Korean Women for Suitable Facial Sheet Masks' Size)

  • 문지현;전은경
    • 한국의류학회지
    • /
    • 제43권6호
    • /
    • pp.930-940
    • /
    • 2019
  • This study analyzes the facial data required for sheet design in order to pursue the facial compatibility of disposable sheets used in facial mask products that are increasing in popularity as self-care methods. The subjects of the study were 23 facial measurements of 1,001 women in their 20s to 60s from Size Korea's 6th 3D data. Through factor analysis, sheet-related facial measurements were collected into six factors included in the vertical length of each part of the face: length of face surface from the ear to each part of the face, width of eyes, nose, lips, length of nose, vertical length of lower face, width of the head and width of chin. Three sheet face types were classified using six factor scores as variables, and the characteristics of each type differed according to age group. As a result of the discriminant analysis to identify the dimension items that classify the three cluster types, 12 contributing items were extracted out of 23 items. This study provides useful information and data for further studies of products requiring facial fitness.

LDP를 이용한 지역적 얼굴 특징 표현 방법에 관한 연구 (A study on local facial features using LDP)

  • 조영탁;정웅경;안용학;채옥삼
    • 융합보안논문지
    • /
    • 제14권5호
    • /
    • pp.49-56
    • /
    • 2014
  • 본 논문에서는 기존의 제안된 LDP(Local Directional Pattern)에 기반하여 지역적인 얼굴특징을 표현하는 방법을 제안한다. 제안된 방법은 눈과 입과 같은 얼굴의 영구적인 특징과 표정이 변하면서 발생하는 일시적인 특징을 효과적으로 표현할 수 있도록 얼굴특징별로 크기와 형태를 달리하는 중첩 가능한 블록을 설정하고 이를 바탕으로 얼굴 특징벡터를 구성한다. 제안된 중첩 블록설정 및 특징 표현 방법은 기하학적 특징을 기반으로 하는 접근 방법의 장점을 수용할 뿐만 아니라 각 얼굴특징의 움직임 특성을 이용하여 얼굴검출에 대한 오류를 수용할 수 있고, 블록사이즈의 가변성으로 인한 공간정보를 유지할 수 있어 표본오차를 줄일 수 있는 장점이 있다. 실험결과, 제안된 방법은 기존 방법에 비해 인식률이 향상됨을 확인하였고, 기존 얼굴 특징 벡터보다 길이가 짧기 때문에 연산량 또한 감소하는 것을 확인하였다.

주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출 (Face and Its Components Extraction of Animation Characters Based on Dominant Colors)

  • 장석우;신현민;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.93-100
    • /
    • 2011
  • 애니메이션 캐릭터의 감정과 성격을 가장 잘 표출해 낼 수 있는 부분이 캐릭터의 얼굴이므로 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 분석하여 필요한 정보를 추출하는 연구의 필요성이 증가하고 있는 추세이다. 본 논문에서는 애니메이션 캐릭터 얼굴의 특성에 맞게 수정한 메쉬모델을 정의하고, 주색상 정보를 이용하여 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 효과적으로 검출하는 방법을 제안한다. 제안된 시스템은 먼저 애니메이션 캐릭터 얼굴에 맞는 메쉬모델을 생성하고, 이 메쉬모델을 처음 입력되는 애니메이션 캐릭터의 얼굴에 정합시켜 얼굴과 얼굴의구성요소에 대한 주색상 값을 추출한다. 그리고 추출된 주색상 값을 이용하여 새롭게 입력되는 영상으로부터 캐릭터의 얼굴과 얼굴 구성요소의 후보 영역을 선정한 후, 모델로부터 추출한 주색상 정보와 후보 영역들의 주색상 사이의 유사도를 측정하여 최종적인 애니메이션 캐릭터의 얼굴과 얼굴의 구성요소를 검출한다. 본 논문의 실험에서는 제안된 애니메이션 캐릭터 얼굴과 구성요소 검출 방법의 성능을 평가하기 위한 실험결과를 보인다.

Rapid Implementation of 3D Facial Reconstruction from a Single Image on an Android Mobile Device

  • Truong, Phuc Huu;Park, Chang-Woo;Lee, Minsik;Choi, Sang-Il;Ji, Sang-Hoon;Jeong, Gu-Min
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권5호
    • /
    • pp.1690-1710
    • /
    • 2014
  • In this paper, we propose the rapid implementation of a 3-dimensional (3D) facial reconstruction from a single frontal face image and introduce a design for its application on a mobile device. The proposed system can effectively reconstruct human faces in 3D using an approach robust to lighting conditions, and a fast method based on a Canonical Correlation Analysis (CCA) algorithm to estimate the depth. The reconstruction system is built by first creating 3D facial mapping from a personal identity vector of a face image. This mapping is then applied to real-world images captured with a built-in camera on a mobile device to form the corresponding 3D depth information. Finally, the facial texture from the face image is extracted and added to the reconstruction results. Experiments with an Android phone show that the implementation of this system as an Android application performs well. The advantage of the proposed method is an easy 3D reconstruction of almost all facial images captured in the real world with a fast computation. This has been clearly demonstrated in the Android application, which requires only a short time to reconstruct the 3D depth map.

Facial Feature Tracking and Head Orientation-based Gaze Tracking

  • Ko, Jong-Gook;Kim, Kyungnam;Park, Seung-Ho;Kim, Jin-Young;Kim, Ki-Jung;Kim, Jung-Nyo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.11-14
    • /
    • 2000
  • In this paper, we propose a fast and practical head pose estimation scheme fur eye-head controlled human computer interface with non-constrained background. The method we propose uses complete graph matching from thresholded images and the two blocks showing the greatest similarity are selected as eyes, we also locate mouth and nostrils in turn using the eye location information and size information. The average computing time of the image(360*240) is within 0.2(sec) and we employ template matching method using angles between facial features for head pose estimation. It has been tested on several sequential facial images with different illuminating conditions and varied head poses, It returned quite a satisfactory performance in both speed and accuracy.

  • PDF

감성ICT 교육을 위한 얼굴감성 인식 시스템에 관한 연구 (A Study on the System of Facial Expression Recognition for Emotional Information and Communication Technology Teaching)

  • 송은지
    • 한국실천공학교육학회논문지
    • /
    • 제4권2호
    • /
    • pp.171-175
    • /
    • 2012
  • 최근 정보기술을 이용하여 인간의 감정을 인식하고 소통할 수 있는 ICT(Information and Communication Technology)의 연구가 증가하고 있다. 예를 들어 상대방의 마음을 읽기 위해서 그 사람과의 관계를 형성하고 활동을 해야만 하는 시대에서 사회의 디지털화로 그 경험이 디지털화 되어가며 마인드를 리딩 할 수 있는 디지털기기들이 출현하고 있다. 즉, 인간만이 예측할 수 있었던 감정을 디지털 기기가 대신해 줄 수 있게 된 것이다. 얼굴에서의 감정인식은 현재 연구되어지는 여러 가지 감정인식 중에서 효율적이고 자연스러운 휴먼 인터페이스로 기대되고 있다. 본 논문에서는 감성 ICT에 대한 고찰을 하고 그 사례로서 얼굴감정 인식 시스템에 대한 메카니즘을 살펴보고자 한다.

  • PDF

깊이정보 기반 Watershed 알고리즘을 이용한 얼굴영역 분할 (Facial Region Segmentation using Watershed Algorithm based on Depth Information)

  • 김장원
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권4호
    • /
    • pp.225-230
    • /
    • 2011
  • 본 논문에서는 깊이정보에 기반한 watershed와 영역병합 알고리즘을 이용한 얼굴영역 분할 방법을 제안하였다. 얼굴영역 검출은 영역 분할 단계, 초기 화소 영역 검출 단계, 영역 병합의 세 단계로 구성된다. 입력된 컬러 영상은 제안된 알고리즘에 의해 균일한 작은 영역들로 분할된다. 색도정보와 에지 구속 조건을 사용하여 균일한 영역들을 결합함으로써 얼굴영역을 검출한다. 제안한 알고리즘은 색도정보나 에지정보만을 사용하는 기존 방법에서의 문제점을 해결하였다. 제안한 알고리즘의 성능을 평가하기 위해 컴퓨터 시뮬레이션을 하였으며 정확한 얼굴 영역을 분할할 수 있었다.

Emotion Detection Algorithm Using Frontal Face Image

  • Kim, Moon-Hwan;Joo, Young-Hoon;Park, Jin-Bae
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.2373-2378
    • /
    • 2005
  • An emotion detection algorithm using frontal facial image is presented in this paper. The algorithm is composed of three main stages: image processing stage and facial feature extraction stage, and emotion detection stage. In image processing stage, the face region and facial component is extracted by using fuzzy color filter, virtual face model, and histogram analysis method. The features for emotion detection are extracted from facial component in facial feature extraction stage. In emotion detection stage, the fuzzy classifier is adopted to recognize emotion from extracted features. It is shown by experiment results that the proposed algorithm can detect emotion well.

  • PDF

동적 표정 구현이 가능한 얼굴 로봇 3D 시뮬레이터 구현 (Implementation of Facial Robot 3D Simulator For Dynamic Facial Expression)

  • 강병곤;강효석;김은태;박민용
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.1121-1122
    • /
    • 2008
  • By using FACS(Facial Action Coding System) and linear interpolation, a 3D facial robot simulator is developed in this paper. This simulator is based on real facial robot and synchronizes with it by unifying protocol. Using AUs(Action Unit) of each 5 basic expressions and linear interpolation makes more various dynamic facial expressions.

  • PDF