• 제목/요약/키워드: Facial color

검색결과 324건 처리시간 0.029초

CCD 컬러 영상과 적외선 영상을 이용한 얼굴 영역 검출 (Facial Region Tracking by Infra-red and CCD Color Image)

  • 윤태호;김경섭;한명희;신승원;김인영
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.60-62
    • /
    • 2005
  • In this study, the automatic tracking algorithm tracing a human face is proposed by using YCbCr color coordinated information and its thermal properties expressed in terms of thermal indexes in an infra-red image. The facial candidates are separately estimated in CbCr color and infra-red domain, respectively with applying the morphological image processing operations and the geometrical shape measures for fitting the elliptical features of a human face. The identification of a true face is accomplished by logical 'AND' operation between the refined image in CbCr color and infra-red domain.

  • PDF

컨볼루셔널 신경망과 케스케이드 안면 특징점 검출기를 이용한 얼굴의 특징점 분류 (Facial Point Classifier using Convolution Neural Network and Cascade Facial Point Detector)

  • 유제훈;고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제22권3호
    • /
    • pp.241-246
    • /
    • 2016
  • Nowadays many people have an interest in facial expression and the behavior of people. These are human-robot interaction (HRI) researchers utilize digital image processing, pattern recognition and machine learning for their studies. Facial feature point detector algorithms are very important for face recognition, gaze tracking, expression, and emotion recognition. In this paper, a cascade facial feature point detector is used for finding facial feature points such as the eyes, nose and mouth. However, the detector has difficulty extracting the feature points from several images, because images have different conditions such as size, color, brightness, etc. Therefore, in this paper, we propose an algorithm using a modified cascade facial feature point detector using a convolutional neural network. The structure of the convolution neural network is based on LeNet-5 of Yann LeCun. For input data of the convolutional neural network, outputs from a cascade facial feature point detector that have color and gray images were used. The images were resized to $32{\times}32$. In addition, the gray images were made into the YUV format. The gray and color images are the basis for the convolution neural network. Then, we classified about 1,200 testing images that show subjects. This research found that the proposed method is more accurate than a cascade facial feature point detector, because the algorithm provides modified results from the cascade facial feature point detector.

Spectrum-Based Color Reproduction Algorithm for Makeup Simulation of 3D Facial Avatar

  • Jang, In-Su;Kim, Jae Woo;You, Ju-Yeon;Kim, Jin Seo
    • ETRI Journal
    • /
    • 제35권6호
    • /
    • pp.969-979
    • /
    • 2013
  • Various simulation applications for hair, clothing, and makeup of a 3D avatar can provide more useful information to users before they select a hairstyle, clothes, or cosmetics. To enhance their reality, the shapes, textures, and colors of the avatars should be similar to those found in the real world. For a more realistic 3D avatar color reproduction, this paper proposes a spectrum-based color reproduction algorithm and color management process with respect to the implementation of the algorithm. First, a makeup color reproduction model is estimated by analyzing the measured spectral reflectance of the skin samples before and after applying the makeup. To implement the model for a makeup simulation system, the color management process controls all color information of the 3D facial avatar during the 3D scanning, modeling, and rendering stages. During 3D scanning with a multi-camera system, spectrum-based camera calibration and characterization are performed to estimate the spectrum data. During the virtual makeup process, the spectrum data of the 3D facial avatar is modified based on the makeup color reproduction model. Finally, during 3D rendering, the estimated spectrum is converted into RGB data through gamut mapping and display characterization.

색상 군집화를 이용한 입술탐지 알고리즘 (A Lip Detection Algorithm Using Color Clustering)

  • 정종면
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.37-43
    • /
    • 2014
  • 본 논문에서는 색상 군집화를 이용한 입술탐지 알고리즘을 제안한다. RGB 색상 모델로 주어진 입력영상에서 AdaBoost 알고리즘을 이용하여 얼굴영역을 추출한 후, 얼굴영역을 Lab 컬러 모델로 변환한다. Lab 컬러 모델에서 a 성분은 입술과 유사한 색상을 잘 표현할 수 있는 반면 b 성분은 입술의 보색을 표현할 수 있기 때문에 Lab 컬러로 표현된 얼굴영역에서 a와 b 성분을 기준으로 최단 이웃(nearest neighbour) 군집화 알고리즘을 이용하여 피부 영역을 분리한 후, K-means 색상 군집화를 통해 입술 후보 영역을 추출하고, 마지막으로 기하학적 특징을 이용하여 최종적인 입술영역을 탐지하였다. 실험 결과는 제안된 방법이 강건하게 입술을 탐지함을 보인다.

얼굴의 색상과 모양정보를 이용한 조명 변화에 강인한 얼굴 추적 시스템 구현 (Development of Face Tracking System Using Skin Color and Facial Shape)

  • 이형수
    • 정보처리학회논문지B
    • /
    • 제10B권6호
    • /
    • pp.711-718
    • /
    • 2003
  • 얼굴 인식 시스템과 표정인식 시스템과 같은 고차원 처리를 수행하는 시스템의 전처리 과정으로써 이미지 영역 내에서 얼굴을 추적하는 것은 중요한 과정이다. 본 논문에서는 피부색과 얼굴의 형태 정보를 단서로 하는 CONDENSATION 알고리즘을 사용하여 얼굴의 위치를 추적하였다. 컬러의 가중치와 형태의 가중치를 결합시키는데 어려움이 있으므로 각각을 단서로 사용하는 두 개의 추적기를 가진 시스템을 제안한다. 제안된 시스템은 복잡한 배경, 피부색의 물체가 이미지 내에 존재하는 경우, 다른 얼굴이 이미지 내에 존재하는 경우 모두에 대해서 훌륭한 성능을 보여 주었다.

안면부 재건술에서 사용되는 다양한 피판의 색조 비교 (Analysis of Color Difference in Facial Reconstruction used Various Flaps)

  • 박장완;김의식;황재하;김광석;이삼용
    • Archives of Plastic Surgery
    • /
    • 제36권4호
    • /
    • pp.365-371
    • /
    • 2009
  • Purpose: Good color match holds a key position in facial reconstruction for good aesthetic result. To correct the wide facial soft tissue defect were usually used the tissue expanded cheek flap, deltopectoral flap or radial forearm free flap. This study is aimed to analyse the color difference after flap surgery by using chromameter. Method: From August 1995 to December 2006, 30 patients underwent flap operations were chosen randomly and evaluated color differences between flap site and adjacent skin. Reconstructive procedures included tissue expanded cheek flap(n = 10), deltopectoral flap(n = 10), and radial forearm free flap(n = 10). The measured sites were flap center within a radius of 1 ㎝ and four points of adjacent skin along the flap margin. The color was quantified in a three dimensional coordinate system $L^*$ (brightness), $a^*$ (redness), $b^*$ (yellowness). Results: There was no significant color difference between the pedicled flaps(tissue expanded cheek flap and deltopectoral flap) and adjacent skin area. On the other hand, color values of the radial forearm free flap were statistically different from those of adjacent skin area. Total color difference(${\Delta}E$) of tissue expanded cheek flap and deltopectoral flap were $7.45{\pm}5.78$ versus $9.41{\pm}7.09$, and that of radial forearm free flap was $11.74{\pm}3.85$. They suggest that pedicled flaps have a potential of better color match than radial forearm free flap. Conclusion: Thus, better esthetic result and satisfaction is more likely to be expected in pedicled flaps as long as it could be applied comparing radial forearm free flap.

감정 트레이닝: 얼굴 표정과 감정 인식 분석을 이용한 이미지 색상 변환 (Emotion Training: Image Color Transfer with Facial Expression and Emotion Recognition)

  • 김종현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권4호
    • /
    • pp.1-9
    • /
    • 2018
  • 본 논문은 얼굴의 표정 변화를 통해 감정을 분석하는 방법으로 조현병의 초기 증상을 스스로 인지할 수 있는 감정 트레이닝 프레임워크를 제안한다. 먼저, Microsoft의 Emotion API를 이용하여 캡처된 얼굴 표정의 사진으로부터 감정값을 얻고, 피크 분석 기반 표준편차로 시간에 따라 변화하는 얼굴 표정의 미묘한 차이를 인식해 감정 상태를 각각 분류한다. 그리하여 Ekman이 제안한 여섯 가지 기본 감정 상태에 반하는 감정들의 정서 및 표현능력이 결핍된 부분에 대해 분석하고, 그 값을 이미지 색상 변환 프레임워크에 통합시켜 사용자 스스로 감정의 변화를 쉽게 인지하고 트레이닝 할 수 있도록 하는 것이 최종목적이다.

다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원 (Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제9B권5호
    • /
    • pp.563-570
    • /
    • 2002
  • 본 논문은 MPEG4 SNHC의 얼굴 모델 인코딩을 구현하기 위하여 연속된 2차원 영상으로부터 얼굴영역을 검출하고, 얼굴의 특징데이터들을 추출한 후, 얼굴의 3차원 모양 및 움직임 정보를 복원하는 알고리즘과 결과를 제시한다. 얼굴 영역 검출을 위해서 영상의 거리, 피부색상, 움직임 색상정보등을 융합시킨 멀티모달합성의 방법이 사용되었다. 결정된 얼굴영역에서는 MPEG4의 FDP(Face Definition Parameter) 에서 제시된 특징점 위치중 23개의 주요 얼굴 특징점을 추출하며 추출성능을 향상시키기 위하여 GSCD(Generalized Skin Color Distribution), BWCD(Black and White Color Distribution)등의 움직임색상 변환기법과 형태연산 방법이 제시되었다. 추출된 2차원 얼팔 특징점들로부터 얼굴의 3차원 모양, 움직임 정보를 복원하기 위하여 준원근 카메라 모델을 적용하여 SVD(Singular Value Decomposition)에 의한 인수분해연산을 수행하였다. 본 논문에서 제시된 방법들의 성능을 객관적으로 평가하기 위하여 크기와 위치가 알려진 3차원 물체에 대해 실험을 행하였으며, 복원된 얼굴의 움직임 정보는 MPEG4 FAP(Face Animation Parameter)로 변환된 후, 인터넷상에서 확인이 가능한 가상얼굴모델에 인코딩되어 실제 얼굴파 일치하는 모습을 확인하였다.

얼굴특징자 정보를 이용한 인터넷 기반 얼굴관상 해석 및 얼굴아바타 자동생성시스템 (Facial Phrenology Analysis and Automatic Face Avatar Drawing System Based on Internet Using Facial Feature Information)

  • 이응주
    • 한국멀티미디어학회논문지
    • /
    • 제9권8호
    • /
    • pp.982-999
    • /
    • 2006
  • 본 논문에서는 복합 칼라정보와 얼굴의 기하학적 정보를 이용한 인터넷 기반 얼굴관상해석 및 자동 얼굴 컨텐츠 생성시스템을 제안하였다. 제안한 시스템은 YCbCr과 YIQ 칼라모델의 Cr과 I 성분의 논리곱 연산처리로 얼굴영역을 검출하였다. 검출한 얼굴영역에서 얼굴의 기하학적 정보로부터 얼굴 특징자를 추출 하였으며 각 특징자들을 세부 분류하여 얼굴 관상을 해석하도록 하였다. 또한 제안한 시스템은 추출과 분류된 특징자로부터 개인의 얼굴에 가장 적합한 얼굴 아바타 컨텐츠를 자동 생성할 수 있게 하였다. 실험결과 제안한 방법은 기존의 얼굴인식 방법에 비해 실시간 얼굴검출과 인식은 물론 정량적인 얼굴관상해석과 자동 얼굴 아바타 생성이 가능하였다.

  • PDF

칼라 영상에서 유클리디안 거리를 이용한 얼굴영역 검출 알고리즘 (Face Region Detection Algorithm using Euclidean Distance of Color-Image)

  • 정행섭;이주신
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권3호
    • /
    • pp.79-86
    • /
    • 2009
  • 본 논문은 피부색 요소의 유클리디안거리를 계산 얼굴영역을 추출하고 얼굴의 특징요소를 추출하는 방법을 제안하였다. 제안한 알고리즘은 조명보정과 얼굴 검출 과정으로구성되었다. 조명보정 과정에서는 조명변화에 대한 보정기능을 수행한다. 얼굴 검출 과정은 20개의 피부색 표본영상에서 색상과 채도를 특징벡터로 사용, 입력영상과의 유클리디안 거리를 구하여 피부색 영역을 추출하였다. 추출된 얼굴 후보영역에서 CMY칼라 모델 C공간에서 눈을 검출 하였고, YIQ 칼라 모델 Q공간에서 입을 검출하였다. 추출된 얼굴 후보영역에서 일반적인 얼굴에 대한 지식을 기반으로 얼굴 영역을 검출하였다. 입력받은 40개의 정면 칼라 영상으로 실험한 결과 100%의 얼굴 검출율을 보였다.

  • PDF