• Title/Summary/Keyword: 얼굴주요위치

Search Result 31, Processing Time 0.024 seconds

Real-time Face Extraction for Content-based Image Retrieval (내용기반 영상 검색을 위한 실시간 얼굴 영역 추출)

  • 이미숙;이성환
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1996.06a
    • /
    • pp.169-174
    • /
    • 1996
  • 객체 인식은 대용량의 영상 데이터를 분석, 탐색하고 재구성하기 위한 내용기반 영상 검색의 매우 중요한 분야이며, 특히 인간의 얼굴은 검색 영상 내에서 대부분 주요한 장면에 위치하고 있기 때문에 그 비중이 매우 크다. 본 논문에서는 내용기반 영상 검색을 위한 실시간 얼굴 영역 추출 방법을 제안한다. 제안된 방법에서는 다층 피라미드 구조와 간단한 형태의 머리 형판을 사용하여 얼굴의 후보 영역을 추출한 후, 보다 정확한 얼굴 영역을 추출하기 위하여 후보 영역 내에서 눈의 위치를 탐색하고, 두 눈의 위치를 기준으로 최종적인 얼굴 영역을 추출하였다. 얼굴 후보 영역 추출 단계에서는 얼굴의 형태 정보를 포함하고 있는 모자이크 형판을 사용하여 머리와 턱을 포함한 얼굴 영역을 추출하였으며, 눈 위치 추출 단계에서는 눈의 위치 정보를 사용하여 눈의 탐색 영역을 결정하고, 탐색 영역 내에서 이진 영상 형판을 사용하여 눈의 위치를 추출한 후, 눈 영역의 무게 중심을 눈의 중심 위치로 설정하였다. 마지막 얼굴 영역 추출단계에서는 두 눈의 위치를 기준으로 사각형의 영역을 얼굴 영역으로 추출하였다. 제안된 방법의 성능을 검증하기 위하여 1700장의 다양한 영상에 대하여 실험하였으며, 실험 결과 한 장의 영상에서 얼굴 영역을 추출하는데 있어서, Pentium 166Mz의 PC상에서 평균 3.2초의 처리 속도와 91.7%의 추출률을 보임으로써, 실시간 얼굴 영역 추출에 매우 효과적임을 알 수 있었다.

  • PDF

Efficient Facial Blemishes Removal with Face Feature Detection (얼굴 구성요소 검출을 통한 효율적인 얼굴 잡티 제거)

  • Park, Ho-Jun;Cha, Eui-Young
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2016.07a
    • /
    • pp.55-58
    • /
    • 2016
  • 본 논문은 사람의 얼굴 영상에서 잡티를 제거하는 방법을 제안한다. 먼저 입력받은 영상에서 Haar-like Feature 기반 Adaboost 알고리즘과 색상 정보를 이용하여 얼굴 영역을 검출한다. 검출된 얼굴 영역에서 잡티를 제거하기 위해서는 먼저 눈, 코, 입, 눈썹과 같은 얼굴의 주요부위를 검출하고 이 영역을 제외한 순수 피부 영역에 잡티 검출 알고리즘을 적용해야한다. 사람의 얼굴은 미세하게 명암도 차이가 나는 부분이 많기 때문에 가우시안 스무딩을 적용한 후, 그래프 기반 분할 방법을 사용하여 눈, 입, 눈썹을 분할한다. 코 영역은 각 픽셀에 대해 인접픽셀과의 R 채널의 차이값을 가중치 맵으로 만들고 가중치 맵을 분석하여 영역을 분할한다. 분할된 영역에 사람 얼굴의 기하학적 위치 정보를 이용하여 주요부위를 검출한다. 얼굴의 주요부위를 검출하고 그 부위를 제외한 피부 영역에 잡티 검출 알고리즘을 적용한다. 잡티는 Edge와 색상 정보를 이용하여 검출하고, 잡티주변을 검사하여 잡티가 아닌 깨끗한 피부를 잡티 영역에 복사하여 채워나가는 방식으로 피부 영역을 복원한다.

  • PDF

Face Recognition Based on Facial Landmark Feature Descriptor in Unconstrained Environments (비제약적 환경에서 얼굴 주요위치 특징 서술자 기반의 얼굴인식)

  • Kim, Daeok;Hong, Jongkwang;Byun, Hyeran
    • Journal of KIISE
    • /
    • v.41 no.9
    • /
    • pp.666-673
    • /
    • 2014
  • This paper proposes a scalable face recognition method for unconstrained face databases, and shows a simple experimental result. Existing face recognition research usually has focused on improving the recognition rate in a constrained environment where illumination, face alignment, facial expression, and background is controlled. Therefore, it cannot be applied in unconstrained face databases. The proposed system is face feature extraction algorithm for unconstrained face recognition. First of all, we extract the area that represent the important features(landmarks) in the face, like the eyes, nose, and mouth. Each landmark is represented by a high-dimensional LBP(Local Binary Pattern) histogram feature vector. The multi-scale LBP histogram vector corresponding to a single landmark, becomes a low-dimensional face feature vector through the feature reduction process, PCA(Principal Component Analysis) and LDA(Linear Discriminant Analysis). We use the Rank acquisition method and Precision at k(p@k) performance verification method for verifying the face recognition performance of the low-dimensional face feature by the proposed algorithm. To generate the experimental results of face recognition we used the FERET, LFW and PubFig83 database. The face recognition system using the proposed algorithm showed a better classification performance over the existing methods.

A model of Affectiveness on Korean female faces in twenties (한국인 20대 여성 얼굴의 감성 모형)

  • 박수진;김한경;한재현;이정원;김종일;송경석;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2001.11a
    • /
    • pp.42-48
    • /
    • 2001
  • 본 연구에서는 박수진, 김한경, 한재현, 이정원, 김종일, 송경석, 정찬섭(2001)에서의 발견을 토대로 얼굴의 범주-차원적 감성 구조를 정립하였다. 박수진 등의 연구는 얼굴의 감성 구조를 이루는 2개의 차원축으로 '앳되다-성숙하다', '날카롭다-부드럽다'를 제안하였었다. 본 연구에서는 이들 축으로 이뤄진 얼굴의 2차원 감성 공간 내에 균일하게 17개의 위치를 선정하고 각 위치들에 합성된 해당 얼굴들을 위치시킴으로써 해당 공간의 얼굴 특징을 시각화하였다. 또한 얼굴의 물리적 특징의 변화가 감성에 어 떤 영향을 주는지를 두 개의 주요 축을 중심으로 살펴보았다. 마지막으로 범주 모형으로서 개별 감성 어휘들과 얼굴의 물리적 특징이 어떤 관계가 있는지를 일차적으로 살펴보았다.

  • PDF

A Study on the Synthesis of Facial Poses based on Warping (워핑 기법에 의한 얼굴의 포즈 합성에 관한 연구)

  • 오승택;서준원;전병환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.499-501
    • /
    • 2001
  • 본 논문에서는 사실적인 아바타(avata) 구현의 핵심이라 할 수 있는 입체적인 얼굴 표현을 위해, (※원문참조) 기하학적인 정보를 사용하지 않고 중첩 메쉬를 허용하는 개선된 메쉬 워프 알고리즘(mesh warp algor※원문참조)을 이용하여 IBR(Image Based Rendering)을 구현하는 방법을 제안한다. 3차원 모델을 대신하기 위해 (※원문참조) 인물의 정면, 좌우 반측면, 좌우 측면의 얼굴 영상들에 대해 작성된 메쉬를 사용한다. 합성하고자 하는 (※원문참조) 정면 얼굴 영상에 대해서는 정면 메쉬만을 작성하고, 반측면이나 측면 메쉬는 표준 메쉬를 근거로 자(※원문참조)된다. 얼굴 포즈 합성의 성능을 펴가하기 위해, 얼굴을 수평으로 회전하는 실제 포즈 영상과 합성된 포(※원문참조)에 대해 주요 특징점 들을 정규화 한 위치 오차를 측정한 결과, 평균적으로 양 눈의 중심에서 입의 (※원문참조)리에 대해 약 5%의 위치 오차만이 발생한 것으로 나타났다.

  • PDF

3D Feature Point Based Face Segmentation in Depth Camera Images (깊이 카메라 영상에서의 3D 특징점 기반 얼굴영역 추출)

  • Hong, Ju-Yeon;Park, Ji-Young;Kim, Myoung-Hee
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.454-455
    • /
    • 2012
  • 깊이 카메라에서 입력 받은 사용자의 얼굴 데이터에 morphable 모델을 fitting하여 실제 얼굴과 가까운 3D 얼굴 모델을 생성하기 위해서는 먼저 깊이 영상으로부터의 정확한 얼굴 영역 추출이 필요하다. 이를 위해 얼굴의 특징점을 기반으로 얼굴 영역 추출을 시도한다. 먼저 원본 깊이 영상을 보정하고, 컬러 영상으로부터 얼굴과 눈, 코의 영역을 탐색한 후 이를 깊이 영상에 대응시켜 눈, 코, 턱의 3차원 위치를 계산한다. 이렇게 결정된 얼굴의 주요 특징점들을 시작으로 영역을 확장함으로써 영상의 배경으로부터 얼굴 영역을 분리한다.

An Affective Space Model for the Faces of Korean Women in Twenties (한국인 20대 여성 얼굴의 감성모형)

  • 박수진;한재현;정찬섭
    • Science of Emotion and Sensibility
    • /
    • v.4 no.2
    • /
    • pp.47-55
    • /
    • 2001
  • In affective space model for the faces of Korean women in twenties was developed based on the findings of Park, et. at. (2001) that suggested two orthogonal dimensions for the affective representation of a face. babyish-mature and sharp-soft. In the current study, affective facial characteristics were visualized by providing properly synthesized faces at 17 subregions of the model space Effect of physical attributes of a face on its affective evaluation was also investigated along the two affective dimensions. The relationship between typical adjectives describing facial affectiveness anti physical attributes of a face was examined to provide a category-based interpretation.

  • PDF

Eye Detection Based on Texture Information (텍스처 기반의 눈 검출 기법)

  • Park, Chan-Woo;Park, Hyun;Moon, Young-Shik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.315-318
    • /
    • 2007
  • 자동 얼굴 인식, 표정 인식과 같은 얼굴 영상과 관련된 다양한 연구 분야는 일반적으로 입력 얼굴 영상에 대한 정규화가 필요하다. 사람의 얼굴은 표정, 조명 등에 따라 다양한 형태변화가 있어 입력 영상 마다 정확한 대표 특징 점을 찾는 것은 어려운 문제이다. 특히 감고 있는 눈이나 작은 눈 등은 검출하기 어렵기 때문에 얼굴 관련 연구에서 성능을 저하시키는 주요한 원인이 되고 있다. 이에 다양한 변화에 강건한 눈 검출을 위하여 본 논문에서는 눈의 텍스처 정보를 이용한 눈 검출 방법을 제안한다. 얼굴 영역에서 눈의 텍스처가 갖는 특성을 정의하고 두 가지 형태의 Eye 필터를 정의하였다. 제안된 방법은 Adaboost 기반의 얼굴 영역 검출 단계, 조명 정규화 단계, Eye 필터를 이용한 눈 후보 영역 검출 단계, 눈 위치 점 검출 단계 등 총 4단계로 구성된다. 실험 결과들은 제안된 방법이 얼굴의 자세, 표정, 조명 상태 등에 강건한 검출 결과를 보여주며 감은 눈 영상에서도 강건한 결과를 보여준다.

  • PDF

Facial Feature Extraction for Face Expression Recognition (얼굴 표정인식을 위한 얼굴요소 추출)

  • 이경희;고재필;변혜란;이일병;정찬섭
    • Science of Emotion and Sensibility
    • /
    • v.1 no.1
    • /
    • pp.33-40
    • /
    • 1998
  • 본 논문은 얼굴인식 분야에 있어서 필수 과정인 얼굴 및 얼굴의 주요소인 눈과 입의 추출에 관한 방법을 제시한다. 얼굴 영역 추출은 복잡한 배경하에서 움직임 정보나 색상정보를 사용하지 않고 통계적인 모델에 기반한 일종의 형찬정합 방법을 사용하였다. 통계적인 모델은 입력된 얼굴 영상들의 Hotelling변환 과정에서 생성되는 고유 얼굴로, 복잡한 얼굴 영상을 몇 개의 주성분 갑으로 나타낼 수 있게 한다. 얼굴의 크기, 영상의 명암, 얼굴의 위치에 무관하게 얼굴을 추출하기 위해서, 단계적인 크기를 가지는 탐색 윈도우를 이용하여 영상을 검색하고 영상 강화 기법을 적용한 후, 영상을 고유얼굴 공간으로 투영하고 복원하는 과정을 통해 얼굴을 추출한다. 얼굴 요소의 추출은 각 요소별 특성을 고려한 엣지 추출과 이진화에 따른 프로젝션 히스토그램 분석에 의하여 눈과 입의 경계영역을 추출한다. 얼굴 영상에 관련된 윤곽선 추출에 관한 기존의 연구에서 주로 기하학적인 모양을 갖는 눈과 입의 경우에는 주로 가변 템플릿(Deformable Template)방법을 사용하여 특징을 추출하고, 비교적 다양한 모양을 갖는 눈썹, 얼굴 윤곽선 추출에는 스네이크(Snakes: Active Contour Model)를 이용하는 연구들이 이루어지고 있는데, 본 논문에서는 이러한 기존의 연구와는 달리 스네이크를 이용하여 적절한 파라미터의 선택과 에너지함수를 정의하여 눈과 입의 윤곽선 추출을 실험하였다. 복잡한 배경하에서 얼굴 영역의 추출, 추출된 얼굴 영역에서 눈과 입의 영역 추출 및 윤곽선 추출이 비교적 좋은 결과를 보이고 있다.

  • PDF

Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model (다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원)

  • Kim, Sang-Hoon
    • The KIPS Transactions:PartB
    • /
    • v.9B no.5
    • /
    • pp.563-570
    • /
    • 2002
  • Robust extraction of 3D facial features and global motion information from 2D image sequence for the MPEG-4 SNHC face model encoding is described. The facial regions are detected from image sequence using multi-modal fusion technique that combines range, color and motion information. 23 facial features among the MPEG-4 FDP (Face Definition Parameters) are extracted automatically inside the facial region using color transform (GSCD, BWCD) and morphological processing. The extracted facial features are used to recover the 3D shape and global motion of the object using paraperspective camera model and SVD (Singular Value Decomposition) factorization method. A 3D synthetic object is designed and tested to show the performance of proposed algorithm. The recovered 3D motion information is transformed into global motion parameters of FAP (Face Animation Parameters) of the MPEG-4 to synchronize a generic face model with a real face.