• 제목/요약/키워드: Facial feature detection

검색결과 156건 처리시간 0.02초

실사형 캐리커처 생성을 위한 형태 정보 추출 및 음영 함성 (Appearance Information Extraction and Shading for Realistic Caricature Generation)

  • 박연출;오해석
    • 정보처리학회논문지B
    • /
    • 제11B권3호
    • /
    • pp.257-266
    • /
    • 2004
  • 본 논문은 윤곽선만을 추출하여 캐리커처를 생성하던 기존의 시스템과 달리 음영을 윤곽선과 합성하여 캐리커처를 생성하는 캐리커처 생성 시스템을 제안한다. 이 방식을 사용할 경우 얼굴의 텍스추어 정보까지 생성시 고려하기 때문에 좀 더 실사형에 근접한 캐리커처를 생성할 수 있다. 본 논문에서 제안하는 시스템은 벡터를 기만으로 하기 때문에 사이즈에 제한 없이 자유로운 변형이 가능할 뿐만 아니라 2D 캐릭터에 자유로운 표정을 적용하는 데에도 쉽게 적용이 가능하다. 또, 벡터의 특징으로 인해 모바일 상에서도 적은 용량으로 이용 가능하다. 본 논문은 벡터 형태의 캐리커처를 생성하는 방법과 음영을 제작 및 합성하는 방법을 함께 제시한다.

Multimodal Biometrics Recognition from Facial Video with Missing Modalities Using Deep Learning

  • Maity, Sayan;Abdel-Mottaleb, Mohamed;Asfour, Shihab S.
    • Journal of Information Processing Systems
    • /
    • 제16권1호
    • /
    • pp.6-29
    • /
    • 2020
  • Biometrics identification using multiple modalities has attracted the attention of many researchers as it produces more robust and trustworthy results than single modality biometrics. In this paper, we present a novel multimodal recognition system that trains a deep learning network to automatically learn features after extracting multiple biometric modalities from a single data source, i.e., facial video clips. Utilizing different modalities, i.e., left ear, left profile face, frontal face, right profile face, and right ear, present in the facial video clips, we train supervised denoising auto-encoders to automatically extract robust and non-redundant features. The automatically learned features are then used to train modality specific sparse classifiers to perform the multimodal recognition. Moreover, the proposed technique has proven robust when some of the above modalities were missing during the testing. The proposed system has three main components that are responsible for detection, which consists of modality specific detectors to automatically detect images of different modalities present in facial video clips; feature selection, which uses supervised denoising sparse auto-encoders network to capture discriminative representations that are robust to the illumination and pose variations; and classification, which consists of a set of modality specific sparse representation classifiers for unimodal recognition, followed by score level fusion of the recognition results of the available modalities. Experiments conducted on the constrained facial video dataset (WVU) and the unconstrained facial video dataset (HONDA/UCSD), resulted in a 99.17% and 97.14% Rank-1 recognition rates, respectively. The multimodal recognition accuracy demonstrates the superiority and robustness of the proposed approach irrespective of the illumination, non-planar movement, and pose variations present in the video clips even in the situation of missing modalities.

특징점기반 Gabor 및 LBP 피쳐를 이용한 얼굴 인식 (Face Recognition by Fiducial Points Based Gabor and LBP Features)

  • 김진호
    • 한국콘텐츠학회논문지
    • /
    • 제13권1호
    • /
    • pp.1-8
    • /
    • 2013
  • 얼굴 영상 데이터베이스에서 제공하는 눈 좌표에 의존해서 부분 자동 얼굴 인식 알고리즘을 설계 구현하면 실 환경 얼굴 인식 시스템에서는 눈 좌표 추출 알고리즘의 정확도에 따라 인식 성능이 달라질 수 있다. 본 논문에서는 얼굴의 눈, 코, 입 및 윤곽선 정보를 바탕으로 설정한 특징점 기반의 얼굴 모델 그래프를 생성하여 얼굴 영상에 정합시키고 각 특징점에서 Gabor 및 LBP 피쳐를 추출해서 결합하는 방식의 완전 자동 얼굴 인식 알고리즘을 제안하였다. 본 알고리즘에서는 완전 자동으로 얼굴 영상에 얼굴 모델 그래프를 맞출 뿐만 아니라 기존의 Gabor 피쳐에 LBP 피쳐를 추가함으로써 인식 성능을 극대화 시킬 수 있도록 하였다. 제안한 알고리즘을 FERET 데이터베이스에 적용해 본 결과 1,000명 이상의 얼굴을 실시간으로 인식할 수 있었고 각 데이터 집합에 대해서 우수한 인식 성능을 얻을 수 있었다.

게임 캐릭터를 위한 폴리곤 모델 단순화 방법 (Polygonal Model Simplification Method for Game Character)

  • 이창훈;조성언;김태훈
    • 한국항행학회논문지
    • /
    • 제13권1호
    • /
    • pp.142-150
    • /
    • 2009
  • 컴퓨터 게임에서 사용하는 복잡한 3차원 캐릭터 모델을 단순한 모델로 만드는 것은 매우 중요하다. 제안 방법은 3차원 게임 캐릭터에서 특징선을 추출하여 모델을 단순화 시키는 새로운 방법에 대해 제안한다. 주어진 3차원 캐릭터 모델은 텍스처 정보를 포함하고 있다. 3차원 캐릭터 모델에서의 텍스처 및 곡률의 변동을 이용해서 2차원 맵인 모델특징맵(Model Feature Map)을 생성한다. 모델특징맵은 곡률 맵(curvature map)과 텍스처 맵(texture map)으로부터 생성되며, 본 맵을 통해 에지 추출 기법을 이용하여 특징선을 추출한다. 모델특징맵은 표준 영상처리툴을 이용해 쉽게 편집할 수 있다. 실험을 통하여 본 알고리즘의 효율성을 보여주며, 실험은 얼굴 캐릭터에 한정하지 않는다.

  • PDF

점진적 AAM을 이용한 강인한 얼굴 윤곽 검출 (Robust Face Alignment using Progressive AAM)

  • 김대환;김재민;조성원;장용석;김부균;정선태
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.11-20
    • /
    • 2007
  • AAM은 얼굴 윤곽 검출에 잘 적용되어 왔으나 초기값에 민감하다는 특성을 가지고 있다. 본 논문에서는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법을 제안한다. 제안한 방법은 얼굴 모델 구성 및 관계 추출 단계와 얼굴 윤곽 검출 단계의 2단계로 구성된다. 얼굴 모델 구성 및 관계 추출 단계에서는 먼저 얼굴 내부 영역만으로 구성된 얼굴 내부 AAM 모델 구성과 얼굴 전체 영역으로 구성된 얼굴 전체 AAM 모델 구성을 수행한 후에, 이후 얼굴 내부 AAM 모델 파라미터 벡터와 얼굴 전체 AAM 모델 파라미터 벡터간의 관계 행렬을 추출한다. 얼굴 윤곽 검출 단계는 2단계 절차로 수행된다. 먼저 새로 입력되는 얼굴 이미지에 대해 얼굴 내부 AAM 모델을 맞추어 얼굴 내부에 대한 특징 파라미터 벡터를 구한다. 이후 얼굴 모델 구성 및 관계 추출 단계에서 구한 관계 행렬과 첫 단계에서 구한 얼굴 내부 특징 파라미터 벡터를 이용하여 얼굴 전체 AAM 특징 파라미터 벡터에 대한 초기값을 추정하고 이를 이용하여 새로 입력되는 얼굴 이미지에 대해 얼굴 전체 AAM 모델을 맞추어 전체 얼굴 윤곽 검출을 수행한다. 실험을 통해 제안된 점진적 AAM 기반 얼굴 윤곽 검출 방법이 자세, 얼굴 배경 등에 대해 기존 기본 AAM 기반 얼굴 검출 방법보다 더 강인한 것으로 확인되었다.

Facial Shape Recognition Using Self Organized Feature Map(SOFM)

  • Kim, Seung-Jae;Lee, Jung-Jae
    • International journal of advanced smart convergence
    • /
    • 제8권4호
    • /
    • pp.104-112
    • /
    • 2019
  • This study proposed a robust detection algorithm. It detects face more stably with respect to changes in light and rotation forthe identification of a face shape. The proposed algorithm uses face shape asinput information in a single camera environment and divides only face area through preprocessing process. However, it is not easy to accurately recognize the face area that is sensitive to lighting changes and has a large degree of freedom, and the error range is large. In this paper, we separated the background and face area using the brightness difference of the two images to increase the recognition rate. The brightness difference between the two images means the difference between the images taken under the bright light and the images taken under the dark light. After separating only the face region, the face shape is recognized by using the self-organization feature map (SOFM) algorithm. SOFM first selects the first top neuron through the learning process. Second, the highest neuron is renewed by competing again between the highest neuron and neighboring neurons through the competition process. Third, the final top neuron is selected by repeating the learning process and the competition process. In addition, the competition will go through a three-step learning process to ensure that the top neurons are updated well among neurons. By using these SOFM neural network algorithms, we intend to implement a stable and robust real-time face shape recognition system in face shape recognition.

눈의 상태 인식을 이용한 디지털 카메라 영상 자동 보정 모듈의 구현 (The Implementation of Automatic Compensation Modules for Digital Camera Image by Recognition of the Eye State)

  • 전영준;신홍섭;김진일
    • 융합신호처리학회논문지
    • /
    • 제14권3호
    • /
    • pp.162-168
    • /
    • 2013
  • 본 논문에서는 디지털 카메라를 이용하여 사진을 촬영할 때 눈의 감긴 상태를 확인하여 이를 자동으로 보정하여 출력해주는 모듈의 구현에 관하여 연구하였다. 먼저 촬영된 영상에 대하여 얼굴 및 눈의 영역을 검출하고 눈의 상태를 인식한다. 만약 눈이 감긴 영상이 촬영되었을 때 버퍼에 임시로 저장된 이전 프레임 영상들에 대하여 눈의 상태를 인식한 후, 가장 눈의 상태가 만족스러운 영상을 이용하여 눈을 보정한 후에 사진을 출력한다. 얼굴 및 눈을 정확하게 인식하기 위해서 SURF 알고리즘과 호모그래피 방법을 적용하여 영상을 보정하는 전처리 과정을 수행한다. 얼굴 영역과 눈 영역을 검출하는 것은 Haar-like feature 알고리즘을 이용하였다. 눈을 뜨고 있는 상태인지 감은 상태인지를 눈의 영역에 대한 템플릿매칭을 이용한 유사도를 판단하여 확인한다. 본 연구에서 개발된 기능을 다양한 형태의 얼굴 환경에서 테스트한 결과 얼굴이 포함된 영상에 대하여 효과적으로 보정이 수행됨을 확인하였다.

얼굴 특징점들을 이용한 근사 정면 얼굴 영상 검출 (Approximate Front Face Image Detection Using Facial Feature Points)

  • 김수진;정용석;오정수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.675-678
    • /
    • 2018
  • 얼굴은 사람을 확인할 수 있는 고유한 성질을 갖고 있어 얼굴 인식이 출입통제, 범죄자 검색, 방법용 CCTV 같은 보안 영역과 본인 인증 영역에 활발히 활용되고 있다. 정면 얼굴 영상은 가장 많은 얼굴 정보를 갖고 있어 얼굴 인식을 위해 가능한 정면 얼굴 영상을 취득하는 것이 필요하다. 본 연구에서 하르유사 특징을 이용한 Adaboost 알고리즘을 이용해 얼굴 영역이 검출되고 mean-shift 알고리즘을 이용해 얼굴을 추적한다. 그리고 얼굴 영역에서 눈과 입 같은 얼굴 요소들의 특징점들을 추출해 그들의 기하학적인 정보를 이용해 두 눈의 비와 얼굴의 회전 정도를 계산하고 실시간으로 근사 정면 얼굴 영상을 제시한다.

  • PDF

Log-polar변환과 얼굴특징추출을 이용한 크기 및 회전불변 얼굴인식 (Rotation and Scale Invariant Face Detection Using Log-polar Mapping and Face Features)

  • 고기영;김두영
    • 융합신호처리학회논문지
    • /
    • 제6권1호
    • /
    • pp.15-22
    • /
    • 2005
  • 본 논문은 CCD 칼라 영상을 이용하여 얼굴을 인식할 수 있는 방법을 제안한다. YCbCr 컬러모델에서 피부색에 대한 색상 정보와 적응적인 피부범위 확장을 통하여 얼굴후보영역을 추출하였다. 추출된 얼굴후보영역을 이용하여 곡선전개 방식의 초기곡선으로 사용하여 얼굴영역을 정확히 추출하였다. 얼굴의 특징점을 추출하기 위하여 얼굴영역에서 칼라정보를 이용한 Eye Map과 Mouth Map을 이용하였다. Log-polar변환의 중심점을 얻기 위하여 검출된 얼굴의 특징점을 이용하였다. 특징벡터를 추출하기 위하여 DCT, 웨이브렛 변환을 통하여 추출한 계수들을 이용하였다. 제안된 방법의 타당성을 검토하기 위하여 BP 학습알고리즘을 사용하는 신경망에서 얼굴인식을 수행하였다. 실험결과, 제안한 방법이 입력영상의 회전, 크기변화에 대하여 기존의 방법에 비하여 강인한 인식결과를 얻을 수 있었다.

  • PDF

다면기법 SPFACS 영상객체를 이용한 AAM 알고리즘 적용 미소검출 설계 분석 (Using a Multi-Faced Technique SPFACS Video Object Design Analysis of The AAM Algorithm Applies Smile Detection)

  • 최병관
    • 디지털산업정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.99-112
    • /
    • 2015
  • Digital imaging technology has advanced beyond the limits of the multimedia industry IT convergence, and to develop a complex industry, particularly in the field of object recognition, face smart-phones associated with various Application technology are being actively researched. Recently, face recognition technology is evolving into an intelligent object recognition through image recognition technology, detection technology, the detection object recognition through image recognition processing techniques applied technology is applied to the IP camera through the 3D image object recognition technology Face Recognition been actively studied. In this paper, we first look at the essential human factor, technical factors and trends about the technology of the human object recognition based SPFACS(Smile Progress Facial Action Coding System)study measures the smile detection technology recognizes multi-faceted object recognition. Study Method: 1)Human cognitive skills necessary to analyze the 3D object imaging system was designed. 2)3D object recognition, face detection parameter identification and optimal measurement method using the AAM algorithm inside the proposals and 3)Face recognition objects (Face recognition Technology) to apply the result to the recognition of the person's teeth area detecting expression recognition demonstrated by the effect of extracting the feature points.