• 제목/요약/키워드: Facial Feature Extraction

검색결과 157건 처리시간 0.03초

그래디언트와 상관관계의 국부통계를 이용한 얼굴 인식 (Face Recognition Using Local Statistics of Gradients and Correlations)

  • 구영애;소현주;김남철
    • 대한전자공학회논문지SP
    • /
    • 제48권3호
    • /
    • pp.19-29
    • /
    • 2011
  • 지금까지 많은 얼굴 인식 방법들이 제안되었으나, 대부분의 방법들은 특징추출 과정 없이 입력 영상을 1차원 형태의 벡터로 변형한 것을 1차원 특징 벡터로 사용하거나 또는 입력 영상 자체를 특징 매트릭스로 사용하였다. 이와같이 영상 자체를 특징으로 사용하면 조명변화가 심한 데이터베이스에서는 성능이 좋지 않는 것으로 알려져 있다. 본 논문에서는 조명변화에 효과적인 그래디언트와 상관관계의 국부통계를 이용하여 얼굴을 인식하는 방법을 제안하였다. BDIP(block difference of inverse probabilities)는 그래디언트의 국부 통계이다. 그리고 BVLC(block variation of local correlation coefficients)의 두 타입은 상관관계의 국부 통계이다. 입력영상이 얼굴인식 시스템에 들어 오면 먼저 BDIP, BVLC1, BVLC2의 특징 영상을 추출하고 융합한 후, (2D)2 PCA 변환을 거쳐 특징 매트릭스를 얻어서 훈련특징 매트릭스와의 거리를 구하여 최근린 분류기를 이용하여 얼굴 영상을 인식한다. 네 가지 얼굴 데이터베이스, FERET, Weizmann, Yale B, Yale에 대한 실험결과로부터, 제안한 방법이 실험한 여섯 가지 방법 중에서 조명과 얼굴 표정의 변화에 가장 견실하다는 것을 알 수 있었다.

ASM의 성능향상을 위한 형태 정렬 방식 제안 (Proposing Shape Alignment for an Improved Active Shape Model)

  • 한희일
    • 한국멀티미디어학회논문지
    • /
    • 제15권1호
    • /
    • pp.63-70
    • /
    • 2012
  • 본 논문에서는 ASM(active shape model)의 성능을 향상시키기 위하여 형태(shape) 정렬 방법과 이차원 특징벡터 추출 방법을 제안한다. 기존 알고리즘은 입력 이미지의 중간 검출 랜드마크와 기준 모델 간의 정렬을 위하여 스케일, 회전, 이동 정보 만을 이용한다. 하지만 위의 평면적인 정보 만으로는 얼굴과 같이 입체적인 물체의 포즈 변화나 삼차원적인 움직임 등을 제대로 반영할 수 없다. 이를 개선하기 위하여 자유도를 증가시킴으로써 형태의 복잡한 변화에 보다 강인한 형태정렬 방식을 제안한다. 또한, 멀티스케일로 이차원 프로파일을 구하고 이들의 공분산 행렬을 trimming하여 검출속도를 향상시키는 방법을 제안한다. 비교적 다양한 포즈로 촬영한 얼굴 이미지 데이터베이스를 이용하여 제안 알고리즘의 형태 검출 성능을 확인한다.

표정 인식을 위한 얼굴의 표정 특징 추출 (Facial Expression Feature Extraction for Expression Recognition)

  • 김영일;김정훈;홍석근;조석제
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.537-540
    • /
    • 2005
  • 본 논문에서는 사람의 감정, 건강상태, 정신상태등 다양한 정보를 포함하고 있는 웃음, 슬픔, 졸림, 놀람, 윙크, 무표정 등의 표정을 인식하기 위한 표정의 특징이 되는 얼굴의 국부적 요소인 눈과 입을 검출하여 표정의 특징을 추출한다. 표정 특징의 추출을 위한 전체적인 알고리즘 과정으로는 입력영상으로부터 칼라 정보를 이용하여 얼굴 영역을 검출하여 얼굴에서 특징점의 위치 정보를 이용하여 국부적 요소인 특징점 눈과 입을 추출한다. 이러한 특징점 추출 과정에서는 에지, 이진화, 모폴로지, 레이블링 등의 전처리 알고리즘을 적용한다. 레이블 영역의 크기를 이용하여 얼굴에서 눈, 눈썹, 코, 입 등의 1차 특징점을 추출하고 누적 히스토그램 값과 구조적인 위치 관계를 이용하여 2차 특징점 추출 과정을 거쳐 정확한 눈과 입을 추출한다. 표정 변화에 대한 표정의 특징을 정량적으로 측정하기 위해 추출된 특징점 눈과 입의 눈과 입의 크기와 면적, 미간 사이의 거리 그리고 눈에서 입까지의 거리 등 기하학적 정보를 이용하여 6가지 표정에 대한 표정의 특징을 추출한다.

  • PDF

Sign Language Translation Using Deep Convolutional Neural Networks

  • Abiyev, Rahib H.;Arslan, Murat;Idoko, John Bush
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권2호
    • /
    • pp.631-653
    • /
    • 2020
  • Sign language is a natural, visually oriented and non-verbal communication channel between people that facilitates communication through facial/bodily expressions, postures and a set of gestures. It is basically used for communication with people who are deaf or hard of hearing. In order to understand such communication quickly and accurately, the design of a successful sign language translation system is considered in this paper. The proposed system includes object detection and classification stages. Firstly, Single Shot Multi Box Detection (SSD) architecture is utilized for hand detection, then a deep learning structure based on the Inception v3 plus Support Vector Machine (SVM) that combines feature extraction and classification stages is proposed to constructively translate the detected hand gestures. A sign language fingerspelling dataset is used for the design of the proposed model. The obtained results and comparative analysis demonstrate the efficiency of using the proposed hybrid structure in sign language translation.

Combining Dynamic Time Warping and Single Hidden Layer Feedforward Neural Networks for Temporal Sign Language Recognition

  • Thi, Ngoc Anh Nguyen;Yang, Hyung-Jeong;Kim, Sun-Hee;Kim, Soo-Hyung
    • International Journal of Contents
    • /
    • 제7권1호
    • /
    • pp.14-22
    • /
    • 2011
  • Temporal Sign Language Recognition (TSLR) from hand motion is an active area of gesture recognition research in facilitating efficient communication with deaf people. TSLR systems consist of two stages: a motion sensing step which extracts useful features from signers' motion and a classification process which classifies these features as a performed sign. This work focuses on two of the research problems, namely unknown time varying signal of sign languages in feature extraction stage and computing complexity and time consumption in classification stage due to a very large sign sequences database. In this paper, we propose a combination of Dynamic Time Warping (DTW) and application of the Single hidden Layer Feedforward Neural networks (SLFNs) trained by Extreme Learning Machine (ELM) to cope the limitations. DTW has several advantages over other approaches in that it can align the length of the time series data to a same prior size, while ELM is a useful technique for classifying these warped features. Our experiment demonstrates the efficiency of the proposed method with the recognition accuracy up to 98.67%. The proposed approach can be generalized to more detailed measurements so as to recognize hand gestures, body motion and facial expression.

얼굴 표정인식을 위한 얼굴요소 추출 (Facial Feature Extraction for Face Expression Recognition)

  • 이경희;고재필;변혜란;이일병;정찬섭
    • 감성과학
    • /
    • 제1권1호
    • /
    • pp.33-40
    • /
    • 1998
  • 본 논문은 얼굴인식 분야에 있어서 필수 과정인 얼굴 및 얼굴의 주요소인 눈과 입의 추출에 관한 방법을 제시한다. 얼굴 영역 추출은 복잡한 배경하에서 움직임 정보나 색상정보를 사용하지 않고 통계적인 모델에 기반한 일종의 형찬정합 방법을 사용하였다. 통계적인 모델은 입력된 얼굴 영상들의 Hotelling변환 과정에서 생성되는 고유 얼굴로, 복잡한 얼굴 영상을 몇 개의 주성분 갑으로 나타낼 수 있게 한다. 얼굴의 크기, 영상의 명암, 얼굴의 위치에 무관하게 얼굴을 추출하기 위해서, 단계적인 크기를 가지는 탐색 윈도우를 이용하여 영상을 검색하고 영상 강화 기법을 적용한 후, 영상을 고유얼굴 공간으로 투영하고 복원하는 과정을 통해 얼굴을 추출한다. 얼굴 요소의 추출은 각 요소별 특성을 고려한 엣지 추출과 이진화에 따른 프로젝션 히스토그램 분석에 의하여 눈과 입의 경계영역을 추출한다. 얼굴 영상에 관련된 윤곽선 추출에 관한 기존의 연구에서 주로 기하학적인 모양을 갖는 눈과 입의 경우에는 주로 가변 템플릿(Deformable Template)방법을 사용하여 특징을 추출하고, 비교적 다양한 모양을 갖는 눈썹, 얼굴 윤곽선 추출에는 스네이크(Snakes: Active Contour Model)를 이용하는 연구들이 이루어지고 있는데, 본 논문에서는 이러한 기존의 연구와는 달리 스네이크를 이용하여 적절한 파라미터의 선택과 에너지함수를 정의하여 눈과 입의 윤곽선 추출을 실험하였다. 복잡한 배경하에서 얼굴 영역의 추출, 추출된 얼굴 영역에서 눈과 입의 영역 추출 및 윤곽선 추출이 비교적 좋은 결과를 보이고 있다.

  • PDF

Deep Learning based Human Recognition using Integration of GAN and Spatial Domain Techniques

  • Sharath, S;Rangaraju, HG
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.127-136
    • /
    • 2021
  • Real-time human recognition is a challenging task, as the images are captured in an unconstrained environment with different poses, makeups, and styles. This limitation is addressed by generating several facial images with poses, makeup, and styles with a single reference image of a person using Generative Adversarial Networks (GAN). In this paper, we propose deep learning-based human recognition using integration of GAN and Spatial Domain Techniques. A novel concept of human recognition based on face depiction approach by generating several dissimilar face images from single reference face image using Domain Transfer Generative Adversarial Networks (DT-GAN) combined with feature extraction techniques such as Local Binary Pattern (LBP) and Histogram is deliberated. The Euclidean Distance (ED) is used in the matching section for comparison of features to test the performance of the method. A database of millions of people with a single reference face image per person, instead of multiple reference face images, is created and saved on the centralized server, which helps to reduce memory load on the centralized server. It is noticed that the recognition accuracy is 100% for smaller size datasets and a little less accuracy for larger size datasets and also, results are compared with present methods to show the superiority of proposed method.

극좌표계 변환에 기반한 얼굴 인식 방법 (Face Recognition Based on Polar Coordinate Transform)

  • 오재현;곽노준
    • 대한전자공학회논문지SP
    • /
    • 제47권1호
    • /
    • pp.44-52
    • /
    • 2010
  • 본 논문에서는 기존 평행좌표를 이용하는 얼굴영상 대신 극 좌표계 변환을 이용한 얼굴 인식 방법을 제안한다. 이 방법은 얼굴의 중심부분의 한 점을 극으로 삼아 이 점을 기준으로 360도의 각 방향으로 일정 길이만큼 얼굴 영상을 샘플링하여 새로운 얼굴 영상을 제작하고 이를 바탕으로 기존의 특징 추출 방법들을 이용하여 얼굴 인식의 성능을 높인다. 극 좌표계의 특성상 극에 가까운 부분은 세밀하게 묘사되고 극에서 멀리 떨어질수록 영상의 정확도가 떨어진다. 일반적으로 얼굴 영상은 얼굴의 중심부에 가까운 영역에 눈, 코, 입 등의 주요 부위가 밀집되어 있다. 따라서 이러한 극 좌표계를 얼굴영상에 적용한다면 같은 화소를 이용하는 기존 평행좌표를 사용할 때보다 눈, 코, 입 등 주요 부위를 보다 세밀하게 표현할 수 있다는 장점을 갖는다. 제안된 방법을 Yale데이터와 FRGC데이터에 적용한 후 기존의 특징 추출 방법인 LDA와 NLDA를 이용하여 얼굴인식을 수행한 결과 평행좌표에 기반한 원 영상을 그대로 사용했을 때 보다 인식률이 향상됨을 확인할 수 있었다.

원근투영법 기반의 PTZ 카메라를 이용한 머리자세 추정 (Head Pose Estimation Based on Perspective Projection Using PTZ Camera)

  • 김진서;이경주;김계영
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권7호
    • /
    • pp.267-274
    • /
    • 2018
  • 본 논문에서는 PTZ 카메라를 이용한 머리자세추정 방법에 대하여 서술한다. 회전 또는 이동에 의하여 카메라의 외부인자가 변경되면, 추정된 얼굴자세도 변한다. 본 논문에는 PTZ 카메라의 회전과 위치 변화에 독립적으로 머리자세를 추정하는 새로운 방법을 제안한다. 제안하는 방법은 얼굴검출, 특징추출 그리고 자세추정으로 이루어진다. 얼굴검출은 MCT특징을 이용해 검출하고, 얼굴 특징추출은 회귀트리 방법을 이용해 추출하고, 머리자세 추정은 POSIT 알고리즘을 사용한다. 기존의 POSIT 알고리즘은 카메라의 회전을 고려하지 않지만, 카메라의 외부인자 변화에도 강건하게 머리자세를 추정하기 위하여 본 논문은 원근투영법에 기반하여 POSIT를 개선한다. 실험을 통하여 본 논문에서 제안하는 방법이 기존의 방법 보다 RMSE가 약 $0.6^{\circ}$ 개선되는 것을 확인했다.

영상보안을 위한 머리와 얼굴의 간단한 영역 분리 및 얼굴 특징 추출 (Simply Separation of Head and Face Region and Extraction of Facial Features for Image Security)

  • 전영철;이건익;김강
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.125-133
    • /
    • 2008
  • 사회가 발전할수록 공공장소에서 개인 및 시설물의 안전에 대한 중요성이 높아진다 기존의 주차장, 은행, 공장 등 보안이나 범죄 예방이 요구되는 지역은 넘어서 일반 기관, 개인의 주택까지 감시 및 보안에 대한 투자가 증가하는 경향을 보이고 있다. 이 논문은 얼굴인식에 있어서 중요한 얼굴 영역과 머리 영역을 칼라변환을 이용하여 간단하게 분리하는 방법과 얼굴특징 추출을 제안한다. 먼저 입력영상에 대한 CMYK영상 중 K영상을 가지고 머리 영역을 분리한 후에 YIQ영상의 Y영상과 머리 영상과의 칼라변환을 이용하여 얼굴영역을 분리한다 머리영상에 Log 연산을 한 후에 라벨링을 이용하여 얼굴의 특징들을 추출한다. 뚜렷하게 분리된 머리와 얼굴영역은 머리와 얼굴의 형태를 쉽게 분류할 수 있으며, 쉽게 특징점을 찾을 수 있게 한다. 제안한 방법의 알고리즘을 이용하면 중요성이 요구되는 보안 관련 시설에서 사람을 감시하거나 인식하는데 효과적으로 이용될 수 있을 것으로 예상된다.

  • PDF