• 제목/요약/키워드: Face expression

검색결과 454건 처리시간 0.022초

다중 체온 감지용 지능형 카메라 개발 (Development of an intelligent camera for multiple body temperature detection)

  • 이수인;김윤수;석종원
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.430-436
    • /
    • 2022
  • 본 논문에서는 다중 체온 감지용 지능형 카메라를 제안한다. 제안하는 카메라는 광학(4056*3040) 및 열화상(640*480) 2종의 카메라로 구성되고 획득된 영상으로부터 사람의 표정 및 체온을 분석하여 이상 증상을 감지한다. 광학 및 열화상카메라는 동시에 운영되며 광학 영상에서 객체를 검출한 후 얼굴영역을 도출하여 표정분석을 수행한다. 열화상카메라는 광학카메라에서 얼굴영역으로 판단한 좌표 값을 적용하고 해당영역의 최고 온도를 측정하여 화면에 표출한다. 이상 징후 감지는 분석된 표정 3가지(무표정, 웃음, 슬픔)와 체온 값을 활용하여 판단하며 제안된 장비의 성능을 평가하기 위해 광학영상 처리부는 Caltech, WIDER FACE, CK+ 데이터셋을 3종의 영상처리 알고리즘(객체검출, 얼굴영역 검출, 표정분석)에 적용하였다. 실험결과로 객체검출률, 얼굴영역 검출률, 표정분석률 각각 91%, 91%, 84%을 도출하였다.

자동 얼굴인식을 위한 얼굴 지역 영역 기반 다중 심층 합성곱 신경망 시스템 (Facial Local Region Based Deep Convolutional Neural Networks for Automated Face Recognition)

  • 김경태;최재영
    • 한국융합학회논문지
    • /
    • 제9권4호
    • /
    • pp.47-55
    • /
    • 2018
  • 본 논문에서는 얼굴인식 성능 향상을 위해 얼굴 지역 영역 영상들로 학습된 다중개의 심층 합성곱 신경망(Deep Convolutional Neural Network)으로부터 추출된 심층 지역 특징들(Deep local features)을 가중치를 부여하여 결합하는 방법을 제안한다. 제안 방법에서는 지역 영역 집합으로 학습된 다중개의 심층 합성곱 신경망으로부터 추출된 심층 지역 특징들과 해당 지역 영역의 중요도를 나타내는 가중치들을 결합한 특징표현인 '가중치 결합 심층 지역 특징'을 형성한다. 일반화 얼굴인식 성능을 극대화하기 위해, 검증 데이터 집합(validation set)을 사용하여 지역 영역에 해당하는 가중치들을 계산하고 가중치 집합(weight set)을 형성한다. 가중치 결합 심층 지역 특징은 조인트 베이시안(Joint Bayesian) 유사도 학습방법과 최근접 이웃 분류기(Nearest Neighbor classifier)에 적용되어 테스트 얼굴영상의 신원(identity)을 분류하는데 활용된다. 제안 방법은 얼굴영상의 자세, 표정, 조명 변화에 강인하고 기존 최신 방법들과 비교하여 얼굴인식 성능을 향상시킬 수 있음이 체계적인 실험을 통해 검증되었다.

Robust Face Recognition under Limited Training Sample Scenario using Linear Representation

  • Iqbal, Omer;Jadoon, Waqas;ur Rehman, Zia;Khan, Fiaz Gul;Nazir, Babar;Khan, Iftikhar Ahmed
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권7호
    • /
    • pp.3172-3193
    • /
    • 2018
  • Recently, several studies have shown that linear representation based approaches are very effective and efficient for image classification. One of these linear-representation-based approaches is the Collaborative representation (CR) method. The existing algorithms based on CR have two major problems that degrade their classification performance. First problem arises due to the limited number of available training samples. The large variations, caused by illumintion and expression changes, among query and training samples leads to poor classification performance. Second problem occurs when an image is partially noised (contiguous occlusion), as some part of the given image become corrupt the classification performance also degrades. We aim to extend the collaborative representation framework under limited training samples face recognition problem. Our proposed solution will generate virtual samples and intra-class variations from training data to model the variations effectively between query and training samples. For robust classification, the image patches have been utilized to compute representation to address partial occlusion as it leads to more accurate classification results. The proposed method computes representation based on local regions in the images as opposed to CR, which computes representation based on global solution involving entire images. Furthermore, the proposed solution also integrates the locality structure into CR, using Euclidian distance between the query and training samples. Intuitively, if the query sample can be represented by selecting its nearest neighbours, lie on a same linear subspace then the resulting representation will be more discriminate and accurately classify the query sample. Hence our proposed framework model the limited sample face recognition problem into sufficient training samples problem using virtual samples and intra-class variations, generated from training samples that will result in improved classification accuracy as evident from experimental results. Moreover, it compute representation based on local image patches for robust classification and is expected to greatly increase the classification performance for face recognition task.

Fisherface 알고리즘과 Fixed Graph Matching을 이용한 얼굴 인식 (Face Recognition Using Fisherface Algorithm and Fixed Graph Matching)

  • 이형지;정재호
    • 대한전자공학회논문지SP
    • /
    • 제38권6호
    • /
    • pp.608-616
    • /
    • 2001
  • 본 논문은 K-L 변환을 기반으로 한 Fisherface 알고리즘과 fixed graph matching (FGM) 방법을 이용하여 보다 효율적인 얼굴 인식 방법을 제안하고자 한다. 동적 링크 구조 방법 중에 하나인 elastic graph matching (EGM)은 얼굴의 모양 정보뿐만 아니라, 영상 픽셀의 그레이 정보를 동시에 이용하는 하며, 클래스를 구분하는 방법인 Fisherface 알고리즘은 빛의 방향 및 얼굴 표정과 같은 영상의 변화에 대해 강인하다고 알려져 있다. 위의 두 방법으로부터 제안한 알고리즘에서는 영상 그래프의 각 노드에 대해 Fisherface방법을 적용함으로써 레이블된 그래프 벡터의 차원을 줄일 뿐만 아니라 효율적으로 클래스를 구분하기 위한 특징 벡터를 제공한다. 그럼으로써 기존의 EGM 방법에 비해 인식 속도 면에서 상당한 향상 결과를 얻을 수 있었다. 특히, Olivetti Research Laboratory (ORL) 데이터베이스와 Yale 대학 데이터베이스에 대해 실험한 결과 제안한 얼굴 인식 알고리즘은 hold-out 방법에 의한 실험 결과, 평균 90.1%로 기존의 한 방법만을 사용한 것보다 높은 인식률을 보였다.

  • PDF

심장 질환 진단을 위한 얼굴 주요 영역 및 색상 추출 (Main Region and Color Extraction of Face for Heart Disease Diagnosis)

  • 조동욱
    • 정보처리학회논문지B
    • /
    • 제13B권3호
    • /
    • pp.215-222
    • /
    • 2006
  • 한방 진단 이론과 IT 기술의 융합화를 통한 국민 건강 증진이 새로운 과제로 떠오르고 있다. 이를 위해서는 한방의 진단 방법을 시각화, 객관화, 정량화하여 진단에 필요한 임상 자료를 제공하는 것이 우선적으로 필요하다. 특히, 한방의 망진(望診) 기법이 좀 더 객관화되고 시각화되어 정확한 질환 진단을 내릴 수 있다면 한방 진단 분야에 가장 큰 발전적 기회를 제공할 것으로 여겨진다. 본 연구에서는 우리 몸의 중심 기관이며 정신과 육체의 근원지인 심장의 질환 여부를 진단할 수 있는 시스템을 개발하기 위해 한방에서 제시하고 있는 심장 질환에 관한 내용을 분석하여 영상 처리 기술을 이용한 진단의 시각화에 연구의 목적을 두었다. 이를 위해 본 논문은 전체 시스템 중 우선 색상 보정을 통해 얼굴영상을 입력받아 얼굴 영역 분할을 행하고 얼굴 형태를 분석하여 한방의 망진 방법에 근거하여 심장 질환 진단에 필요한 얼굴 특징 요소인 명당을 추출하고자 한다. 최종적으로 실험에 의해 제안한 방법의 유용성을 입증하고자 한다.

중심이동과 상호정보 추정에 의한 효과적인 얼굴인식 (An Efficient Face Recognition by Using Centroid Shift and Mutual Information Estimation)

  • 조용현
    • 한국지능시스템학회논문지
    • /
    • 제17권4호
    • /
    • pp.511-518
    • /
    • 2007
  • 본 논문에서는 영상의 중심이동과 상호정보 추정에 의한 효과적인 얼굴인식 기법을 제안하였다. 여기서 중심이동은 영상의 1차 모멘트에 의해 계산된 중심좌표로 얼굴영상을 이동하는 것이며, 이는 인식에 불필요한 배경을 배제시킴으로써 인식성능을 개선시키기 위함이다. 상호정보 추정은 상관관계를 나타내는 척도로 영상간의 유사성을 효과적으로 측정하기 위함이다. 특히 영상의 상호정보 추정을 위한 확률밀도함수 계산에 동일한 량의 샘플분할을 이용한 적응분할의 추정 방법을 이용함으로써 영상 상호간의 종속성을 더욱 더 정확하게 구하였다. 제안된 기법을 64*64 픽셀의 48장(12명*4장) 얼굴영상을 대상으로 실험한 결과, 제안된 기법은 중심이동을 거치지 않는 단순히 상호정보 추정만을 이용하는 기법보다 우수한 인식성능(인식률, 인식속도)이 있음을 확인하였다. 또한 얼굴의 표정, 위치, 그리고 각도 등의 변화에도 매우 강건한 인식성능이 있음을 확인하였다.

한국 전통 버선본집 자수문양 콘텐츠 분석 (Content analysis of embroidery patterns of Korean traditional Beoseonbongips)

  • 홍희숙
    • 복식문화연구
    • /
    • 제23권4호
    • /
    • pp.705-725
    • /
    • 2015
  • A Beoseonbongip is a pouch that holds patterns for making Beoseons. This study aimed to identify the aesthetic and symbolic contents of the embroidery patterns by analyzing the kind, combination types, expression and arrangement types of patterns. In total, 140 Beoseonbongip artifacts, which were mostly made in the Joseon Dynasty, were quantitatively and qualitatively analyzed. The results indicated that about 83% of the total had flower patterns. Various kinds of embroidery patterns used for Beoseonbongips were newly identified. About 73% of the total had different kinds of patterns. Pattern combination types were identified by the kinds of patterns, the number of paired patterns, and the traditional painting styles used. The patterns of Beoseonbongips were expressed schematically more than realistically or abstractly. Beoseonbongips with different patterns on the four triangle tips of the front face and Beoseonbongips with the same/similar patterns on two opposite tips of the front face were observed more than the other types. On the back face, the embroidery patterns were symmetrically arranged, showing various division structures. It was inferred that wishes (e.g., marital harmony, fertility, good health and longevity, happiness, and wealth and fame) were expressed through the symbolic patterns embroidered on the Beoseonbongips. In terms of Korean traditional beauty, the union with nature, the harmony of yin and yang, symmetric balance, and neatness were also emphasized as a esthetic characteristics of Beoseonbongips.

다중크기와 다중객체의 실시간 얼굴 검출과 머리 자세 추정을 위한 심층 신경망 (Multi-Scale, Multi-Object and Real-Time Face Detection and Head Pose Estimation Using Deep Neural Networks)

  • 안병태;최동걸;권인소
    • 로봇학회논문지
    • /
    • 제12권3호
    • /
    • pp.313-321
    • /
    • 2017
  • One of the most frequently performed tasks in human-robot interaction (HRI), intelligent vehicles, and security systems is face related applications such as face recognition, facial expression recognition, driver state monitoring, and gaze estimation. In these applications, accurate head pose estimation is an important issue. However, conventional methods have been lacking in accuracy, robustness or processing speed in practical use. In this paper, we propose a novel method for estimating head pose with a monocular camera. The proposed algorithm is based on a deep neural network for multi-task learning using a small grayscale image. This network jointly detects multi-view faces and estimates head pose in hard environmental conditions such as illumination change and large pose change. The proposed framework quantitatively and qualitatively outperforms the state-of-the-art method with an average head pose mean error of less than $4.5^{\circ}$ in real-time.

Discriminant Metric Learning Approach for Face Verification

  • Chen, Ju-Chin;Wu, Pei-Hsun;Lien, Jenn-Jier James
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권2호
    • /
    • pp.742-762
    • /
    • 2015
  • In this study, we propose a distance metric learning approach called discriminant metric learning (DML) for face verification, which addresses a binary-class problem for classifying whether or not two input images are of the same subject. The critical issue for solving this problem is determining the method to be used for measuring the distance between two images. Among various methods, the large margin nearest neighbor (LMNN) method is a state-of-the-art algorithm. However, to compensate the LMNN's entangled data distribution due to high levels of appearance variations in unconstrained environments, DML's goal is to penalize violations of the negative pair distance relationship, i.e., the images with different labels, while being integrated with LMNN to model the distance relation between positive pairs, i.e., the images with the same label. The likelihoods of the input images, estimated using DML and LMNN metrics, are then weighted and combined for further analysis. Additionally, rather than using the k-nearest neighbor (k-NN) classification mechanism, we propose a verification mechanism that measures the correlation of the class label distribution of neighbors to reduce the false negative rate of positive pairs. From the experimental results, we see that DML can modify the relation of negative pairs in the original LMNN space and compensate for LMNN's performance on faces with large variances, such as pose and expression.

Patch based Semi-supervised Linear Regression for Face Recognition

  • Ding, Yuhua;Liu, Fan;Rui, Ting;Tang, Zhenmin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권8호
    • /
    • pp.3962-3980
    • /
    • 2019
  • To deal with single sample face recognition, this paper presents a patch based semi-supervised linear regression (PSLR) algorithm, which draws facial variation information from unlabeled samples. Each facial image is divided into overlapped patches, and a regression model with mapping matrix will be constructed on each patch. Then, we adjust these matrices by mapping unlabeled patches to $[1,1,{\cdots},1]^T$. The solutions of all the mapping matrices are integrated into an overall objective function, which uses ${\ell}_{2,1}$-norm minimization constraints to improve discrimination ability of mapping matrices and reduce the impact of noise. After mapping matrices are computed, we adopt majority-voting strategy to classify the probe samples. To further learn the discrimination information between probe samples and obtain more robust mapping matrices, we also propose a multistage PSLR (MPSLR) algorithm, which iteratively updates the training dataset by adding those reliably labeled probe samples into it. The effectiveness of our approaches is evaluated using three public facial databases. Experimental results prove that our approaches are robust to illumination, expression and occlusion.