• 제목/요약/키워드: Face expression

검색결과 454건 처리시간 0.029초

Photon-counting linear discriminant analysis for face recognition at a distance

  • Yeom, Seok-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제12권3호
    • /
    • pp.250-255
    • /
    • 2012
  • Face recognition has wide applications in security and surveillance systems as well as in robot vision and machine interfaces. Conventional challenges in face recognition include pose, illumination, and expression, and face recognition at a distance involves additional challenges because long-distance images are often degraded due to poor focusing and motion blurring. This study investigates the effectiveness of applying photon-counting linear discriminant analysis (Pc-LDA) to face recognition in harsh environments. A related technique, Fisher linear discriminant analysis, has been found to be optimal, but it often suffers from the singularity problem because the number of available training images is generally much smaller than the number of pixels. Pc-LDA, on the other hand, realizes the Fisher criterion in high-dimensional space without any dimensionality reduction. Therefore, it provides more invariant solutions to image recognition under distortion and degradation. Two decision rules are employed: one is based on Euclidean distance; the other, on normalized correlation. In the experiments, the asymptotic equivalence of the photon-counting method to the Fisher method is verified with simulated data. Degraded facial images are employed to demonstrate the robustness of the photon-counting classifier in harsh environments. Four types of blurring point spread functions are applied to the test images in order to simulate long-distance acquisition. The results are compared with those of conventional Eigen face and Fisher face methods. The results indicate that Pc-LDA is better than conventional facial recognition techniques.

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

사극드라마의 여자캐릭터의 분장특성 연구 (A Study on Fusionization of Woman Characters in Fusion Traditional Drama)

  • 김유경;조진아
    • 패션비즈니스
    • /
    • 제13권4호
    • /
    • pp.60-76
    • /
    • 2009
  • Expression of woman characters in fusion traditional dramas plays a role of making the progress of dramas not bigoted and new. Especially, woman characters have a high weight as a heroine by an increase in their image in fusion traditional dramas. Expression of characters harmonizing modern with tradition has also given a help in reflecting a trend of the present times. Hair style and face makeup of woman characters in fusion traditional dramas are in the process of fusionization getting an effect from postmodernism. They are expressing the hair style of symbolization modern elements of hair style to traditional hair styles. They also expressed a neutral image with faded hair styles in the shaggy cut style and dye of neoplaticism. Neo-hippie style was changed into the style of naturalism and nationalism and the hair style braided in various branches as the one of Indians was changed into a primitive and national feature. It is producing a new style by permitting even a long-hair permanent wave hair style. Expression of straight hair style, a long-hair shaggy & bulging wave style and a hair style of neoplaticism, was distinguished. In the side of face makeup, they expressed its luxurious and splendid style by attaching great importance to its luster and are exposing images of characters by a smoky makeup emphasizing eye lines. Their face makeup was almost never separated from present dramas as using pearl shadow in a glossy lips makeup and color, which made it possible to express it more dramatically in fusion traditional dramas than in present dramas. In the event of the makeup element of fusion traditional dramas permitting diversity, the character makeup of fusion traditional dramas made a foundation to show people diverse elements of makeup by mix & match a present elements and past elements of historical research, which made it possible to express a unique makeup or a special makeup. Diverse makeup expressions were limited by reflection of illumination even in the existing videos. Therefore, 'Fusion' made it possible to express it more freely in fusion traditional dramas than in present dramas.

스마트폰에서 웃음 치료를 위한 표정인식 애플리케이션 개발 (Development of Recognition Application of Facial Expression for Laughter Theraphy on Smartphone)

  • 강선경;이옥걸;송원창;김영운;정성태
    • 한국멀티미디어학회논문지
    • /
    • 제14권4호
    • /
    • pp.494-503
    • /
    • 2011
  • 본 논문에서는 스마트폰에서 웃음 치료를 위한 표정인식 애플리케이션을 제안한다. 제안된 방법에서는 스마트폰의 전면 카메라 영상으로부터 AdaBoost 얼굴 검출 알고리즘을 이용하여 얼굴을 검출한다. 얼굴을 검출한 다음에는 얼굴 영상으로부터 입술 영역을 검출한다. 그 다음 프레임부터는 얼굴을 검출하지 않고 이전 프레임에서 검출된 입술영역을 3단계 블록 매칭 기법을 이용하여 추적한다. 카메라와 얼굴 사이의 거리에 따라 입술 영역의 크기가 달라지므로, 입술 영역을 구한 다음에는 고정된 크기로 정규화한다. 그리고 주변 조명 상태에 따라 영상이 달라지므로, 본 논문에서는 히스토그램 매칭과 좌우대칭을 결합하는 조명 정규화 알고리즘을 이용하여 조명 보정 전처리를 함으로써 조명에 의한 영향을 줄일 수 있도록 하였다. 그 다음에는 검출된 입술 영상에 주성분 분석을 적용하여 특징 벡터를 추출하고 다층퍼셉트론 인공신경망을 이용하여 실시간으로 웃음 표정을 인식한다. 스마트폰을 이용하여 실험한 결과, 제안된 방법은 초당 16.7프레임을 처리할 수 있어서 실시간으로 동작 가능하였고 인식률 실험에서도 기존의 조명 정규화 방법보다 개선된 성능을 보였다.

A Review of Facial Expression Recognition Issues, Challenges, and Future Research Direction

  • Yan, Bowen;Azween, Abdullah;Lorita, Angeline;S.H., Kok
    • International Journal of Computer Science & Network Security
    • /
    • 제23권1호
    • /
    • pp.125-139
    • /
    • 2023
  • Facial expression recognition, a topical problem in the field of computer vision and pattern recognition, is a direct means of recognizing human emotions and behaviors. This paper first summarizes the datasets commonly used for expression recognition and their associated characteristics and presents traditional machine learning algorithms and their benefits and drawbacks from three key techniques of face expression; image pre-processing, feature extraction, and expression classification. Deep learning-oriented expression recognition methods and various algorithmic framework performances are also analyzed and compared. Finally, the current barriers to facial expression recognition and potential developments are highlighted.

다면기법 SPFACS 영상객체를 이용한 AAM 알고리즘 적용 미소검출 설계 분석 (Using a Multi-Faced Technique SPFACS Video Object Design Analysis of The AAM Algorithm Applies Smile Detection)

  • 최병관
    • 디지털산업정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.99-112
    • /
    • 2015
  • Digital imaging technology has advanced beyond the limits of the multimedia industry IT convergence, and to develop a complex industry, particularly in the field of object recognition, face smart-phones associated with various Application technology are being actively researched. Recently, face recognition technology is evolving into an intelligent object recognition through image recognition technology, detection technology, the detection object recognition through image recognition processing techniques applied technology is applied to the IP camera through the 3D image object recognition technology Face Recognition been actively studied. In this paper, we first look at the essential human factor, technical factors and trends about the technology of the human object recognition based SPFACS(Smile Progress Facial Action Coding System)study measures the smile detection technology recognizes multi-faceted object recognition. Study Method: 1)Human cognitive skills necessary to analyze the 3D object imaging system was designed. 2)3D object recognition, face detection parameter identification and optimal measurement method using the AAM algorithm inside the proposals and 3)Face recognition objects (Face recognition Technology) to apply the result to the recognition of the person's teeth area detecting expression recognition demonstrated by the effect of extracting the feature points.

퍼지 소속도를 갖는 Fisherface 방법을 이용한 얼굴인식 (Face Recognition using Fisherface Method with Fuzzy Membership Degree)

  • 곽근창;고현주;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.784-791
    • /
    • 2004
  • 본 논문에서는 퍼지논리에 기초한 Fisherface 얼굴인식 방법의 확장을 다룬다. Fisherface 얼굴인식 방법은 주성분 분석 기법만을 이용하는 경우에 비해 조명의 방향, 얼굴의 포즈, 감정과 같은 변동에 대해 민감하지 않은 장점을 가지고 있다. 그러나, Fisherface 방법을 포함한 얼굴인식의 다양한 방법들은 입력 벡터가 한 클래스에 할당되어질 때 그 클래스에서 소속의 정도를 0 또는 1로서 나타낸다. 따라서 이러한 방법들은 얼굴영상들이 조명이나 보는 각도로 인해 변형이 생기는 경우에 인식률이 저하되는 문제가 있다. 본 논문에서는 PCA에 의해 변환된 특징벡터에 퍼지 소속도를 할당하는 것으로, 퍼지 소속도는 퍼지 kNN(k-Nearest Neighbor)으로부터 얻어진다. 실험 결과 ORL, Yale 얼굴 데이타베이스에서 기존의 인식방법 보다 향상된 인식 성능을 보임을 알 수 있었다.

모바일 기기를 이용한 정합필터 기반의 얼굴 검출 (Face Detection based on Matched Filtering with Mobile Device)

  • 염석원;이동수
    • 융합신호처리학회논문지
    • /
    • 제15권3호
    • /
    • pp.76-79
    • /
    • 2014
  • 얼굴 인식은 표정과 포즈 또는 주변 조명변화 등 예기치 못한 영향으로 어려움이 크다. 또한 모바일 장치에서 실시간 처리를 위하여 모바일 환경의 한정된 제한이 필히 고려되어야 한다. 본 논문에서 모바일 환경에서 주파수 영역의 정합 필터를 이용한 얼굴 검출 방법을 제안한다. 얼굴 검출은 선형(Linear) 또는 위상(Phase-only) 정합 필터(Matched filter), 순차적인 검증 단계를 이용하여 수행된다. 먼저 얼굴 후보 윈도우 영역은 정합필터의 출력에 의하여 추출되고 그 다음에 피부색 테스트와 에지 마스크 필터링 테스트로 검출된 후보 영역 중 오경보(False alarm) 영역이 제거된다. 제안된 방법은 Android 플랫폼에서 JAVA를 이용하여 개발되었다. 실험 결과는 모바일 환경에서 얼굴 인식이 실시간으로 성공적으로 수행될 수 있음을 보인다.

얼굴 인식률 개선을 위한 선형이동 능동카메라 시스템기반 얼굴포즈 보정 기술 (Sliding Active Camera-based Face Pose Compensation for Enhanced Face Recognition)

  • 장승호;김영욱;박창우;박장한;남궁재찬;백준기
    • 대한전자공학회논문지SP
    • /
    • 제41권6호
    • /
    • pp.155-164
    • /
    • 2004
  • 최근 지능형 로봇에 대한 관심이 모아지고 있다. 지능형 로봇의 가장 큰 특징은 사용자를 추적, 인식하고 그 결과를 기반으로 상호활동적인 대응을 할 수 있다는 점이다. 얼굴인식이 다른 생채인식과의 비교에서 장점을 가질 수 있는 점은 비 강제성과 비 접촉성을 들 수 있다. 그러나 얼굴인식은 얼굴 취득단계부터 차원의 감소가 발생하고 인식하고자 하는 얼굴 및 주변 환경 변화가 매우 심하기 때문에 다른 생체인식에 비하여 인식률이 낮다. 얼굴인식의 성능을 저하시키는 요인들로는 조명변화, 포즈변화, 표정변화, 카메라와의 거리 등을 들 수 있다. 본 논문에서는 실제 환경에서 얼굴 인식 성능에 가장 많은 영향을 미치는 포즈변화에 대응하기 위하여 새로운 선형이동 능동형 카메라를 개발하여, 정면 얼굴에 근접한 영상을 취득하고 주성분 분석 및 Hidden Markov Model 알고리듬을 이용하여 인식률을 개선하고자 한다. 제한된 방법은 지능형 보안시스템 및 모바일 로봇에 적용하는 것을 목표로 개발 되었지만, 높은 정확도의 얼굴인식을 요구하는 응용분야에 널리 적용할 수가 있다.

현실감 있는 3차원 얼굴 애니메이션을 위한 실시간 표정 제어 (A Realtime Expression Control for Realistic 3D Facial Animation)

  • 김정기;민경필;전준철;최용길
    • 인터넷정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.23-35
    • /
    • 2006
  • 본 논문에서는 실시간으로 입력되는 동영상으로부터 영상 내에 존재하는 사람의 얼굴 및 얼굴 특징점들을 자동으로 추출한 후, 추출된 정보를 이용하여 3차원 얼굴 모델의 표정을 실시간으로 제어함으로써 현실감 있는 얼굴 애니메이션 처리가 가능한 새로운 방법을 제시한다. 입력 영상의 각 프레임으로부터 얼굴을 효과적으로 추출하기 위해 기존에 일반적으로 사용되는 색상 공간을 이용한 파라미터 검출 방법에 대변되는 새로운 비파라미터 검출 방법을 제시하였다. 기존의 파라미터 검출 방법은 일반적으로 얼굴의 피부 색상분포를 가우지언 형태로 표현하며 특히 주변조명의 변화 및 배경 영상 등에 민감하게 반응하므로 정화한 영역의 검출을 위한 부가적 작업을 필요로 한다. 이러한 문제점을 효과적으로 해결하기 위하여 본 논문에서는 Hue와 Tint 색상 성분에 기반을 둔 새로운 스킨 색상 공간을 제시하고 모델의 분포특성을 직선 형식으로 표현하여 얼굴검출 시 발생되는 오류를 축소시킬 수 있었다. 또한, 검출된 얼굴 영역으로부터 정확한 얼굴특성 정보를 추출하기 위하여 각 특징영역에 대한 에지검색 결과와 얼굴의 비율 비를 적용하여 효과적으로 얼굴의 특징 영역을 검출하였다. 추출된 얼굴 특징점 변화 정보는 3차원 얼굴 모델의 실시간 표정 변화에 적용되며, 보다 실감 있는 얼굴 표정을 생성하기위하여 사람의 근육 정보와 근육의 움직이는 방법을 나타내는 Waters의 선형 근육 모델에 새로운 근육 정보들을 새롭게 추가함으로써 화장 적용하였다. 실험결과 제안된 방법을 이용하여 실시간으로 입력되는 대상의 얼굴표정을 3차원 얼굴 모델에 자연스럽게 표현할 수 있다.

  • PDF