• Title/Summary/Keyword: 얼굴표정

Search Result 518, Processing Time 0.031 seconds

Feature-Point Extraction by Dynamic Linking Model bas Wavelets and Fuzzy C-Means Clustering Algorithm (Gabor 웨이브렛과 FCM 군집화 알고리즘에 기반한 동적 연결모형에 의한 얼굴표정에서 특징점 추출)

  • Sin, Yeong Suk
    • Korean Journal of Cognitive Science
    • /
    • v.14 no.1
    • /
    • pp.10-10
    • /
    • 2003
  • This paper extracts the edge of main components of face with Gabor wavelets transformation in facial expression images. FCM(Fuzzy C-Means) clustering algorithm then extracts the representative feature points of low dimensionality from the edge extracted in neutral face. The feature-points of the neutral face is used as a template to extract the feature-points of facial expression images. To match point to Point feature points on an expression face against each feature point on a neutral face, it consists of two steps using a dynamic linking model, which are called the coarse mapping and the fine mapping. This paper presents an automatic extraction of feature-points by dynamic linking model based on Gabor wavelets and fuzzy C-means(FCM) algorithm. The result of this study was applied to extract features automatically in facial expression recognition based on dimension[1].

Effects of Facial Expression of Others on Moral Judgment (타인의 얼굴 표정이 도덕적 판단에 미치는 영향)

  • Lee, WonSeob;Kim, ShinWoo
    • Korean Journal of Cognitive Science
    • /
    • v.30 no.2
    • /
    • pp.85-104
    • /
    • 2019
  • Past research showed that presence of others induces morally desirable behavior and stricter judgments. That is, presence of others makes people become a moral being. On the other hand, little research has been conducted to test what effects facial expression of others have on moral judgments. In this research, we tested the effects of emotion exposed by facial expression on moral judgments. To this end, we presented descriptions of immoral or prosocial behavior along with facial expression of various emotions (in particular, disgust and happiness), and asked participants to make moral judgments on the behavior in the descriptions. In Experiment 1, facial expression did not affect moral judgments, but variability of judgments was increased when descriptions and facial expression were incongruent. In experiment 2, we modified potential reasons of the null effect and conducted the experiment using the same procedure. Subjects in Experiment 2 made stricter judgments with disgust faces than with happy faces for immoral behavior, but the effect did not occur for prosocial behavior. In Experiment 3, we repeated the same experiment after having subjects to consider themselves as the actor in the descriptions. The results replicated the effects of facial expression in Experiment 2 but there was no effect of the actor on moral judgments. This research showed that facial expression of others specifically affects moral judgments on immoral behavior but not on prosocial behavior. In general discussion, we provided further discussion on the results and the limitations of this research.

Recognition of Facial Expressions Using Muscle-eased Feature Models (근육기반의 특징모델을 이용한 얼굴표정인식에 관한 연구)

  • 김동수;남기환;한준희;박호식;차영석;최현수;배철수;권오홍;나상동
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 1999.11a
    • /
    • pp.416-419
    • /
    • 1999
  • We Present a technique for recognizing facial expressions from image sequences. The technique uses muscle-based feature models for tracking facial features. Since the feature models are constructed with a small number of parameters and are deformable in the limited range and directions, each search space for a feature can be limited. The technique estimates muscular contractile degrees for classifying six principal facial express expressions. The contractile vectors are obtained from the deformations of facial muscle models. Similarities are defined between those vectors and representative vectors of principal expressions and are used for determining facial expressions.

  • PDF

The Design of Context-Aware Middleware Architecture for Processing Facial Expression Information (얼굴표정정보를 처리하는 상황인식 미들웨어의 구조 설계)

  • Jin-Bong Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.649-651
    • /
    • 2008
  • 상황인식 컴퓨팅 기술은 넓게 보면 유비쿼터스 컴퓨팅 기술의 일부분으로 볼 수 있다. 그러나 상황인식 컴퓨팅 기술의 적용측면에 대한 접근 방법이 유비쿼터스 컴퓨팅과는 다르다고 할 수 있다. 지금까지 연구된 상황인식 컴퓨팅 기술은 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에 주된 초점을 두고 있다. 또한, 상황정보로는 객체의 위치 정보만을 주로 사용하고 있다. 그러나 본 논문에서는 객체의 얼굴표정을 상황정보로 사용하여 감성을 인식할 수 있는 상황인식 미들웨어로서 CM-FEIP의 구조를 제안한다. CM-FEIP의 가상공간 모델링은 상황 모델링과 서비스 모델링으로 구성된다. 또한, 얼굴표정의 인식기술을 기반으로 온톨로지를 구축하여 객체의 감성을 인식한다. 객체의 얼굴표정을 상황정보로 사용하고, 무표정일 경우에는 여러 가지 환경정보(온도, 습도, 날씨 등)를 이용한다. 온톨로지를 구축하기 위하여 OWL 언어를 사용하여 객체의 감성을 표현하고, 감성추론 엔진은 Jena를 사용한다.

Anatomy-Based Face Animation for Virtual Reality (가상현실을 위한 해부학에 기반한 얼굴 애니메이션)

  • 김형균;오무송;고석만;김장형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.280-282
    • /
    • 2003
  • 본 논문에서는 가상현실 환경에서 인체 모델의 애니메이션을 위하여 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2 장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육 모델을 수정하여 사용하였다.

  • PDF

Face Expression Recognition Network for UAV and Mobile Device (UAV 및 모바일 기기를 위한 얼굴 표정 인식 네트워크)

  • Choi, Eunji;Park, Byeongjun;Yoon, Kyoungro
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.348-351
    • /
    • 2021
  • 최근 자동화의 필요성이 증가함에 따라 얼굴 표정 인식 분야(face expression recognition)가 인공지능과 이미지 처리 분야에서 활발히 연구되고 있다. 본 논문에서는 기존 인공신경망에서 요구되었던 고성능 GPU 환경과 높은 연산량을 극복하고자 모델 경량화(Light weighted Model) 기법을 적용하여 드론 및 모바일 기기에서 적용될 수 있는 얼굴 표정 인식 신경망을 제안한다. 제안하는 방법은 미세한 얼굴의 표정 인식을 위한 방법으로, 입력 이미지의 receptive field 를 늘려 특징 맵의 표현력을 높이는 방법을 제안한다. 또한 효과적인 신경망의 경량화를 위하여, 파라미터의 연산량을 줄일 때 발생하는 문제점을 극복하기 위한 방법을 제시한다. 따라서 제안하는 네트워크를 적용하면 많은 연산량과 느린 연산속도로 인해 제한되었던 네트워크 환경을 극복할 수 있을 뿐만 아니라, UAV(Unmanned Aerial Vehicle, 무인항공기) 및 모바일 기기에서 신경망을 이용한 실시간 얼굴 표정 인식을 할 수 있다.

  • PDF

Data-driven Facial Expression Reconstruction for Simultaneous Motion Capture of Body and Face (동작 및 효정 동시 포착을 위한 데이터 기반 표정 복원에 관한 연구)

  • Park, Sang Il
    • Journal of the Korea Computer Graphics Society
    • /
    • v.18 no.3
    • /
    • pp.9-16
    • /
    • 2012
  • In this paper, we present a new method for reconstructing detailed facial expression from roughly captured data with a small number of markers. Because of the difference in the required capture resolution between the full-body capture and the facial expression capture, they hardly have been performed simultaneously. However, for generating natural animation, a simultaneous capture for body and face is essential. For this purpose, we provide a method for capturing the detailed facial expression only with a small number of markers. Our basic idea is to build a database for the facial expressions and apply the principal component analysis for reducing the dimensionality. The dimensionality reduction enables us to estimate the full data from a part of the data. We justify our method by applying it to dynamic scenes to show the viability of the method.

Facial Characteristic Point Extraction for Representation of Facial Expression (얼굴 표정 표현을 위한 얼굴 특징점 추출)

  • Oh, Jeong-Su;Kim, Jin-Tae
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.9 no.1
    • /
    • pp.117-122
    • /
    • 2005
  • This paper proposes an algorithm for Facial Characteristic Point(FCP) extraction. The FCP plays an important role in expression representation for face animation, avatar mimic or facial expression recognition. Conventional algorithms extract the FCP with an expensive motion capture device or by using markers, which give an inconvenience or a psychological load to experimental person. However, the proposed algorithm solves the problems by using only image processing. For the efficient FCP extraction, we analyze and improve the conventional algorithms detecting facial components, which are basis of the FCP extraction.

CNN-based facial expression recognition (CNN 기반의 얼굴 표정 인식)

  • Choi, In-Kyu;Ahn, Ha-Eun;Song, Hyok;Ko, Min-Soo;Yoo, Jisang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.271-272
    • /
    • 2016
  • 본 논문에서는 딥러닝 기술 중의 하나인 CNN(Convolutional Neural Network) 기반의 얼굴 표정 인식 기법을 제안한다. 다섯 가지 주요 표정의 얼굴 영상을 CNN 구조에 스스로 학습시켜 각각의 표정 패턴에 적합한 특징 지도(feature map)를 형성하고 이 특징 지도를 통해 들어오는 입력 영상을 적합한 표정으로 분류한다. 기존의 CNN 구조를 본 논문에서 이용한 데이터 셋에 알맞게 convolutional layer 및 node의 수를 변경하여 특징 지도를 형성하고 학습 및 인식에 필요한 파라미터수를 대폭 감소시켰다. 실험 결과 제안하는 기법이 높은 얼굴 표정 분류 성능을 보여준다는 것을 보였다.

  • PDF

Warping using for Efficiency Face Recognition (워핑 기법을 적용한 효율적인 얼굴 인식)

  • Jung, Won-Gu;Rhee, Pil-Kyu
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.832-834
    • /
    • 2005
  • 본 논문에서는 여러 가지 표정으로 입력되어지는 얼굴 이미지를 효율적으로 인식시키는 작업을 수행하는 방법에 대한 내용을 소개하고 있다. 각 얼굴 이미지들은 상황에 따라 많은 표정에 영향 성분을 포함하고 있다. 이런 각기 특성이 다른 얼굴 이미지들의 효율적인 인식을 위하여, 특징 점을 선정을 한 후 실험 진행을 하면 표정에 영향을 많이 받는 이미지를 구분할 수 있다. 여기서 제안하는 방법은 표정이 많이 포함된 이미지에 대하여 표정에 영향을 많이 미치는 특징 점과 그 특징 점영역에 와핑 기법을 처리함으로써 표정이 있는 이미지를 인식하는 방법을 제안한다.

  • PDF