• 제목/요약/키워드: Facial expression

검색결과 630건 처리시간 0.027초

감정 트레이닝: 얼굴 표정과 감정 인식 분석을 이용한 이미지 색상 변환 (Emotion Training: Image Color Transfer with Facial Expression and Emotion Recognition)

  • 김종현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권4호
    • /
    • pp.1-9
    • /
    • 2018
  • 본 논문은 얼굴의 표정 변화를 통해 감정을 분석하는 방법으로 조현병의 초기 증상을 스스로 인지할 수 있는 감정 트레이닝 프레임워크를 제안한다. 먼저, Microsoft의 Emotion API를 이용하여 캡처된 얼굴 표정의 사진으로부터 감정값을 얻고, 피크 분석 기반 표준편차로 시간에 따라 변화하는 얼굴 표정의 미묘한 차이를 인식해 감정 상태를 각각 분류한다. 그리하여 Ekman이 제안한 여섯 가지 기본 감정 상태에 반하는 감정들의 정서 및 표현능력이 결핍된 부분에 대해 분석하고, 그 값을 이미지 색상 변환 프레임워크에 통합시켜 사용자 스스로 감정의 변화를 쉽게 인지하고 트레이닝 할 수 있도록 하는 것이 최종목적이다.

내적 정서 상태 차원에 근거한 캐릭터 표정생성 프로그램 구현 (Character's facial expression realization program with emotional state dimensions)

  • 고혜영;이재식;김재호
    • 한국정보통신학회논문지
    • /
    • 제12권3호
    • /
    • pp.438-444
    • /
    • 2008
  • 본 논문에서는 애니메이션 캐릭터의 표정 연출의 효율성을 높이기 위해 정서 상태의 변화에 따라 다양하고 주어진 상황에 부합하는 표정을 쉽게 구현할 수 있는 표정생성 프로그램을 제안하고자 한다. 이를 위해 우선, Russell의 내적 정서 상태의 차원 모형을 근거로 쾌-불쾌, 각성-비각성의 내적 정서 상태 정보를 포함한 9가지 표정을 정의하였다. 그리고 각각의 표정에 대해 본 연구에서 제안한 표정생성 프로그램을 이용하여 두 차원의 중앙에 위치하는 무표정 자극을 8가지의 가능한 표정 변화 방향으로 이동시킴으로써 정서 차원에서의 미묘한 위치 변화에 따라서도 다양한 표정 생성이 구현될 수 있음을 확인하였다. 향후 이러한 프로그램은 복잡한 정서를 가진 표정을 쉽고 다양하게 구현할 수 있는 표정 자동생성 시스템 설계의 기초적 프로그램으로 활용될 수 있을 것이다.

A Video Expression Recognition Method Based on Multi-mode Convolution Neural Network and Multiplicative Feature Fusion

  • Ren, Qun
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.556-570
    • /
    • 2021
  • The existing video expression recognition methods mainly focus on the spatial feature extraction of video expression images, but tend to ignore the dynamic features of video sequences. To solve this problem, a multi-mode convolution neural network method is proposed to effectively improve the performance of facial expression recognition in video. Firstly, OpenFace 2.0 is used to detect face images in video, and two deep convolution neural networks are used to extract spatiotemporal expression features. Furthermore, spatial convolution neural network is used to extract the spatial information features of each static expression image, and the dynamic information feature is extracted from the optical flow information of multiple expression images based on temporal convolution neural network. Then, the spatiotemporal features learned by the two deep convolution neural networks are fused by multiplication. Finally, the fused features are input into support vector machine to realize the facial expression classification. Experimental results show that the recognition accuracy of the proposed method can reach 64.57% and 60.89%, respectively on RML and Baum-ls datasets. It is better than that of other contrast methods.

사실적인 3D 얼굴 모델링 시스템 (Realistic individual 3D face modeling)

  • 김상훈
    • 한국전자통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1187-1193
    • /
    • 2013
  • 본 논문은 사실적인 3D 얼굴 모델링과 얼굴 표정 생성 시스템을 제안한다. 사실적인 3D 얼굴 모델링 기법에서 개별적인 3D 얼굴 모양과 텍스쳐 맵을 만들기 위해 Generic Model Fitting 기법을 적용하였다. Generic Model Fitting에서 Deformation Function을 계산하기 위해 개별적인 얼굴과 Generic Model 사이의 대응점을 결정하였다. 그 후, Calibrated Stereo Camera로부터 캡쳐 된 영상들로부터 특징점을 3D로 복원하였다. 텍스쳐 매핑을 위해 Fitted된 Generic Model을 영상으로 Projection하였고 사전에 정의된 Triangle Mesh에서 텍스쳐를 Generic Model에 매핑 하였다. 잘못된 텍스쳐 매핑을 방지하기 위해, Modified Interpolation Function을 사용한 간단한 방법을 제안하였다. 3D 얼굴 표정을 생성하기 위해 Vector Muscle기반 알고리즘을 사용하고, 보다 사실적인 표정 생성을 위해 Deformation 과 vector muscle 기반의 턱 rotation을 적용하였다.

새로운 얼굴 특징공간을 이용한 모델 기반 얼굴 표정 인식 (Model based Facial Expression Recognition using New Feature Space)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제17B권4호
    • /
    • pp.309-316
    • /
    • 2010
  • 본 연구에서는 얼굴 그리드 각도를 특징공간으로 하는 새로운 모델 기반 얼굴 표정 인식 방법을 제안한다. 제안 방식은 6가지 얼굴 대표 표정을 인식하기 위해 표정 그리드를 이용하여 그리드의 각 간선과 정점이 형성하는 각도를 기반으로 얼굴 특징 공간을 구성한다. 이 방법은 다른 표정 인식 알고리즘의 정확도를 낮추는 원인인 변환, 회전, 크기변화와 같은 어파인 변환에 강건한 특징을 보인다. 또한, 본 연구에서는 각도로 특징공간을 구성하고 이 공간 내에서 Wrapper 방식으로 특징 부분집합을 선택하는 과정을 설명한다. 선택한 특징들은 SVM, 3-NN 분류기를 이용해 분류하고 분류 결과는 2중 교차검증을 통해 검증하도록 한다. 본 연구가 제안한 방법에서는 94%의 표정 인식 결과를 보였으며 특히 특징 부분집합 선택 알고리즘을 적용한 결과 전체 특징을 이용한 경우보다 약 10%의 인식율 개선 효과를 보인다.

Enhanced Independent Component Analysis of Temporal Human Expressions Using Hidden Markov model

  • 이지준;;김태성
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.487-492
    • /
    • 2008
  • Facial expression recognition is an intensive research area for designing Human Computer Interfaces. In this work, we present a new facial expression recognition system utilizing Enhanced Independent Component Analysis (EICA) for feature extraction and discrete Hidden Markov Model (HMM) for recognition. Our proposed approach for the first time deals with sequential images of emotion-specific facial data analyzed with EICA and recognized with HMM. Performance of our proposed system has been compared to the conventional approaches where Principal and Independent Component Analysis are utilized for feature extraction. Our preliminary results show that our proposed algorithm produces improved recognition rates in comparison to previous works.

  • PDF

여고생의 동그라미중심 부모-자녀 그림(PSCD) 반응특성과 부모-자녀 의사소통에 관한 연구 (A Study On Female high-School Students' Reactive Characteristics to PSCD and Their Parent-Child Communication)

  • 김갑숙;전영숙
    • 한국생활과학회지
    • /
    • 제16권5호
    • /
    • pp.921-932
    • /
    • 2007
  • This study is to examine the relationship between their parent-child communication and their reactive characteristics to the PSCD(Parent-Self-Centered-Drawing) test of the Female high-School Students. The study subjects are 209 Female high-School Students, and research tools are PSCD test and a measure of parent-child communication. The data were analyzed with a paired t-test, one-way ANOVA and Scheffe's post-hoc test. Results are as follows. First, they perceived positively communication toward mother more than communication toward father. Second, as for communication toward father according to the subjects' reaction to the father figure, female students show difference in ommission of facial parts, ommission of body parts, balance of body parts, facial expression and positive and negative symbols. Third, as for communication toward mother according to the subjects' reaction to the mother figure, female students show difference in ommission of facial parts, ommission of body parts, balance of body parts, facial expression and negative symbols. Forth, according to the female students' reaction to the self figure, they show different levels of communication toward father and self in regard of facial expression and distance between the figures. On the other hand, they show different levels of communication toward mother with respect to ommission of facial parts, ommission of body parts, balance of body parts, facial expression and distance between the figures. The authors conclude that the PSCD is a useful tool for measuring the level of parent-child communication.

인간의 감성기호 체계화를 위한 감정영역범주화에 관한 연구 (Research about the Abstraction of Area Typicality of Emotions for Systematization of Human's Sensitivity Symbol)

  • 윤봉식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.137-145
    • /
    • 2005
  • 본 연구는 3D캐릭터 개발에 효율성을 높이고, 보다 인간의 표정에 가까운 캐릭터표정을 제작하기 위하여 실시되었다. 각 연령층별, 성별, 직위 등의 계층으로 각 감정영역을 데이터화하여 하나의 시스템으로 연동되어진다면 애니메이션, 만화, 연기 및 다양한 영상 엔터테인먼트산업과 이에 필요한 인력양성에 고무적인 반향을 일으킬 수 있을 것으로 사료된다. 이에 그 기반연구로 실시된 선행 연구를 바탕으로 이번 연구에서는 연구영역 중 1개 계층 8대 감정영역에 대한 표본연구로 진행하였다. 이로써 인간의 감정과 표현 간에는 일련의 연계성이 존재하며, 특히 표정에서 나타나는 비언어적 감성기호들을 범주화할 수 있다는 가정을 증명할 수 있었다. 그러나 인간의 풍부한 감정은 하나의 자극에 대한 단일감정보다는 다수 또는 지속자극에 대한 복합기호로서 표출되므로 이에 대한 통제는 많은 어려움이 있고, 본 연구에서 제시한 연구 모델은 각 영역별, 척도별 단일 감정에 대한 내용만을 다루기 위해 실험환경을 일부 조작하였다. 본 연구의 결과는 다양한 미디어제작에 필요한 가상캐릭터의 표정, 의인화 등을 위한 주요한 데이터로 활용가능하며, 향후 연구에서는 더 많은 표본에 대한 폭넓은 데이터베이스 구축과 상대적 비교검증이 이루어져야한다.

  • PDF

벡터 기반 캐리커처에 모션 데이터를 적용한 얼굴 표정 애니메이션 (Facial Expression Animation which Applies a Motion Data in the Vector based Caricature)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제10권5호
    • /
    • pp.90-98
    • /
    • 2010
  • 본 논문은 얼굴 모션 데이터를 벡터 기반 캐리커처의 얼굴에 적용하여 캐리커처 얼굴 표정 애니메이션을 생성할 수 있도록 하는 방법론을 기술한다. 본 방법은 일러스트레이터의 플러그인 형식으로 구현하였으며, 별도의 사용자 인터페이스를 갖추고 있다. 실험에 사용된 얼굴 모션 데이터는 28개의 소형 마커를 배우 얼굴의 주 근육 부분에 부착하고 다양한 다수 개의 표정을 Facial Tracker로 캡처한 것이다. 캐리커처는 모션데이터와의 연결을 위해 모션 캡처를 할 때 배우의 얼굴에 부착된 주요 마커의 위치와 동일한 부위에 각각의 제어점을 가진 베지어 곡선 형태로 제작되었다. 그러나 얼굴 모션 데이터는 캐리커처에 비하여 공간적인 규모가 너무 크기 때문에 모션 캘리브레이션 과정을 거쳤으며, 사용자로 하여금 수시로 조절이 가능하게 하였다. 또한 캐리커처와 마커들을 연결시키기 위해서는 사용자가 얼굴 부위의 각 명칭을 메뉴에서 선택한 다음, 캐리커처의 해당 부위를 클릭함으로써 가능하게 하였다. 결국 본 논문은 일러스트레이터의 사용자 인터페이스를 통하여 벡터 기반 캐리커처에 얼굴 모션 데이터를 적용한 캐리커처 얼굴 표정 애니메이션 생성이 가능하도록 하였다.