• 제목/요약/키워드: facial expressions

검색결과 322건 처리시간 0.027초

모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data)

  • 김성호
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1478-1484
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 3차원 아바타의 실시간적 얼굴 표정을 제어하는 기법을 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 실시간적으로 제어한다. 이를 도와주기 위해 표정공간을 PCA투영 기법을 이용하여 2차원 공간으로 가시화했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 했는데, 본 논문은 그 결과를 평가한다.

  • PDF

영역 분할과 판단 요소를 이용한 표정 인식 알고리즘 (A facial expressions recognition algorithm using image area segmentation and face element)

  • 이계정;정지용;황보현;최명렬
    • 디지털융복합연구
    • /
    • 제12권12호
    • /
    • pp.243-248
    • /
    • 2014
  • 본 논문에서는 사람 얼굴의 표정을 인식하기 위하여 판단 요소를 선정하고 판단 요소의 변화 상태를 파악하여 표정을 인식하는 방법을 제안한다. 판단 요소를 선정하기 위하여 이미지 영역 분할 방법을 사용하며, 판단 요소의 변화율을 이용하여 표정을 판단한다. 표정을 판단하기 위하여 90명의 표정을 데이터베이스화하여 비교하였고, 4개의 표정(웃음, 화남, 짜증, 슬픔)을 인식하는 방법을 제안한다. 제안한 방법은 시뮬레이션을 실시하여 판단 요소 검출 성공률과 표정 인식률을 통해 검증한다.

표정별 가버 웨이블릿 주성분특징을 이용한 실시간 표정 인식 시스템 (Real-time Recognition System of Facial Expressions Using Principal Component of Gabor-wavelet Features)

  • 윤현섭;한영준;한헌수
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.821-827
    • /
    • 2009
  • 표정은 인간의 감정을 전달할 수 있는 중요한 수단으로 표정 인식은 감정상태를 알아낼 수 있는 효과적인 방법중 하나이다. 일반적인 표정 인식 시스템은 얼굴 표정을 표현하는 특징점을 찾고, 물리적인 해석 없이 특징을 추출한다. 하지만 특징점 추출은 많은 시간이 소요될 뿐 아니라 특징점의 정확한 위치를 추정하기 어렵다. 그리고 표정 인식 시스템을 실시간 임베디드 시스템에서 구현하기 위해서는 알고리즘을 간략화하고 자원 사용량을 줄일 필요가 있다. 본 논문에서 제안하는 실시간 표정 인식 시스템은 격자점 위치에서 얻어진 가버 웨이블릿(Gabor wavelet) 특징 기반 표정 공간을 설정하고, 각 표정 공간에서 얻어진 주성분을 신경망 분류기를 이용하여 얼굴 표정을 분류한다. 제안하는 실시간 표정 인식 시스템은 화남, 행복, 평온, 슬픔 그리고 놀람의 5가지 표정이 인식 가능하며, 다양한 실험에서 평균 10.25ms의 수행시간, 그리고 87%~93%의 인식 성능을 보였다.

광고 속의 얼굴 표정에 따른 비교 연구 -FACS를 활용하여 (A Comparative Analysis on Facial Expression in Advertisements -By Utilising Facial Action Coding System(FACS))

  • 안경희
    • 한국콘텐츠학회논문지
    • /
    • 제19권3호
    • /
    • pp.61-71
    • /
    • 2019
  • 광고 속에서 비언어커뮤니케이션의 종류 중 얼굴 표정의 사용은 시간 제약의 문제를 상쇄시키며 소비자들에게 표현적이고 감동적인 매력의 수단으로 사용된다. 본 연구 목적은 TV 광고들 속에서 어떻게 얼굴 표정이 묘사되고 얼굴 표정을 통한 감정 전달이 이루어지는 지를 탐구하는 것이다. 연구 대상은 소비자들이 가장 감동적인 TV 광고로 뽑은 <박카스 음료>와 <동원 참치> 광고이다. 숨겨진 감정들에 대한 이론적 측면들을 기초로 두고 특정한 얼굴 근육의 움직임을 측정하도록 설계된 심리학과 해부학 기반인 얼굴 동작 코딩 시스템(Facial Action Coding System)을 연구 도구로 사용하여 TV광고 속의 얼굴 표정들이 내포한 의미들을 분석하였다. 분석된 의미의 결과를 통해서 얼굴 클로즈업을 통해 주인공의 감정 상태의 충돌과 극적인 갈등의 해소가 이루어진 광고가 소비자들의 마음을 더 움직인다는 유의미한 결과를 도출하였다.

CCA 투영기법을 사용한 모션 데이터의 대화식 얼굴 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using CCA)

  • 김성호
    • 인터넷정보학회논문지
    • /
    • 제6권1호
    • /
    • pp.85-93
    • /
    • 2005
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이들 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 CCA 투영기법을 이용하여 2차원 평면에 투영시켰다 얼굴 애니메이션은 사용자 인터베이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

  • PDF

Transfer Learning for Face Emotions Recognition in Different Crowd Density Situations

  • Amirah Alharbi
    • International Journal of Computer Science & Network Security
    • /
    • 제24권4호
    • /
    • pp.26-34
    • /
    • 2024
  • Most human emotions are conveyed through facial expressions, which represent the predominant source of emotional data. This research investigates the impact of crowds on human emotions by analysing facial expressions. It examines how crowd behaviour, face recognition technology, and deep learning algorithms contribute to understanding the emotional change according to different level of crowd. The study identifies common emotions expressed during congestion, differences between crowded and less crowded areas, changes in facial expressions over time. The findings can inform urban planning and crowd event management by providing insights for developing coping mechanisms for affected individuals. However, limitations and challenges in using reliable facial expression analysis are also discussed, including age and context-related differences.

FCM 클러스터링을 이용한 표정공간의 단계적 가시화 (Phased Visualization of Facial Expressions Space using FCM Clustering)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제8권2호
    • /
    • pp.18-26
    • /
    • 2008
  • 본 논문은 사용자로 하여금 표정공간으로부터 일련의 표정들을 선택하게 함으로써 3차원 아바타의 표정을 제어할 수 있는 표정공간의 단계적 가시화 기법을 기술한다. 본 기법에 의한 시스템은 무표정 상태를 포함하여 11개의 서로 다른 모션들로 구성된 2400여개의 표정 프레임으로 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해함으로서 수행되어진다. 그러나 표정공간에서는 과격한 표정 변화에서부터 세밀한 표정 변화까지 다양한 표정 제어를 수행할 수 있어야하기 때문에 단계적 가시화 기법이 필요하다. 표정공간을 단계적으로 가시화하기 위해서는 퍼지 클러스터링을 이용한다. 초기 단계에서는 11개의 클러스터 센터를 가지도록 클러스터링하고, 단계가 증가될 때 마다 클러스터 센터의 수를 두 배씩 증가시켜 표정들을 클러스터링한다. 이때 클러스터 센터와 표정공간에 분포된 표정들의 위치는 서로 다른 경우가 많기 때문에, 클러스터 센터에서 가장 가까운 표정상태를 찾아 클러스터 센터로 간주한다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 단계적 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

얼굴 표정의 제시 유형과 제시 영역에 따른 정서 인식 효과 (Effects of the facial expression presenting types and facial areas on the emotional recognition)

  • 이정헌;박수진;한광희;김혜리;조경자
    • 감성과학
    • /
    • 제10권1호
    • /
    • pp.113-125
    • /
    • 2007
  • 본 연구에서는 동영상 자극과 정지 영상 자극을 사용하여 얼굴 표정의 영역(얼굴 전체/눈 영역/입 영역)에 따른 정서 상태 전달 효과를 알아보고자 하였다. 동영상 자극은 7초 동안 제시되었으며, 실험 1에서는 12개의 기본 정서에 대한 얼굴 표정 제시 유형과 제시 영역에 따른 정서 인식 효과를, 실험 2에서는 12개의 복합 정서에 대한 얼굴 표정 제시 유형과 제시 영역에 따른 정서 인식 효과를 살펴보았다. 실험 결과, 동영상 조건이 정지 영상 조건보다 더 높은 정서 인식 효과를 보였으며, 입 영역과 비교하였을 때 동영상에서의 눈 영역이 정지 영상 보다 더 큰 효과를 보여 눈의 움직임이 정서 인식에 중요할 것임을 시사하였다. 이는 기본 정서 뿐 아니라 복합 정서에서도 어느 정도 관찰될 수 있는 결과였다. 그럼에도 불구하고 정서의 종류에 따라 동영상의 효과가 달라질 수 있기 때문에 개별 정서별 분석이 필요하며, 또한, 얼굴의 특정 영역에 따라서도 상대적으로 잘 나타나는 정서 특성이 다를 수 있음을 사사해 준다.

  • PDF

주색상과 특징점을 이용한 애니메이션 캐릭터의 표정인식 (Recognition of Facial Expressions of Animation Characters Using Dominant Colors and Feature Points)

  • 장석우;김계영;나현숙
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.375-384
    • /
    • 2011
  • 본 논문에서는 사람의 표정이 아닌 애니메이션 캐릭터의 표정을 주색상과 특징점을 효과적으로 분석하여 인식하는 방법을 제안한다. 제안된 방법에서는 먼저 캐릭터의 특성에 맞게 간략화한 메쉬모델을 정의하고 캐릭터 얼굴과 얼굴의 구성요소를 주색상을 이용하여 검출한 후 각 구성요소의 에지를 활용하여 표정인식을 위한 특징점을 추출한다. 그런 다음, 각 특징점의 위치와 모양 정보를 신경망 학습을 통해 해당 AU로 분류하고, 제안된 표정 AU 명세서를 이용해 최종적으로 표정을 인식한다. 실험에서는 제안된 애니메이션 캐릭터의 표정인식 방법이 무표정을 포함하여 기쁨, 슬픔, 놀람, 화남, 공포의 6가지 표정을 비교적 신뢰성 있게 인식함을 애니메이션 영상을 이용한 실험을 통해 보여준다.

A Study on the Facial Expression Recognition using Deep Learning Technique

  • Jeong, Bong Jae;Kang, Min Soo;Jung, Yong Gyu
    • International Journal of Advanced Culture Technology
    • /
    • 제6권1호
    • /
    • pp.60-67
    • /
    • 2018
  • In this paper, the pattern of extracting the same expression is proposed by using the Android intelligent device to identify the facial expression. The understanding and expression of expression are very important to human computer interaction, and the technology to identify human expressions is very popular. Instead of searching for the symbols that users often use, you can identify facial expressions with a camera, which is a useful technique that can be used now. This thesis puts forward the technology of the third data is available on the website of the set, use the content to improve the infrastructure of the facial expression recognition accuracy, to improve the synthesis of neural network algorithm, making the facial expression recognition model, the user's facial expressions and similar expressions, reached 66%. It doesn't need to search for symbols. If you use the camera to recognize the expression, it will appear symbols immediately. So, this service is the symbols used when people send messages to others, and it can feel a lot of convenience. In countless symbols, there is no need to find symbols, which is an increasing trend in deep learning. So, we need to use more suitable algorithm for expression recognition, and then improve accuracy.