• 제목/요약/키워드: Facial expressions

검색결과 323건 처리시간 0.027초

자폐성향과 공감-체계화능력 간의 관계 (The relationship between autistic features and empathizing-systemizing traits)

  • 조경자;김정기
    • 감성과학
    • /
    • 제14권2호
    • /
    • pp.245-256
    • /
    • 2011
  • 본 연구에서는 대학생을 대상으로 자폐적 성향과 공감하기 및 체계화하기능력간의 관계를 알아보고자 하였다. 연구 1에서는 대학생 355명을 대상으로 자폐스펙트럼(AQ) 척도, 공감하기(EQ) 척도, 체계화하기(SQ-R) 척도를 실시하였다. 그 결과 AQ 점수는 EQ 점수, D 점수(각 개인의 공감하기 수준과 체계화하기 수준의 상대적 차이)와는 부적상관을 보였으나, SQ-R 점수와는 통계적으로 유의한 차이를 보이지 않았다. 이 결과는 자폐성향이 강할수록 공감하기 능력은 떨어지나, 체계화하기 능력과는 관계가 없음을 보여준다. 연구 2에서는 연구 1의 실험참가자의 AQ 점수에 근거하여 자폐적 성향이 높은 집단과 그렇지 않은 집단을 분류한 후 자폐적성향(유, 무), 얼굴제시영역(얼굴전체, 눈, 입), 정서유형(기본, 복합)에 따라 얼굴표정읽기 능력이 어떻게 달라지는지 알아보았다. 그 결과 자폐적 성향이 없는 집단에 비해 자폐적 성향이 높은 집단이, 기본정서보다는 복합정서에서 과제 정확률이 더 떨어졌고 얼굴전체 영역 눈 영역, 입 영역 순으로 과제 수행이 낮았는데, 특히 눈 조건에서 자폐적 성향이 높은 집단이 그렇지 않은 집단에 비해 정서읽기능력이 떨어지는 결과를 보였다. 본 연구의 결과는 공감능력 얼굴표정읽기능력이 자폐적 성향과 관계가 있음을 시사한다.

  • PDF

2D 코믹 모델을 이용한 3D 얼굴 표정 에디터 (A 3D facial Emotion Editor Using a 2D Comic Model)

  • 이용후;김상운;청목유직
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 하계종합학술대회 논문집(4)
    • /
    • pp.226-229
    • /
    • 2000
  • A 2D comic model, a comic-style line drawing model having only eyebrows, eyes, nose and mouth, is much easier to generate facial expressions with small number of points than that of 3D model. In this paper we propose a 3D emotional editor using a 2D comic model, where emotional expressions are represented by using action units(AU) of FACS. Experiments show a possibility that the proposed method could be used efficiently for intelligent sign-language communications between avatars of different languages in the Internet cyberspace.

  • PDF

A Local Feature-Based Robust Approach for Facial Expression Recognition from Depth Video

  • Uddin, Md. Zia;Kim, Jaehyoun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권3호
    • /
    • pp.1390-1403
    • /
    • 2016
  • Facial expression recognition (FER) plays a very significant role in computer vision, pattern recognition, and image processing applications such as human computer interaction as it provides sufficient information about emotions of people. For video-based facial expression recognition, depth cameras can be better candidates over RGB cameras as a person's face cannot be easily recognized from distance-based depth videos hence depth cameras also resolve some privacy issues that can arise using RGB faces. A good FER system is very much reliant on the extraction of robust features as well as recognition engine. In this work, an efficient novel approach is proposed to recognize some facial expressions from time-sequential depth videos. First of all, efficient Local Binary Pattern (LBP) features are obtained from the time-sequential depth faces that are further classified by Generalized Discriminant Analysis (GDA) to make the features more robust and finally, the LBP-GDA features are fed into Hidden Markov Models (HMMs) to train and recognize different facial expressions successfully. The depth information-based proposed facial expression recognition approach is compared to the conventional approaches such as Principal Component Analysis (PCA), Independent Component Analysis (ICA), and Linear Discriminant Analysis (LDA) where the proposed one outperforms others by obtaining better recognition rates.

혐오자극에 대한 정서조절전략이 얼굴표정 및 정서경험에 미치는 영향 (The Effects of the Emotion Regulation Strategy to the Disgust Stimulus on Facial Expression and Emotional Experience)

  • 장성리;이장한
    • 한국심리학회지ㆍ건강
    • /
    • 제15권3호
    • /
    • pp.483-498
    • /
    • 2010
  • 본 연구는 혐오정서 유발자극에 대한 선행사건초점 조절전략과 반응초점 조절전략이 얼굴표정 및 정서경험에 미치는 영향을 알아보고자 하였다. 연구는 여자 대학생 50명을 대상으로 실시되었고, 참여자들이 혐오정서 유발동영상을 시청할 때 서로 다른 정서조절전략(정서 표현, 표현 억제, 인지적 재평가, 표현 불일치)을 사용하도록 하여 얼굴표정과 정서경험을 측정하였다. 분석결과, 정서 표현집단에서 혐오표현단위의 빈도가 가장 높았고 표현 불일치, 인지적 재평가, 표현 억제집단의 순으로 빈도가 높게 나타났다. 그리고 실제 경험한 정서를 반영하는 얼굴 윗부분에서 인지적 재평가집단의 혐오관련표현단위의 빈도가 정서 표현집단과 표현 불일치집단보다 낮게 나타났다. 자기보고식 정서 상태 측정결과, 표현 불일치집단에서 가장 많이 긍정정서가 감소한 반면, 인지적 재평가집단에서는 긍정정서가 증가하는 경향을 보였다. 본 연구는 정서조절전략이 얼굴표정 및 정서경험에 미친 영향을 통해 인지적 재평가전략이 가장 기능적인 정서조절전략임을 확인하였다.

얼굴 특징점의 지각적 위계구조에 기초한 표정인식 신경망 모형 (A neural network model for recognizing facial expressions based on perceptual hierarchy of facial feature points)

  • 반세범;정찬섭
    • 인지과학
    • /
    • 제12권1_2호
    • /
    • pp.77-89
    • /
    • 2001
  • 얼굴 특징점의 지각적 위계구조를 반영한 표정인식 신경망 모형을 설계하였다. 입력자료는 MPEG-4 SNHC(Synthetic/Natural Hybrid Coding)의 얼굴 정의 파라미터(FDP) 중 39개 특징점 각각에 대해 150장의 표정연기 사진을 5개의 크기와 8개의 바위를 갖는 Gabor 필터로분석한 값이었다. 표정영상에 대한 감정상태 평정 값과 39개 특징점의 필터 반응 값을 중가 회귀분석한 결과, 감정상태의 쾌-불쾌 차원은 주로 입과 눈썹 주변의 특징점과 밀접한 과련이 있었고, 각성-수면차원은 주로 눈 주변의 특징점과 밀접한 관련이 있었다. 필터의 크기는 주로 저역 공간 주파수 필터와 감정상태가 관련이 있었고, 필터의 방위는 주로 비스듬한 사선방위와 감정상태가 관련이 있었다. 이를 기초로 표정인식 신경망을 최적화한 결과 원래 1560개(39x5x8) 입력요소를 400개(25x2x8)입력요소로 줄일 수 있었다. 표정인식 신경망의 최적화 결과를 사람의 감정상태 평정과 비교하여 볼 때, 쾌-불쾌 차원에서는 0.886의 상관관계가 있었고, 각성-수면 차원에서는 0.631의 상관관계가 있었다. 표정인식 신경망의 최적화 모형을 기쁨, 슬픔, 놀람, 공포, 분노, 혐오 등의 6가지 기본 정서 범주에 대응한 결과 74%의 인식률을 얻었다. 이러한 결과는 사람의 표정인식 원리를 이용하면 작은 양의 정보로도 최적화된 표정인식 시스템을 구현할수 있다는 점을 시시한다.

  • PDF

얼굴 표정공간에서 최적의 표정전이경로 자동 설정 방법 (Auto Setup Method of Best Expression Transfer Path at the Space of Facial Expressions)

  • 김성호
    • 정보처리학회논문지A
    • /
    • 제14A권2호
    • /
    • pp.85-90
    • /
    • 2007
  • 본 논문은 애니메이터로 하여금 표정공간으로부터 임의의 표정상태 수 개를 선택하도록 하면, 최적의 표정전이경로를 자동적으로 설정하도록 해줌으로써, 얼굴 표정 애니메이션을 실시간적으로 생성하거나 표정 제어가 가능하도록 하기 위한 기법을 기술한다. 표정공간은 약 2500개의 얼굴 표정상태 간의 거리를 구하고, 다차원 스케일링 기법을 사용하여 2차원 평면에 분포시킴으로서 형성된다. 표정공간에서 최적의 표정전이경로를 설정하기 위해서는 임의의 얼굴 표정상태를 기준으로 사분면처럼 4개의 영역으로 나눈다. 그리고 각 영역별로 최단거리에 존재하는 열굴 표정상태를 결정하고, 그 중에서 가장 가까운 얼굴 표정상태를 선택하여 전이시키고, 전이가 끊어진 얼굴 표정상태에서는 두 번째, 세 번째 혹은 네 번째로 가까운 얼굴 표정상태를 선택하여 순서대로 전이시킴으로써 완전한 표정전이경로가 결정된다. 그리고 애니메이터가 표정공간에서 대표적인 수 개의 표정상태만을 선택해주면 시스템은 자동적으로 최적의 표정전이경로를 설정하여 준다. 본 논문은 애니메이터들로 하여금 본 시스템을 사용하여 얼굴 애니메이션을 생성하거나 표정 제어를 수행하도록 하였으며, 그 결과를 평가한다.

적응적 딥러닝 학습 기반 영상 인식 (Image Recognition based on Adaptive Deep Learning)

  • 김진우;이필규
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.113-117
    • /
    • 2018
  • 사람의 감정은 다양한 요소에 의해서 드러난다. 말, 행동, 표정, 옷차림 등등. 하지만 사람은 자신의 감정을 숨길 줄 안다. 따라서 어느 한 가지만으로는 쉽게 그 감성을 짐작할 수 없다. 우리는 이러한 문제를 해결하고 보다 진솔한 사람의 감성을 파악하기 위해 행동과 표정에 주의를 기울이기로 하였다. 행동과 표정은 부단한 노력과 훈련이 없으면 쉽게 감출 수 없기 때문이다. 본 논문에서는 딥러닝 방법을 통해 적은 데이터를 가지고 점진적으로 사람의 행동과 표정을 학습하여 두 가지 결과의 조합을 통해 사람의 감성을 추측하는 알고리즘을 제안한다. 이 알고리즘을 통해 우리는 보다 종합적으로 사람의 감성을 파악할 수 있다.

연속 영상에서의 얼굴표정 및 제스처 인식 (Recognizing Human Facial Expressions and Gesture from Image Sequence)

  • 한영환;홍승홍
    • 대한의용생체공학회:의공학회지
    • /
    • 제20권4호
    • /
    • pp.419-425
    • /
    • 1999
  • 본 논문에서는 흑백 동영상을 사용하여 얼굴 표정 및 제스처를 실시간으로 인식하는 시스템을 개발하였다. 얼굴 인식분야에서는 형판 정합법과 얼굴의 기하학적 고찰에 의한 사전지식을 바탕으로 한 방법을 혼합하여 사용하였다. 혼합 방법에 의해 입력영상에서 얼굴 부위만을 제한하였으며, 이 영역에 옵티컬 플로우를 적용하여 얼굴 표정을 인식하였다. 제스처 인식에서는 엔트로피를 분석하여 복잡한 배경영상으로부터 손 영역을 분리하는 방법을 제안하였으며 , 이 방법을 개선하여 손동작에 대한 제스처를 인식하였다. 실험 결과, 입력 영상의 배경에 크게 영향을 받지 않고서도 동일 영상에서 움직임이 큰 부위를 검출하여 얼굴의 표정 및 손 제스처를 실시간적으로 인식할 수 있었다.

  • PDF

컨볼루션 신경망 기반 표정인식 스마트 미러 (Smart Mirror for Facial Expression Recognition Based on Convolution Neural Network)

  • 최성환;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.200-203
    • /
    • 2021
  • 본 논문은 여러 인공지능 기술 중 이미지 분류를 통한 사람의 얼굴 표정을 인식하는 프로그램을 통해 사람의 표정을 인식하여 거울에 나타내는 스마트미러 기술을 소개한다. 여러 사람의 5가지 표정이미지를 통하여 인공지능으로 학습하였고, 사람이 거울을 볼 때 거울이 그 표정을 인식하여 인식한 결과를 거울에 나타내는 방식이다. 여러 사람의 얼굴을 표정별로 구분되어있는 dataset을 kaggle에서 제공하는 fer2013을 이용하여 사용하였고, 이미지 데이터 분류를 위해 네트워크 구조는 컨볼루션 신경망 구조를 이용하여 학습하였다. 최종적으로 학습된 모델을 임베디드 보드인 라즈베리파이4를 통해서 얼굴을 인식하여 거울을 통해 디스플레이에 나타내는 구조이다.

  • PDF

3차원 정서 공간에서 마스코트 형 얼굴 로봇에 적용 가능한 동적 감정 모델 (Dynamic Emotion Model in 3D Affect Space for a Mascot-Type Facial Robot)

  • 박정우;이희승;조수훈;정명진
    • 로봇학회논문지
    • /
    • 제2권3호
    • /
    • pp.282-287
    • /
    • 2007
  • Humanoid and android robots are emerging as a trend shifts from industrial robot to personal robot. So human-robot interaction will increase. Ultimate objective of humanoid and android would be a robot like a human. In this aspect, implementation of robot's facial expression is necessary in making a human-like robot. This paper proposes a dynamic emotion model for a mascot-type robot to display similar facial and more recognizable expressions.

  • PDF