• 제목/요약/키워드: facial expressions

검색결과 322건 처리시간 0.035초

카데바 자료를 이용한 얼굴근육의 해부학적 기능 학습을 위한 삼차원 교육 콘텐츠 제작과 관련된 융합 연구 (Convergence Study on the Three-dimensional Educational Model of the Functional Anatomy of Facial Muscles Based on Cadaveric Data)

  • 이재기
    • 한국융합학회논문지
    • /
    • 제12권9호
    • /
    • pp.57-63
    • /
    • 2021
  • 이 연구는 한국인 성인 시신의 얼굴근육을 해부하고 삼차원 스캔하여, 사실적인 얼굴근육의 형태를 삼차원 오브젝트를 만들고, 이를 통해 표정을 재현하여 카데바 얼굴근육의 복합적인 움직임을 삼차원적으로 관찰 가능한 교육 자료를 제작하는데 목적이 있다. 카데바 해부 사진 자료를 이용하여, 얼굴근육에 대해 삼차원 모델링 하였고, 네 가지 표정(슬픔, 미소, 놀람, 분노)에 따라 얼굴근육이 변화하는 삼차원 영상을 제작하였다. 이를 통해, 삼차원으로 구현한 카데바 얼굴근육의 복합적인 작용과 다양한 표정 변화를 확인할 수 있었다. 이 연구결과는 얼굴근육의 개별적인 기능에 대한 정량적인 자료를 확인할 수는 없지만, 사실적이고 입체적인 카데바의 얼굴근육 형태를 관찰할 수 있고, 복합적인 얼굴근육의 작용으로 인한 표정 변화를 확인할 수 있다. 이러한 자료는 얼굴근육의 해부학적 교육 자료로 활용할 수 있을 것으로 기대한다.

얼굴 표정 인식을 위한 방향성 LBP 특징과 분별 영역 학습 (Learning Directional LBP Features and Discriminative Feature Regions for Facial Expression Recognition)

  • 강현우;임길택;원철호
    • 한국멀티미디어학회논문지
    • /
    • 제20권5호
    • /
    • pp.748-757
    • /
    • 2017
  • In order to recognize the facial expressions, good features that can express the facial expressions are essential. It is also essential to find the characteristic areas where facial expressions appear discriminatively. In this study, we propose a directional LBP feature for facial expression recognition and a method of finding directional LBP operation and feature region for facial expression classification. The proposed directional LBP features to characterize facial fine micro-patterns are defined by LBP operation factors (direction and size of operation mask) and feature regions through AdaBoost learning. The facial expression classifier is implemented as a SVM classifier based on learned discriminant region and directional LBP operation factors. In order to verify the validity of the proposed method, facial expression recognition performance was measured in terms of accuracy, sensitivity, and specificity. Experimental results show that the proposed directional LBP and its learning method are useful for facial expression recognition.

내적상태 차원모형에 근거한 얼굴표정 합성 시스템 (A system for facial expression synthesis based on a dimensional model of internal states)

  • 한재현;정찬섭
    • 인지과학
    • /
    • 제13권3호
    • /
    • pp.11-21
    • /
    • 2002
  • 쾌-불쾌, 각성-수면의 2차원 감정상태 공간에서 임의의 좌표값을 지정하면 Parke와 Waters[1]의 근육 기반 얼굴모형에 근거하여 그것에 해당하는 표정을 자동 합성할 수 있는 시스템을 개발하였다. 얼굴 변형의 준거 설정을 위하여 정찬섭, 오경자, 이일병과 변혜란[2]의 표정 DB에 수록된 표정 자료 및 내적감정상태 모형을 사용하였다. DB 내 표정 자료들은 감정 모형에 근거하여 차원값 및 범주로 기술된 내적상태 정보를 포함하고 있었다. 내적상태 변화에 따른 표정의 변형 규칙을 찾기 위해 표집된 표정들에 대해 21개 얼굴 근육의 변화량을 측정하였다. 내적감정상태와 얼굴 근육들의 관계 구조를 파악하기 위해 수집된 자료들을 대상으로 회귀분석을 실시하였다. 이러한 과정을 거쳐 얻어진 변형 규칙은 꽤-불쾌 및 각성-수면 차원값으로 주어지는 내적상태에 대한 자연스러운 표정을 합성해내었다. 이같은 결과는 방대한 양의 자료 및 개별 근육의 변화를 포착하는 회귀분석으로부터 도출된 규칙이 얼굴표정을 합성하는데 유용하고 강력한 도구가 될 수 있음을 시사한다.

  • PDF

알코올 중독자의 얼굴 표정 인식과 관련된 뇌 활성화 특성 (Brain Activation to Facial Expressions Among Alcoholics)

  • 박미숙;이배환;손진훈
    • 감성과학
    • /
    • 제20권4호
    • /
    • pp.1-14
    • /
    • 2017
  • 본 연구는 자기공명영상 기법을 이용하여 알코올 중독자의 정서 인식과 관련된 뇌 활성화 특성을 관찰하였다. 입원치료 중인 알코올 중독자 18명과 이들과 나이, 성별, 교육 수준 등이 유사한 비중독자 16명이 실험에 참여하였다. 참여자들은 뇌 영상 촬영 동안에 얼굴 사진을 보고 얼굴 표정 정서의 강도를 평정하였다. 연구 결과, 행동 반응에서는 알코올 중독자와 비중독자 간에 유의한 차이는 나타나지 않았다. 뇌 반응 결과, 알코올 집단에서는 비중독자 집단과 비교하여 얼굴 표정 정서 인식 동안에 정서 처리와 관련된 편도체/해마는 더 적게 활성화되었으며, 얼굴 정보 처리와 관련된 방추이랑, 시 공간 탐색과 관련된 이마엽 및 마루엽 영역은 더 크게 활성화되었다. 반면, 알코올 집단에서 혀이랑/방추이랑(BA 19), 시각적 탐색에 관여하는 가운데이마이랑(BA 8/9/46), 그리고 시공간적 정보 처리에 관여하는 위마루소엽(BA 7)이 더 크게 활성화 되었다. 본 연구를 통해 알코올 중독자의 정서 인식과 관련된 뇌 활성화 특성을 확인할 수 있었다.

난이도가 다른 과제 수행에서 얼굴 표정, 행동, 언어를 통해 나타나는 아동의 자부심과 수치심 표현 - 4세와 7세 아동을 대상으로 - (4- and 7-year old Children's Facial, Behavioral, and Verbal Expressions of Pride and Shame by Task Difficulty)

  • 김정민;유안진
    • 가정과삶의질연구
    • /
    • 제23권1호
    • /
    • pp.173-185
    • /
    • 2005
  • This study investigated differences in children's facial, behavioral, and verbal expressions of pride and shame by their age, and type and level of task difficulty when they succeeded or failed on tasks. The subjects were 55 4-year-old children from 2 day-care centers and 37 7-year-old children from 1 elementary school. Each child participated in pride and shame assessment sessions. Data were analyzed by means, standard deviations, repeated measures ANOVA, and paired t-test. When they succeeded on tasks, 4-year-olds showed more pride in behavioral expression than 7-year-olds. More pride in facial, behavioral, and verbal expressions were shown when subjects succeeded on difficulty than on easy tasks. Interaction effect for behavioral expression of pride was found between age and type of task difficulty. In verbal expression of pride, interaction effect was found between age, and type and level of task difficulty. When they failed on tasks, 7-year-olds showed more shame in behavioral and verbal expressions than 4-year-olds. More shame in facial, behavioral, and verbal expressions were shown when subjects failed on easy than on difficulty tasks. Interaction effect for facial expression of shame was found between age, and type and level of task difficulty.

퍼지 신경망과 강인한 영상 처리를 이용한 개인화 얼굴 표정 인식 시스템 (Personalized Facial Expression Recognition System using Fuzzy Neural Networks and robust Image Processing)

  • 김대진;김종성;변증남
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.25-28
    • /
    • 2002
  • This paper introduce a personalized facial expression recognition system. Many previous works on facial expression recognition system focus on the formal six universal facial expressions. However, it is very difficult to make such expressions for normal person without much effort and training. And in these days, the personalized service is also mainly focused by many researchers in various fields. Thus, we Propose a novel facial expression recognition system with fuzzy neural networks and robust image processing.

  • PDF

보육교사의 표정언어에 관한 사례연구: 교사, 원장, 학부모의 견해를 중심으로 (A Case Study on Childcare Teachers' Facial Expression Language: Focused on the Opinions of Teachers, Directors, and Parents)

  • 김선주;주영애
    • 가정과삶의질연구
    • /
    • 제32권5호
    • /
    • pp.107-123
    • /
    • 2014
  • The purpose of this study is to investigate the opinions of teachers, directors, and parents about childcare teachers' facial expression language. We performed in-depth interviews based on literature and previous studies, which consisted of ten childcare teachers, ten directors, and ten parents. From the in-depth interviews, we are able to mainly conclude that all groups think that a childcare teacher's facial expression language is very important, and strongly influences interpersonal problems and work performance. Mostly, childcare teachers aim to have pleasant facial expressions. However they complain that in some situations it is difficult to do so, which causes severe stress. They argued that the facial expressions of both the director of the childcare center and the parents are also very important for children. However, the directors thought that teachers' facial expressions affect children and their parents' impressions of the teachers and quality of childcare. The parents are usually highly satisfied with the childcare when the teacher has a pleasant facial expression, which motivates the parents to have a positive impression of the teacher. Taken together, childcare teachers' facial expression language is critical for children and the childcare environment. Thus, developing an education program for facial expression language would be helpful for improving the quality of child care. Plus, childcare environments should be developed so that teachers do not experience difficulty in having pleasant facial expressions. This result might have the limitation of being collected from only female childcare teachers, directors, and parents.

모션 데이터에 Isomap을 사용한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by Isomap of Motion Data)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권3호
    • /
    • pp.9-16
    • /
    • 2007
  • 본 논문은 Isomap 알고리즘을 사용하여 다량의 고차원 얼굴 모션 데이터를 2차원 평면에 분포시키는 방법론과, 사용자가 이 공간을 항해하면서 원하는 표정들을 선택함으로써 실시간적으로 얼굴 표정 제어가 가능한 사용자 인터페이스 기법에 대하여 기술한다. Isomap 알고리즘은 세 단계의 과정으로 처리된다. 첫째, 각 표정 데이터의 인접표정을 정의하고, 둘째, 각 표정들 사이의 다양체 거리를 계산하여 표정공간을 구성한다. 표정공간의 생성은 임의의 두 표정간의 최단거리(다양체 거리)의 결정으로 귀결되고, 이를 위해 플로이드 알고리즘을 이용한다. 셋째, 다차원 표정공간을 가시화하기 위해서 다차원 스케일링을 사용하며, 2차원 평면에 투영시킨다. 인접표정을 정의하기 위한 최소 인접거리는 피어슨의 상관계수를 이용한다. 3차원 아바타의 얼굴 표정 제어는 사용자 인터페이스를 사용하여 2차원 공간을 항해하면서 실시간으로 제어한다.

얼굴 특징영역상의 광류를 이용한 표정 인식 (Recognition of Hmm Facial Expressions using Optical Flow of Feature Regions)

  • 이미애;박기수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권6호
    • /
    • pp.570-579
    • /
    • 2005
  • 표정인식 연구는 맨$\cdot$머신 인터페이스 개발, 개인 식별, 가상모델에 의한 표정복원 등 응용가치의 무한한 가능성과 함께 다양한 분야에서 연구되고 있다 본 논문에서는 인간의 기본정서 중 행복, 분노, 놀람, 슬픔에 대한 4가지 표정을 얼굴의 강체 움직임이 없는 얼굴동영상으로부터 간단히 표정인식 할 수 있는 방법을 제안한다. 먼저, 얼굴 및 표정을 결정하는 요소들과 각 요소의 특징영역들을 색상, 크기 그리고 위치정보를 이용하여 자동으로 검출한다. 다음으로 Gradient Method를 이용하여 추정한 광류 값으로 특징영역들에 대한 방향패턴을 결정한 후, 본 연구가 제안한 방향모델을 이용하여 방향패턴에 대한 매칭을 행한다. 각 정서를 대표하는 방향모델과의 패턴 매칭에서 그 조합 값이 최소를 나타내는 부분이 가장 유사한 정서임을 판단하고 표정인식을 행한다. 마지막으로 실험을 통하여 본 논문의 유효성을 확인한다.

Discrimination of Emotional States In Voice and Facial Expression

  • Kim, Sung-Ill;Yasunari Yoshitomi;Chung, Hyun-Yeol
    • The Journal of the Acoustical Society of Korea
    • /
    • 제21권2E호
    • /
    • pp.98-104
    • /
    • 2002
  • The present study describes a combination method to recognize the human affective states such as anger, happiness, sadness, or surprise. For this, we extracted emotional features from voice signals and facial expressions, and then trained them to recognize emotional states using hidden Markov model (HMM) and neural network (NN). For voices, we used prosodic parameters such as pitch signals, energy, and their derivatives, which were then trained by HMM for recognition. For facial expressions, on the other hands, we used feature parameters extracted from thermal and visible images, and these feature parameters were then trained by NN for recognition. The recognition rates for the combined parameters obtained from voice and facial expressions showed better performance than any of two isolated sets of parameters. The simulation results were also compared with human questionnaire results.