• Title/Summary/Keyword: facial expressions

Search Result 325, Processing Time 0.028 seconds

정서의 이차원 구조에서 유아의 얼굴표정 해석 (Children's Interpretation of Facial Expression onto Two-Dimension Structure of Emotion)

  • 신영숙;정현숙
    • 인지과학
    • /
    • 제18권1호
    • /
    • pp.57-68
    • /
    • 2007
  • 본 논문은 정서의 이차원 구조상에서 얼굴표정으로부터 아동의 정서이해에 대한 범주를 알아보고자 한다. 3세에서 5세 89명의 아동들을 대상으로 14개의 정서 단어와 관계된 얼굴표정들을 선택하도록 하였다. 실험에 적용된 얼굴표정들은 54명의 대학생들로부터 9점 척도상에서 두차원(쾌-불쾌차원과 각성-수면차원) 각각에서 표정의 강도가 평정된 사진들이 사용되었다. 실험결과에서 아동들은 쾌-불쾌 차원보다는 각성-수면 차원에서 더 큰 안정성을 보였다. 이차원 구조상에서 슬픔, 졸림, 화남, 놀람과 같은 정서들은 두 차원에서 매우 잘 변별된 반면, 두려움, 지겨움과 같은 정서들은 쾌-불쾌 차원에서 불안정성을 보였다. 특히 3세 아동들은 각성-수면정도에 대한 지각이 쾌-불쾌에 대한 지각보다 높게 나타났다.

  • PDF

PCA와 템플릿 정합을 사용한 눈 및 입 영상 기반 얼굴 표정 인식 (Eye and Mouth Images Based Facial Expressions Recognition Using PCA and Template Matching)

  • 우효정;이슬기;김동우;유성필;안재형
    • 한국콘텐츠학회논문지
    • /
    • 제14권11호
    • /
    • pp.7-15
    • /
    • 2014
  • 본 연구는 PCA와 템플릿 정합을 사용한 얼굴 표정 인식 알고리즘을 제안한다. 먼저 얼굴 영상은 Haar-like feature의 특징 마스크를 사용하여 획득한다. 획득한 얼굴 영상은 눈과 눈썹을 포함하고 있는 얼굴 상위 부분과 입과 턱을 포함하고 있는 얼굴 하위 부분으로 분리하여 얼굴 요소 추출에 용이하게 나눈다. 얼굴 요소 추출은 눈 영상과 입 영상을 추출하는 과정으로 먼저 학습영상으로 PCA를 거쳐 생성된 고유얼굴을 구한다. 고유 얼굴에서 고유 입과 고유 눈을 획득하고, 이를 얼굴 분리 영상과 템플릿 매칭시켜 얼굴요소를 추출한다. 얼굴 요소는 눈과 입이 있으며 두 요소의 기하학적 특징으로 표정을 인식한다. 컴퓨터 모의실험 결과에 따르면 제안한 방법이 기존의 방법보다 추출률이 우수하게 나왔으며, 특히 입 요소의 추출률은 99%에 달하였다. 또 이 얼굴 요소 추출 방법을 표정인식에 적용하였을 때 놀람, 화남, 행복의 3가지 표정의 인식률이 80%를 상회하였다.

정서의 이차원모델에서 아동의 얼굴표정 변별에서 성 차이 (Sex differences of children's facial expression discrimination based on two-dimensional model of emotion)

  • 신영숙
    • 인지과학
    • /
    • 제21권1호
    • /
    • pp.127-143
    • /
    • 2010
  • 본 논문은 정서의 이차원 구조상에서 얼굴표정으로부터 아동의 정서변별에 대한 성별차이를 알아보고자 한다. 연구 그룹은 40개월, 52개월, 64개월의 92명의 아동들로 이루어졌으며, 남녀아동 비율은 남아 50%와 여아 50%였다. 92명의 아동들을 대상으로 12개의 정서 단어와 관계된 얼굴표정들을 선택하도록 하였다. 실험에 적용된 얼굴표정들은 54명의 대학생들로부터 9점 척도상에서 두 차원(쾌-불쾌차원과 각성-수면차원) 각각에서 표정의 강도가 평가된 사진들이 사용되었다. 실험결과에서 아동들은 쾌-불쾌차원 보다는 각성-수면차원에서 남녀간의 성별차이를 두드러지게 나타냈다. 각성-수면차원에서는 '졸리움, 화남, 편안함, 쓸쓸함' 정서들이 1보다 큰 성별차이를 보였다. 특히 남아들은 '졸리움, 화남, 쓸쓸함' 같은 정서들안에서 여아보다 높은 각성을 보인반면, 여아들은 '편안함' 정서에서 남아보다 높은 각성을 보였다.

  • PDF

쾌 및 각성 차원 기반 표정 합성 시스템의 성능 검증 및 인터페이스의 효율성 비교 (Performance tests for the expression synthesis system based on pleasure and arousal dimensions and efficiency comparisons for its interfaces)

  • 한재현;정찬섭
    • 인지과학
    • /
    • 제14권1호
    • /
    • pp.41-50
    • /
    • 2003
  • 내적상태 쾌 및 각성 차원에 근거한 표정 합성 시스템의 성능을 검증하고 이 시스템을 효과적으로 사용할 수 있는 인터페이스를 제안하였다. 우선 내적상태의 기저 구조에 대하여 차원모형을 가정한 것이 적절한가를 확인하고자 하였다. 이를 위해 평정자들로 하여금 차원 축 상의 17가지 표정들을 비교하도록 하였다. 참가자들의 비교 판단 결과로부터 시스템의 기본 가정에 대한 타당성이 확보되었다. 다음으로 시스템의 성능을 검증하기 위해 대표 표정 21가지를 선정하고 평정자들로 하여금 이들의 유사성을 판단하도록 하였다. 평균 유사성 평정값을 대상으로 다차원분석을 실시한 결과, 시스템의 성능이 신뢰로운 수준임을 확인하였다. 마지막으로 시스템 사용을 위한 최적의 조건을 찾기 위해 좌표평면 및 슬라이드바의 두 가지 방법으로 설계된 인터페이스들의 효율성을 비교하였다. 사용자들로 하여금 각각의 방식으로 25가지 특정 내적상태의 표정들을 직접 구현해보도록 하였다. 이들의 구현 결과들을 비교, 분석한 결과 내적상태 차원에 기반하여 표정을 합성하는 경우 좌표평면에서의 위치를 제시하는 입력 방법이 더 안정적인 것으로 확인되었다.

  • PDF

얼굴표정에서 나타나는 감정표현에 대한 어린이의 반응분석 (Analysis of children's Reaction in Facial Expression of Emotion)

  • 유동관
    • 한국콘텐츠학회논문지
    • /
    • 제13권12호
    • /
    • pp.70-80
    • /
    • 2013
  • 본 연구의 목적은 열굴 표정의 감정표현에 따른 어린이의 시각적 인지반응을 연구, 분석하고 각각의 감정표현에서 나타나는 남녀어린이의 언어적 반응을 살펴봄으로써 인물표정연구의 기초자료로 활용되는데 그 의미를 두었다. 연구대상은 제시된 연구도구를 이해할 수 있는 6~8세 어린이 108명(남 55명, 여53명)으로 하였으며, 2차에 걸쳐 실시한 반응조사는 어린이의 개별면접과 자기기입식 설문지를 통한 자료수집방식을 활용하였다. 설문에 활용한 연구도구는 남녀어린이의 구체적이고 정확한 반응을 도출할 수 있는 기쁨, 슬픔, 화남, 놀람, 혐오감, 공포감 등 6가지 유형으로 구분하였다. 어린이의 시각적 인지반응결과에서 남녀어린이 모두 기쁨, 슬픔, 화남, 놀란 표정에 대한 빈도수가 높게 나타났으며, 공포감과 혐오감을 느끼는 얼굴표정에 대한 빈도수는 남녀어린이 모두 낮게 나타났다. 언어적 반응은 기쁨, 슬픔, 화남, 놀람, 혐오감, 공포감 모두 얼굴표정에서 연상되는 인상적인 부분을 찾아 대답하거나 얼굴표정의 시각적 특징을 기초로 추론하거나 탐구하는 발견적 반응이 높게 나타났으며, 놀람과 혐오감, 공포감에서 얼굴표정을 보고 연상되는 새로운 이야기를 만들어 내는 상상적 반응이 나타났다.

간호회진과 경구투약시 환자가 선호하는 간호사의 비언어적 온정행위에 관한 연구 (Patient′s Preferances for Nurse′s Nonverbal Expressions of Warmth During Nursing Rounds and Administration of Oral Medication)

  • 김형선;김문실
    • 대한간호학회지
    • /
    • 제20권3호
    • /
    • pp.381-398
    • /
    • 1990
  • Nursing involves deep human interpersonal relationships between nurses and patients. But in modem Korea, the nurse - patient relationship tends to be ritualistic and mechanestic. Patients usually express the hope that nurses be more tender and kind. Patients expect nurses to express their warmth especially through nonverbal behaviour. This study was conducted to identify patients' preferences for nurse's nonverbal expressions of warmth. Through the confirmation of these preferences, nurses may learn how to enhance their interpersonal relationships with patients. Subjects for the study were 73 patients who had been admitted to a university teaching hospital for at least three days and agreed to be interviewed by the investigator. The interactions were studied nonverbal expressions of warmth during nursing rounds and administration of oral medication. The interview schedule was expecially designed by the investigator to measure the nurse's posture, the distance between the nurse and the patient, the nurse's eye contact, facial expression, hand motion and head nodding. Data analysis included frequencies, percentages and X²-test. The results of this study may be summerized as follows : 1. Patient's preferences for nurse's nonverbal expressions of warmth during nursing rounds. Preferred nurse's posture was sitting(50.7%) or standing(49.3%) opposite the patient. Preferred distance between the nurse and the patient was close to the bed(93.2%), less than 1m. Preferred eye contact was directed to the patient's eyes or their affected part (41.1%). Preferred facial expression was a smile(97.3%). Preferred hand motions were light gestures(41.1%). Patients preferred head nodding which approved their own opinions(69.9%). 2. Patient's preferences for nurse's nonverval expressions of warmth during administration of oral medication. Preferred nurse's posture was standing and waiting to confirm that the medication had been taken(58.9%). Preferred distance from the patient was at arm's length, 0.5-1m(64.4%). Patients preferred direct eye contact(58.9%) and a smile(94.5%). Patients preferred that the nurse put the medicine directly the patient's hand(64.4%). Whether the nurse nodded her head or not was not considered important. 3. The relation of general characteristics and patient's preferences for nurse's nonverbal expressions of warmth during nursing rounds and administration of oral medication. During nursing rounds, the age of subjects(p=0.010) and the standard of education(p=0.026) related to the distance between the nurse and the patient. The sick hospital ward related to the eye contact(p=0.017) and facial expression(p=0.010). During administration of oral medication, the age of subjects(p=0.044) and days of hospital treatment (p=0.043) and the sick hospital ward(p=0.0004) related to the facial expression. From this study, nurses can learn what kind nonverbal expressions of warmth are preferred by patients during rounds and administration and thus will enhance nurse- patient interpersonal relationships.

  • PDF

로봇과 인간의 상호작용을 위한 얼굴 표정 인식 및 얼굴 표정 생성 기법 (Recognition and Generation of Facial Expression for Human-Robot Interaction)

  • 정성욱;김도윤;정명진;김도형
    • 제어로봇시스템학회논문지
    • /
    • 제12권3호
    • /
    • pp.255-263
    • /
    • 2006
  • In the last decade, face analysis, e.g. face detection, face recognition, facial expression recognition, is a very lively and expanding research field. As computer animated agents and robots bring a social dimension to human computer interaction, interest in this research field is increasing rapidly. In this paper, we introduce an artificial emotion mimic system which can recognize human facial expressions and also generate the recognized facial expression. In order to recognize human facial expression in real-time, we propose a facial expression classification method that is performed by weak classifiers obtained by using new rectangular feature types. In addition, we make the artificial facial expression using the developed robotic system based on biological observation. Finally, experimental results of facial expression recognition and generation are shown for the validity of our robotic system.

Facial Expression Explorer for Realistic Character Animation

  • Ko, Hee-Dong;Park, Moon-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1998년도 Proceedings of International Workshop on Advanced Image Technology
    • /
    • pp.16.1-164
    • /
    • 1998
  • This paper describes Facial Expression Explorer to search for the components of a facial expression and to map the expression to other expressionless figures like a robot, frog, teapot, rabbit and others. In general, it is a time-consuming and laborious job to create a facial expression manually, especially when the facial expression must personify a well-known public figure or an actor. In order to extract a blending ratio from facial images automatically, the Facial Expression Explorer uses Networked Genetic Algorithm(NGA) which is a fast method for the convergence by GA. The blending ratio is often used to create facial expressions through shape blending methods by animators. With the Facial Expression Explorer a realistic facial expression can be modeled more efficiently.

공포와 놀람 표정인식을 이용한 위험상황 인지 (Risk Situation Recognition Using Facial Expression Recognition of Fear and Surprise Expression)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.523-528
    • /
    • 2015
  • 본 논문은 얼굴의 표정 인식을 이용한 위험상황 인지 알고리즘을 제안한다. 제안방법은 인간의 다양한 감정 표정 중 위험상황을 인지하기 위한 표정인 놀람과 공포의 표정을 인식한다. 제안방법은 먼저 얼굴 영역을 추출하고 검출된 얼굴 영역으로부터 눈 영역과 입술 영역을 추출한다. 각 영역에 유니폼 LBP 방법을 적용하여 표정을 판별하고 위험 상황을 인식한다. 제안방법은 표정인식을 위해 사용되는 Cohn-Kanade 데이터베이스 영상을 대상으로 성능을 평가하였다. 이 데이터베이스는 사람의 기본표정인 웃는 표정, 슬픈 표정, 놀란 표정, 화난 표정, 역거운 표정, 공포 표정 등 6가지의 표정영상을 포함하고 있다. 그 결과 표정 인식에 좋은 결과를 보였으며 이를 이용하여 위험상황을 잘 판별하였다.

주의력결핍과잉행동장애 아동과 자폐스펙트럼장애 아동에서 얼굴 표정 정서 인식과 구별의 차이 (Difference of Facial Emotion Recognition and Discrimination between Children with Attention-Deficit Hyperactivity Disorder and Autism Spectrum Disorder)

  • 이지선;강나리;김희정;곽영숙
    • Journal of the Korean Academy of Child and Adolescent Psychiatry
    • /
    • 제27권3호
    • /
    • pp.207-215
    • /
    • 2016
  • Objectives: This study aimed to investigate the differences in the facial emotion recognition and discrimination ability between children with attention-deficit hyperactivity disorder (ADHD) and autism spectrum disorder (ASD). Methods: Fifty-three children aged 7 to 11 years participated in this study. Among them, 43 were diagnosed with ADHD and 10 with ASD. The parents of the participants completed the Korean version of the Child Behavior Checklist, ADHD Rating Scale and Conner's scale. The participants completed the Korean Wechsler Intelligence Scale for Children-fourth edition and Advanced Test of Attention (ATA), Penn Emotion Recognition Task and Penn Emotion Discrimination Task. The group differences in the facial emotion recognition and discrimination ability were analyzed by using analysis of covariance for the purpose of controlling the visual omission error index of ATA. Results: The children with ADHD showed better recognition of happy and sad faces and less false positive neutral responses than those with ASD. Also, the children with ADHD recognized emotions better than those with ASD on female faces and in extreme facial expressions, but not on male faces or in mild facial expressions. We found no differences in the facial emotion discrimination between the children with ADHD and ASD. Conclusion: Our results suggest that children with ADHD recognize facial emotions better than children with ASD, but they still have deficits. Interventions which consider their different emotion recognition and discrimination abilities are needed.