• 제목/요약/키워드: facial expression analysis

검색결과 164건 처리시간 0.026초

정서의 이차원 구조에서 유아의 얼굴표정 해석 (Children's Interpretation of Facial Expression onto Two-Dimension Structure of Emotion)

  • 신영숙;정현숙
    • 인지과학
    • /
    • 제18권1호
    • /
    • pp.57-68
    • /
    • 2007
  • 본 논문은 정서의 이차원 구조상에서 얼굴표정으로부터 아동의 정서이해에 대한 범주를 알아보고자 한다. 3세에서 5세 89명의 아동들을 대상으로 14개의 정서 단어와 관계된 얼굴표정들을 선택하도록 하였다. 실험에 적용된 얼굴표정들은 54명의 대학생들로부터 9점 척도상에서 두차원(쾌-불쾌차원과 각성-수면차원) 각각에서 표정의 강도가 평정된 사진들이 사용되었다. 실험결과에서 아동들은 쾌-불쾌 차원보다는 각성-수면 차원에서 더 큰 안정성을 보였다. 이차원 구조상에서 슬픔, 졸림, 화남, 놀람과 같은 정서들은 두 차원에서 매우 잘 변별된 반면, 두려움, 지겨움과 같은 정서들은 쾌-불쾌 차원에서 불안정성을 보였다. 특히 3세 아동들은 각성-수면정도에 대한 지각이 쾌-불쾌에 대한 지각보다 높게 나타났다.

  • PDF

복잡한 배경의 칼라영상에서 Face and Facial Features 검출 (Detection of Face and Facial Features in Complex Background from Color Images)

  • 김영구;노진우;고한석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(4)
    • /
    • pp.69-72
    • /
    • 2002
  • Human face detection has many applications such as face recognition, face or facial feature tracking, pose estimation, and expression recognition. We present a new method for automatically segmentation and face detection in color images. Skin color alone is usually not sufficient to detect face, so we combine the color segmentation and shape analysis. The algorithm consists of two stages. First, skin color regions are segmented based on the chrominance component of the input image. Then regions with elliptical shape are selected as face hypotheses. They are certificated to searching for the facial features in their interior, Experimental results demonstrate successful detection over a wide variety of facial variations in scale, rotation, pose, lighting conditions.

  • PDF

Transfer Learning for Face Emotions Recognition in Different Crowd Density Situations

  • Amirah Alharbi
    • International Journal of Computer Science & Network Security
    • /
    • 제24권4호
    • /
    • pp.26-34
    • /
    • 2024
  • Most human emotions are conveyed through facial expressions, which represent the predominant source of emotional data. This research investigates the impact of crowds on human emotions by analysing facial expressions. It examines how crowd behaviour, face recognition technology, and deep learning algorithms contribute to understanding the emotional change according to different level of crowd. The study identifies common emotions expressed during congestion, differences between crowded and less crowded areas, changes in facial expressions over time. The findings can inform urban planning and crowd event management by providing insights for developing coping mechanisms for affected individuals. However, limitations and challenges in using reliable facial expression analysis are also discussed, including age and context-related differences.

CREATING JOYFUL DIGESTS BY EXPLOITING SMILE/LAUGHTER FACIAL EXPRESSIONS PRESENT IN VIDEO

  • Kowalik, Uwe;Hidaka, Kota;Irie, Go;Kojima, Akira
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.267-272
    • /
    • 2009
  • Video digests provide an effective way of confirming a video content rapidly due to their very compact form. By watching a digest, users can easily check whether a specific content is worth seeing in full. The impression created by the digest greatly influences the user's choice in selecting video contents. We propose a novel method of automatic digest creation that evokes a joyful impression through the created digest by exploiting smile/laughter facial expressions as emotional cues of joy from video. We assume that a digest presenting smiling/laughing faces appeals to the user since he/she is assured that the smile/laughter expression is caused by joyful events inside the video. For detecting smile/laughter faces we have developed a neural network based method for classifying facial expressions. Video segmentation is performed by automatic shot detection. For creating joyful digests, appropriate shots are automatically selected by shot ranking based on the smile/laughter detection result. We report the results of user trials conducted for assessing the visual impression with automatically created 'joyful' digests produced by our system. The results show that users tend to prefer emotional digests containing laughter faces. This result suggests that the attractiveness of automatically created video digests can be improved by extracting emotional cues of the contents through automatic facial expression analysis as proposed in this paper.

  • PDF

얼굴표정과 음성을 이용한 감정인식 (An Emotion Recognition Method using Facial Expression and Speech Signal)

  • 고현주;이대종;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.799-807
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정과 음성 속에 담긴 6개의 기본감정(기쁨, 슬픔, 화남, 놀람, 혐오, 공포)에 대한 특징을 추출하고 인식하고자 한다. 이를 위해 얼굴표정을 이용한 감정인식에서는 이산 웨이블렛 기반 다해상도 분석을 이용하여 선형판별분석기법으로 특징을 추출하고 최소 거리 분류 방법을 이용하여 감정을 인식한다. 음성에서의 감정인식은 웨이블렛 필터뱅크를 이용하여 독립적인 감정을 확인한 후 다중의사 결정 기법에 외해 감정인식을 한다. 최종적으로 얼굴 표정에서의 감정인식과 음성에서의 감정인식을 융합하는 단계로 퍼지 소속함수를 이용하며, 각 감정에 대하여 소속도로 표현된 매칭 감은 얼굴에서의 감정과 음성에서의 감정별로 더하고 그중 가장 큰 값을 인식 대상의 감정으로 선정한다.

A Multimodal Emotion Recognition Using the Facial Image and Speech Signal

  • Go, Hyoun-Joo;Kim, Yong-Tae;Chun, Myung-Geun
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권1호
    • /
    • pp.1-6
    • /
    • 2005
  • In this paper, we propose an emotion recognition method using the facial images and speech signals. Six basic emotions including happiness, sadness, anger, surprise, fear and dislike are investigated. Facia] expression recognition is performed by using the multi-resolution analysis based on the discrete wavelet. Here, we obtain the feature vectors through the ICA(Independent Component Analysis). On the other hand, the emotion recognition from the speech signal method has a structure of performing the recognition algorithm independently for each wavelet subband and the final recognition is obtained from the multi-decision making scheme. After merging the facial and speech emotion recognition results, we obtained better performance than previous ones.

얼굴표정에서 나타나는 감정표현에 대한 어린이의 반응분석 (Analysis of children's Reaction in Facial Expression of Emotion)

  • 유동관
    • 한국콘텐츠학회논문지
    • /
    • 제13권12호
    • /
    • pp.70-80
    • /
    • 2013
  • 본 연구의 목적은 열굴 표정의 감정표현에 따른 어린이의 시각적 인지반응을 연구, 분석하고 각각의 감정표현에서 나타나는 남녀어린이의 언어적 반응을 살펴봄으로써 인물표정연구의 기초자료로 활용되는데 그 의미를 두었다. 연구대상은 제시된 연구도구를 이해할 수 있는 6~8세 어린이 108명(남 55명, 여53명)으로 하였으며, 2차에 걸쳐 실시한 반응조사는 어린이의 개별면접과 자기기입식 설문지를 통한 자료수집방식을 활용하였다. 설문에 활용한 연구도구는 남녀어린이의 구체적이고 정확한 반응을 도출할 수 있는 기쁨, 슬픔, 화남, 놀람, 혐오감, 공포감 등 6가지 유형으로 구분하였다. 어린이의 시각적 인지반응결과에서 남녀어린이 모두 기쁨, 슬픔, 화남, 놀란 표정에 대한 빈도수가 높게 나타났으며, 공포감과 혐오감을 느끼는 얼굴표정에 대한 빈도수는 남녀어린이 모두 낮게 나타났다. 언어적 반응은 기쁨, 슬픔, 화남, 놀람, 혐오감, 공포감 모두 얼굴표정에서 연상되는 인상적인 부분을 찾아 대답하거나 얼굴표정의 시각적 특징을 기초로 추론하거나 탐구하는 발견적 반응이 높게 나타났으며, 놀람과 혐오감, 공포감에서 얼굴표정을 보고 연상되는 새로운 이야기를 만들어 내는 상상적 반응이 나타났다.

감정표현 표정의 영상분석에 의한 인지동작치료가 정서·행동장애아 감성재활에 미치는 영향 (The Effect of Cognitive Movement Therapy on Emotional Rehabilitation for Children with Affective and Behavioral Disorder Using Emotional Expression and Facial Image Analysis)

  • 변인경;이재호
    • 한국콘텐츠학회논문지
    • /
    • 제16권12호
    • /
    • pp.327-345
    • /
    • 2016
  • 본 연구는 인간발달 과정을 신경과학, 심리학, 운동학습, 근육 생리학 등의 행동과학 자료와 생체역학, 인체운동 분석, 운동조절 기반의 인지 동작치료 프로그램을 정서 행동장애 아동들에게 실시하여 표정에 따른 얼굴 움직임이 감정과 정서변화에 따라 어떤 특성을 갖는지를 표정 움직임의 변화로 정량화 하고자 하였다. 본 연구에서는 영상측정 및 키네마틱 분석의 정서 행동장애 아동의 표정변화를 중재 프로그램 피드백 자료로 활용하였고, 표정 변화를 통해 인지동작 치료프로그램 효과를 알 수 있었다. 또한 정서 및 행동치료의 영상분석과 키네마틱 분석의 정량적 데이터를 통하여 인간발달에 대한 융 복합적 측정 및 분석법을 적용하여 발달장애의 조기발견과 치료과정에 따른 데이터를 축적하는 것도 기대할 수 있었다. 따라서 본 연구의 결과는 아동뿐만이 아니라 자기표현이 부족한 장애와 노인, 환자에게도 확대 적용할 수 있을 것이다.

Improved Two-Phase Framework for Facial Emotion Recognition

  • Yoon, Hyunjin;Park, Sangwook;Lee, Yongkwi;Han, Mikyong;Jang, Jong-Hyun
    • ETRI Journal
    • /
    • 제37권6호
    • /
    • pp.1199-1210
    • /
    • 2015
  • Automatic emotion recognition based on facial cues, such as facial action units (AUs), has received huge attention in the last decade due to its wide variety of applications. Current computer-based automated two-phase facial emotion recognition procedures first detect AUs from input images and then infer target emotions from the detected AUs. However, more robust AU detection and AU-to-emotion mapping methods are required to deal with the error accumulation problem inherent in the multiphase scheme. Motivated by our key observation that a single AU detector does not perform equally well for all AUs, we propose a novel two-phase facial emotion recognition framework, where the presence of AUs is detected by group decisions of multiple AU detectors and a target emotion is inferred from the combined AU detection decisions. Our emotion recognition framework consists of three major components - multiple AU detection, AU detection fusion, and AU-to-emotion mapping. The experimental results on two real-world face databases demonstrate an improved performance over the previous two-phase method using a single AU detector in terms of both AU detection accuracy and correct emotion recognition rate.

Emotion Recognition Method Based on Multimodal Sensor Fusion Algorithm

  • Moon, Byung-Hyun;Sim, Kwee-Bo
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제8권2호
    • /
    • pp.105-110
    • /
    • 2008
  • Human being recognizes emotion fusing information of the other speech signal, expression, gesture and bio-signal. Computer needs technologies that being recognized as human do using combined information. In this paper, we recognized five emotions (normal, happiness, anger, surprise, sadness) through speech signal and facial image, and we propose to method that fusing into emotion for emotion recognition result is applying to multimodal method. Speech signal and facial image does emotion recognition using Principal Component Analysis (PCA) method. And multimodal is fusing into emotion result applying fuzzy membership function. With our experiments, our average emotion recognition rate was 63% by using speech signals, and was 53.4% by using facial images. That is, we know that speech signal offers a better emotion recognition rate than the facial image. We proposed decision fusion method using S-type membership function to heighten the emotion recognition rate. Result of emotion recognition through proposed method, average recognized rate is 70.4%. We could know that decision fusion method offers a better emotion recognition rate than the facial image or speech signal.