• 제목/요약/키워드: Emotional Expressions

검색결과 234건 처리시간 0.223초

학령전 아동의 정서이해와 부모의 정서표현성 및 아동정서 수용태도와의 관계 (The Relation between Preschoolers' Emotion Understanding and Parents' Emotion Expressiveness and Attitude Toward Children's Emotion Expressiveness)

  • 이혜련;최보가
    • 대한가정학회지
    • /
    • 제40권10호
    • /
    • pp.103-112
    • /
    • 2002
  • This study investigated the relation between preschoolers' emotion understanding and parents' emotion expressiveness and attitude toward children's emotion expressiveness. Subjects were ninety 3- to 5-year old children and their parents. Parents' emotion socialization was measured by PACES developed by Saami(1989) and FEQ developed by Harberstadt(1986). And preschoolers' identification of basic emotional expressions and expression of their own feelings and others' feelings in various situations were measured. Results revealed that 5-year-old children understood emotion better than 3-year-old children, and mother's positive emotion expression influenced children's emotion understanding. The results are consistent with recent research showing that parents emotion socialization may be important for preschoolers' emotion understanding.

노인 간호 요양시설에서의 치매환자 통증관리 프로토콜 개발 및 효과 (Development and Effect of Pain Management Protocol for Nursing Home Patients with Dementia)

  • 장성옥
    • 기본간호학회지
    • /
    • 제14권1호
    • /
    • pp.29-43
    • /
    • 2007
  • Purpose: This study was done to develop a pain management protocol for nursing home patients with dementia and to examine effects of the protocol on pain assessments and interventions by the nurses and on pain relief signs in the patients. Method: The six steps in the protocol development and the examination of effect are outlined. Three rounds using the Delphi technique and one group pretest-posttest design experiment were developed. Design issues, such as sample selection and sample size, are addressed in relation to the study protocol. Results: After implementation of the pain management protocol, there were significant changes nursing actions including frequency of number of physical examinations, utilization of pain assessment tools, and request to doctors for discomfort management and there were significant changes in frequency in the number of verbal and physical expressions of pain, and emotional patterns. Conclusion: This is the first pain management protocol for patients with dementia in Korea. However, more study will be needed to determine the methodological strength and necessary revisions for the protocol.

  • PDF

Facial Expression Recognition Method Based on Residual Masking Reconstruction Network

  • Jianing Shen;Hongmei Li
    • Journal of Information Processing Systems
    • /
    • 제19권3호
    • /
    • pp.323-333
    • /
    • 2023
  • Facial expression recognition can aid in the development of fatigue driving detection, teaching quality evaluation, and other fields. In this study, a facial expression recognition method was proposed with a residual masking reconstruction network as its backbone to achieve more efficient expression recognition and classification. The residual layer was used to acquire and capture the information features of the input image, and the masking layer was used for the weight coefficients corresponding to different information features to achieve accurate and effective image analysis for images of different sizes. To further improve the performance of expression analysis, the loss function of the model is optimized from two aspects, feature dimension and data dimension, to enhance the accurate mapping relationship between facial features and emotional labels. The simulation results show that the ROC of the proposed method was maintained above 0.9995, which can accurately distinguish different expressions. The precision was 75.98%, indicating excellent performance of the facial expression recognition model.

얼굴 특징점의 지각적 위계구조에 기초한 표정인식 신경망 모형 (A neural network model for recognizing facial expressions based on perceptual hierarchy of facial feature points)

  • 반세범;정찬섭
    • 인지과학
    • /
    • 제12권1_2호
    • /
    • pp.77-89
    • /
    • 2001
  • 얼굴 특징점의 지각적 위계구조를 반영한 표정인식 신경망 모형을 설계하였다. 입력자료는 MPEG-4 SNHC(Synthetic/Natural Hybrid Coding)의 얼굴 정의 파라미터(FDP) 중 39개 특징점 각각에 대해 150장의 표정연기 사진을 5개의 크기와 8개의 바위를 갖는 Gabor 필터로분석한 값이었다. 표정영상에 대한 감정상태 평정 값과 39개 특징점의 필터 반응 값을 중가 회귀분석한 결과, 감정상태의 쾌-불쾌 차원은 주로 입과 눈썹 주변의 특징점과 밀접한 과련이 있었고, 각성-수면차원은 주로 눈 주변의 특징점과 밀접한 관련이 있었다. 필터의 크기는 주로 저역 공간 주파수 필터와 감정상태가 관련이 있었고, 필터의 방위는 주로 비스듬한 사선방위와 감정상태가 관련이 있었다. 이를 기초로 표정인식 신경망을 최적화한 결과 원래 1560개(39x5x8) 입력요소를 400개(25x2x8)입력요소로 줄일 수 있었다. 표정인식 신경망의 최적화 결과를 사람의 감정상태 평정과 비교하여 볼 때, 쾌-불쾌 차원에서는 0.886의 상관관계가 있었고, 각성-수면 차원에서는 0.631의 상관관계가 있었다. 표정인식 신경망의 최적화 모형을 기쁨, 슬픔, 놀람, 공포, 분노, 혐오 등의 6가지 기본 정서 범주에 대응한 결과 74%의 인식률을 얻었다. 이러한 결과는 사람의 표정인식 원리를 이용하면 작은 양의 정보로도 최적화된 표정인식 시스템을 구현할수 있다는 점을 시시한다.

  • PDF

사회성 훈련 프로그램에 참가한 학령 초기 아동의 사회적 행동 변화에 대한 질적 연구 (A Qualitative Study of Early School-age Children's Experiences on Social Skills Training Program)

  • 송승민;도현심;김민정;김수지;신나나;김아연
    • 한국보육지원학회지
    • /
    • 제11권1호
    • /
    • pp.329-354
    • /
    • 2015
  • 본 연구에서는 학령 초기 아동의 사회적 행동을 향상시키기 위한 사회성 훈련 프로그램을 개발하고, 프로그램 실행 과정에서 나타나는 아동의 사회적 행동을 관찰하여 변화의 과정을 질적 분석을 통해 탐색하였다. 이를 위해 김민정(2008)의 사회적 기술훈련을 수정 보완하여 7명의 초등학교 1학년 아동을 대상으로 8회기의 프로그램을 실시한 후, 참여관찰 노트, 프로그램 진행자의 일지, 보조진행자의 칭찬 노트, 비디오 녹화 자료, 아동의 그림일기 자료들을 전사, 코딩, 주제의 발견 단계를 거쳐 분석하였다. 그 결과, 아동의 사회적 행동과 관련하여 다음과 같은 주제를 도출하였다. 첫째, 관계형성의 시작: (1) 수줍음과 정서적 위축, (2) 자기만의 세계에 몰입, (3) 나누기' 및 '함께하기'의 어려움, (4) 타인과의 부정적 상호작용, (5) 사회적 규칙준수의 어려움. 둘째, 정서 및 의사표현의 변화: 분명하고 직접적인 정서 및 의사표현. 셋째, 친사회성의 변화: (1) 주위에 대한 관심 및 상호작용 증진, (2) 협동 놀이, (3) '나누기' 및 '도움주기'등의 베푸는 행동. 넷째, 사회적 기술의 변화: (1) 사회적 규칙의 인식 및 실천, (2) 사회적 문제 해결하기. 본 연구는 질적 연구를 통해 사회성 훈련 프로그램이 학령 초기 아동의 사회적 기술과 정서표현에 미치는 긍정적 변화를 관찰함으로써 그 효과를 확인하였다.

공포와 놀람 표정인식을 이용한 위험상황 인지 (Risk Situation Recognition Using Facial Expression Recognition of Fear and Surprise Expression)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.523-528
    • /
    • 2015
  • 본 논문은 얼굴의 표정 인식을 이용한 위험상황 인지 알고리즘을 제안한다. 제안방법은 인간의 다양한 감정 표정 중 위험상황을 인지하기 위한 표정인 놀람과 공포의 표정을 인식한다. 제안방법은 먼저 얼굴 영역을 추출하고 검출된 얼굴 영역으로부터 눈 영역과 입술 영역을 추출한다. 각 영역에 유니폼 LBP 방법을 적용하여 표정을 판별하고 위험 상황을 인식한다. 제안방법은 표정인식을 위해 사용되는 Cohn-Kanade 데이터베이스 영상을 대상으로 성능을 평가하였다. 이 데이터베이스는 사람의 기본표정인 웃는 표정, 슬픈 표정, 놀란 표정, 화난 표정, 역거운 표정, 공포 표정 등 6가지의 표정영상을 포함하고 있다. 그 결과 표정 인식에 좋은 결과를 보였으며 이를 이용하여 위험상황을 잘 판별하였다.

Real-Time Recognition Method of Counting Fingers for Natural User Interface

  • Lee, Doyeob;Shin, Dongkyoo;Shin, Dongil
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권5호
    • /
    • pp.2363-2374
    • /
    • 2016
  • Communication occurs through verbal elements, which usually involve language, as well as non-verbal elements such as facial expressions, eye contact, and gestures. In particular, among these non-verbal elements, gestures are symbolic representations of physical, vocal, and emotional behaviors. This means that gestures can be signals toward a target or expressions of internal psychological processes, rather than simply movements of the body or hands. Moreover, gestures with such properties have been the focus of much research for a new interface in the NUI/NUX field. In this paper, we propose a method for recognizing the number of fingers and detecting the hand region based on the depth information and geometric features of the hand for application to an NUI/NUX. The hand region is detected by using depth information provided by the Kinect system, and the number of fingers is identified by comparing the distance between the contour and the center of the hand region. The contour is detected using the Suzuki85 algorithm, and the number of fingers is calculated by detecting the finger tips in a location at the maximum distance to compare the distances between three consecutive dots in the contour and the center point of the hand. The average recognition rate for the number of fingers is 98.6%, and the execution time is 0.065 ms for the algorithm used in the proposed method. Although this method is fast and its complexity is low, it shows a higher recognition rate and faster recognition speed than other methods. As an application example of the proposed method, this paper explains a Secret Door that recognizes a password by recognizing the number of fingers held up by a user.

표상 유사성 분석을 이용한 연령별 얼굴 정서 차원 비교 (Comparison Between Core Affect Dimensional Structures of Different Ages using Representational Similarity Analysis)

  • 김종완
    • 감성과학
    • /
    • 제26권1호
    • /
    • pp.33-42
    • /
    • 2023
  • 기존의 연령별 얼굴정서 인식 비교 연구에서는 정서별로 연령 간에 어떤 차이가 있는지 밝혔다. 이에 Kim(2021) 연구에서는 개별 정서가 아닌 정서공간에서 표상된 정서를 연령 간 비교하였다는 점에서 의의가 있으나, 기술적(descriptive) 비교만 시행하였을 뿐, 통계적 유의미 검증을 하지 않았다는 한계가 있다. 본 연구에서는 표상 유사성 분석(representational similarity analysis) 방법을 통해 연령간 실제 데이터 및 정서 모델 유사성행렬을 직접적으로 비교하였다. 또한 개인차 다차원척도법(individual differences multidimensional scaling)을 통해 연령간 정서 차원에 대한 비중을 비교하였다. 그 결과 실제 데이터 비교에서 노년 집단은 청년 및 중년 집단과 가장 유사하지 않았으며, 쾌불쾌 차원이 포함된 정서 모델과의 유사성 비교에서도 가장 유사하지 않았다. 또한 노년 집단은 각성 차원에 대한 비중이 청년 및 중년 집단과 유사하지 않음이 발견되었다. 본 연구는 실제 데이터, 정서 모델, 그리고 정서 차원 비중이라는 세 가지 측정치에 대해 노년 집단과 청년 및 중년 집단과의 차이를 통계적으로 검증하였다는 점에서 의의가 있다.

정서가 및 각성수준에 대한 자가 평가 마네킹 척도개발 및 표준화 (Development and Standardization of Modified Self-Assessment Manikin for Emotional Valence and Arousal Manikin)

  • 강은호;최정은;함병주;석정호;이경욱;김원;이승환;임현국;박영민;양종철;안미경;이재선;채정호
    • 대한불안의학회지
    • /
    • 제7권2호
    • /
    • pp.113-118
    • /
    • 2011
  • Objectives : The Self-Assessment Manikin (SAM) developed by Bradley and Lang is a non-verbal pictorial assessment tool that measures human emotion and has been widely used. However, the pictures in SAM have not been easy for Korean subjects to understand or relate to. The authors developed a new manikin (Emotional Valence and Arousal Manikin, EVAS) modeling it after Korean faces while modifying and standardizing the SAM. Methods : Forty-one healthy subjects participated in this study. They were asked to rate the emotional valence and level of arousal using both the SAM and EVAS after being exposed to pictures of facial expressions for affective neurosciences-Korean version. The internal consistency of the EVAS and the correlation between EVAS and SAM were examined. Resuts : Internal consistencies of the valence using the EVAS were from 0.63 (surprise) to 0.82 (happiness) and those of the arousal were from 0.90 to 0.95. Correlation coefficients of the valence and arousal between the SAM and EVAS were from 0.61 (both surprise and disgust) to 0.84 (neutral) and from 0.82 (sadness) to 0.94 (fear), respectively. Conclusions : We developed a new manikin (the EVAS) for the Korean population modifying and standardizing the SAM. The EVAS demonstrated a good internal consistency and validity. As such, it can be used in the field of human emotion research.

CNN 기반 스펙트로그램을 이용한 자유발화 음성감정인식 (Spontaneous Speech Emotion Recognition Based On Spectrogram With Convolutional Neural Network)

  • 손귀영;권순일
    • 정보처리학회 논문지
    • /
    • 제13권6호
    • /
    • pp.284-290
    • /
    • 2024
  • 음성감정인식(Speech Emotion Recognition, SER)은 사용자의 목소리에서 나타나는 떨림, 어조, 크기 등의 음성 패턴 분석을 통하여 감정 상태를 판단하는 기술이다. 하지만, 기존의 음성 감정인식 연구는 구현된 시나리오를 이용하여 제한된 환경 내에서 숙련된 연기자를 대상으로 기록된 음성인 구현발화를 중심의 연구로 그 결과 또한 높은 성능을 얻을 수 있지만, 이에 반해 자유발화 감정인식은 일상생활에서 통제되지 않는 환경에서 이루어지기 때문에 기존 구현발화보다 현저히 낮은 성능을 보여주고 있다. 본 논문에서는 일상적 자유발화 음성을 활용하여 감정인식을 진행하고, 그 성능을 향상하고자 한다. 성능평가를 위하여 AI Hub에서 제공되는 한국인 자유발화 대화 음성데이터를 사용하였으며, 딥러닝 학습을 위하여 1차원의 음성신호를 시간-주파수가 포함된 2차원의 스펙트로그램(Spectrogram)로 이미지 변환을 진행하였다. 생성된 이미지는 CNN기반 전이학습 신경망 모델인 VGG (Visual Geometry Group) 로 학습하였고, 그 결과 7개 감정(기쁨, 사랑스러움, 화남, 두려움, 슬픔, 중립, 놀람)에 대해서 성인 83.5%, 청소년 73.0%의 감정인식 성능을 확인하였다. 본 연구를 통하여, 기존의 구현발화기반 감정인식 성능과 비교하면, 낮은 성능이지만, 자유발화 감정표현에 대한 정량화할 수 있는 음성적 특징을 규정하기 어려움에도 불구하고, 일상생활에서 이루어진 대화를 기반으로 감정인식을 진행한 점에서 의의를 두고자 한다.