• 제목/요약/키워드: Anger Expression

검색결과 232건 처리시간 0.027초

뇌졸중 후 불안을 동반한 공격성을 호소하는 뇌경색 환자에 대한 복합 한의치험 1례 (A Case of Cerebral Infarction Patient Complaining Post-Stroke Aggression Accompanying Anxiety Treated with Combined Korean Medical Treatment)

  • 이다빈;전선욱;김근영;조기호;문상관;정우상;권승원;이한결
    • 대한중풍순환신경학회지
    • /
    • 제24권1호
    • /
    • pp.67-76
    • /
    • 2023
  • Post-stroke aggression refers to aggressive behaviors and languages which are occurred after stroke. In stroke patients, over 15% suffer from the anger and the symptom lowers the quality of life of the patients, family, and caregivers. After diagnosing post-stroke aggression, selective serotonin re-uptake inhibitor(SSRI) and beta-blocker, beta adrenergic agonist treatment usually underwent to treat the anger and anxiety of the patient. In the present case, a 81-year-old female patient with post-stroke aggression underwent Korean medical treatment by Jodeungsan and Ukgansan for 49 days. The effect of the treatment was assessed with State-Trait Anger Expression Inventory(STAXI) per a week, roaming time per a week and roaming frequency per a week. After the treatment, STAXI score, roaming time, and roaming frequecy decreased, and the patient could successfully cease to take beta-blocker, which she started to take for treating her aggression, without any side-effects. This case report suggests that Ukgansan might be an effective option with post-stroke aggression patients taking medication including beta-blocker.

  • PDF

이미지 시퀀스 얼굴표정 기반 감정인식을 위한 가중 소프트 투표 분류 방법 (Weighted Soft Voting Classification for Emotion Recognition from Facial Expressions on Image Sequences)

  • 김경태;최재영
    • 한국멀티미디어학회논문지
    • /
    • 제20권8호
    • /
    • pp.1175-1186
    • /
    • 2017
  • Human emotion recognition is one of the promising applications in the era of artificial super intelligence. Thus far, facial expression traits are considered to be the most widely used information cues for realizing automated emotion recognition. This paper proposes a novel facial expression recognition (FER) method that works well for recognizing emotion from image sequences. To this end, we develop the so-called weighted soft voting classification (WSVC) algorithm. In the proposed WSVC, a number of classifiers are first constructed using different and multiple feature representations. In next, multiple classifiers are used for generating the recognition result (namely, soft voting) of each face image within a face sequence, yielding multiple soft voting outputs. Finally, these soft voting outputs are combined through using a weighted combination to decide the emotion class (e.g., anger) of a given face sequence. The weights for combination are effectively determined by measuring the quality of each face image, namely "peak expression intensity" and "frontal-pose degree". To test the proposed WSVC, CK+ FER database was used to perform extensive and comparative experimentations. The feasibility of our WSVC algorithm has been successfully demonstrated by comparing recently developed FER algorithms.

농촌 부부평등교육 프로그램 개발 및 효과검증 (Development and Evaluation of the Marital Equality Education Program for Women Farmers and their Husband)

  • 최규련
    • 가정과삶의질연구
    • /
    • 제20권3호
    • /
    • pp.73-85
    • /
    • 2002
  • The purpose of this study was to develop and evaluate the Marital Equality Education Program for women farmers and their husband. Based on the empirical research result of 980 women farmers as basic study for developing this program, marital equality theory, system theory, strong family perspective, stress coping theory, anger control theory, modified Couple Communication Program, marriage enrichment methods, 7 session program was developed. The contents of every session were Reviewing Marriage Relationships, Coping Role Stress, Marital Equality, Self Expression & Speaking, Understanding Spouse & Listening, Anger Control& Resolving Conflict, and Enhancing Marital Relations. The effectiveness of this program was evaluated by pretest, post test, and follow-up 1 month later through 35 rural couples(women farmers and their husband) and it was analyzed by paired t-test and qualitative evaluation was also investigated. The major results were as follows : This program was effective in improving their self-esteem, marital satisfaction, coping role stress & conflicts, and husband's egalitarian role attitude & practice. The results suggested the program had also Positive impacts on the marital equality and relationships. Future research and practical implications were added.

한국무용 감기 동작 시 표현하고자 하는 감정에 따른 운동역학적 차이 (Kinetic Analysis of Gam-ki in the Korean Traditional Dance during Expressing Different Emotions)

  • 조남규;오성근
    • 한국운동역학회지
    • /
    • 제25권2호
    • /
    • pp.207-218
    • /
    • 2015
  • Objective : The purpose of this study was to investigate the characteristics of Gam-ki (double-arm winding) depending on the emotion being expressed. Gam-ki is one of the basic movements of Korean traditional dance. Method : We selected three Korean traditional dancers who belong to National Dance Company of Korea. They were asked to express four different emotions (anger, joy, sadness, and neutral) while performing Gam-ki. We analyzed elapsed time and time ratio, size of movement, ground reaction forces and ground impulses. Results : During Gam-ki the elapsed time for each phase as well as for one cycle was longest when "sadness" was expressed then followed by "neutral" and then "angry" and "joy." Except for the ankle in/eversion, the ROMs of the lower limb joints seem not to be an emotion-characteristic factor. The ROMs of the upper limb joints were largest when "anger" was expressed. Neck rotation is associated with expressing negative emotions ("angry" and "sadness"). For medial-lateral GRF "angry"> "joy" > "neutral" > "sadness" was in order. Therefore, it can be regarded as a factor indicating the activity of the emotion.

<도가니>의 참여적인 관객성을 위한 재현전략 (Representation Strategy for Participatory Spectatorship in Silence)

  • 계운경
    • 한국콘텐츠학회논문지
    • /
    • 제14권9호
    • /
    • pp.85-92
    • /
    • 2014
  • 본 논문은 <도가니>가 어떠한 재현전략으로 대중성을 확보하는지에 관하여 짚어낸다. <도가니>의 '집단적 기억의 환기', '고전적인 내러티브', '영화의 자기반영성'은 관객을 분노하게 하여 사이버 공론장으로 모이게 했으며, 더 나아가 '참여적인 관객성'을 가능하게 했던 중요한 요인들이다. 그런데 관객의 분노를 극대화시킬 수 있었던 이 영화의 장치들은 윤리적 논란을 불러일으킨다. 본 논문은 <도가니>가 다양한 재현전략을 통해 '참여적인 관객성'을 이끌어 낼 수 있었던 원인분석을 목표로 한다.

우울, 불안 척도를 통해 살펴본 우울증 환자에 대한 한의학적 치료 효과에 대한 연구 (Clinical Effects of Korean Medical Treatment on Depressive Disorder using Depression and Anxiety Scales)

  • 안윤영;김락형;유종호
    • 동의신경정신과학회지
    • /
    • 제33권3호
    • /
    • pp.317-327
    • /
    • 2022
  • Objectives: To examine clinical effects of Korean medical treatment on depressive disorder. Methods: Medical records of 102 patients diagnosed with depressive disorder who were treated with Korean medical treatment (herbal-medication, acupuncture, Korean psychotherapy) for at least 12 weeks and measured psychological scales (Beck Depression Inventory-II (BDI-II), State-Trait Anxiety Inventory (STAI), Beck Anxiety Inventory (BAI), and State-Trait Anger Expression Inventory (STAXI)) every 4 weeks were analyzed. Results: After 12 weeks of treatment, BDI-II, STAI-X-1/2, BAI, and STAXI-S/T all decreased statistically significantly. STAI-X-1 and BAI were significantly decreased throughout the treatment interval (comparisons every 4 weeks). The other four scales decreased significantly from 0 to 4 weeks and from 8 to 12 weeks. Conclusions: Treatment for depressive disorder with Korean Medicine was effective not only in improving overall symptoms of depressed patients, but also in improving accompanying anxiety, anger, and physical symptoms. In addition, since all scores were gradually decreased, continuous treatment would be important.

공포와 놀람 표정인식을 이용한 위험상황 인지 (Risk Situation Recognition Using Facial Expression Recognition of Fear and Surprise Expression)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.523-528
    • /
    • 2015
  • 본 논문은 얼굴의 표정 인식을 이용한 위험상황 인지 알고리즘을 제안한다. 제안방법은 인간의 다양한 감정 표정 중 위험상황을 인지하기 위한 표정인 놀람과 공포의 표정을 인식한다. 제안방법은 먼저 얼굴 영역을 추출하고 검출된 얼굴 영역으로부터 눈 영역과 입술 영역을 추출한다. 각 영역에 유니폼 LBP 방법을 적용하여 표정을 판별하고 위험 상황을 인식한다. 제안방법은 표정인식을 위해 사용되는 Cohn-Kanade 데이터베이스 영상을 대상으로 성능을 평가하였다. 이 데이터베이스는 사람의 기본표정인 웃는 표정, 슬픈 표정, 놀란 표정, 화난 표정, 역거운 표정, 공포 표정 등 6가지의 표정영상을 포함하고 있다. 그 결과 표정 인식에 좋은 결과를 보였으며 이를 이용하여 위험상황을 잘 판별하였다.

로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어 (Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity)

  • 김민규;이희승;박정우;조수훈;정명진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.547-552
    • /
    • 2008
  • 앞으로 로봇은 더욱 사람과 가까워 질 것이고, 따라서 사람과 로봇간의 상호작용도 활발해질 것이다. 이 때 직관적인 소통수단이 필수적이기 때문에, 로봇이 표정을 통해 감정을 표현할 수 있도록 하는 연구가 활발히 진행되어왔다. 기존에는 얼굴 표정을 주로 이용하였는데, 사람처럼 감정의 강도를 표현하기 위해서는 얼굴 외의 다른 방법도 필요하다. 로봇이 감정의 강도를 표현하기 위해서는 팔의 제스처, 움직임, 소리, 색깔 등을 이용할 수 있다. 본 논문에서는 LED 를 이용할 수 있도록 색과 깜빡임에 대해 연구하였다. 색깔과 감정의 관계에 대해서는 기존에 연구가 많이 되어 있지만, 실제로 로봇에 구현하기에는 정량적 자료가 부족하여 어려움이 있다. 본 논문에서는 6 가지 기본 감정(화남, 슬픔, 혐오, 놀람, 기쁨, 공포)을 효과적으로 나타낼 수 있는 색과 깜빡임 주기를 결정하고, 아바타를 이용하여 감정의 강도를 설문조사 하였다. 결과적으로, 슬픔, 혐오, 화남의 경우 색깔과 깜빡임을 통해 감정의 강도를 높일 수 있었다. 공포, 기쁨, 놀람의 경우 색깔과 깜빡임이 감정 인식에 큰 영향을 미치지 못했는데, 이는 그 감정에 해당하는 색깔이나 깜빡임을 수정해서 개선할 수 있을 것이다.

  • PDF

소울(Soul)음악의 탄생과 발전과정에 대한 고찰 (A Study on the Birth and Development Process of Soul Music)

  • 공진석;조태선
    • 디지털융복합연구
    • /
    • 제15권12호
    • /
    • pp.455-460
    • /
    • 2017
  • 우리나라 대중음악에서 소울음악은 뛰어난 가수로서의 평가기준이 되고 있다. 우리가 열광하는 소울음악을 이해하기 위해서 음악의 모태가 되어진, 흑인들의 피와 땀이 서린 광활한 대지에서 외치는 소리(Filed Holler)와 그들의 처량한 신세를 한탄하며 노래하던 송스터(Songster)음악인 블루스. 그리고 정신적 유일한 안식처인 교회 음악과 중요한 뮤지션들을 고찰하였다. 특히, 탄생시점인 1960년대 미국의 사회적 배경은 소울음악을 이해하기 위해 가장 중요한 요인이라 할 수 있다. 수많은 외세의 침략가운데 처절한 식민 지배를 받아온 우리나라는 자연스럽게, 노예역사를 가진 흑인들의 정서를 공유하고 있다고 볼 수 있다. 흑인들에게 소울음악은, 사회적 태도의 표현이며 분노표출의 음악인 것이다. 그러나 지금 우리나라에서 홍수처럼 쏟아지는 많은 음악 가운데 삶의 본질을 관통하는 음악이 너무나 부족하다. 흑인들의 처절한 삶의 투쟁으로 얻어낸 고귀한 결정체인 소울음악이 우리에게 단지 이성에 대한 구애와 화려한 보컬의 능력을 과시하는 수단으로 전락하고 있음이 안타깝게 느껴진다. 소울음악이 흑인들에게 정체성과 자존감 회복의 강력한 도구가 되었듯이 우리사회에서 약자들의 소리를 시원하게 외칠 수 있는 본질의 소리가 되길 기대한다.

대화 영상 생성을 위한 한국어 감정음성 및 얼굴 표정 데이터베이스 (Korean Emotional Speech and Facial Expression Database for Emotional Audio-Visual Speech Generation)

  • 백지영;김세라;이석필
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.71-77
    • /
    • 2022
  • 본 연구에서는 음성 합성 모델을 감정에 따라 음성을 합성하는 모델로 확장하고 감정에 따른 얼굴 표정을 생성하기 위한 데이터 베이스를 수집한다. 데이터베이스는 남성과 여성의 데이터가 구분되며 감정이 담긴 발화와 얼굴 표정으로 구성되어 있다. 성별이 다른 2명의 전문 연기자가 한국어로 문장을 발음한다. 각 문장은 anger, happiness, neutrality, sadness의 4가지 감정으로 구분된다. 각 연기자들은 한 가지의 감정 당 약 3300개의 문장을 연기한다. 이를 촬영하여 수집한 전체 26468개의 문장은 중복되지 않으며 해당하는 감정과 유사한 내용을 담고 있다. 양질의 데이터베이스를 구축하는 것이 향후 연구의 성능에 중요한 역할을 하므로 데이터베이스를 감정의 범주, 강도, 진정성의 3가지 항목에 대해 평가한다. 데이터의 종류에 따른 정확도를 알아보기 위해 구축된 데이터베이스를 음성-영상 데이터, 음성 데이터, 영상 데이터로 나누어 평가를 진행하고 비교한다.