• 제목/요약/키워드: facial expression language

검색결과 30건 처리시간 0.023초

보육교사의 표정언어에 관한 사례연구: 교사, 원장, 학부모의 견해를 중심으로 (A Case Study on Childcare Teachers' Facial Expression Language: Focused on the Opinions of Teachers, Directors, and Parents)

  • 김선주;주영애
    • 가정과삶의질연구
    • /
    • 제32권5호
    • /
    • pp.107-123
    • /
    • 2014
  • The purpose of this study is to investigate the opinions of teachers, directors, and parents about childcare teachers' facial expression language. We performed in-depth interviews based on literature and previous studies, which consisted of ten childcare teachers, ten directors, and ten parents. From the in-depth interviews, we are able to mainly conclude that all groups think that a childcare teacher's facial expression language is very important, and strongly influences interpersonal problems and work performance. Mostly, childcare teachers aim to have pleasant facial expressions. However they complain that in some situations it is difficult to do so, which causes severe stress. They argued that the facial expressions of both the director of the childcare center and the parents are also very important for children. However, the directors thought that teachers' facial expressions affect children and their parents' impressions of the teachers and quality of childcare. The parents are usually highly satisfied with the childcare when the teacher has a pleasant facial expression, which motivates the parents to have a positive impression of the teacher. Taken together, childcare teachers' facial expression language is critical for children and the childcare environment. Thus, developing an education program for facial expression language would be helpful for improving the quality of child care. Plus, childcare environments should be developed so that teachers do not experience difficulty in having pleasant facial expressions. This result might have the limitation of being collected from only female childcare teachers, directors, and parents.

표정과 언어 감성 분석을 통한 스트레스 측정시스템 설계 (A Design of Stress Measurement System using Facial and Verbal Sentiment Analysis)

  • 유수화;전지원;이애진;김윤희
    • KNOM Review
    • /
    • 제24권2호
    • /
    • pp.35-47
    • /
    • 2021
  • 끊임없는 경쟁과 발전을 요구하는 현대사회에는 다양한 스트레스가 존재하고 그 스트레스는 많은 경우 인물의 표정과 언어로 표현된다. 따라서 스트레스는 표정과 언어 분석을 통하여 측정할 수 있으며, 이를 효율적으로 관리하기 위한 시스템 개발이 필요하다. 본 연구에서는 표정과 언어 감성 분석을 통하여 스트레스를 측정할 수 있는 시스템을 제안한다. 인물의 표정과 언어 감성을 분석하여 주요 감성값 기준으로 스트레스 지수를 도출하고 표정과 언어의 일치성을 기준으로 통합 스트레스 지수를 도출하는 스트레스 측정 방법을 제안한다. 스트레스 측정기법을 통한 정량화, 일반화는 다수의 연구자가 객관적인 기준으로 스트레스 지수를 평가할 수 있도록 할 수 있다.

애니메이선 캐릭터의 표정연출 유형 연구 (A Study on Pattern of Facial Expression Presentation in Character Animation)

  • 홍순구
    • 한국콘텐츠학회논문지
    • /
    • 제6권8호
    • /
    • pp.165-174
    • /
    • 2006
  • 버드휘스텔(Birdwhistell)은 말이 전하는 의미는 전체커뮤니케이션의 35%이하에 불과하고 나머지 65% 이상은 비언어적 형태로 전달되며 인간은 전적으로 언어에 의해 의사소통을 하는 존재가 아니라 모든 감각을 사용하는 감각적 존재라고 설명하고 있다. 인간의 커뮤니케이션은 언어 외에 표정, 몸 동작 등을 통해 보다 더 구체적인 의미 전달이 가능하며, 특히 얼굴표정은 개인의 성격, 관심, 반응에 대한 정보 및 감정의 상태를 전달해주는 다면적 메시지체계로 강력한 커뮤니케이션 도구라고 할 수 있다. 다양한 표현기법과 표현의 정도, 특성에 따라 달라질 수 있지만 표정이 갖는 상징적 기호는 일반화 된 특성을 가지고 있다. 스토리상의 등장인물로서 내면세계와 심리적 상태가 행동이나 표정으로 자연스럽게 노출되고 읽어낼 수 있는 감정표현에서 애니메이션 캐릭터는 생명력을 갖는다.

  • PDF

3D 얼굴 모델의 코믹한 감정 표현 (A Comic Emotional Expression for 3D Facial Model)

  • 고광훈;김상운
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 추계종합학술대회 논문집
    • /
    • pp.536-539
    • /
    • 1999
  • In this paper we propose a 3D emotional expression method using a comic model for effective sign-language communications. Until now we have investigated to produce more realistic facial and emotional expression. When representing only emotional expression, however, a comic expression could be better than the real picture of a face. The comic face is a comic-style expression model in which almost components except the necessary parts like eyebrows, eyes, nose and mouth are discarded. We represent emotional expression using Action Units(AU) of Facial Action Coding System(FACS). Experimental results show a possibility that the proposed method could be used efficiently for sign-language image communications.

  • PDF

효율적인 수화 통신을 위한 코믹한 감정 표현 (Comic Emotional Expression for Effective Sign-Language Communications)

  • 고광훈;김상훈
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.651-654
    • /
    • 1999
  • In this paper we propose an emotional expression method using a comic model and special marks for effective sign-language communications. Until now we have investigated to produce more realistic facial and emotional expression. When representing only emotional expression, however, a comic expression could be better than the real picture of a face. The comic face is a comic-style expression model in which almost components except the necessary parts like eyebrows, eyes, nose and mouth are discarded. In the comic model, we can use some special marks for the purpose of emphasizing various emotions. We represent emotional expression using Action Units(AU) of Facial Action Coding System(FACS) and define Special Unit(SU) for emphasizing the emotions. Experimental results show a possibility that the proposed method could be used efficiently for sign-language image communications.

  • PDF

얼굴 인식을 통한 동적 감정 분류 (Dynamic Emotion Classification through Facial Recognition)

  • 한우리;이용환;박제호;김영섭
    • 반도체디스플레이기술학회지
    • /
    • 제12권3호
    • /
    • pp.53-57
    • /
    • 2013
  • Human emotions are expressed in various ways. It can be expressed through language, facial expression and gestures. In particular, the facial expression contains many information about human emotion. These vague human emotion appear not in single emotion, but in combination of various emotion. This paper proposes a emotional expression algorithm using Active Appearance Model(AAM) and Fuzz k- Nearest Neighbor which give facial expression in similar with vague human emotion. Applying Mahalanobis distance on the center class, determine inclusion level between center class and each class. Also following inclusion level, appear intensity of emotion. Our emotion recognition system can recognize a complex emotion using Fuzzy k-NN classifier.

3D 아바타의 자연스러운 수화 동작 표현 방법 (Soft Sign Language Expression Method of 3D Avatar)

  • 오영준;장효영;정진우;박광현;김대진;변증남
    • 정보처리학회논문지B
    • /
    • 제14B권2호
    • /
    • pp.107-118
    • /
    • 2007
  • 본 논문에서는 실제 수화자의 관점에서 기존 수화 아바타의 한계와 문제점을 지적한다. 이를 해결하기 위하여 손 모양, 손 방향, 손 운동을 비롯하여 입술 움직임, 얼굴 표정, 안색, 운동자 움직임, 몸동작 등을 통해 수화를 보다 자연스럽게 표현할 수 있는 수화 아바타를 개발하였다. 또한, 데이터베이스의 성능을 높이기 위해 손의 움직임과 함께 다른 신체 요소들의 움직임을 구조적으로 같이 기술할 수 있는 하이퍼 수화 문장을 제안한다. 개발된 시스템의 우수성을 보이기 위해 실제 청각 장애인을 대상으로 설문조사를 수행하여 시스템의 사용성을 평가하였다.

수어 동작 키포인트 중심의 시공간적 정보를 강화한 Sign2Gloss2Text 기반의 수어 번역 (Sign2Gloss2Text-based Sign Language Translation with Enhanced Spatial-temporal Information Centered on Sign Language Movement Keypoints)

  • 김민채;김정은;김하영
    • 한국멀티미디어학회논문지
    • /
    • 제25권10호
    • /
    • pp.1535-1545
    • /
    • 2022
  • Sign language has completely different meaning depending on the direction of the hand or the change of facial expression even with the same gesture. In this respect, it is crucial to capture the spatial-temporal structure information of each movement. However, sign language translation studies based on Sign2Gloss2Text only convey comprehensive spatial-temporal information about the entire sign language movement. Consequently, detailed information (facial expression, gestures, and etc.) of each movement that is important for sign language translation is not emphasized. Accordingly, in this paper, we propose Spatial-temporal Keypoints Centered Sign2Gloss2Text Translation, named STKC-Sign2 Gloss2Text, to supplement the sequential and semantic information of keypoints which are the core of recognizing and translating sign language. STKC-Sign2Gloss2Text consists of two steps, Spatial Keypoints Embedding, which extracts 121 major keypoints from each image, and Temporal Keypoints Embedding, which emphasizes sequential information using Bi-GRU for extracted keypoints of sign language. The proposed model outperformed all Bilingual Evaluation Understudy(BLEU) scores in Development(DEV) and Testing(TEST) than Sign2Gloss2Text as the baseline, and in particular, it proved the effectiveness of the proposed methodology by achieving 23.19, an improvement of 1.87 based on TEST BLEU-4.

FBML을 이용한 서로 다른 아바타 모델간의 제스처 통신 (Gesture Communications Between Different Avatar Models Using A FBML)

  • 이용후;김상운;아오끼요시나오
    • 전자공학회논문지CI
    • /
    • 제41권5호
    • /
    • pp.41-49
    • /
    • 2004
  • 인터넷 가상공간에서 서로 다른 언어 사이의 장벽을 극복하기 위한 방법으로 수화 통신 시스템이 연구되고 있다. 그러나 지금까지의 연구는 같은 유형의 아바타 만을 대상으로 하였기 때문에 모델 구조가 서로 다를 경우에는 적용할 수 없다는 문제가있다. 따라서 본 연구에서는 FBML (Facial Body Markup Language)을 이용하여 서로 다른 아바타들 간의 수화 제스처 통신을 구현하는 방법을 제안하였다. 즉, FBML을 정의하여 제스처를 위한 관절각 및 얼굴 표정 등 서로 다른 아바타 모델들 사이에 전달할 내용을 표준 문서로 만들었다. 본 방법은 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

다중 센서 융합 알고리즘을 이용한 감정인식 및 표현기법 (Emotion Recognition and Expression Method using Bi-Modal Sensor Fusion Algorithm)

  • 주종태;장인훈;양현창;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제13권8호
    • /
    • pp.754-759
    • /
    • 2007
  • In this paper, we proposed the Bi-Modal Sensor Fusion Algorithm which is the emotional recognition method that be able to classify 4 emotions (Happy, Sad, Angry, Surprise) by using facial image and speech signal together. We extract the feature vectors from speech signal using acoustic feature without language feature and classify emotional pattern using Neural-Network. We also make the feature selection of mouth, eyes and eyebrows from facial image. and extracted feature vectors that apply to Principal Component Analysis(PCA) remakes low dimension feature vector. So we proposed method to fused into result value of emotion recognition by using facial image and speech.