• 제목/요약/키워드: Emotional Facial Expression

검색결과 125건 처리시간 0.026초

실시간 감정 표현 아바타의 설계 및 구현 (Design and Implementation of a Real-Time Emotional Avatar)

  • 정일홍;조세홍
    • 디지털콘텐츠학회 논문지
    • /
    • 제7권4호
    • /
    • pp.235-243
    • /
    • 2006
  • 본 논문에서는 얼굴의 표정 변화를 인식하여 실시간으로 감정을 표현하는 아바타를 설계하고 구현하는 방법을 제안하였다. 실시간 감정 표현 아바타는 수동으로 아바타의 표정 패턴을 변화를 주는 것이 아니라 웹캠을 이용하여 실시간으로 입 모양 특징을 추출하고 추출한 입 모양의 패턴을 분석한 뒤, 미리 정의된 표정 패턴에 부합되는 것을 찾는다. 그리고 부합된 표정 패턴을 아바타에 적용하여 아바타의 얼굴 표정을 표현한다. 표정 인식 아바타는 웹캠에서 들어온 영상을 모델 접근 방법을 이용하여 보다 빠르게 입 부분을 인식할 수 있도록 하였다. 그리고 표정 패턴 추출은 표정에 따라 입 모양이 변하는 것을 이용하였다. 모델접근 방법을 이용하여 눈의 정보를 찾은 후 그 정보를 이용하여 입 모양을 추출하게 된다. 기본적으로 13가지 입 모양으로 각각의 표정을 유추하고 각 표정 패턴에 맞는 6개의 아바타를 미리 구현하여 보다 빠르게 아바타의 표정을 변할 수 있게 하였다.

  • PDF

대화 영상 생성을 위한 한국어 감정음성 및 얼굴 표정 데이터베이스 (Korean Emotional Speech and Facial Expression Database for Emotional Audio-Visual Speech Generation)

  • 백지영;김세라;이석필
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.71-77
    • /
    • 2022
  • 본 연구에서는 음성 합성 모델을 감정에 따라 음성을 합성하는 모델로 확장하고 감정에 따른 얼굴 표정을 생성하기 위한 데이터 베이스를 수집한다. 데이터베이스는 남성과 여성의 데이터가 구분되며 감정이 담긴 발화와 얼굴 표정으로 구성되어 있다. 성별이 다른 2명의 전문 연기자가 한국어로 문장을 발음한다. 각 문장은 anger, happiness, neutrality, sadness의 4가지 감정으로 구분된다. 각 연기자들은 한 가지의 감정 당 약 3300개의 문장을 연기한다. 이를 촬영하여 수집한 전체 26468개의 문장은 중복되지 않으며 해당하는 감정과 유사한 내용을 담고 있다. 양질의 데이터베이스를 구축하는 것이 향후 연구의 성능에 중요한 역할을 하므로 데이터베이스를 감정의 범주, 강도, 진정성의 3가지 항목에 대해 평가한다. 데이터의 종류에 따른 정확도를 알아보기 위해 구축된 데이터베이스를 음성-영상 데이터, 음성 데이터, 영상 데이터로 나누어 평가를 진행하고 비교한다.

유아의 정서읽기능력이 친사회적 행동에 미치는 영향: 얼굴표정을 중심으로 (The Effect of Young Children's Emotional Reading Ability on Prosocial Behavior: Centered on Facial Expression)

  • 고정완
    • 디지털융복합연구
    • /
    • 제17권6호
    • /
    • pp.433-438
    • /
    • 2019
  • 본 연구에서는 유아의 정서읽기능력이 친사회적 행동에 미치는 영향을 알아보고자 하였다. 연구대상은 G시에 위치하고 있는 사립유치원 만 5세 192명이다. 2018년 12월 17일부터 12월 27일까지 유아의 정서읽기능력과 친사회적 행동에 관한 조사를 실시하였다. 수집된 자료는 Pearson의 상관관계분석과 다중회귀분석을 실시하였으며, SPSS WIN 22.0 프로그램을 사용하였다. 자료 분석 결과 첫째, 유아의 정서읽기능력과 친사회적 행동은 유의미한 상관관계가 있는 것으로 나타났다. 둘째, 유아의 정서읽기능력은 친사회적 행동에 유의미한 영향을 미치는 것으로 나타났다. 결론적으로 본 연구는 정서읽기능력 향상과 친사회적 행동 증진을 위한 프로그램 개발에 대한 기초자료가 될 것으로 사료된다.

인터넷 가상공간에서 지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법 (A Comic Facial Expression Method for Intelligent Avatar Communications in the Internet Cyberspace)

  • 이용후;김상운;청목유직
    • 전자공학회논문지CI
    • /
    • 제40권1호
    • /
    • pp.59-73
    • /
    • 2003
  • 인터넷 가상공간에서 서로 다른 언어 사이의 언어 장벽을 극복하기 위한 한 방법으로 CG 애니메이션 기술을 이용한 수화 통신 시스템이 연구되고 있다. 지금까지 연구에서는 비언어 통신 수단으로서 팔과 손의 제스춰만을 고려하였으나, 얼굴 표정이 의사전달에 중요한 요소가 된다. 특히 사실적인 감정표현보다는 얼굴 요소가 과장된 코믹한 표현이 보다 효과적이고, 또 눈썹, 눈, 입 등의 AU(Action Units)만이 아니라 뺨과 턱의 움직임도 중요한 역할을 하게 됨을 알게 되었다. 따라서 3D 표정 생성 에디터에서 AU를 추출하고, 보다 효율적을 표정 생성을 위해 FACS(Facial Action Unit)으로 분류한다. 또 기존에 표정 에디터에 비해서 제안된 표정 에디터는 PAU에 대한 강도를 강하게 줌으로써, 6가지 표정을 분리할 수 있음을 보인다. 또한 얼굴 표정 생성에서 “뺨을 올림”과 “턱을 내림”에 대한 움직임을 자동화하기 위해서 포물형 편미분식(Parabolic Partial Differential Equations)과 Runge-Kutta법을 이용하여 보다 자연스러운 표정을 생성하였다. 또한 이를 이용하여 구조가 서로 다른 아바타 모델에 감정을 재생하는 방법을 제안하였다. 본 방법을 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

인간의 감성기호 체계화를 위한 감정영역범주화에 관한 연구 (Research about the Abstraction of Area Typicality of Emotions for Systematization of Human's Sensitivity Symbol)

  • 윤봉식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.137-145
    • /
    • 2005
  • 본 연구는 3D캐릭터 개발에 효율성을 높이고, 보다 인간의 표정에 가까운 캐릭터표정을 제작하기 위하여 실시되었다. 각 연령층별, 성별, 직위 등의 계층으로 각 감정영역을 데이터화하여 하나의 시스템으로 연동되어진다면 애니메이션, 만화, 연기 및 다양한 영상 엔터테인먼트산업과 이에 필요한 인력양성에 고무적인 반향을 일으킬 수 있을 것으로 사료된다. 이에 그 기반연구로 실시된 선행 연구를 바탕으로 이번 연구에서는 연구영역 중 1개 계층 8대 감정영역에 대한 표본연구로 진행하였다. 이로써 인간의 감정과 표현 간에는 일련의 연계성이 존재하며, 특히 표정에서 나타나는 비언어적 감성기호들을 범주화할 수 있다는 가정을 증명할 수 있었다. 그러나 인간의 풍부한 감정은 하나의 자극에 대한 단일감정보다는 다수 또는 지속자극에 대한 복합기호로서 표출되므로 이에 대한 통제는 많은 어려움이 있고, 본 연구에서 제시한 연구 모델은 각 영역별, 척도별 단일 감정에 대한 내용만을 다루기 위해 실험환경을 일부 조작하였다. 본 연구의 결과는 다양한 미디어제작에 필요한 가상캐릭터의 표정, 의인화 등을 위한 주요한 데이터로 활용가능하며, 향후 연구에서는 더 많은 표본에 대한 폭넓은 데이터베이스 구축과 상대적 비교검증이 이루어져야한다.

  • PDF

감성ICT 교육을 위한 얼굴감성 인식 시스템에 관한 연구 (A Study on the System of Facial Expression Recognition for Emotional Information and Communication Technology Teaching)

  • 송은지
    • 한국실천공학교육학회논문지
    • /
    • 제4권2호
    • /
    • pp.171-175
    • /
    • 2012
  • 최근 정보기술을 이용하여 인간의 감정을 인식하고 소통할 수 있는 ICT(Information and Communication Technology)의 연구가 증가하고 있다. 예를 들어 상대방의 마음을 읽기 위해서 그 사람과의 관계를 형성하고 활동을 해야만 하는 시대에서 사회의 디지털화로 그 경험이 디지털화 되어가며 마인드를 리딩 할 수 있는 디지털기기들이 출현하고 있다. 즉, 인간만이 예측할 수 있었던 감정을 디지털 기기가 대신해 줄 수 있게 된 것이다. 얼굴에서의 감정인식은 현재 연구되어지는 여러 가지 감정인식 중에서 효율적이고 자연스러운 휴먼 인터페이스로 기대되고 있다. 본 논문에서는 감성 ICT에 대한 고찰을 하고 그 사례로서 얼굴감정 인식 시스템에 대한 메카니즘을 살펴보고자 한다.

  • PDF

아동의 정서적, 인지적 조망수용능력의 발달에 관한 연구 (The Development of Children's Emotional and Cognitive Perspective-taking Ability)

  • 김정진;최경숙
    • 아동학회지
    • /
    • 제12권1호
    • /
    • pp.5-20
    • /
    • 1991
  • The purpose of this study was to investigate developmental tendencies and age-related differences in the relationship between children's cognitive and emotional perspective-taking ability. The subjects were 4-year-old (N=60), 6-year-old (N=60) and 8-year-old (N=60) children. In each group, there were an equal number of boys and girls. Feshbach & Roe's child perspective-taking ability test was modified for this study. The test included four facial expression cards and six different stories inducing three types of emotion: happy, sad and angry. This experiment consisted of a 3 (age) by 3 (emotional stories: happy, sad and angry) factorial design. The dependent measures were two response types: emotional and cognitive perspective-taking ability. The results showed that both cognitive and emotional perspective-taking ability increased with age. Happy emotional perspective-taking ability developed earlier than sad and angry perspective-taking ability. The correlation between cognitive and emotional perspective-taking ability increased with age.

  • PDF

3세 및 5세 유아의 또래 갈등 상황에 따른 정서표현 행동 (Emotional Behavior in Preschoolers’ Peer Conflic: The Role of Peer Conflict Situation and Age)

  • 김지현;이순형
    • 대한가정학회지
    • /
    • 제42권4호
    • /
    • pp.29-43
    • /
    • 2004
  • The purpose of the current study was to investigate peer conflict situations and age differences in preschoolers' emotional behavior of happiness, sadness, and anger. Participants were twenty-two 3-year-olds and twenty 5-year-olds, and each pair of the same age interacted in two standardized conflict situations: object possession conflict and behavioural/interpersonal conflict. Participants' emotional behaviors of happiness, sadness, and anger were obsewationally coded through facial expression, verbal intonation, gesture, and physical contact. Preschoolers expressed more sadness and anger emotional behavior in object possession conflict than in behavioural/interpersonal conflict. In object possession conflict, 3-year-olds expressed more anger emotional behavior than 5-year-olds did. In behavioural/interpersonal conflict,5-year-olds expressed more happiness emotional behavior than 3-year-olds did.

감정에 따른 얼굴 표정변화와 12경락(經絡) 흐름의 상관성 연구 (Study on the Relationship Between 12Meridians Flow and Facial Expressions by Emotion)

  • 박유진;문주호;최수진;신선미;김기태;고흥
    • 동의생리병리학회지
    • /
    • 제26권2호
    • /
    • pp.253-258
    • /
    • 2012
  • Facial expression was an important communication methods. In oriental medicine, according to the emotion the face has changed shape and difference occurs in physiology and pathology. To verify such a theory, we studied the correlation between emotional facial expressions and meridian and collateral flow. The facial region divided by meridian, outer brow was Gallbladder meridian, inner brow was Bladder meridian, medial canthus was Bladder meridian, lateral canthus was Gallbladder meridian, upper eyelid was Bladder meridian, lower eyelid was Stomach meridian, central cheeks was Stomach meridian, lateral cheeks was Small intestine meridian, upper and lower lips, lip corner, chin were Small and Large intestine meridian. Meridian and collateral associated with happiness was six. This proves happiness is a high importance on facial expression. Meridian and collateral associated with anger was five. Meridian and Collateral associated with fear and sadness was four. This shows fear and sadness are a low importance on facial expression than different emotion. Based on yang meridian which originally descending flow in the body, the ratio of anterograde and retrograde were happiness 3:4, angry 2:5, sadness 5:3, fear 4:1. Based on face of the meridian flow, the ratio of anterograde and retrograde were happiness 5:2, angry 3:4, sadness 3:5, fear 4:1. We found out that practical meridian and collateral flow change by emotion does not correspond to the expected meridian and collateral flow change by emotion.

다차원 데이터의 동적 얼굴 이미지그래픽 표현 (Representation of Dynamic Facial ImageGraphic for Multi-Dimensional)

  • 최철재;최진식;조규천;차홍준
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권10호
    • /
    • pp.1291-1300
    • /
    • 2001
  • 이 논문은 실시간 변화가 가능한 동적 그래픽스를 기반하며, 인간의 감성적 인식을 위해서 이미지 영상을 다차원 데이터의 그래픽 요소로 조작하는 시각화 표현 기법으로 연구되었다. 이 구현의 중요한 사상은 사람의 얼굴 특징 점과 기존의 화상 인식 알고리즘을 바탕으로 획득한 모수 제어 값을 다차원 데이터에 대응시켜 그 변화하는 수축 표정에 따라 감성 표현의 가상 이미지를 생성하는 이미지그래픽으로 표현한다. 제안된 DyFIG 시스템은 감성적인 표현을 할 수 있는 얼굴 그래픽의 모듈을 제안하고 구현하며, 조작과 실험을 통해 감성 데이터 표현 기술과 기법이 실현 가능함을 보인다.

  • PDF