• Title/Summary/Keyword: 얼굴감정 표현

검색결과 92건 처리시간 0.028초

모바일 기기에서 애니메이션 캐릭터의 얼굴표현을 이용한 인터랙티브 아바타에 관한 연구 (A Study on Interactive Avatar in Mobile device using facial expression of Animation Character)

  • 오정석;윤호창;전홍준
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2005년도 춘계 종합학술대회 논문집
    • /
    • pp.229-236
    • /
    • 2005
  • 본 논문은 휴대전화에서의 인터렉티브 아바타의 효과적인 감정표현에 관한 연구이다. 애니메이션 캐릭터의 얼굴 표정에서 추출한 다양한 데이터를 기반으로 사용자의 질문에 대한 답변과 함께 표현되는 아바타의 표정을 개성있고 풍부하게 표현하여 사용자에게 보다 친근하게 접근하도록 하는데 목적이 있다.

  • PDF

웹 기반 3차원 가상 공간에서 실시간 화상 대화 지원 학습/훈련 시스템 (Learning/Training System Supporting Real Time Video Chatting on Web-based 3D Virtual Space)

  • 정헌만;탁진현;이세훈;왕창종
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (2)
    • /
    • pp.571-573
    • /
    • 2000
  • 기존 분산 가상환경 시스템에서는 참여자들 사이의 언어 외적인 의사교환을 지원하기 위해 참여자의 아바타에 몸짓이나 얼굴 표정 등을 표현할 수 있도록 애니메이션 가능한 아바타를 사용한다. 하지만 아바타 애니메이션으로 참여자의 의사 및 감정 표현을 표현하는데는 한계가 있다. 따라서, 이 논문에서는 가상 환경 내의 다중 사용자들의 의사 교환 및 감정 표현을 극대화할 수 있는 방법으로 실시간 화상 대화 가상 환경 학습.훈련 시스템을 설계하였다. 설계한 시스템은 학습 참여자의 화상 및 음성 스트림을 전달함으로써 기존 응용들에 비해 풍부한 의사 교환을 지원하고, 가상 공간에서 학습에 필요한 다양한 모듈들을 포함하고 있다.

  • PDF

감정 기반 모바일 손제스쳐 애니메이션 제작 시스템 (Emotion Based Gesture Animation Generation Mobile System)

  • 이정숙;변혜원
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.129-134
    • /
    • 2009
  • 최근 모바일의 문자 서비스를 사용하여 사람들과 소통하는 사용자가 늘어나고 있다. 하지만 기존 문자 서비스의 문장과 이모티콘 만으로는 자신의 감정을 정확히 표현하기 어렵다. 이러한 점에 착안하여, 본 논문에서는 문자 내용이 나타내는 감정과 분위기 및 뉘앙스를 정확하고 재미있게 전달하기 위해서 캐릭터 애니메이션을 활용하였다. 문자 내용의 감정을 말보다 역동적이고 뚜렷하게 전달하기 위해서 캐릭터의 얼굴 표정과 손제스쳐로 감정과 내용을 나타내는 감정 기반 모바일 손제스쳐 애니메이션 제작 시스템을 제안한다. Michel[1]등은 화자의 스타일을 나타낸 손제스쳐 애니메이션 제작을 위해서 인터뷰 영상을 분석하고 손제스쳐가 자연스럽게 연결되는 애니메이션 생성을 위한 손제스쳐 생성 그래프를 제안하였다. 본 논문에서는 Michel[1]의 논문을 확장하여 캐릭터의 감정을 손제스쳐로 과장되게 표현한 디즈니 애니메이션에서 단어의 감정을 표현하는 손제스쳐를 추출하고 자연스럽게 연결된 모바일 3차원 애니메이션으로 제작하는 것에 초점을 맞춘다. 특히 입력된 문장의 감정에 맞는 손제스쳐를 선택하는 감정 손제스쳐 생성 그래프를 제안하고 감정의 자연스러운 흐름을 반영하는 방법을 제시한다. 제안된 시스템의 타당성과 기존 서비스와의 대체 적정도를 알아보기 위해서 사용자 반응을 조사 분석한다.

  • PDF

실시간 감정 표현 아바타의 설계 및 구현 (Design and Implementation of a Real-Time Emotional Avatar)

  • 정일홍;조세홍
    • 디지털콘텐츠학회 논문지
    • /
    • 제7권4호
    • /
    • pp.235-243
    • /
    • 2006
  • 본 논문에서는 얼굴의 표정 변화를 인식하여 실시간으로 감정을 표현하는 아바타를 설계하고 구현하는 방법을 제안하였다. 실시간 감정 표현 아바타는 수동으로 아바타의 표정 패턴을 변화를 주는 것이 아니라 웹캠을 이용하여 실시간으로 입 모양 특징을 추출하고 추출한 입 모양의 패턴을 분석한 뒤, 미리 정의된 표정 패턴에 부합되는 것을 찾는다. 그리고 부합된 표정 패턴을 아바타에 적용하여 아바타의 얼굴 표정을 표현한다. 표정 인식 아바타는 웹캠에서 들어온 영상을 모델 접근 방법을 이용하여 보다 빠르게 입 부분을 인식할 수 있도록 하였다. 그리고 표정 패턴 추출은 표정에 따라 입 모양이 변하는 것을 이용하였다. 모델접근 방법을 이용하여 눈의 정보를 찾은 후 그 정보를 이용하여 입 모양을 추출하게 된다. 기본적으로 13가지 입 모양으로 각각의 표정을 유추하고 각 표정 패턴에 맞는 6개의 아바타를 미리 구현하여 보다 빠르게 아바타의 표정을 변할 수 있게 하였다.

  • PDF

청각장애인용 방송에서 화자 식별을 위한 얼굴 인식 알고리즘 및 전처리 연구 (Face Recognition and Preprocessing Technique for Speaker Identification in hard of hearing broadcasting)

  • 김나연;조숙희;배병준;안충현
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.450-452
    • /
    • 2020
  • 본 논문에서는 딥러닝 기반 얼굴 인식 알고리즘에 대해 살펴보고, 이를 청각장애인용 방송에서 화자를 식별하고 감정 표현 자막을 표출하기 위한 배우 얼굴 인식 기술에 적용하고자 한다. 우선, 배우 얼굴 인식을 위한 방안으로 원샷 학습 기반의 딥러닝 얼굴 인식 알고리즘인 ResNet-50 기반 VGGFace2 모델의 구성에 대해 이해하고, 이러한 모델을 기반으로 다양한 전처리 방식을 적용하여 정확도를 측정함으로써 실제 청각장애인용 방송에서 배우 얼굴을 인식하기 위한 방안에 대해 모색한다.

  • PDF

영상분석법에 의한 자의적 정서변화에 따른 표정연구 (Facial Expression Research according to Arbitrary Changes in Emotions through Visual Analytic Method)

  • 변인경;이재호
    • 한국콘텐츠학회논문지
    • /
    • 제13권10호
    • /
    • pp.71-81
    • /
    • 2013
  • 의식적 통제가 가능한 언어는 감정을 숨길 수 있으나, 얼굴 표정은 다양한 문화 속에서도 일관성을 가진다. 표정은 사람의 이미지를 결정하며, 표정에서 감정을 해석하는 능력은 대인관계의 핵심으로 사람의 태도와 결정을 바꿀 만큼 중요하다. 불안정 애착아동, 노인, 자폐증, ADHD 아동, 우울증집단은 얼굴 표정인식 능력과제의 수행결과가 낮아, 이들에 대한 적극적인 개입은 심리장애의 예방과 치료 효과의 가능성을 기대하기도 한다. 지금까지 연구는 주로 상대방 표정에 의한 정서읽기, 수용자의 감정변화가 중심이었으며, 자신의 정서를 스스로 나타내는 "자기표현 표정수행" 및 표정 변화에 대한 정량적 분석 연구가 미흡하였다. 따라서 본 연구에서는 영상을 통한 표정의 정량적 분석법 개발을 목표로 8개의 정서 표정을 "자기표현 표정수행"방법으로 분석하였다. 연구의 정량적 결과는 심리장애 극복을 위한 교육, 심리 행동 치료, 감성공학, 글로벌화 되는 다문화(multi-culture)사회에서 문화극복을 위한 사회관계 대안, 한국문화와 예술 콘텐츠의 다양한 분야에 적용을 기대한다.

시각장애인을 위한 온각 기반 감정 전달 시스템 (Thermal Display-Based Emotional Communication System for Blindness)

  • 노효주;김강태;이성길
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1659-1660
    • /
    • 2013
  • 사람 간 의사소통에서 표정, 몸짓과 같은 비언어적 시각 요소들은 감정 표현의 중요한 요소이나, 시각장애인들은 이러한 감정 정보들을 받아들이는데 제한적이다. 본 논문은 시각장애인에게 이러한 비언어적 시각 요소 기반의 감정 정보를 인식하여 온각으로 전달하기 위한 방법론을 제안한다. 상대방의 표정은 안경 착용형 카메라로 인식되어 감정으로 분류된다. 인식된 표정이 웃는 얼굴과 같이 호감인 경우, 이 상태는 온각으로 변환되어 안경에 착용된 온도전달 장치에서 시각장애인에게 호감을 전달한다. 이러한 온각기반 감정전달 장치는 시각장애인의 의사소통 향상을 위한 장치의 개발에 응용될 수 있다.

기준얼굴을 이용한 얼굴표정 분석 및 합성 (Analysis and Synthesis of Facial Expression using Base Faces)

  • 박문호;고희동;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권8호
    • /
    • pp.827-833
    • /
    • 2000
  • 본 논문에서는 인간의 중요한 감정표현 수단인 얼굴표정을 분석하는 방법을 제시하였다. 제안된 방법에서는 기준얼굴과 그의 혼합 비율의 관점에서 얼굴표정을 분석한다. 기준얼굴은 인간의 대표적인 얼굴표정인 놀람, 두려움, 분노, 혐오, 행복, 슬픔, 그리고 무표정으로 설정하였다. 얼굴 모델의 생성을 위해 일반 얼굴 모델이 얼굴영상으로 정합하는 방법을 사용하였다. 기준얼굴의 혼합 비율을 구하기 위해 유전자 알고리즘과 Simulated Annealing 방법을 사용하였고 탐색된 얼굴표정 정보를 이용한 얼굴표정 생성 실험을 통해 제안된 방법의 유용성을 입증하였다.

  • PDF

PCA을 이용한 얼굴표정의 감정인식 방법 (Emotion Recognition Method of Facial Image using PCA)

  • 김호덕;양현창;박창현;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.11-14
    • /
    • 2006
  • 얼굴 표정인식에 관한 연구에서 인식 대상은 대부분 얼굴의 정면 정지 화상을 가지고 연구를 한다. 얼굴 표정인식에 큰 영향을 미치는 대표적인 부위는 눈과 입이다. 그래서 표정 인식 연구자들은 얼굴 표정인식 연구에 있어서 눈, 눈썹, 입을 중심으로 표정 인식이나 표현 연구를 해왔다. 그러나 일상생활에서 카메라 앞에 서는 대부분의 사람들은 눈동자의 빠른 변화의 인지가 어렵고, 많은 사람들이 안경을 쓰고 있다. 그래서 본 연구에서는 눈이 가려진 경우의 표정 인식을 Principal Component Analysis (PCA)를 이용하여 시도하였다.

  • PDF

근육 모델 기반 3D 얼굴 표정 생성 시스템 설계 및 구현 (A Design and Implementation of 3D Facial Expressions Production System based on Muscle Model)

  • 이혜정;정석태
    • 한국정보통신학회논문지
    • /
    • 제16권5호
    • /
    • pp.932-938
    • /
    • 2012
  • 얼굴 표정은 상호간 의사소통에 있어 중요한 의미를 갖는 것으로, 인간이 사용하는 다양한 언어보다도 수많은 인간 내면의 감정을 표현할 수 있는 유일한 수단이다. 본 논문에서는 쉽고 자연스러운 얼굴 표정 생성을 위한 근육 모델 기반 3D 얼굴 표정 생성 시스템을 제안한다. 3D 얼굴 모델의 표정 생성을 위하여 Waters의 근육 모델을 기반으로 자연스러운 얼굴 표정 생성에 필요한 근육을 추가하여 사용하고, 표정 생성의 핵심적 요소인 눈썹, 눈, 코, 입, 볼 등의 특징요소들을 중심으로 얼굴 근육과 근육벡터를 이용하여 해부학적으로 서로 연결된 얼굴 근육 움직임의 그룹화를 통해 얼굴 표정 변화의 기본 단위인 AU를 단순화하고 재구성함으로써 쉽고 자연스러운 얼굴 표정을 생성할 수 있도록 하였다.