• 제목/요약/키워드: 얼굴표정

검색결과 518건 처리시간 0.028초

감성 인식 컴퓨팅 기술을 적용한 이러닝 상호작용 기술 연구 (Enhancing e-Learning Interactivity vla Emotion Recognition Computing Technology)

  • 박정현;김인옥;정상목;송기상;김종백
    • 컴퓨터교육학회논문지
    • /
    • 제11권2호
    • /
    • pp.89-98
    • /
    • 2008
  • 학습자와 이러닝 시스템 사이의 상호작용은 이러닝 시스템의 효율성을 결정짓는 중요한 요소이다. 기존의 웹기반 콘텐츠의 경우에도 다양한 상호작용 기능이 채용되고 있지만 학습자들은 인간-컴퓨터 상호작용 기술의 한계에 따른 실시간 인간 교사로부터 받는 것과 같은 피드백을 경험하는 것은 한계가 있다. 본 논문에서는 학습자의 얼굴 표정을 이용하여 감정을 인식하는 시스템을 개발하고 튜터링 시스템에 통합시켰다. 관찰되는 학습자의 감정 변화에 대하여 인간 교사가 하듯이 적합한 피드백 메시지를 제공하여 이러닝 환경에서 나타날 수 있는 학습자의 고립감을 제거할 수 있도록 하였다. 본 체제를 실제 수업에 도입한 결과 학업 성취도의 개선과 이러닝 학습의 흥미도 개선이 유의미하게 이루어질 수 있음을 보였다.

  • PDF

감성 커뮤니케이션을 위한 디지털 눈 콘텐츠 표현 연구 (A Study on The Expression of Digital Eye Contents for Emotional Communication)

  • 임윤아;이은아;권지은
    • 디지털융복합연구
    • /
    • 제15권12호
    • /
    • pp.563-571
    • /
    • 2017
  • 본 연구는 디지털 환경에 적용될 수 있는 디지털 눈 콘텐츠의 감성 표현 요소를 정립하는데 목적이 있다. 특히, 스마트 인형의 적용 가능한 감성을 도출하고, 각 감성에 대한 표현 요소의 가이드라인을 제안하고자 한다. 본 연구를 위하여 첫째, 문헌 정보, 애니메이션, 실제 사람의 영상을 바탕으로 눈으로 표현되는 감성 표현에 대한 개념 및 특징을 연구한다. 둘째, FGI를 통해 스마트 인형의 디지털 눈에 필요한 6가지 감정 -Happy, Angry, Sad, Relaxed, Sexy, Pure-을 정의하고, 각 감성에 따른 표현 요소를 추출하였다. 셋째, 추출된 요소를 분석하여 디지털 눈의 감성 표현에 대한 가이드라인을 정립하였다. 연구 결과 각 감성을 구분하고 표현하기 위한 요소는 눈매, 시선, 홍채 크기, 특수 효과의 총 4가지로 나타났고 각 감성 별로 구분되는 요소별 정의와 특징을 도출하였다. 얼굴 표정에 있어서 가장 중요한 요소인 눈에 대한 감성 표현 연구는 애니메이션을 포함한 디지털 콘텐츠와 로봇, 스마트 인형 등의 감성 커뮤니케이션 효과를 높일 수 있는 방법으로 활용될 수 있을 것이다.

영화 <사도>(2015)의 클로즈업 쇼트 연구 (Study on Close-Up Shots in Film (2015))

  • 이아영
    • 한국콘텐츠학회논문지
    • /
    • 제16권7호
    • /
    • pp.609-621
    • /
    • 2016
  • 프레임 가득 배우의 얼굴을 확대하여 미세한 표정의 떨림조차 놓치지 않고 정확하게 포착하는 클로즈업은 살아있는 배우가 연기를 하는 무대 위 보다 훨씬 더 사실적으로 배우의 연기를 표현한다. 클로즈업은 관객의 시선을 사로잡을 수 있는 나름의 이미지와 의미의 효과들을 생산하며, 배우의 얼굴이 최소한의 거리에서 관객과 직접적인 소통을 하는 듯한 심리적 현상을 불러일으키기 때문이다. 이에 본 연구는 클로즈업의 촬영 효과와 연기 효과를 연구하고, 그에 따른 연기 훈련의 필요성을 제언하기 위해 영화 <사도>(2015)를 분석해보았다. 영화 <사도>는 송강호가 인물 설정의 사실성을 높이기 위해 얼굴의 특수 분장으로 실제 나이보다 20년 이상 많은 나이를 연기했고, 이러한 얼굴과, 제스처, 클로즈업 된 소품들이 극중 인물의 성격과 영화의 감정을 표현함에 있어 어떠한 연기력을 충분히 공유하며, 영화연기의 핵심이 되는 다양한 언어적, 시각적, 정서적 의미의 효과들을 만들어내고 있다는 점에서 분석의 대상으로 삼았다. 본 연구를 통해 배우들이 클로즈업의 효과와 영화연기의 핵심을 알고, 카메라 앞에서 효과적인 표현 방법을 찾는데 조금이나마 도움이 되었으면 하는 바람이다.

애니메이션 동작을 위한 Squash & Stretch 원칙의 분석 (Analysis of Squash & Stretch Principle for Animation Action)

  • 이남국;경병표;유석호
    • 게임&엔터테인먼트 논문지
    • /
    • 제1권1호
    • /
    • pp.47-54
    • /
    • 2005
  • 스쿼시와 스트레치 원칙은 애니메이션 동작을 위한 필수적인 원칙으로 작용한다. 이 원칙의 적용은 캐릭터에게 무게와 부피의 허상을 제공하며, 애니메이션 동작의 뻣뻣함과 딱딱함을 벗어나, 부드럽고 유연한 동작이 되게 하는 것을 가능하게 한다. 애니메이션에서 인물이나 사물의 동작표현을 실제 세계와 같이 표현하게 되면, 부자연스럽게 보인다. 스쿼시와 스트레치가 없는 어떤 동작이든 딱딱하고 흥미가 없고, 살아있지 않은 것으로 보일 것이다. 이것은 질량, 부피, 중력의 기본 법칙과 함께, 모든 사물의 움직임, 캐릭터의 동작, 대사, 얼굴표정 등에 모두 적용될 수 있다. 이 원칙이 없이는 어느 동작도 잘 표현되지 않을 것이다. 좋은 애니메이션 동작이 되려면, 이것은 2D 애니메이션에서 만이 아니라, 3D애니메이션에서도 깊이 적용되어야 한다. 따라서, 스쿼시와 스트레치 원칙의 체계적인 분석이 요구된다.

  • PDF

지능적인 홈을 위한 상황인식 미들웨어에 대한 연구 (A Research on a Context-Awareness Middleware for Intelligent Homes)

  • 최종화;최순용;신동규;신동일
    • 정보처리학회논문지A
    • /
    • 제11A권7호
    • /
    • pp.529-536
    • /
    • 2004
  • 무선네트워크와 각종 감지 센서로 통합된 스마트 홈은 우리의 삶의 일부분으로 자리 잡을 것이다. 이 논문은 사용자의 선호도에 근거하여 자동적인 흠 서비스를 제공하는 상황인식 미들웨어에 대하여 설명한다. 상황인식 미들웨어는 사용자의 선호도에 대한 학습과 예측 알고리즘을 수행하기 위하여 6가지의 기본 데이터를 이용하고 제시되는 6가지의 기본 데이터는 맥박, 체온, 얼굴표정, 실내온도, 시간, 사용자 위치이다. 6개의 데이터는 컨텍스트 모델을 구성하고 컨텍스트 매니저 모듈에 의해 기본 데이터로 사용된다. 사용자에 의해서 선택되어진 컨텐츠에 대한 정보를 유지하는 로그매니저가 제시되고 사용자에게 적절한 홈서비스를 제공하기 위해 신경망에 근거한 학습 및 예측 알고리즘을 제시한다. 실험결과는 개인의 선호도 패턴이 연구된 컨텍스트 모델에 의해서 효과적으로 예측되고 평가되는 것을 보여준다.

Generative Adversarial Networks를 이용한 Face Morphing 기법 연구 (Face Morphing Using Generative Adversarial Networks)

  • 한윤;김형중
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권3호
    • /
    • pp.435-443
    • /
    • 2018
  • 최근 컴퓨팅 파워의 폭발적인 발전으로 컴퓨팅의 한계 라는 장벽이 사라지면서 딥러닝 이라는 이름 하에 순환 신경망(RNN), 합성곱 신경망(CNN) 등 다양한 모델들이 제안되어 컴퓨터 비젼(Computer Vision)의 수많은 난제들을 풀어나가고 있다. 2014년 발표된 대립쌍 모델(Generative Adversarial Network)은 비지도 학습에서도 컴퓨터 비젼의 문제들을 충분히 풀어나갈 수 있음을 보였고, 학습된 생성기를 활용하여 생성의 영역까지도 연구가 가능하게 하였다. GAN은 여러 가지 모델들과 결합하여 다양한 형태로 발전되고 있다. 기계학습에는 데이터 수집의 어려움이 있다. 너무 방대하면 노이즈를 제거를 통한 효과적인 데이터셋의 정제가 어렵고, 너무 작으면 작은 차이도 큰 노이즈가 되어 학습이 쉽지 않다. 본 논문에서는 GAN 모델에 영상 프레임 내의 얼굴 영역 추출을 위한 deep CNN 모델을 전처리 필터로 적용하여 두 사람의 제한된 수집데이터로 안정적으로 학습하여 다양한 표정의 합성 이미지를 만들어 낼 수 있는 방법을 제시하였다.

연주자의 의도와 청자 간의 음악 연주를 통한 정서 전달 (Emotional Expression in Musical Performance)

  • 김종완;한광희
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 2부
    • /
    • pp.439-444
    • /
    • 2007
  • 정서 전달에는 언어적 의사소통뿐만 아니라 비언어적 의사소통이 거론되곤 한다. 하지만 지금까지의 비언어적 의사소통 연구는 대부분 언어의 음향학적 연구나 얼굴표정 연구에 국한되었다. 또한 음악의 정서에 대한 연구는 음악적 구조 혹은 스타일과 여러 성격적 특질 및 행동 간의 관계, 혹은 생리적 효과 등 어떤 음악(what music)이 특정한 효과를 일으키느냐에 중점을 두고 있었다. 따라서 본 연구에서는 Gabrielsson & Juslin(1996)의 연구에 의거, 음악을 통하여 작곡가가 아닌 연주자의 의도된 정서가 청자에게 얼마나 잘 지각될 수 있는지 알아보고자 하였다. 봉 녕구의 가설은 다음과 같다; 첫째, 연주자의 정서적 의도는 음악의 모든 물리적 변인에 영향을 준다; 둘째, 청자는 의도된 정서를 지각하는 데 일반적으로 성공적이다; 셋째, 특정 정서는 다른 정서보다 더 잘 구분된다. 본 연구에 사용된 곡은 학습 효과를 배제하기 위하여 새롭게 전문 작곡가에 의해 작곡되었으며, 전문 연주자는 동일한 곡을 7종류의 정서(행복한, 슬픈, 화난, 두려운, 다정한, 엄숙한, 정서 표현 없음)를 표현하도록 연주하였다. 하나의 완전한 음악을 표현하기 위하여 각 곡은 멜로디(악기구성: 일렉트릭 기타, 베이스, 그랜드 피아노)와 리듬(드럼)을 포함하였다. 실험참가자는 각 곡을 듣고 7개의 정서 종류 각각에 점수를 평정하였다. 그 결과 이전 연구와 마찬가지로 청자는 연주자의 의도된 정서를 일반적으로 지각하는 데 성공하였으며 7개의 정서 중 특징적인 정서("행복한", "슬픈", "화난", "다정한") 는 다른 정서 보다 더 잘 구별되었다. 본 연구에 사용된 "두려운" 정서 곡의 음향분석 결과 소리 강도의 큰 변산이 특징이었다. 이는 이전 연구에서 "두려운" 정서의 특징인 타이밍의 큰 변산과 함께, "두려운" 정서가 '불규칙적이거나 변화가 커서 예측하기 어려운' 속성을 지니고 있음을 시사한다. 또한 "다정한" 정서에 대해서 본 연구에서는 다른 모든 정서와 유의미한 차이를 보인 반면, 이전 연구에서는 "슬픈"과 유의미한 차이가 없었다. 이는 본 연구에 쓰인 "다정한" 정서의 곡은 리듬 패턴을 다른 정서 버전과는 다르게 보사노바 리듬을 사용하였다. 이전 연구와는 다르게 빠른 템포였음에도 불구하고 구별이 잘 된 이유는 이와 같이 장르 특징적인 영향이 컸기 때문이라고 할 수 있다. 이는 연주자나 음악 스타일 자체의 성격이 정서 판단에 있어 큰 영향을 준다는 사실을 시사한다. 종합적으로 음악을 통한 정서 전달에 있어 연주자, 청자, 악기, 음악 스타일의 차이가 영향을 줄 수 있다는 사실을 확인하였으며 이러한 결과는 Scherer & Oshinsky(1977)가 언급하였듯 음악 연주가 다른 비언어적 의사소통 방법과 공유하는 특징이 있음을 시사한다.

  • PDF

CogTV를 위한 생체신호기반 시청자 선호도 모델 (A Viewer Preference Model Based on Physiological Feedback)

  • 박태서;김병희;장병탁
    • 한국지능시스템학회논문지
    • /
    • 제24권3호
    • /
    • pp.316-322
    • /
    • 2014
  • 본 논문은 TV를 이용한 영화시청 환경에서 해당 컨텐트에 대한 시청자의 암묵적 반응과 컨텐트의 멀티모달 피쳐를 실시간으로 측정 및 동기화하여 이를 기반으로 동영상 선호모델을 지속적으로 개선하고 필요시 영화추천을 수행하는 시스템을 제안한다. 제안한 시스템에선 이미지, 소리, 자막 스트림으로부터 실시간 추출되는 저수준 피쳐들과 동기화되어 측정된 얼굴표정, 자세 및 생체신호로부터 해당 동영상이 유발한 시청자의 감정상태를 추정하여 선호모델 학습에 사용한다. 제안한 컨텐트-시청자 연계 추천모델의 일례로서 컨텐트의 오디오 및 자막 정보를 이용하여 시청자의 피부전기활성도로 측정된 arousal반응을 예측할 수 있음을 보인다.

모핑을 이용한 화상회의의 시선 맞춤 보정 방법 (Mutual Gaze Correction for Videoconferencing using View Morphing)

  • 백으뜸;호요성
    • 스마트미디어저널
    • /
    • 제4권1호
    • /
    • pp.9-15
    • /
    • 2015
  • 언어를 사용하지 않고 몸짓이나 손짓, 표정 등 신체의 동작으로 의사나 감정을 표현하고 전달하는 비언어적 전달 방법은 중요한 의사전달 방법 중 하나이다. 이러한 몸짓이나, 손짓, 시선 맞춤 그리고 손동작은 때론 말보다 더 강력한 의사전달의 방법으로 작용한다. 비언어적 의사전달 방법에서 시선 맞춤은 그중에서도 가장 중요한 의사전달 방법이다. 하지만 화상회의를 할 때 디스플레이 상에서의 눈과 카메라의 차이 때문에 상호간에 시선 맞춤이 되지 않는다. 만약 상호간에 시선 맞춤을 하지 않고 대화를 하면 정확한 의사전달이 힘들고 서로의 이야기에 집중하기 어려워진다. 본 논문에서는 화상회의 상황에서 시선 맞춤을 개선하는 방법을 제안한다. 시선 맞춤을 개선하기 위해 두 대의 카메라를 텔레비전의 위, 아래에 설치하였다. 동시에 두 영상을 촬영하여 2D 워핑을 하여 가상의 중간시점으로 옮기고, 뷰 모핑을 한다. 모핑된 얼굴과 배경영상을 합성하여 화상회의를 위해 개선된 시선 맞춤 영상을 만든다. 실험 결과를 통하여 제안한 알고리즘이 시선 맞춤을 개선하고 자연스러운 중간 시점 영상을 합성하는 것을 확인 할 수 있다.

스톱모션 기법의 기초 교육모형 개발 (Development of Basic Education Models of Stop-Motion Techniques)

  • 양세혁
    • 한국콘텐츠학회논문지
    • /
    • 제7권11호
    • /
    • pp.258-269
    • /
    • 2007
  • 스톱모션은 실재 공간에서 직접 사물에 움직임을 부여할 수 있는 특성에 의하여 움직임에 대한 3차원적 감각을 익힐 수 있기 때문에 애니메이션 교육의 기초 과정으로서 반드시 다루어져야할 분야라 할 수 있다. 하지만 기존의 스톱모션 교육이 대부분 단편애니메이션을 제작하는 형식으로 이루어져 있기 때문에, 학생들은 졸업 후 산업현장에서 '움직임'에 대하여 재교육을 받아야하는 것이 현실이다. 이러한 문제를 해결하기 위해서는 최소 한 한기(16주)과정의 기초 움직임에 대한 보다 체계적인 교육이 필요하다. 따라서 스톱모션을 전공하려는 학생들은 물론 애니메이션의 기초 능력을 더욱 향상시키려는 학생들을 위하여, '걷기 자유동작 얼굴표정' 표현을 중심으로, 스톱모션 기법의 기초과정을 위한 효율적 교육모형을 제시하려 한다.