• 제목/요약/키워드: 얼굴감정인식

검색결과 130건 처리시간 0.025초

e-Learning에서 나타날 수 있는 학습자의 얼굴 표정 분석 (Analyzing facial expression of a learner in e-Learning system)

  • 박정현;정상목;이완복;송기상
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 춘계 종합학술대회 논문집
    • /
    • pp.160-163
    • /
    • 2006
  • e-Learning에서 교수 시스템이 학습자의 학습에 대한 흥미도, 관심도 또는 각성상태를 실시간으로 측정하여 학습자의 정서 상태를 정확히 알아낼 수 있다면 학습자가 지루해 할 때 학습에 대한 흥미를 느낄 수 있는 요소를 피드백 해줄 수 있으며, 학습자가 학습내용을 이해하지 못하고 있거나 어려움을 느끼고 있는 경우 학습내용을 이해할 수 있는 도움내용을 처치하는 등의 적응적 교수 시스템(adaptive tutoring system)의 역할을 수행할 수 있다. 현재의 표정 인식 분야는 대부분 성인의 얼굴표정을 대상으로 하여 일상적인 감정인 분노, 혐오, 공포, 슬픔, 놀라움, 기쁨 등을 대상으로 하고 있다. 하지만 이러한 일상적인 표정들은 e-Learning 에서 나타나는 학습자의 감정이라고 보기 어렵다. 따라서 표정을 통하여 학습자의 감정 상태를 인식하도록 해주기 위해서는 e-Learning에서 학습자가 어떤 표정을 짓는지를 먼저 연구하여 다양한 표정사진을 충분히 취득한 후에 각 표정사진의 감정상태가 무엇인지를 밝혀주는 작업이 필요하다. 이에 본 연구는 표정 데이터베이스의 구축을 위한 선행 연구로 e-Learning에서 학습자가 나타내는 감정과 그 감정에 따른 표정이 어떻게 이루어져 있는지를 찾아내고 그 특징을 분석해보았다.

  • PDF

로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어 (Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity)

  • 김민규;이희승;박정우;조수훈;정명진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.547-552
    • /
    • 2008
  • 앞으로 로봇은 더욱 사람과 가까워 질 것이고, 따라서 사람과 로봇간의 상호작용도 활발해질 것이다. 이 때 직관적인 소통수단이 필수적이기 때문에, 로봇이 표정을 통해 감정을 표현할 수 있도록 하는 연구가 활발히 진행되어왔다. 기존에는 얼굴 표정을 주로 이용하였는데, 사람처럼 감정의 강도를 표현하기 위해서는 얼굴 외의 다른 방법도 필요하다. 로봇이 감정의 강도를 표현하기 위해서는 팔의 제스처, 움직임, 소리, 색깔 등을 이용할 수 있다. 본 논문에서는 LED 를 이용할 수 있도록 색과 깜빡임에 대해 연구하였다. 색깔과 감정의 관계에 대해서는 기존에 연구가 많이 되어 있지만, 실제로 로봇에 구현하기에는 정량적 자료가 부족하여 어려움이 있다. 본 논문에서는 6 가지 기본 감정(화남, 슬픔, 혐오, 놀람, 기쁨, 공포)을 효과적으로 나타낼 수 있는 색과 깜빡임 주기를 결정하고, 아바타를 이용하여 감정의 강도를 설문조사 하였다. 결과적으로, 슬픔, 혐오, 화남의 경우 색깔과 깜빡임을 통해 감정의 강도를 높일 수 있었다. 공포, 기쁨, 놀람의 경우 색깔과 깜빡임이 감정 인식에 큰 영향을 미치지 못했는데, 이는 그 감정에 해당하는 색깔이나 깜빡임을 수정해서 개선할 수 있을 것이다.

  • PDF

얼굴 표정 데이터베이스 비교 및 분석 (Comparison and Analysis of Facial expression Database)

  • 김세송;김동욱;정승원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.686-687
    • /
    • 2017
  • 인간의 감정인식의 학습에 사용되는 얼굴 표정 데이터베이스를 조사하고 이를 비교 및 분석하여 사용자가 각자의 연구에 알맞은 데이터베이스를 이용하여 연구할 수 있는 안목을 제시한다.

FACS와 AAM을 이용한 Bayesian Network 기반 얼굴 표정 인식 시스템 개발 (Development of Facial Expression Recognition System based on Bayesian Network using FACS and AAM)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.562-567
    • /
    • 2009
  • 얼굴 표정은 사람의 감정을 전달하는 핵심 메커니즘으로 이를 적절하게 활용할 경우 Robotics의 HRI(Human Robot Interface)와 같은 Human Computer Interaction에서 큰 역할을 수행할 수 있다. 이는 HCI(Human Computing Interface)에서 사용자의 감정 상태에 대응되는 다양한 반응을 유도할 수 있으며, 이를 통해 사람의 감정을 통해 로봇과 같은 서비스 에이전트가 사용자에게 제공할 적절한 서비스를 추론할 수 있도록 하는 핵심요소가 된다. 본 논문에서는 얼굴표정에서의 감정표현을 인식하기 위한 방법으로 FACS(Facial Action Coding System)와 AAM(Active Appearance Model)을 이용한 특징 추출과 Bayesian Network 기반 표정 추론 기법이 융합된 얼굴표정 인식 시스템의 개발에 대한 내용을 제시한다.

표정인식을 활용한 고객피드백에 관한 연구 (A Study on Customer Feedback using Facial Expression)

  • 송은지;강민식
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 추계학술대회
    • /
    • pp.685-686
    • /
    • 2015
  • 최근 감성ICT산업은 성숙기 IT산업을 새롭게 도약시킬 핵심 산업으로 인식되면서 관련 산업계의 주목을 받고 있으며 다양한 분야에 접목되고 있다. 특히, 인간표정을 인식하는 IT기술은 사회적 측면에서 인간중심의 미래생활 패러다임의 변화가 감성이해를 통한 사용자 친화적 솔루션으로 발전하고 있다. 효율적인 경영을 위해 기업은 고객의 요구사항을 정확히 파악하는 것이 중요한데 본 연구에서는 이러한 감성ICT 기술을 이용한 새로운 커뮤니케이션의 사례로서 고객의 감정 중에 특히 얼굴표정을 파악하여 고객중심의 맞춤형 서비스 기능을 제공할 수 있도록 얼굴표정에 의해 호감도를 특정할 수 있는 알고리즘을 제안한다. 이것은 기존의 7개 표정인식 알고리즘을 이용하여 고객만족도를 특정할 수 있도록 한 것이다.

  • PDF

얼굴 표정 인식을 위한 Densely Backward Attention 기반 컨볼루션 네트워크 (Convolutional Network with Densely Backward Attention for Facial Expression Recognition)

  • 서현석;;이승룡
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.958-961
    • /
    • 2019
  • Convolutional neural network(CNN)의 등장으로 얼굴 표현 인식 연구는 많은 발전을 이루었다. 그러나, 기존의 CNN 접근법은 미리 학습된 훈련모델에서 Multiple-level 의 의미적 맥락을 포함하지 않는 Attention-embedded 문제가 발생한다. 사람의 얼굴 감정은 다양한 근육의 움직임과 결합에 기초하여 관찰되며, CNN 에서 딥 레이어의 산출물로 나온 특징들의 결합은 많은 서브샘플링 단계를 통해서 class 구별와 같은 의미 정보의 손실이 일어나기 때문에 전이 학습을 통한 올바른 훈련 모델 생성이 어렵다는 단점이 있다. 따라서, 본 논문은 Backbone 네트워크의 Multi-level 특성에서 Channel-wise Attention 통합 및 의미 정보를 포함하여 높은 인식 성능을 달성하는 Densely Backwarnd Attention(DBA) CNN 방법을 제안한다. 제안하는 기법은 High-level 기능에서 채널 간 시멘틱 정보를 활용하여 세분화된 시멘틱 정보를 Low-level 버전에서 다시 재조정한다. 그런 다음, 중요한 얼굴 표정의 묘사를 분명하게 포함시키기 위해서 multi-level 데이터를 통합하는 단계를 추가로 실행한다. 실험을 통해, 제안된 접근방법이 정확도 79.37%를 달성 하여 제안 기술이 효율성이 있음을 증명하였다.

실시간 감정 표현 아바타의 설계 및 구현 (Design and Implementation of a Real-Time Emotional Avatar)

  • 정일홍;조세홍
    • 디지털콘텐츠학회 논문지
    • /
    • 제7권4호
    • /
    • pp.235-243
    • /
    • 2006
  • 본 논문에서는 얼굴의 표정 변화를 인식하여 실시간으로 감정을 표현하는 아바타를 설계하고 구현하는 방법을 제안하였다. 실시간 감정 표현 아바타는 수동으로 아바타의 표정 패턴을 변화를 주는 것이 아니라 웹캠을 이용하여 실시간으로 입 모양 특징을 추출하고 추출한 입 모양의 패턴을 분석한 뒤, 미리 정의된 표정 패턴에 부합되는 것을 찾는다. 그리고 부합된 표정 패턴을 아바타에 적용하여 아바타의 얼굴 표정을 표현한다. 표정 인식 아바타는 웹캠에서 들어온 영상을 모델 접근 방법을 이용하여 보다 빠르게 입 부분을 인식할 수 있도록 하였다. 그리고 표정 패턴 추출은 표정에 따라 입 모양이 변하는 것을 이용하였다. 모델접근 방법을 이용하여 눈의 정보를 찾은 후 그 정보를 이용하여 입 모양을 추출하게 된다. 기본적으로 13가지 입 모양으로 각각의 표정을 유추하고 각 표정 패턴에 맞는 6개의 아바타를 미리 구현하여 보다 빠르게 아바타의 표정을 변할 수 있게 하였다.

  • PDF

이미지 메타 정보 기반 한국인 표정 감정 인식 (Korean Facial Expression Emotion Recognition based on Image Meta Information)

  • 문형주;임명진;김은희;신주현
    • 스마트미디어저널
    • /
    • 제13권3호
    • /
    • pp.9-17
    • /
    • 2024
  • 최근 팬데믹의 영향과 ICT 기술의 발전으로 인해 비대면·무인 시스템의 활용이 확대되고 있으며, 비대면 상황에서 의사소통은 감정을 이해하는 것이 매우 중요하다. 감정을 이해하기 위해서는 다양한 표정에 대한 감정 인식 방법이 필요함에 따라 이미지 데이터에서 표정 감정 인식 개선을 위한 인공지능 기반 연구가 진행되고 있다. 하지만 기존의 표정 감정 인식 연구는 정확도 향상을 위해 대량의 데이터를 활용하기 때문에 높은 컴퓨팅 파워와 많은 학습 시간이 필요하다. 본 논문에서는 이러한 한계점을 개선하기 위해 소량 데이터로도 표정 감정 인식이 가능한 방법으로 이미지 메타 정보인 연령과 성별을 활용한 표정 감정 인식 방법을 제안한다. 표정 감정 인식을 위해 원본 이미지 데이터에서 Yolo Face 모델을 활용하여 얼굴을 검출하였으며, 이미지 메타 정보를 기반으로 VGG 모델을 통해 연령과 성별을 분류한 다음 EfficientNet 모델을 활용하여 7가지 감정을 인식하였다. 메타 정보 기반 데이터 분류 모델과 전체 데이터로 학습한 모델을 비교한 결과 제안하는 데이터 분류 학습 모델의 정확도가 더 높았음을 확인하였다.

감정로그 자동화 기록을 위한 표정인식 어플리케이션 개발 (Development of facial recognition application for automation logging of emotion log)

  • 신성윤;강선경
    • 한국정보통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.737-743
    • /
    • 2017
  • 지능형 라이프로그 시스템은 언제(When), 어디서(Where), 누구와 함께(Who), 어떤 상황에서(What, How), 일어나는 정보, 즉 사용자의 일상에서 발생되는 시간, 인물, 장면, 연령대, 감정, 관계, 상태, 위치, 이동 경로 등의 다양한 상황정보들을 인식하여 태그를 달아 사용자의 일상생활을 기록하고 쉽고 빠르게 접근하도록 제공하는 것이다. 상황인식은 자동태킹(Auto-Tagging) 기술과 생체인식 기술인 얼굴인식을 이용해, 태그(Tag) 단위의 정보를 자동으로 생성하고 분류되어 상황정보 DB을 구축한다. 상황정보 DB에는 지리정보, 위치정보, 날씨정보, 감정정보 등을 포함하고 있다. 본 논문에서는 감정정보를 자동으로 기록하기 위해서 능동형태 모델 방법을 사용해 무표정과 웃는표정을 인식하는 어플리케이션을 개발하였다.

표정 인식을 위한 얼굴의 표정 특징 추출 (Facial Expression Feature Extraction for Expression Recognition)

  • 김영일;김정훈;홍석근;조석제
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.537-540
    • /
    • 2005
  • 본 논문에서는 사람의 감정, 건강상태, 정신상태등 다양한 정보를 포함하고 있는 웃음, 슬픔, 졸림, 놀람, 윙크, 무표정 등의 표정을 인식하기 위한 표정의 특징이 되는 얼굴의 국부적 요소인 눈과 입을 검출하여 표정의 특징을 추출한다. 표정 특징의 추출을 위한 전체적인 알고리즘 과정으로는 입력영상으로부터 칼라 정보를 이용하여 얼굴 영역을 검출하여 얼굴에서 특징점의 위치 정보를 이용하여 국부적 요소인 특징점 눈과 입을 추출한다. 이러한 특징점 추출 과정에서는 에지, 이진화, 모폴로지, 레이블링 등의 전처리 알고리즘을 적용한다. 레이블 영역의 크기를 이용하여 얼굴에서 눈, 눈썹, 코, 입 등의 1차 특징점을 추출하고 누적 히스토그램 값과 구조적인 위치 관계를 이용하여 2차 특징점 추출 과정을 거쳐 정확한 눈과 입을 추출한다. 표정 변화에 대한 표정의 특징을 정량적으로 측정하기 위해 추출된 특징점 눈과 입의 눈과 입의 크기와 면적, 미간 사이의 거리 그리고 눈에서 입까지의 거리 등 기하학적 정보를 이용하여 6가지 표정에 대한 표정의 특징을 추출한다.

  • PDF