• 제목/요약/키워드: 얼굴감정인식

검색결과 130건 처리시간 0.026초

뇌전도 신호를 이용한 실시간 감정변화 인식 기법 (Real-Time Emotional Change Recognition Technique using EEG signal)

  • 최동윤;이상혁;송병철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.131-133
    • /
    • 2019
  • 감정인식 기술은 인간과 인공지능이 감정적인 상호작용을 위하여 매우 중요한 기술이다. 얼굴영상 기반의 감정인식 연구는 가장 널리 진행되어 왔으나 우리는 표정에서 드러나지 않는 내면의 감정을 인식하기 위하여 뇌전도를 이용한 감정인식 기법을 제안한다. 먼저 2 초 구간의 뇌전도 신호에 대하여 time, frequency, time-frequency 영역에서 특징점을 추출하고 이를 3 개의 fully connected layer 로 구성되어 있는 regressor 를 이용하여 valence 정보를 추정한다. MAHNOB-HCI 데이터세트에 대한 실험결과에서 제안기법은 종래기법보다 낮은 오차를 보이며 감정의 변화를 실시간으로 인식하는 결과를 보인다.

  • PDF

엔터테인먼트 로봇을 위한 음성으로부터 감정 인식 및 표현 모듈 개발 (Development of Emotion Recognition and Expression module with Speech Signal for Entertainment Robot)

  • 문병현;양현창;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.82-85
    • /
    • 2007
  • 현재 가정을 비롯한 여러 분야에서 서비스 로봇(청소 로봇, 애완용 로봇, 멀티미디어 로봇 둥)의 사용이 증가하고 있는 시장상황을 보이고 있다. 개인용 서비스 로봇은 인간 친화적 특성을 가져야 그 선호도가 높아질 수 있는데 이를 위해서 사용자의 감정 인식 및 표현 기술은 필수적인 요소이다. 사람들의 감정 인식을 위해 많은 연구자들은 음성, 사람의 얼굴 표정, 생체신호, 제스쳐를 통해서 사람들의 감정 인식을 하고 있다. 특히, 음성을 인식하고 적용하는 것에 관한 연구가 활발히 진행되고 있다. 본 논문은 감정 인식 시스템을 두 가지 방법으로 제안하였다. 현재 많이 개발 되어지고 있는 음성인식 모듈을 사용하여 단어별 감정을 분류하여 감정 표현 시스템에 적용하는 것과 마이크로폰을 통해 습득된 음성신호로부터 특정들을 검출하여 Bayesian Learning(BL)을 적용시켜 normal, happy, sad, surprise, anger 등 5가지의 감정 상태로 패턴 분류를 한 후 이것을 동적 감정 표현 알고리즘의 입력값으로 하여 dynamic emotion space에 사람의 감정을 표현할 수 있는 ARM 플랫폼 기반의 음성 인식 및 감정 표현 시스템 제안한 것이다.

  • PDF

PCA을 이용한 얼굴표정의 감정인식 방법 (Emotion Recognition Method of Facial Image using PCA)

  • 김호덕;양현창;박창현;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.11-14
    • /
    • 2006
  • 얼굴 표정인식에 관한 연구에서 인식 대상은 대부분 얼굴의 정면 정지 화상을 가지고 연구를 한다. 얼굴 표정인식에 큰 영향을 미치는 대표적인 부위는 눈과 입이다. 그래서 표정 인식 연구자들은 얼굴 표정인식 연구에 있어서 눈, 눈썹, 입을 중심으로 표정 인식이나 표현 연구를 해왔다. 그러나 일상생활에서 카메라 앞에 서는 대부분의 사람들은 눈동자의 빠른 변화의 인지가 어렵고, 많은 사람들이 안경을 쓰고 있다. 그래서 본 연구에서는 눈이 가려진 경우의 표정 인식을 Principal Component Analysis (PCA)를 이용하여 시도하였다.

  • PDF

청각장애인용 방송에서 화자 식별을 위한 얼굴 인식 알고리즘 및 전처리 연구 (Face Recognition and Preprocessing Technique for Speaker Identification in hard of hearing broadcasting)

  • 김나연;조숙희;배병준;안충현
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.450-452
    • /
    • 2020
  • 본 논문에서는 딥러닝 기반 얼굴 인식 알고리즘에 대해 살펴보고, 이를 청각장애인용 방송에서 화자를 식별하고 감정 표현 자막을 표출하기 위한 배우 얼굴 인식 기술에 적용하고자 한다. 우선, 배우 얼굴 인식을 위한 방안으로 원샷 학습 기반의 딥러닝 얼굴 인식 알고리즘인 ResNet-50 기반 VGGFace2 모델의 구성에 대해 이해하고, 이러한 모델을 기반으로 다양한 전처리 방식을 적용하여 정확도를 측정함으로써 실제 청각장애인용 방송에서 배우 얼굴을 인식하기 위한 방안에 대해 모색한다.

  • PDF

향상된 얼굴 인식 기술을 이용한 퍼지 모델 기반의 감성인식 (Fuzzy-Model-based Emotion Recognition Using Advanced Face Detection)

  • 유태일;김광배;주영훈
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년도 제37회 하계학술대회 논문집 D
    • /
    • pp.2083-2084
    • /
    • 2006
  • 본 논문에서는 조명에 변화에 강인하고 기존의 퍼지 색상 필터보다 정확하고 빠른 얼굴 감지 알고리즘 이용하여 얼굴을 인식하고 얼굴로부터 특징점(눈, 눈썹, 입)틀을 추출하고 추출된 특징점을 이용하여 감성을 판별하는 방법을 제안한다. 향상된 얼굴 인식 기술이란 퍼지 색상 필터의 단점이 영상의 크기와 성능에 따라 처리속도가 느려지는 것을 보완하기 위하여 최소한의 규칙을 사용하여 얼굴 후보 영역을 선별 적용하여 얼굴영역을 추출하는 기법을 말한다. 이렇게 추출된 얼굴영역에서 감정이 변화 할 때 가장 두드러지게 변화를 나타내는 눈, 눈썹 그리고 입의 특징점을 이용하여 감성을 분류한다.

  • PDF

실시간 동영상 스트리밍 환경에서 오디오 및 영상기반 감정인식 프레임워크 (Audio and Image based Emotion Recognition Framework on Real-time Video Streaming)

  • 방재훈;임호준;이승룡
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.1108-1111
    • /
    • 2017
  • 최근 감정인식 기술은 다양한 IoT 센서 디바이스의 등장으로 단일 소스기반의 감정인식 기술 연구에서 멀티모달 센서기반 감정인식 연구로 변화하고 있으며, 특히 오디오와 영상을 이용한 감정인식 기술의 연구가 활발하게 진행되는 있다. 기존의 오디오 및 영상기반 감정신 연구는 두 개의 센서 테이터를 동시에 입력 저장한 오픈 데이터베이스를 활용하여 다른 이벤트 처리 없이 각각의 데이터에서 특징을 추출하고 하나의 분류기를 통해 감정을 인식한다. 이러한 기법은 사람이 말하지 않는 구간, 얼굴이 보이지 않는 구간의 이벤트 정보처리에 대한 대처가 떨어지고 두 개의 정보를 종합하여 하나의 감정도 도출하는 디시전 레벨의 퓨저닝 연구가 부족하다. 본 논문에서는 이러한 문제를 해결하기 위해 오디오 및 영상에 내포되어 있는 이벤트 정보를 추출하고 오디오 및 영상 기반의 분리된 인지모듈을 통해 감정들을 인식하며, 도출된 감정들을 시간단위로 통합하여 디시전 퓨전하는 실시간 오디오 및 영상기반의 감정인식 프레임워크를 제안한다.

LDA 융합모델과 최소거리패턴분류법을 이용한 얼굴 표정 인식 연구 (A Study on Face Expression Recognition using LDA Mixture Model and Nearest Neighbor Pattern Classification)

  • 노종흔;백영현;문성룡;강영진
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.167-170
    • /
    • 2006
  • 본 논문은 선형분류기인 LDA 융합모델과 최소거리패턴분류법을 이용한 얼굴표정인식 알고리즘 연구에 관한 것이다. 제안된 알고리즘은 얼굴 표정을 인식하기 위해 두 단계의 특징 추출과정과 인식단계를 거치게 된다. 먼저 특징추출 단계에서는 얼굴 표정이 담긴 영상을 PCA를 이용해 고차원에서 저차원의 공간으로 변환한 후, LDA 이용해 특징벡터를 클래스 별로 나누어 분류한다. 다음 단계로 LDA융합모델을 통해 계산된 특징벡터에 최소거리패턴분류법을 적용함으로서 얼굴 표정을 인식한다. 제안된 알고리즘은 6가지 기본 감정(기쁨, 화남, 놀람, 공포, 슬픔, 혐오)으로 구성된 데이터베이스를 이용해 실험한 결과, 기존알고리즘에 비해 향상된 인식률과 특정 표정에 관계없이 고른 인식률을 보임을 확인하였다.

  • PDF

퍼지 소속도를 갖는 Fisherface 방법을 이용한 얼굴인식 (Face Recognition using Fisherface Method with Fuzzy Membership Degree)

  • 곽근창;고현주;전명근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.784-791
    • /
    • 2004
  • 본 논문에서는 퍼지논리에 기초한 Fisherface 얼굴인식 방법의 확장을 다룬다. Fisherface 얼굴인식 방법은 주성분 분석 기법만을 이용하는 경우에 비해 조명의 방향, 얼굴의 포즈, 감정과 같은 변동에 대해 민감하지 않은 장점을 가지고 있다. 그러나, Fisherface 방법을 포함한 얼굴인식의 다양한 방법들은 입력 벡터가 한 클래스에 할당되어질 때 그 클래스에서 소속의 정도를 0 또는 1로서 나타낸다. 따라서 이러한 방법들은 얼굴영상들이 조명이나 보는 각도로 인해 변형이 생기는 경우에 인식률이 저하되는 문제가 있다. 본 논문에서는 PCA에 의해 변환된 특징벡터에 퍼지 소속도를 할당하는 것으로, 퍼지 소속도는 퍼지 kNN(k-Nearest Neighbor)으로부터 얻어진다. 실험 결과 ORL, Yale 얼굴 데이타베이스에서 기존의 인식방법 보다 향상된 인식 성능을 보임을 알 수 있었다.

Haar Cascade와 DNN 기반의 실시간 얼굴 표정 및 음성 감정 분석기 구현 (Implementation of Real Time Facial Expression and Speech Emotion Analyzer based on Haar Cascade and DNN)

  • 유찬영;서덕규;정유철
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제63차 동계학술대회논문집 29권1호
    • /
    • pp.33-36
    • /
    • 2021
  • 본 논문에서는 인간의 표정과 목소리를 기반으로 한 감정 분석기를 제안한다. 제안하는 분석기들은 수많은 인간의 표정 중 뚜렷한 특징을 가진 표정 7가지를 별도의 클래스로 구성하며, DNN 모델을 수정하여 사용하였다. 또한, 음성 데이터는 학습 데이터 증식을 위한 Data Augmentation을 하였으며, 학습 도중 과적합을 방지하기 위해 콜백 함수를 사용하여 가장 최적의 성능에 도달했을 때, Early-stop 되도록 설정했다. 제안하는 표정 감정 분석 모델의 학습 결과는 val loss값이 0.94, val accuracy 값은 0.66이고, 음성 감정 분석 모델의 학습 결과는 val loss 결과값이 0.89, val accuracy 값은 0.65로, OpenCV 라이브러리를 사용한 모델 테스트는 안정적인 결과를 도출하였다.

  • PDF

사용자 행동 자세를 이용한 시각계 기반의 감정 인식 연구 (A Study on Visual Perception based Emotion Recognition using Body-Activity Posture)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제18B권5호
    • /
    • pp.305-314
    • /
    • 2011
  • 사람의 의도를 인지하기 위해 감정을 시각적으로 인식하는 연구는 전통적으로 감정을 드러내는 얼굴 표정을 인식하는 데 집중해 왔다. 최근에는 감정을 드러내는 신체 언어 즉 신체 행동과 자세를 통해 감정을 나타내는 방법에서 감정 인식의 새로운 가능성을 찾고 있다. 본 연구는 신경생리학의 시각계 처리 방법을 적용한 신경모델을 구축하여 행동에서 기본 감정 의도를 인식하는 방법을 제안한다. 이를 위해 시각 피질의 정보 처리 모델에 따라 생물학적 체계의 신경모델 검출기를 구축하여 신체 행동의 정적 자세에서 6가지 주요 기본 감정을 판별한다. 파라미터 변화에 강건한 제안 모델의 성능은 신체행동 자세 집합을 대상으로 사람 관측자와의 평가 결과를 비교 평가하여 가능성을 제시한다.