• 제목/요약/키워드: 얼굴감정인식

검색결과 130건 처리시간 0.031초

시각장애인을 위한 온각 기반 감정 전달 시스템 (Thermal Display-Based Emotional Communication System for Blindness)

  • 노효주;김강태;이성길
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1659-1660
    • /
    • 2013
  • 사람 간 의사소통에서 표정, 몸짓과 같은 비언어적 시각 요소들은 감정 표현의 중요한 요소이나, 시각장애인들은 이러한 감정 정보들을 받아들이는데 제한적이다. 본 논문은 시각장애인에게 이러한 비언어적 시각 요소 기반의 감정 정보를 인식하여 온각으로 전달하기 위한 방법론을 제안한다. 상대방의 표정은 안경 착용형 카메라로 인식되어 감정으로 분류된다. 인식된 표정이 웃는 얼굴과 같이 호감인 경우, 이 상태는 온각으로 변환되어 안경에 착용된 온도전달 장치에서 시각장애인에게 호감을 전달한다. 이러한 온각기반 감정전달 장치는 시각장애인의 의사소통 향상을 위한 장치의 개발에 응용될 수 있다.

얼굴 특징점의 지각적 위계구조에 기초한 표정인식 신경망 모형 (A neural network model for recognizing facial expressions based on perceptual hierarchy of facial feature points)

  • 반세범;정찬섭
    • 인지과학
    • /
    • 제12권1_2호
    • /
    • pp.77-89
    • /
    • 2001
  • 얼굴 특징점의 지각적 위계구조를 반영한 표정인식 신경망 모형을 설계하였다. 입력자료는 MPEG-4 SNHC(Synthetic/Natural Hybrid Coding)의 얼굴 정의 파라미터(FDP) 중 39개 특징점 각각에 대해 150장의 표정연기 사진을 5개의 크기와 8개의 바위를 갖는 Gabor 필터로분석한 값이었다. 표정영상에 대한 감정상태 평정 값과 39개 특징점의 필터 반응 값을 중가 회귀분석한 결과, 감정상태의 쾌-불쾌 차원은 주로 입과 눈썹 주변의 특징점과 밀접한 과련이 있었고, 각성-수면차원은 주로 눈 주변의 특징점과 밀접한 관련이 있었다. 필터의 크기는 주로 저역 공간 주파수 필터와 감정상태가 관련이 있었고, 필터의 방위는 주로 비스듬한 사선방위와 감정상태가 관련이 있었다. 이를 기초로 표정인식 신경망을 최적화한 결과 원래 1560개(39x5x8) 입력요소를 400개(25x2x8)입력요소로 줄일 수 있었다. 표정인식 신경망의 최적화 결과를 사람의 감정상태 평정과 비교하여 볼 때, 쾌-불쾌 차원에서는 0.886의 상관관계가 있었고, 각성-수면 차원에서는 0.631의 상관관계가 있었다. 표정인식 신경망의 최적화 모형을 기쁨, 슬픔, 놀람, 공포, 분노, 혐오 등의 6가지 기본 정서 범주에 대응한 결과 74%의 인식률을 얻었다. 이러한 결과는 사람의 표정인식 원리를 이용하면 작은 양의 정보로도 최적화된 표정인식 시스템을 구현할수 있다는 점을 시시한다.

  • PDF

딥러닝 기반의 얼굴인증 시스템 설계 및 구현 (Design and Implementation of a Face Authentication System)

  • 이승익
    • 한국소프트웨어감정평가학회 논문지
    • /
    • 제16권2호
    • /
    • pp.63-68
    • /
    • 2020
  • 본 논문에서는 딥러닝 프레임워크 기반의 얼굴인증 시스템에 대하여 제안한다. 제안 시스템은 딥러닝 알고리즘을 활용하여 얼굴영역 검출과 얼굴 특징 추출을 수행하고, 결합베이시안 학습 모델을 이용하여 얼굴인증을 수행한다. 제안 얼굴인증 알고리즘에 대한 성능 평가는 다양한 얼굴 사진들로 구성된 데이터베이스를 이용하여 수행하였으며, 한 명에 대한 얼굴 영상은 2장으로 구성하였다. 또한 얼굴인증 실험은 딥 뉴럴 네트워크를 통한 2048차원의 특징과 그 유사성을 측정하기 위해 결합베이시안 알고리즘을 적용하였으며, 얼굴인증에 실패한 동일오율을 계산함으로써 성능평가를 수행하였다. 실험 결과, 딥러닝 특징과 결합베이시안 알고리즘을 사용한 제안 방법은 1.2%의 동일오율을 보였다.

감정 자세 인식을 위한 자세특징과 감정예측 모델 (Posture features and emotion predictive models for affective postures recognition)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.83-94
    • /
    • 2011
  • 감정 컴퓨팅의 대표적 연구 주제는 기계가 사람의 감정을 인식하여 이에 적절히 대응하는 것이다. 감정 인식 연구에서는 얼굴과 목소리 단서를 이용하여 감정을 포착하는데 집중했으며 최근에 와서 행동자세를 주요 수단으로 이용하고 있다. 본 연구의 목적은 감정 표현에서 중요한 역할을 담당하는 자세 특징을 포착하고 확인하여 감정을 판별하는 것이다. 이를 위해 먼저 자세포착시스템으로 다양한 감정 자세를 수집하여 감정별 특징을 공간적 특징으로 설명한다. 그리고 동작을 취하는 행위자가 의도하는 감정과 관찰자가 인지하는 감정 간에 통계적으로 의미 있는 상관관계가 있음을 표준통계기술을 통해 확인한다. 6가지 주요 감정을 판별하기 위해 판별 분석법을 이용하여 감정 자세 예측 모델을 구축하고 자세 특징을 측정한다. 제안 특징과 모델의 평가는 행위자-관찰자 감정 자세 집단의 상관관계를 이용하여 수행한다. 정량적 실험 결과는 제안된 자세 특징으로 감정을 잘 판별하며 감정 예측 모델이 잘 수행됨을 보여준다.

심리로봇적용을 위한 얼굴 영역 처리 속도 향상 및 강인한 얼굴 검출 방법 (Improving the Processing Speed and Robustness of Face Detection for a Psychological Robot Application)

  • 류정탁;양진모;최영숙;박세현
    • 한국산업정보학회논문지
    • /
    • 제20권2호
    • /
    • pp.57-63
    • /
    • 2015
  • 얼굴 표정인식 기술은 다른 감정인식기술에 비해 비접촉성, 비강제성, 편리성의 특징을 가지고 있다. 비전 기술을 심리로봇에 적용하기 위해서는 표정인식을 하기 전 단계에서 얼굴 영역을 정확하고 빠르게 추출할 수 있어야 한다. 본 논문에서는 성능이 향상된 얼굴영역 검출을 위해서 먼저 영상에서 YCbCr 피부색 색상 정보를 이용하여 배경을 제거하고 상태 기반 방법인 Haar-like Feature 방법을 이용하였다. 입력영상에 대하여 배경을 제거함으로써 처리속도가 향상된, 배경에 강건한 얼굴검출 결과를 얻을 수 있었다.

딥러닝기반 감정인식에서 데이터 불균형이 미치는 영향 분석 (Effect Analysis of Data Imbalance for Emotion Recognition Based on Deep Learning)

  • 노하진;임유진
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권8호
    • /
    • pp.235-242
    • /
    • 2023
  • 최근 들어 영유아를 대상으로 한 비대면 상담이 증가함에 따라 감정인식 보조 도구로 CNN기반 딥러닝 모델을 많이 사용하고 있다. 하지만 대부분의 감정인식 모델은 성인 데이터 위주로 학습되어 있어 영유아 및 청소년을 대상으로 적용하기에는 성능상의 제약이 있다. 본 논문에서는 이러한 성능제약의 원인을 분석하기 위하여 XAI 기법 중 하나인 LIME 기법을 통해 성인 대비 영유아와 청소년의 감정인식을 위한 얼굴 표정의 특징을 분석한다. 뿐만 아니라 남녀 집단에도 동일한 실험을 수행함으로써 성별 간 얼굴 표정의 특징을 분석한다. 그 결과로 연령대별 실험 결과와 성별별 실험 결과를 CNN 모델의 사전 훈련 데이터셋의 데이터 분포를 바탕으로 설명하고 균형 있는 학습 데이터의 중요성을 강조한다.

효과적인 얼굴 표정 인식을 위한 퍼지 웨이브렛 LDA융합 모델 연구 (A Study on Fuzzy Wavelet LDA Mixed Model for an effective Face Expression Recognition)

  • 노종흔;백영현;문성룡
    • 한국지능시스템학회논문지
    • /
    • 제16권6호
    • /
    • pp.759-765
    • /
    • 2006
  • 본 논문에서는 퍼지 소속 함수와 웨이브렛 기저를 이용한 효과적인 얼굴 표정 인식 LDA 융합모델을 제안하였다. 제안된 알고리즘은 최적의 영상을 얻기 위해 퍼지 웨이브렛 알고리즘을 수행하고, 표정 검출은 얼굴 특징 추출단계와 얼굴표절인식 단계로 구성된다. 본 논문에서 얼굴 표정이 담긴 영상을 PCA를 적용하여 고차원에서 저차원의 공간으로 변환 후, LDA 특성을 이용하여 클래스 별호 특징벡터를 분류한다. LDA 융합 모델은 얼굴 표정인식단계는 제안된 LDA융합모델의 특징 벡터에 NNPC를 적응함으로서 얼굴 표정을 인식한다. 제안된 알고리즘은 6가지 기본 감정(기쁨, 화남, 놀람, 공포, 슬픔, 혐오)으로 구성된 데이터베이스를 이용해 실험한 결과, 기존알고리즘에 비해 향상된 인식률과 특정 표정에 관계없이 고른 인식률을 보임을 확인하였다.

AI면접 대상자에 대한 다면적 평가방법론 -얼굴인식, 음성분석, 자연어처리 영역의 융합 (Multifaceted Evaluation Methodology for AI Interview Candidates - Integration of Facial Recognition, Voice Analysis, and Natural Language Processing)

  • 지현욱;이상진;문성민;이재열;이동은;임규상
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.55-58
    • /
    • 2024
  • 최근 각 기업의 AI 면접시스템 도입이 증가하고 있으며, AI 면접에 대한 실효성 논란 또한 많은 상황이다. 본 논문에서는 AI 면접 과정에서 지원자를 평가하는 방식을 시각, 음성, 자연어처리 3영역에서 구현함으로써, 면접 지원자를 다방면으로 분석 방법론의 적절성에 대해 평가하고자 한다. 첫째, 시각적 측면에서, 면접 지원자의 감정을 인식하기 위해, 합성곱 신경망(CNN) 기법을 활용해, 지원자 얼굴에서 6가지 감정을 인식했으며, 지원자가 카메라를 응시하고 있는지를 시계열로 도출하였다. 이를 통해 지원자가 면접에 임하는 태도와 특히 얼굴에서 드러나는 감정을 분석하는 데 주력했다. 둘째, 시각적 효과만으로 면접자의 태도를 파악하는 데 한계가 있기 때문에, 지원자 음성을 주파수로 환산해 특성을 추출하고, Bidirectional LSTM을 활용해 훈련해 지원자 음성에 따른 6가지 감정을 추출했다. 셋째, 지원자의 발언 내용과 관련해 맥락적 의미를 파악해 지원자의 상태를 파악하기 위해, 음성을 STT(Speech-to-Text) 기법을 이용하여 텍스트로 변환하고, 사용 단어의 빈도를 분석하여 지원자의 언어 습관을 파악했다. 이와 함께, 지원자의 발언 내용에 대한 감정 분석을 위해 KoBERT 모델을 적용했으며, 지원자의 성격, 태도, 직무에 대한 이해도를 파악하기 위해 객관적인 평가지표를 제작하여 적용했다. 논문의 분석 결과 AI 면접의 다면적 평가시스템의 적절성과 관련해, 시각화 부분에서는 상당 부분 정확도가 객관적으로 입증되었다고 판단된다. 음성에서 감정분석 분야는 면접자가 제한된 시간에 모든 유형의 감정을 드러내지 않고, 또 유사한 톤의 말이 진행되다 보니 특정 감정을 나타내는 주파수가 다소 집중되는 현상이 나타났다. 마지막으로 자연어처리 영역은 면접자의 발언에서 나오는 말투, 특정 단어의 빈도수를 넘어, 전체적인 맥락과 느낌을 이해할 수 있는 자연어처리 분석모델의 필요성이 더욱 커졌음을 판단했다.

  • PDF

IPTV 및 스마트폰을 위한 감성 메신저의 개발 (Development of an Emotional Messenger for IPTV and Smart Phone)

  • 성민영;남궁찬;백선욱;안성혜
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.1533-1535
    • /
    • 2010
  • 사용자의 감정을 자동으로 인식하고 3D 캐릭터 애니메이션을 통해 표현한다면 기기를 통한 통신에 더 풍부한 감성을 부여하여 의사 소통의 효과를 높일 수 있다. 본 논문에서는 IPTV와 스마트폰 기기에서 구동되는 감성 메신저의 개발에 대해 기술한다. 이를 위해 문장 및 음색 분석을 통한 감정 인식, 영상 속의 얼굴 표정 추적, 그리고 개인화된 3D 캐릭터의 표정 및 몸동작 애니메이션을 통해 감정을 전달하는 감성 메신저를 제안하고 그 효과를 서술한다. Naive Bayes 알고리즘을 이용한 채팅 문장에서의 자동 감성 인식이 개발되었으며 실험을 통해 성능 및 효과를 검증한다.

Advanced AAM 기반 정서특징 검출 기법 개발 (Development of Emotional Feature Extraction Method based on Advanced AAM)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.834-839
    • /
    • 2009
  • 지능로봇시스템과 같은 HCI 환경에서 사람의 감정을 인식하기 위한 매개정보인 얼굴영상 기반 정서특징 검출문제는 관련분야의 매우 중요한 이슈이다. 본 논문에서는 보편화된 시스템 기반에서 임의의 사용자에 대한 정서 인식을 수행하기 위해 사람의 얼굴에서 나타나는 최적의 정서특징을 가장 효율적으로 추출하기 위한 연구로서 본 연구실에서 기존에 제안한 FACS와 AAM을 이용한 Bayesian Network 기반 얼굴표정 인식 시스템을 보완한 Advanced AAM을 기반 얼굴영상 정서 특징을 검출 시스템에 대한 연구를 진행하였다. 이를 수행하기 위하여 정규화된 이미지에서의 Statistical Shape Analysis로서 Advanced AAM과 얼굴 표정 분석 시스템인 FACS를 이용하여, 임의의 사용자에 대한 자동적인 정서특징 검출이 가능하도록 연구를 진행하였다.